Наш сайт использует файлы cookie, чтобы улучшить работу сайта, повысить его эффективность и удобство
Настройки сookie
Файлы cookie, необходимые для правильной работы сайта, всегда разрешены.
Основные файлы cookie
Всегда Включено. Эти файлы cookie необходимы для использования веб-сайта и его функций. Их нельзя отключить. Они устанавливаются в ответ на ваши запросы, такие как настройка параметров конфиденциальности, вход в систему или заполнение форм.
Аналитические файлы cookie
Disabled
Эти файлы cookie нужны чтобы помочь нам понять, на сколько вам удобен наш веб-сайт и насколько эффективны наши маркетологи:) Смотрите список аналитических файлов cookie, которые мы используем.
Рекламные файлы cookie
Disabled
Эти файлы cookie предоставляют информацию рекламным компаниям с целью предоставления или ограничения персонализированной рекламы. Эта информация может быть передана другим рекламным компаниям. Смотрите список рекламных файлов cookie, которые мы используем.

Инструкция по установке информационной системы DataDesc AI

Сервер в количестве 1 (одной) штуки со следующими рекомендуемыми параметрами: vCPU — 8; RAM — 32 GB; SSD — 256 GB; OS — Ubuntu 24.04 (далее – сервер 1)

Сервер в количестве 1 (одной) штуки со следующими минимальными параметрами: vCPU — 8; RAM — 32 GB; GPU – RTX A5000; SSD — 256 GB; OS — Ubuntu 24.04 (далее – сервер 2)

Установить Docker на серверe 1.

Установить Docker-compose на сервере 1.

Распаковать содержимое архива в выбранной для установки директории на сервере 1.

Установить Ollama на сервере 2 (команда для установки: curl -fsSL https://ollama.com/install.sh | sh)

Сервер 2: В файле конфигурации сервиса Ollama (для Ubuntu /etc/systemd/system/ollama.service) в разделе [Service] добавить переменную Environment= "OLLAMA_HOST=0.0.0.0:11434"

Сервер 2: ollama pull qwen2.5-coder:14b

Сервер 2: ollama pull mistral

Сервер 2: ollama pull mistral-small3.1:24b

Сервер 2: ollama pull gpt-oss:20b

Сервер 2: ollama pull qwen3-embedding:4b

Сервер 1: docker load -i autodoc_py.tar

Сервер 1: docker load -i datadescai.tar

Сервер 1: В файле .env в переменной OLLAMA_HOST укажите ip-адрес сервера 2 и порт, используемый Ollama на сервере 2 (по умолчанию 11434).

Сервер 1: В файле config.json в строке pythonUrl укажите ip-адрес сервера 1 и порт, соответствующий переменной PY_API_PORT в файле .env (по умолчанию 8000) в формате http://ip-адрес:порт.

Сервер 1: docker compose --env-file .env up -d

Содержание

Термины и определения
Термины, использующиеся в данном документе, и их определения представлены ниже

Таблица 1 — Термины и определения
Необходимые технические ресурсы
Для того чтобы установить решение DatadescAI (далее – Система) необходимы следующие технические ресурсы:

1 Сервер в количестве 1 (одной) штуки со следующими рекомендуемыми параметрами: vCPU — 8; RAM — 32 GB; SSD — 256 GB; OS — Ubuntu 24.04 (далее – сервер 1)

2 Cервер в количестве 1 (одной) штуки со следующими минимальными параметрами: vCPU — 8; RAM — 32 GB; GPU – RTX A5000; SSD — 256 GB; OS — Ubuntu 24.04 (далее – сервер 2)
Подготовка к установке
Для подготовки к установке Системы необходимо выполнить следующие действия:
1 Установить Docker на серверe 1.
2 Установить Docker-compose на сервере 1.
3 Распаковать содержимое архива в выбранной для установки директории на сервере 1.
4 Установить Ollama на сервере 2 (команда для установки: curl -fsSL https://ollama.com/install.sh | sh)
Установка Системы
ВАЖНО: Во время настройки учитывайте все отступы и различные символы, такие как кавычки ('). Удаление отступов/символов может привести к ошибкам.
Для того чтобы установить Систему необходимо выполнить следующие действия:

1 Сервер 2: В файле конфигурации сервиса Ollama (для Ubuntu /etc/systemd/system/ollama.service) в разделе [Service] добавить переменную Environment="OLLAMA_HOST=0.0.0.0:11434"

2 Сервер 2: ollama pull qwen2.5-coder:14b

3 Сервер 2: ollama pull mistral

4 Сервер 2: ollama pull mistral-small3.1:24b

5 Сервер 2: ollama pull gpt-oss:20b

6 Сервер 2: ollama pull qwen3-embedding:4b

7 Сервер 1: docker load -i autodoc_py.tar

8 Сервер 1: docker load -i datadescai.tar

9 Сервер 1: В файле .env в переменной OLLAMA_HOST укажите ip-адрес сервера 2 и порт, используемый Ollama на сервере 2 (по умолчанию 11434).

10 Сервер 1: В файле config.json в строке pythonUrl укажите ip-адрес сервера 1 и порт, соответствующий переменной PY_API_PORT в файле .env (по умолчанию 8000) в формате http://ip-адрес:порт.

11 Сервер 1: docker compose --env-file .env up -d
Результат установки
После установки веб-интерфейс системы будет доступен через браузер по ip-адресу сервера 1 на порту 403, для подключение следует указывать протокол http (при развертывании на сервере с ip-адресом 100.100.100.100, веб-интерфейс будет доступен по URL http//100.100.100.100:403).
Учетные данные для подключения:
Логин – admin
Пароль - admin