OpenWebUI через Podman на Ubuntu Server,
sudo apt update
sudo apt install podman
Для установки OpenWebUI через Podman на Ubuntu Server, используя предоставленные команды для Docker, вам нужно адаптировать их под Podman. Вот как это можно сделать:
### 1. Установка с использованием конфигурации по умолчанию
Если Ollama находится на вашем компьютере, используйте следующую команду:
```bash
podman run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
```
### 2. Установка для использования с Ollama на другом сервере
Чтобы подключиться к Ollama на другом сервере, измените `OLLAMA_BASE_URL` на URL сервера:
```bash
podman run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
```
### 3. Запуск с поддержкой Nvidia GPU
Чтобы запустить OpenWebUI с поддержкой Nvidia GPU, используйте следующую команду:
```bash
podman run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
```
### 4. Установка только для использования с OpenAI API
Если вы используете только OpenAI API, используйте следующую команду:
```bash
podman run -d -p 3000:8080 -e OPENAI_API_KEY=your_secret_key -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
```
### 5. Установка с поддержкой Ollama
Если вы хотите использовать OpenWebUI с встроенной поддержкой Ollama, используйте следующие команды:
- **С поддержкой GPU:**
```bash
podman run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
```
- **Только для CPU:**
```bash
podman run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
```
### 6. Использование `:dev` ветки
Если вы хотите использовать последние нестабильные функции, используйте следующую команду:
```bash
podman run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui --add-host=host.docker.internal:host-gateway --restart always ghcr.io/open-webui/open-webui:dev
```
### 7. Обновление контейнера
Если вы хотите обновить контейнер до последней версии, используйте следующую команду:
```bash
podman run --rm --volume /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --run-once open-webui
```
### 8. Проверка работы контейнера
После запуска контейнера убедитесь, что он работает правильно:
```bash
podman ps
```
Эта команда покажет список запущенных контейнеров. Убедитесь, что контейнер с OpenWebUI присутствует в списке.
### 9. Доступ к OpenWebUI
Откройте веб-браузер и перейдите по адресу `http://<ваш_сервер>:3000`, чтобы получить доступ к интерфейсу OpenWebUI.
### 10. Управление контейнером
Если вам нужно остановить или удалить контейнер, вы можете использовать следующие команды:
```bash
podman stop open-webui
podman rm open-webui
```
### 11. Автозапуск контейнера (опционально)
Если вы хотите, чтобы контейнер запускался автоматически при загрузке системы, вы можете использовать `systemd` для управления контейнером. Создайте файл юнита для `systemd`:
```bash
sudo nano /etc/systemd/system/open-webui.service
```
Добавьте следующий контент:
```ini
[Unit]
Description=OpenWebUI Container
After=network.target
[Service]
ExecStart=/usr/bin/podman start -a open-webui
ExecStop=/usr/bin/podman stop -t 2 open-webui
Restart=always
[Install]
WantedBy=multi-user.target
```
Сохраните файл и активируйте службу:
```bash
sudo systemctl daemon-reload
sudo systemctl enable open-webui
sudo systemctl start open-webui
```
Теперь контейнер будет запускаться автоматически при загрузке системы.
### Заключение
Теперь у вас должен быть запущенный контейнер с OpenWebUI, доступный через веб-браузер. Если у вас возникнут проблемы, проверьте логи контейнера с помощью команды `podman logs open-webui`, чтобы получить больше информации о возможных ошибках.