AUTOMATIC1111 Stable Diffusion WebUI на GPU-сервере
Задача страницы. Провести от установки до первой генерации изображений через AUTOMATIC1111 (A1111) на облачном GPU-сервере — без локальной машины.
Что такое AUTOMATIC1111
AUTOMATIC1111 (stable-diffusion-webui) — наиболее распространённый веб-интерфейс для Stable Diffusion. Предоставляет браузерный UI с поддержкой txt2img, img2img, inpainting, extras (upscaling, face restoration) и обширной экосистемой расширений.
Ключевые возможности:
- txt2img / img2img — генерация из текста и редактирование существующих изображений.
- Inpainting — дорисовка выбранных областей с сохранением контекста.
- Hires. fix — генерация в высоком разрешении без деградации качества.
- Расширения — ControlNet, ADetailer, LoRA, тысячи плагинов через встроенный менеджер.
- Поддержка моделей: SD 1.5, SDXL, SD3.5, Flux через checkpoint-файлы.
A1111 — лучший выбор, если нужен классический удобный интерфейс и максимальная совместимость с расширениями. Для более гибких node-based воркфлоу — ComfyUI.
Установка на сервер (без Docker)
Прямая установка на Ubuntu 22.04+ с CUDA:
# Зависимости
sudo apt update && sudo apt install -y python3 python3-venv git
# Клонирование репозитория
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui
cd stable-diffusion-webui
# Первый запуск — автоматически скачает зависимости (~5–10 минут)
./webui.sh --listen --port 7860
При первом запуске A1111 создаёт виртуальное окружение Python и скачивает все зависимости автоматически.
Полезные флаги запуска:
--listen— открыть доступ снаружи localhost (обязательно для облачного сервера).--port 7860— порт интерфейса.--xformers— оптимизация памяти через xFormers (рекомендуется для SDXL и большинства GPU).--medvram— режим экономии VRAM (~6 GB вместо 10 GB для SDXL), снижает скорость.--lowvram— агрессивная экономия памяти для GPU с 4–6 GB VRAM.--api— включить REST API (нужно для интеграции с внешними скриптами).
Для автозапуска создайте systemd-юнит или используйте screen/tmux:
screen -S a1111
./webui.sh --listen --port 7860 --xformers
# Ctrl+A, D — выход из screen без остановки
Установка через Docker
docker run -d \
--gpus all \
-p 7860:7860 \
-v ~/sd-models:/data/StableDiffusion \
-v ~/sd-outputs:/output \
universonic/stable-diffusion-webui:latest
Volumes:
~/sd-models— директория с checkpoint-файлами (.safetensors / .ckpt).~/sd-outputs— сгенерированные изображения.
docker-compose.yml:
services:
automatic1111:
image: universonic/stable-diffusion-webui:latest
runtime: nvidia
environment:
- NVIDIA_VISIBLE_DEVICES=all
volumes:
- ./models:/data/StableDiffusion
- ./outputs:/output
- ./extensions:/data/config/auto/extensions
ports:
- "7860:7860"
restart: unless-stopped
Первый запуск — что сделать
После запуска интерфейс откроется по адресу http://server-ip:7860.
Шаги для начала работы:
- Скачать базовую модель. SD 1.5: huggingface.co/runwayml/stable-diffusion-v1-5. SDXL: huggingface.co/stabilityai/stable-diffusion-xl-base-1.0.
- Положить в
models/Stable-diffusion/(относительно папки webui). - Обновить список моделей — кнопка 🔄 рядом с выпадающим списком Checkpoint.
- Выбрать модель и ввести промпт.
Дополнительные модели и LoRA удобно искать на civitai.com.
Stable Diffusion Forge — стоит ли переходить
Forge — форк AUTOMATIC1111 с переработанным управлением памятью (UNet Patcher). На практике это означает:
- Меньший расход VRAM: SDXL на GPU с 8 GB VRAM работает там, где A1111 падает с OOM.
- Выше скорость на большинстве GPU (~20–30% на SDXL).
- Совместимость: те же расширения, те же checkpoint-файлы, идентичный интерфейс.
Установка аналогична A1111:
git clone https://github.com/lllyasviel/stable-diffusion-webui-forge
cd stable-diffusion-webui-forge
./webui.sh --listen --port 7860
Если у вас GPU с 8–12 GB VRAM и нужен SDXL или SD3 — начинайте сразу с Forge.
Расширения
| Расширение | Назначение | Репозиторий |
|---|---|---|
| ControlNet | Управление позой, глубиной, контуром | Mikubill/sd-webui-controlnet |
| ADetailer | Автоматическое улучшение лиц и рук | Bing-su/adetailer |
| Ultimate SD Upscale | Тайловый апскейл без OOM | Coyote-A/ultimate-upscale-for-automatic1111 |
| Civitai Helper | Скачивание моделей с Civitai прямо из UI | butaixianran/Stable-Diffusion-Webui-Civitai-Helper |
| Regional Prompter | Разные промпты для разных областей кадра | hako-mikan/sd-webui-regional-prompter |
| sd-webui-infinite-image-browsing | Галерея с фильтрами и поиском | zanllp/sd-webui-infinite-image-browsing |
Расширения устанавливаются через вкладку Extensions → Install from URL или через встроенный каталог Available.
VRAM и выбор GPU
| GPU | VRAM | Что генерирует | Примечание |
|---|---|---|---|
| RTX 3060 | 12 GB | SD 1.5, SDXL (с --medvram) | Бюджетный вариант для SD 1.5 |
| RTX 3090 / 4090 | 24 GB | SDXL, SD3.5, Flux.1 | Оптимально для большинства задач |
| A100 40GB | 40 GB | Flux.1, пакетная генерация | Производственный деплой |
| A100 80GB | 80 GB | Несколько моделей одновременно | Максимальная производительность |
Для SDXL минимум — 8 GB VRAM (с Forge), комфортно — 16+ GB. Для Flux.1 рекомендуется 24 GB+.
Запустить AUTOMATIC1111 на cloudcompute.ru
Разверните GPU-инстанс, клонируйте репозиторий — интерфейс доступен через браузер без дополнительной настройки.
Навигация по разделу «Генерация изображений»
Обзор: /solutions/image-generation/
Инструменты: ComfyUI, AUTOMATIC1111
Похожие разделы: Стоимость инференса
Готовы запустить?
Запустить GPU-сервер