AUTOMATIC1111 Stable Diffusion WebUI на GPU-сервере

Задача страницы. Провести от установки до первой генерации изображений через AUTOMATIC1111 (A1111) на облачном GPU-сервере — без локальной машины.

Что такое AUTOMATIC1111

AUTOMATIC1111 (stable-diffusion-webui) — наиболее распространённый веб-интерфейс для Stable Diffusion. Предоставляет браузерный UI с поддержкой txt2img, img2img, inpainting, extras (upscaling, face restoration) и обширной экосистемой расширений.

Ключевые возможности:

  • txt2img / img2img — генерация из текста и редактирование существующих изображений.
  • Inpainting — дорисовка выбранных областей с сохранением контекста.
  • Hires. fix — генерация в высоком разрешении без деградации качества.
  • Расширения — ControlNet, ADetailer, LoRA, тысячи плагинов через встроенный менеджер.
  • Поддержка моделей: SD 1.5, SDXL, SD3.5, Flux через checkpoint-файлы.

A1111 — лучший выбор, если нужен классический удобный интерфейс и максимальная совместимость с расширениями. Для более гибких node-based воркфлоу — ComfyUI.

Установка на сервер (без Docker)

Прямая установка на Ubuntu 22.04+ с CUDA:

# Зависимости
sudo apt update && sudo apt install -y python3 python3-venv git

# Клонирование репозитория
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui
cd stable-diffusion-webui

# Первый запуск — автоматически скачает зависимости (~5–10 минут)
./webui.sh --listen --port 7860

При первом запуске A1111 создаёт виртуальное окружение Python и скачивает все зависимости автоматически.

Полезные флаги запуска:

  • --listen — открыть доступ снаружи localhost (обязательно для облачного сервера).
  • --port 7860 — порт интерфейса.
  • --xformers — оптимизация памяти через xFormers (рекомендуется для SDXL и большинства GPU).
  • --medvram — режим экономии VRAM (~6 GB вместо 10 GB для SDXL), снижает скорость.
  • --lowvram — агрессивная экономия памяти для GPU с 4–6 GB VRAM.
  • --api — включить REST API (нужно для интеграции с внешними скриптами).

Для автозапуска создайте systemd-юнит или используйте screen/tmux:

screen -S a1111
./webui.sh --listen --port 7860 --xformers
# Ctrl+A, D — выход из screen без остановки

Установка через Docker

docker run -d \
  --gpus all \
  -p 7860:7860 \
  -v ~/sd-models:/data/StableDiffusion \
  -v ~/sd-outputs:/output \
  universonic/stable-diffusion-webui:latest

Volumes:

  • ~/sd-models — директория с checkpoint-файлами (.safetensors / .ckpt).
  • ~/sd-outputs — сгенерированные изображения.

docker-compose.yml:

services:
  automatic1111:
    image: universonic/stable-diffusion-webui:latest
    runtime: nvidia
    environment:
      - NVIDIA_VISIBLE_DEVICES=all
    volumes:
      - ./models:/data/StableDiffusion
      - ./outputs:/output
      - ./extensions:/data/config/auto/extensions
    ports:
      - "7860:7860"
    restart: unless-stopped

Первый запуск — что сделать

После запуска интерфейс откроется по адресу http://server-ip:7860.

Шаги для начала работы:

  1. Скачать базовую модель. SD 1.5: huggingface.co/runwayml/stable-diffusion-v1-5. SDXL: huggingface.co/stabilityai/stable-diffusion-xl-base-1.0.
  2. Положить в models/Stable-diffusion/ (относительно папки webui).
  3. Обновить список моделей — кнопка 🔄 рядом с выпадающим списком Checkpoint.
  4. Выбрать модель и ввести промпт.

Дополнительные модели и LoRA удобно искать на civitai.com.

Stable Diffusion Forge — стоит ли переходить

Forge — форк AUTOMATIC1111 с переработанным управлением памятью (UNet Patcher). На практике это означает:

  • Меньший расход VRAM: SDXL на GPU с 8 GB VRAM работает там, где A1111 падает с OOM.
  • Выше скорость на большинстве GPU (~20–30% на SDXL).
  • Совместимость: те же расширения, те же checkpoint-файлы, идентичный интерфейс.

Установка аналогична A1111:

git clone https://github.com/lllyasviel/stable-diffusion-webui-forge
cd stable-diffusion-webui-forge
./webui.sh --listen --port 7860

Если у вас GPU с 8–12 GB VRAM и нужен SDXL или SD3 — начинайте сразу с Forge.

Расширения

Расширение Назначение Репозиторий
ControlNet Управление позой, глубиной, контуром Mikubill/sd-webui-controlnet
ADetailer Автоматическое улучшение лиц и рук Bing-su/adetailer
Ultimate SD Upscale Тайловый апскейл без OOM Coyote-A/ultimate-upscale-for-automatic1111
Civitai Helper Скачивание моделей с Civitai прямо из UI butaixianran/Stable-Diffusion-Webui-Civitai-Helper
Regional Prompter Разные промпты для разных областей кадра hako-mikan/sd-webui-regional-prompter
sd-webui-infinite-image-browsing Галерея с фильтрами и поиском zanllp/sd-webui-infinite-image-browsing

Расширения устанавливаются через вкладку Extensions → Install from URL или через встроенный каталог Available.

VRAM и выбор GPU

GPU VRAM Что генерирует Примечание
RTX 3060 12 GB SD 1.5, SDXL (с --medvram) Бюджетный вариант для SD 1.5
RTX 3090 / 4090 24 GB SDXL, SD3.5, Flux.1 Оптимально для большинства задач
A100 40GB 40 GB Flux.1, пакетная генерация Производственный деплой
A100 80GB 80 GB Несколько моделей одновременно Максимальная производительность

Для SDXL минимум — 8 GB VRAM (с Forge), комфортно — 16+ GB. Для Flux.1 рекомендуется 24 GB+.

Запустить AUTOMATIC1111 на cloudcompute.ru

Разверните GPU-инстанс, клонируйте репозиторий — интерфейс доступен через браузер без дополнительной настройки.

Выбрать тариф и запустить

Навигация по разделу «Генерация изображений»

Обзор: /solutions/image-generation/

Инструменты: ComfyUI, AUTOMATIC1111

Похожие разделы: Стоимость инференса

Готовы запустить?

Запустить GPU-сервер