SDXL Turbo
Diffusion · Stability AI · 2023
VRAM по точности
| Точность | VRAM | Качество | Рекомендация |
|---|---|---|---|
| FP16 | 8 ГБ | Максимальное | Для продакшена |
| INT8 | 4 ГБ | Хорошее |
Совместимые GPU
| GPU | VRAM | Поддерживает | |
|---|---|---|---|
|
Рек.
NVIDIA RTX 4090
|
24 ГБ | FP16, INT8 | Арендовать |
| 24 ГБ | FP16, INT8 | Арендовать |
Рекомендуемые фреймворки
Характеристики модели
Технические параметры
- Разработчик
- Stability AI
- Год выпуска
- 2023
- Архитектура
- Diffusion
- Лицензия
- Restricted
- Разрешение
- 512x512
- Формат вывода
- PNG
Применение
SDXL Turbo — дистиллированный SDXL под сверхмало шагов сэмплинга (часто фактически один проход), опирающийся на идеи вроде Adversarial Diffusion Distillation (ADD). Главная ценность — низкая латентность и ощущение «рисования в реальном времени», а не максимальная детализация на статичном рендере. Удобна для прототипов UI, live-демо и генеративных панелей, где важна отзывчивость.
Запуск на cloudcompute.ru
Шаг 1 — Арендуйте GPU
Ориентир — от ~8 ГБ VRAM; для комфортного запаса под UI и батчи возьмите RTX 3090 или RTX 4090. Перейдите в каталог GPU.
Шаг 2 — Запустите ComfyUI
docker run --gpus all -p 8188:8188 \
-v comfyui-data:/root \
ghcr.io/ai-dock/comfyui:latest
Откройте http://localhost:8188. Загрузите веса sdxl-turbo; в workflow обычно не используют классический высокий guidance, как у обычного SDXL.
Шаг 3 — Сгенерируйте изображение
import torch
from diffusers import AutoPipelineForText2Image
pipe = AutoPipelineForText2Image.from_pretrained(
"stabilityai/sdxl-turbo",
torch_dtype=torch.float16,
variant="fp16",
)
pipe = pipe.to("cuda")
image = pipe(
"Isometric icon of a cloud server, flat colors, crisp edges",
num_inference_steps=1,
guidance_scale=0.0,
).images[0]
image.save("output.png")
Оптимизация
- Не «разгоняйте» guidance как на обычном SDXL — у turbo-дистиллятов другая динамика.
- Для интерактива уменьшайте разрешение до 512 и масштабируйте отдельным лёгким upscale, если нужна чёткость.