Oobabooga Text Gen
Веб-интерфейс и API для генерации текста — загружайте любые модели с HuggingFace.
LLM-инференс
Linux
от 8 ГБ VRAM
Для кого
Энтузиасты и исследователи, которым нужен гибкий интерфейс для экспериментов с различными LLM и бэкендами загрузки.
Что внутри
- Oobabooga text-generation-webui — веб-интерфейс с чатом, ноутбуком и playground-режимами
- Поддержка множества бэкендов: transformers, GPTQ, AWQ, ExLlamaV2, llama.cpp
- API-эндпоинт для интеграции
Как начать
- Запустите инстанс с этим шаблоном
- Откройте UI на порту 7860
- Загрузите модель через интерфейс или скачайте вручную
Рекомендации по GPU
- 8–12 ГБ VRAM — квантизованные модели 7B
- 24 ГБ VRAM — модели до 34B
- 40+ ГБ VRAM — 70B модели
Предустановленное ПО
Ubuntu 22.04
CUDA 12.x
text-generation-webui
Python 3.11
Готовы запустить Oobabooga Text Gen?
Запустить GPU-сервер