Langflow + Ollama
Визуальный конструктор AI-агентов — drag-and-drop пайплайны с локальными LLM.
AI-агенты
Linux
от 16 ГБ VRAM
Для кого
Разработчики AI-агентов и RAG-систем, которые хотят визуально проектировать пайплайны с локальными LLM.
Что внутри
- Langflow — визуальный drag-and-drop конструктор AI-пайплайнов
- Ollama — локальные LLM для инференса (по умолчанию — Qwen3-Coder:30b)
- Поддержка RAG, цепочек, агентов
Как начать
- Запустите инстанс с этим шаблоном
- Откройте Langflow на порту 7860
- Создайте flow из готовых компонентов или начните с шаблона
Рекомендации по GPU
- 16 ГБ VRAM — модели 7B–8B через Ollama
- 24 ГБ VRAM (RTX 4090) — модели до 30B, параллельные запросы
- 40+ ГБ VRAM — 70B модели
Предустановленное ПО
Ubuntu 22.04
CUDA 12.x
Langflow
Ollama
Подробное руководство: читать в разделе «Решения» →
Готовы запустить Langflow + Ollama?
Запустить GPU-сервер