Langflow + Ollama

Визуальный конструктор AI-агентов — drag-and-drop пайплайны с локальными LLM.

AI-агенты Linux от 16 ГБ VRAM

Для кого

Разработчики AI-агентов и RAG-систем, которые хотят визуально проектировать пайплайны с локальными LLM.

Что внутри

  • Langflow — визуальный drag-and-drop конструктор AI-пайплайнов
  • Ollama — локальные LLM для инференса (по умолчанию — Qwen3-Coder:30b)
  • Поддержка RAG, цепочек, агентов

Как начать

  1. Запустите инстанс с этим шаблоном
  2. Откройте Langflow на порту 7860
  3. Создайте flow из готовых компонентов или начните с шаблона

Рекомендации по GPU

  • 16 ГБ VRAM — модели 7B–8B через Ollama
  • 24 ГБ VRAM (RTX 4090) — модели до 30B, параллельные запросы
  • 40+ ГБ VRAM — 70B модели

Предустановленное ПО

Ubuntu 22.04 CUDA 12.x Langflow Ollama

Рекомендуемые GPU

Подробное руководство: читать в разделе «Решения» →

Готовы запустить Langflow + Ollama?

Запустить GPU-сервер