LLM
Apache-2.0
Qwen 2.5 14B
14B параметров · Transformer · Контекст 128k · Alibaba · 2024
VRAM по точности
| Точность | VRAM | Качество | Рекомендация |
|---|---|---|---|
| FP16 | 28 ГБ | Максимальное | Для продакшена |
| FP8 | 14 ГБ | Отличное | Оптимально |
| INT8 | 14 ГБ | Хорошее | |
| INT4/Q4 | 7 ГБ | Приемлемое | Для экспериментов |
Совместимые GPU
| GPU | VRAM | Поддерживает | |
|---|---|---|---|
|
Рек.
NVIDIA RTX 4090
|
24 ГБ | FP16, FP8, INT8, INT4 | Арендовать |
| 80 ГБ | FP16, FP8, INT8, INT4 | Арендовать | |
| 80 ГБ | FP16, FP8, INT8, INT4 | Арендовать |
Рекомендуемые фреймворки
Быстрый старт
vllm
docker run --gpus all -p 8000:8000 vllm/vllm-openai:latest \ --model Qwen2.5-14B-Instruct \ --quantization fp8
Характеристики модели
Технические параметры
- Разработчик
- Alibaba
- Год выпуска
- 2024
- Параметры
- 14B
- Архитектура
- Transformer
- Контекстное окно
- 128,000 токенов
- Лицензия
- Apache-2.0
Применение
Instruction following
Code generation
Multilingual tasks
Text analysis
Qwen 2.5 14B Instruct — шаг качества относительно 7B без перехода в «тяжёлый» класс: заметно лучше держит сложные инструкции, длинные диалоги и многоязычные промпты, оставаясь реалистичной для одной RTX 4090 в fp8.
Контекст 128k, Apache-2.0; хороший компромисс для production, если 7B не хватает, а 32B ещё рано.
Запуск на cloudcompute.ru
Шаг 1 — Арендуйте GPU
Для Qwen 2.5 14B в fp8 оптимален RTX 4090; для fp16 смотрите также A100 или H100. Перейдите в каталог GPU и арендуйте инстанс с Docker-образом.
Шаг 2 — Запустите vLLM
docker run --gpus all -p 8000:8000 vllm/vllm-openai:latest \
--model Qwen/Qwen2.5-14B-Instruct \
--dtype auto \
--max-model-len 32768
Шаг 3 — Отправьте запрос
curl http://localhost:8000/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "Qwen/Qwen2.5-14B-Instruct",
"messages": [{"role": "user", "content": "Привет! Расскажи о себе: чем 14B отличается от 7B на практике для бизнес-ассистента?"}]
}'
Альтернативно, используйте Ollama для быстрого старта:
ollama run qwen2.5:14b
Оптимизация
- На 24 ГБ VRAM держите запас под KV-cache: при длинном контексте начните с 16k–32k и профилируйте.
- Для мультиязычных промптов следите за токенизацией — длина в токенах может быть выше, чем кажется по символам.
- Квантизация (GPTQ/AWQ) помогает при росте числа одновременных пользователей.