LLM Apache-2.0

Qwen 2.5 7B

7B параметров · Transformer · Контекст 128k · Alibaba · 2024

VRAM по точности

Точность VRAM Качество Рекомендация
FP16 14 ГБ Максимальное Для продакшена
FP8 7 ГБ Отличное Оптимально
INT8 7 ГБ Хорошее
INT4/Q4 4 ГБ Приемлемое Для экспериментов

Совместимые GPU

GPU VRAM Поддерживает
24 ГБ FP16, FP8, INT8, INT4 Арендовать
24 ГБ FP16, FP8, INT8, INT4 Арендовать

Рекомендуемые фреймворки

Быстрый старт

vllm
docker run --gpus all -p 8000:8000 vllm/vllm-openai:latest \
  --model Qwen2.5-7B-Instruct \
  --quantization fp8

Характеристики модели

Технические параметры

Разработчик
Alibaba
Год выпуска
2024
Параметры
7B
Архитектура
Transformer
Контекстное окно
128,000 токенов
Лицензия
Apache-2.0

Применение

Instruction following Code generation Multilingual tasks Chatbots

Qwen 2.5 7B — компактная модель Alibaba с поддержкой 29 языков и сильными coding-возможностями. Apache-2.0 лицензия, хорошо работает на потребительских GPU.