Мультимодальные Apache-2.0

Qwen2-VL 7B

7B параметров · Transformer · Контекст 33k · Alibaba · 2024

VRAM по точности

Точность VRAM Качество Рекомендация
FP16 14 ГБ Максимальное Для продакшена
FP8 7 ГБ Отличное Оптимально
INT8 7 ГБ Хорошее
INT4/Q4 4 ГБ Приемлемое Для экспериментов

Совместимые GPU

GPU VRAM Поддерживает
24 ГБ FP16, FP8, INT8, INT4 Арендовать
24 ГБ FP16, FP8, INT8, INT4 Арендовать

Рекомендуемые фреймворки

Быстрый старт

vllm
docker run --gpus all -p 8000:8000 vllm/vllm-openai:latest \
  --model Qwen2-VL-7B-Instruct \
  --quantization fp8

Характеристики модели

Технические параметры

Разработчик
Alibaba
Год выпуска
2024
Параметры
7B
Архитектура
Transformer
Контекстное окно
32,768 токенов
Лицензия
Apache-2.0

Применение

Visual question answering Image captioning Document understanding Video understanding

Qwen2-VL 7B — компактная мультимодальная модель с поддержкой изображений и видео. Поддерживает произвольные разрешения и длинные видео. Одна из лучших open-source VLM в категории до 10B параметров.