LLM MIT

DeepSeek R1 7B

7B параметров · Transformer · Контекст 128k · DeepSeek · 2025

VRAM по точности

Точность VRAM Качество Рекомендация
FP16 14 ГБ Максимальное Для продакшена
FP8 7 ГБ Отличное Оптимально
INT8 7 ГБ Хорошее
INT4/Q4 4 ГБ Приемлемое Для экспериментов

Совместимые GPU

GPU VRAM Поддерживает
24 ГБ FP16, FP8, INT8, INT4 Арендовать
24 ГБ FP16, FP8, INT8, INT4 Арендовать

Рекомендуемые фреймворки

Быстрый старт

vllm
docker run --gpus all -p 8000:8000 vllm/vllm-openai:latest \
  --model DeepSeek-R1-Distill-Qwen-7B \
  --quantization fp8

Характеристики модели

Технические параметры

Разработчик
DeepSeek
Год выпуска
2025
Параметры
7B
Архитектура
Transformer
Контекстное окно
128,000 токенов
Лицензия
MIT

Применение

Reasoning Math Code generation Chain-of-thought

DeepSeek R1 7B — дистиллированная reasoning-модель. Обучена на цепочках рассуждений от DeepSeek R1 671B. Достигает высоких результатов на математических и coding бенчмарках при скромных требованиях к VRAM.