DeepSeek R1 70B
70B параметров · Transformer · Контекст 128k · DeepSeek · 2025
VRAM по точности
| Точность | VRAM | Качество | Рекомендация |
|---|---|---|---|
| FP16 | 140 ГБ | Максимальное | Для продакшена |
| FP8 | 70 ГБ | Отличное | Оптимально |
| INT8 | 70 ГБ | Хорошее | |
| INT4/Q4 | 35 ГБ | Приемлемое | Для экспериментов |
Совместимые GPU
| GPU | VRAM | Поддерживает | |
|---|---|---|---|
|
Рек.
NVIDIA H100 SXM
|
80 ГБ | FP16, FP8, INT8, INT4 | Арендовать |
| 141 ГБ | FP16, FP8, INT8, INT4 | Арендовать | |
| 80 ГБ | FP16, FP8, INT8, INT4 | Арендовать |
Рекомендуемые фреймворки
Быстрый старт
docker run --gpus all -p 8000:8000 vllm/vllm-openai:latest \ --model DeepSeek-R1-Distill-Llama-70B \ --quantization fp8
Характеристики модели
Технические параметры
- Разработчик
- DeepSeek
- Год выпуска
- 2025
- Параметры
- 70B
- Архитектура
- Transformer
- Контекстное окно
- 128,000 токенов
- Лицензия
- MIT
Применение
DeepSeek R1 70B — дистилляция на базе Llama 3.3 70B: сочетает сильный общий instruct-базис Meta с привычным для линейки R1 явным рассуждением. Это один из лучших открытых компромиссов между качеством math/reasoning и реалистичным enterprise-деплоем на нескольких datacenter GPU.
Контекст 128k; в fp16 веса занимают порядка 140 ГБ VRAM, поэтому типичный сценарий — fp8 на двух H100/H200 с tensor parallel.
Запуск на cloudcompute.ru
Шаг 1 — Арендуйте GPU
Для DeepSeek R1 70B в fp8 рекомендуем минимум две карты H100 или H200 (около 70 ГБ под веса + запас под KV-cache). Перейдите в каталог GPU и арендуйте инстанс с Docker-образом.
Шаг 2 — Запустите vLLM
На нескольких GPU задайте tensor parallel (число GPU должно совпадать с --tensor-parallel-size):
docker run --gpus all -p 8000:8000 vllm/vllm-openai:latest \
--model deepseek-ai/DeepSeek-R1-Distill-Llama-70B \
--dtype auto \
--tensor-parallel-size 2 \
--max-model-len 65536
Шаг 3 — Отправьте запрос
curl http://localhost:8000/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "deepseek-ai/DeepSeek-R1-Distill-Llama-70B",
"messages": [{"role": "user", "content": "Докажи по индукции, что 1+2+…+n = n(n+1)/2. Пиши строго, шаг базы и шаг перехода отдельно."}]
}'
Оптимизация
- Увеличивайте TP (4× GPU), если нужен больший batch или длиннее контекст при том же запасе памяти.
- Следите за балансом
max_num_seqsи--max-model-len— reasoning-модели быстро заполняют память длинными генерациями. - Для продакшн-SLA ограничивайте длину «мыслей» в ответе или используйте отдельный постпроцессинг.