Конфигурации и цены
Конфигурации для этой GPU уточняйте напрямую.
Связаться с намиТехнические характеристики
- Архитектура
- Hopper
- VRAM
- 80 ГБ
- CUDA-ядра
- 16896
- FP32 TFLOPS
- 67
- FP16 TFLOPS
- 1979
- Пропускная способность памяти
- 3350 ГБ/с
- TDP
- 700 Вт
- NVLink
- Да
Подходит для
NVIDIA H100 SXM — самая производительная GPU для задач обучения и inference крупных языковых моделей. Архитектура Hopper с тензорными ядрами FP8 и пропускной способностью памяти 3,35 ТБ/с делает H100 эталоном для задач AI/ML корпоративного уровня.
Сколько моделей поместится
Приблизительная оценка: params × precision × overhead < VRAM
Llama 3.1 8B (fp16)
~16 ГБ, помещается с запасом
Llama 3.1 70B (fp16)
~168 ГБ — не помещается на одну карту, нужен H200
Llama 3.1 70B (fp8)
~84 ГБ с overhead — превышает 80 ГБ; используйте 4-bit квантизацию (~40 ГБ)
Mistral 7B (fp16)
~17 ГБ, помещается с запасом
Stable Diffusion XL
~10 ГБ
Whisper large-v3
~3 ГБ
Сравнение с похожими GPU
| Характеристика | NVIDIA H100 SXM | NVIDIA H200 SXM | NVIDIA A100 | NVIDIA RTX 4090 |
|---|---|---|---|---|
| VRAM | 80 ГБ | 141 ГБ | 80 ГБ | 24 ГБ |
| от ₽/час | — | 780.62 ₽ | — | 76.99 ₽ |
| Подходит для | Обучение LLM, Fine-tuning больших моделей | Обучение больших моделей, Вывод моделей 70B+ | Обучение LLM, Fine-tuning | LLM inference, Генерация изображений |
| Страница | Текущая | Открыть → | Открыть → | Открыть → |