Скидка 10% при первом запуске GPU по промокоду Активировать скидку

Аренда NVIDIA H100 SXM

80 ГБ VRAM · Hopper

Оплата картой РФ
Договор и документы
Запуск за 30 секунд
Поддержка на русском

Конфигурации и цены

По запросу — свяжитесь с нами

Конфигурации для этой GPU уточняйте напрямую.

Связаться с нами

Технические характеристики

Архитектура
Hopper
VRAM
80 ГБ
CUDA-ядра
16896
FP32 TFLOPS
67
FP16 TFLOPS
1979
Пропускная способность памяти
3350 ГБ/с
TDP
700 Вт
NVLink
Да

Подходит для

NVIDIA H100 SXM — самая производительная GPU для задач обучения и inference крупных языковых моделей. Архитектура Hopper с тензорными ядрами FP8 и пропускной способностью памяти 3,35 ТБ/с делает H100 эталоном для задач AI/ML корпоративного уровня.

Сколько моделей поместится

Приблизительная оценка: params × precision × overhead < VRAM

Llama 3.1 8B (fp16)

~16 ГБ, помещается с запасом

Llama 3.1 70B (fp16)

~168 ГБ — не помещается на одну карту, нужен H200

Llama 3.1 70B (fp8)

~84 ГБ с overhead — превышает 80 ГБ; используйте 4-bit квантизацию (~40 ГБ)

Mistral 7B (fp16)

~17 ГБ, помещается с запасом

Stable Diffusion XL

~10 ГБ

Whisper large-v3

~3 ГБ

Сравнение с похожими GPU

Характеристика NVIDIA H100 SXM NVIDIA H200 SXM NVIDIA A100 NVIDIA RTX 4090
VRAM 80 ГБ 141 ГБ 80 ГБ 24 ГБ
от ₽/час 780.62 ₽ 76.99 ₽
Подходит для Обучение LLM, Fine-tuning больших моделей Обучение больших моделей, Вывод моделей 70B+ Обучение LLM, Fine-tuning LLM inference, Генерация изображений
Страница Текущая Открыть → Открыть → Открыть →

Часто задаваемые вопросы

Готовы начать?

Почасовая тарификация. Без подписки. Запуск за 30 секунд.