GPU Hardware

NVIDIA H100

Datacenter-GPU NVIDIA на архитектуре Hopper с поддержкой FP8 и NVLink 4.0.

Что такое NVIDIA H100

H100 — флагманский серверный GPU NVIDIA на архитектуре Hopper (2022). Пришёл на смену A100 с ростом производительности в 2–4× на задачах обучения трансформеров и ~3× на инференсе (в FP16). Поставляется в двух форм-факторах: SXM (с NVSwitch для multi-GPU систем) и PCIe (стандартный слот).

Технические характеристики

Параметр H100 SXM H100 PCIe
VRAM 80 ГБ HBM3 80 ГБ HBM2e
Пропускная способность памяти 3350 ГБ/с 2000 ГБ/с
TF32 TFLOPS 989 756
FP16 TFLOPS 1979 1513
FP8 TFLOPS 3958 3026
TDP 700 Вт 350 Вт
NVLink NVLink 4.0 (900 GB/s) PCIe Gen5
Tensor Cores 4th gen 4th gen

Ключевые нововведения против A100

  • FP8 — нативная поддержка 8-битных вычислений; почти удваивает throughput против FP16 при минимальной потере точности
  • NVLink 4.0 — 900 GB/s пропускная способность (vs 600 GB/s у A100); критично для tensor parallelism
  • Transformer Engine — аппаратное ускорение mixed precision (FP8/FP16) внутри блоков трансформера
  • HBM3 (в SXM) — 3350 ГБ/с vs 2000 ГБ/с у A100; ускоряет memory-bound операции (decode)

Когда выбирать H100

H100 необходим для:

  • Обучения моделей >30B параметров в приемлемые сроки
  • Инференса 70B+ моделей с высоким throughput
  • Задач с очень длинным контекстом (128K+) — нужна пропускная способность HBM3
  • Production-сервисов с требованиями SLA по latency

Для задач ≤13B на инференсе RTX 4090 или A100 дадут значительно лучший TCO.

Связанные термины

  • NVIDIA A100 — предшественник, лучше по цена/производительность для многих задач
  • NVIDIA H200 — обновлённый H100 с 141 ГБ HBM3e
  • HBM — тип памяти H100
  • NVLink — высокоскоростная шина для multi-GPU
  • Tensor Core — специализированные ядра для матричных операций
  • fp8 — новый формат, поддерживаемый H100

Готовы запустить GPU-задачу?

Запустить GPU-сервер