GPU Hardware
NVIDIA H200
Обновлённый H100 с 141 ГБ памяти HBM3e для работы с крупными языковыми моделями.
Что такое NVIDIA H200
H200 — обновление флагманского GPU NVIDIA H100, выпущенное в конце 2024 года. Принципиальное отличие — значительно увеличенный объём памяти: 141 ГБ HBM3e вместо 80 ГБ HBM3, с пропускной способностью 4800 ГБ/с (vs 3350 ГБ/с у H100 SXM).
Вычислительная мощность (CUDA/Tensor Cores, TFLOPS) идентична H100 — H200 не предлагает новых типов вычислений. Основной выигрыш — в объёме и скорости памяти, что напрямую ускоряет memory-bound операции: decode LLM и хранение больших KV-кешей.
Технические характеристики
| Параметр | H200 SXM | H100 SXM |
|---|---|---|
| VRAM | 141 ГБ HBM3e | 80 ГБ HBM3 |
| Пропускная способность памяти | 4800 ГБ/с | 3350 ГБ/с |
| FP16 TFLOPS | 1979 | 1979 |
| FP8 TFLOPS | 3958 | 3958 |
| TDP | ~700 Вт | 700 Вт |
Когда H200 значимо лучше H100
- Модели >70B в BF16 — Llama 3 405B умещается на 4× H200 вместо 6× H100
- Длинный контекст — 141 ГБ вмещает значительно больший KV-кеш
- Высокая параллельность инференса — больше памяти → больше батч-слотов → выше суммарный TPS
- decode-скорость — +43% пропускной способности памяти напрямую ускоряет генерацию
Для задач, где H200 не даёт преимущества
- Обучение небольших моделей (≤13B) — compute-bound, лимит не по памяти
- FP8-обучение — одинаково быстро на H100 и H200
- Инференс небольших моделей (≤30B)
Связанные термины
- NVIDIA H100 — базовая версия
- HBM — тип памяти, определяющий главное отличие H200
- KV-кеш — ресурс, выигрывающий от 141 ГБ
- AMD MI300X — конкурент с 192 ГБ HBM3
Готовы запустить GPU-задачу?
Запустить GPU-сервер