GPU 1

H100 PCIe

80 ГБ Hopper
VS

GPU 2

A100 PCIe 80GB

Ampere 80 ГБ

Выводы

Лучше для LLM-инференса

H100 PCIe

Лучше для обучения моделей

H100 PCIe

Сравнение характеристик

Характеристика H100 PCIe A100 PCIe 80GB
VRAM 80ГБ 80ГБ
VRAM bandwidth 2 000ГБ/с 1 935ГБ/с
CUDA-ядра 14 592 6 912
FP32 TFLOPS 51.0 19.5
FP16 TFLOPS 1 513.0 312.0
BF16 TFLOPS 1 513.0 312.0
FP8 TFLOPS 3 026.0
INT8 TOPS 3 026.0 624.0
TDP 350Вт 300Вт
Llama 3.1 8B FP16 tok/s 2 100 1 050
Llama 3.1 70B FP16 tok/s 280 120
Архитектура Hopper Ampere
Form factor PCIE PCIE
NVLink Нет Нет
MIG Да (7) Да (7)
ECC память Да Да

Значения tokens/sec приблизительные — зависят от конфигурации сервера и настроек vLLM/TGI.