GPU Hardware

GPU

Графический процессор, используемый для параллельных вычислений в задачах машинного обучения.

Что такое GPU

GPU (Graphics Processing Unit) — процессор, изначально созданный для рендеринга 3D-графики, но ставший стандартным вычислительным устройством для машинного обучения. Ключевое отличие от CPU: GPU содержит тысячи небольших ядер, оптимизированных для параллельного выполнения однотипных операций над большими массивами данных.

Нейронные сети состоят преимущественно из матричных умножений — именно тех операций, для которых параллельная архитектура GPU даёт выигрыш в 10–100× по сравнению с CPU.

GPU vs CPU для ML

CPU GPU
Ядра 8–128 мощных Тысячи маленьких
Тип задач Последовательные, разветвлённые Параллельные, однотипные
Память RAM (десятки ГБ, медленно) VRAM (ГБ, очень быстро)
Матричные операции Медленно Очень быстро
Применение в ML Токенизация, CPU-инференс Обучение, GPU-инференс

Основные архитектуры для ML

  • NVIDIA — доминирующий вендор; CUDA — стандарт де-факто. Линейки: потребительская RTX, серверная A/H
  • AMD — ROCm-стек; MI300X конкурирует с H100
  • Apple M-серия — унифицированная память CPU+GPU; эффективна для локального запуска моделей

Ключевые параметры при выборе

  1. VRAM — определяет максимальный размер модели
  2. Tensor Cores — специализированные блоки для матричных операций
  3. HBM vs GDDR6 — пропускная способность памяти
  4. NVLink — для multi-GPU конфигураций
  5. TDP — требования к питанию и охлаждению

Связанные термины

  • VRAM — видеопамять GPU
  • CUDA — вычислительная платформа NVIDIA
  • Tensor Core — специализированные ядра для ML
  • NVIDIA H100, A100, RTX 4090 — конкретные модели GPU

Готовы запустить GPU-задачу?

Запустить GPU-сервер