GPU Hardware
GPU
Графический процессор, используемый для параллельных вычислений в задачах машинного обучения.
Что такое GPU
GPU (Graphics Processing Unit) — процессор, изначально созданный для рендеринга 3D-графики, но ставший стандартным вычислительным устройством для машинного обучения. Ключевое отличие от CPU: GPU содержит тысячи небольших ядер, оптимизированных для параллельного выполнения однотипных операций над большими массивами данных.
Нейронные сети состоят преимущественно из матричных умножений — именно тех операций, для которых параллельная архитектура GPU даёт выигрыш в 10–100× по сравнению с CPU.
GPU vs CPU для ML
| CPU | GPU | |
|---|---|---|
| Ядра | 8–128 мощных | Тысячи маленьких |
| Тип задач | Последовательные, разветвлённые | Параллельные, однотипные |
| Память | RAM (десятки ГБ, медленно) | VRAM (ГБ, очень быстро) |
| Матричные операции | Медленно | Очень быстро |
| Применение в ML | Токенизация, CPU-инференс | Обучение, GPU-инференс |
Основные архитектуры для ML
- NVIDIA — доминирующий вендор; CUDA — стандарт де-факто. Линейки: потребительская RTX, серверная A/H
- AMD — ROCm-стек; MI300X конкурирует с H100
- Apple M-серия — унифицированная память CPU+GPU; эффективна для локального запуска моделей
Ключевые параметры при выборе
- VRAM — определяет максимальный размер модели
- Tensor Cores — специализированные блоки для матричных операций
- HBM vs GDDR6 — пропускная способность памяти
- NVLink — для multi-GPU конфигураций
- TDP — требования к питанию и охлаждению
Связанные термины
- VRAM — видеопамять GPU
- CUDA — вычислительная платформа NVIDIA
- Tensor Core — специализированные ядра для ML
- NVIDIA H100, A100, RTX 4090 — конкретные модели GPU
Готовы запустить GPU-задачу?
Запустить GPU-сервер