Конфигурации и цены
| Конфигурация | ₽/час | ₽/мес | Доступность | Действие |
|---|---|---|---|---|
| 1× NVIDIA RTX 5090 / 32 vCPU / 32 ГБ VRAM | 68.79 ₽ | 50 217 ₽ | Доступно | Выбрать |
| 2× NVIDIA RTX 5090 / 96 vCPU / 32 ГБ VRAM | 153.52 ₽ | 112 070 ₽ | Доступно | Выбрать |
| 4× NVIDIA RTX 5090 / 128 vCPU / 32 ГБ VRAM | 273.79 ₽ | 199 867 ₽ | Доступно | Выбрать |
| 8× NVIDIA RTX 5090 / 128 vCPU / 32 ГБ VRAM | 656.76 ₽ | 479 435 ₽ | Доступно | Выбрать |
* Цены в рублях с НДС. Почасовая тарификация без минимального срока аренды. Счёт и закрывающие документы по запросу.
Полные технические характеристики и AI/ML бенчмарки
NVIDIA RTX 5090 в базе GPUТехнические характеристики
- Архитектура
- Blackwell
- VRAM
- 32 ГБ
- CUDA-ядра
- 21760
- FP32 TFLOPS
- 209.6
- FP16 TFLOPS
- 419.2
- Пропускная способность памяти
- 1792 ГБ/с
- TDP
- 575 Вт
- NVLink
- Нет
Подходит для
NVIDIA RTX 5090 — первая потребительская GPU поколения Blackwell. 32 ГБ GDDR7, пропускная способность памяти 1792 ГБ/с и FP16-производительность в 2,5 раза выше RTX 4090 делают её отличным выбором для inference, генерации изображений и работы с моделями до 13B параметров. Архитектура Blackwell принесла новое поколение тензорных ядер с поддержкой FP8 и FP4, ускоряя современные ML-нагрузки без перехода на серверные GPU.
Сколько моделей поместится
Приблизительная оценка: params × precision × overhead < VRAM
Llama 3.1 8B (fp16)
~16 ГБ, помещается с запасом
13B-class model (fp16)
~31 ГБ, помещается на границе 32 ГБ VRAM — рекомендуется fp8
Llama 3.1 70B (fp16)
не помещается (~168 ГБ) — нужен A100/H100 80 ГБ
Mistral 7B (fp16)
~17 ГБ, помещается с запасом
Stable Diffusion XL
~10 ГБ, рекомендуется
Whisper large-v3
~3 ГБ
Сравнение с похожими GPU
| Характеристика | NVIDIA RTX 5090 | NVIDIA RTX 4090 | NVIDIA L40S | NVIDIA H100 SXM |
|---|---|---|---|---|
| VRAM | 32 ГБ | 24 ГБ | 48 ГБ | 80 ГБ |
| от ₽/час | 68.79 ₽ | 52.09 ₽ | 112.52 ₽ | — |
| Подходит для | LLM inference, Генерация изображений | LLM inference, Генерация изображений | LLM inference, Обучение LLM | Обучение LLM, Fine-tuning больших моделей |
| Страница | Текущая | Открыть → | Открыть → | Открыть → |