Конфигурации и цены
| Конфигурация | ₽/час | ₽/мес | Доступность | Действие |
|---|---|---|---|---|
| 1× NVIDIA RTX 3090 / 8 vCPU / 24 ГБ VRAM | 23.69 ₽ | 17 294 ₽ | Доступно | Выбрать |
| 2× NVIDIA RTX 3090 / 24 vCPU / 24 ГБ VRAM | 50.75 ₽ | 37 048 ₽ | Доступно | Выбрать |
| 4× NVIDIA RTX 3090 / 12 vCPU / 24 ГБ VRAM | 109.79 ₽ | 80 147 ₽ | Доступно | Выбрать |
| 8× NVIDIA RTX 3090 / 24 vCPU / 24 ГБ VRAM | 219.12 ₽ | 159 958 ₽ | Доступно | Выбрать |
| 5× NVIDIA RTX 3090 / 32 vCPU / 24 ГБ VRAM | 257.27 ₽ | 187 807 ₽ | Доступно | Выбрать |
* Цены в рублях с НДС. Почасовая тарификация без минимального срока аренды. Счёт и закрывающие документы по запросу.
Полные технические характеристики и AI/ML бенчмарки
NVIDIA RTX 3090 в базе GPUТехнические характеристики
- Архитектура
- Ampere
- VRAM
- 24 ГБ
- CUDA-ядра
- 10496
- FP32 TFLOPS
- 35.6
- FP16 TFLOPS
- 71.2
- Пропускная способность памяти
- 936 ГБ/с
- TDP
- 350 Вт
- NVLink
- Нет
Подходит для
NVIDIA RTX 3090 — экономичный выбор для задач inference, генерации изображений и обучения небольших моделей. 24 ГБ VRAM при конкурентной цене аренды делают эту карту популярной среди ML-разработчиков и художников.
Сколько моделей поместится
Приблизительная оценка: params × precision × overhead < VRAM
Llama 3.1 8B (fp16)
~16 ГБ, помещается с запасом
13B-class model (fp16)
~31 ГБ — не помещается на 24 ГБ; используйте fp8 (~16 ГБ) или 4-bit (~8 ГБ)
Llama 3.1 70B (fp16)
не помещается (~168 ГБ) — нужен A100/H100 80 ГБ
Mistral 7B (fp16)
~17 ГБ, помещается с запасом
Stable Diffusion XL
~10 ГБ, рекомендуется
Whisper large-v3
~3 ГБ
Сравнение с похожими GPU
| Характеристика | NVIDIA RTX 3090 | NVIDIA RTX 4090 | NVIDIA A100 | NVIDIA H100 SXM |
|---|---|---|---|---|
| VRAM | 24 ГБ | 24 ГБ | 80 ГБ | 80 ГБ |
| от ₽/час | 23.69 ₽ | 75.53 ₽ | — | — |
| Подходит для | LLM inference, Генерация изображений | LLM inference, Генерация изображений | Обучение LLM, Fine-tuning | Обучение LLM, Fine-tuning больших моделей |
| Страница | Текущая | Открыть → | Открыть → | Открыть → |