База данных

AI-модели

Каталог open-source моделей — требования к VRAM по точности, совместимые GPU из нашего инвентаря, фреймворки для inference.

Арендовать GPU

DeepSeek R1 14B

LLM

DeepSeek · 14B параметров · 128k контекст

Мин. VRAM

14 ГБ (fp8)

Минимум GPU

RTX 4090

MIT

DeepSeek R1 32B

LLM

DeepSeek · 32B параметров · 128k контекст

Мин. VRAM

32 ГБ (fp8)

Минимум GPU

RTX 4090

MIT

DeepSeek R1 671B

LLM

DeepSeek · 671B параметров · 128k контекст

Мин. VRAM

345 ГБ (fp8)

Минимум GPU

H100

MIT

DeepSeek R1 70B

LLM

DeepSeek · 70B параметров · 128k контекст

Мин. VRAM

70 ГБ (fp8)

Минимум GPU

RTX 4090

MIT

DeepSeek R1 7B

LLM

DeepSeek · 7B параметров · 128k контекст

Мин. VRAM

7 ГБ (fp8)

Минимум GPU

RTX 3090

MIT

Gemma 3 12B

LLM

Google · 12B параметров · 128k контекст

Мин. VRAM

12 ГБ (fp8)

Минимум GPU

RTX 4090

Gemma

Gemma 3 27B

LLM

Google · 27B параметров · 128k контекст

Мин. VRAM

27 ГБ (fp8)

Минимум GPU

RTX 4090

Gemma

Mistral Small 3.1

LLM

Mistral AI · 24B параметров · 128k контекст

Мин. VRAM

24 ГБ (fp8)

Минимум GPU

RTX 4090

Apache-2.0

Phi-4 Mini

LLM

Microsoft · 3.8B параметров · 128k контекст

Мин. VRAM

4 ГБ (fp8)

Минимум GPU

RTX 3090

MIT

QwQ 32B

LLM

Alibaba · 32B параметров · 131k контекст

Мин. VRAM

32 ГБ (fp8)

Минимум GPU

RTX 4090

Apache-2.0

BGE M3

Эмбеддинги

BAAI

Мин. VRAM

4 ГБ (fp16)

Минимум GPU

RTX 3090

MIT

Codestral 22B

LLM

Mistral AI · 22B параметров · 33k контекст

Мин. VRAM

22 ГБ (fp8)

Минимум GPU

RTX 4090

Restricted

Command R+

LLM

Cohere · 104B параметров · 128k контекст

Мин. VRAM

104 ГБ (fp8)

Минимум GPU

H100

Restricted

DeepSeek Coder V2

LLM

DeepSeek · 236B параметров · 128k контекст

Мин. VRAM

220 ГБ (fp8)

Минимум GPU

H100

MIT

DeepSeek V3

LLM

DeepSeek · 685B параметров · 128k контекст

Мин. VRAM

350 ГБ (fp8)

Минимум GPU

H100

MIT

Flux.1 Dev

Изображения

Black Forest Labs

Мин. VRAM

24 ГБ (fp16)

Минимум GPU

RTX 4090

Restricted

Flux.1 Schnell

Изображения

Black Forest Labs

Мин. VRAM

24 ГБ (fp16)

Минимум GPU

RTX 4090

Apache-2.0

Gemma 2 27B

LLM

Google · 27B параметров · 8k контекст

Мин. VRAM

27 ГБ (fp8)

Минимум GPU

RTX 4090

Gemma

Gemma 2 2B

LLM

Google · 2B параметров · 8k контекст

Мин. VRAM

2 ГБ (fp8)

Минимум GPU

RTX 3090

Gemma

Gemma 2 9B

LLM

Google · 9B параметров · 8k контекст

Мин. VRAM

9 ГБ (fp8)

Минимум GPU

RTX 4090

Gemma

GTE Qwen2 7B

Эмбеддинги

Alibaba · 7B параметров

Мин. VRAM

14 ГБ (fp16)

Минимум GPU

RTX 3090

Apache-2.0

InternVL2 8B

Мультимодальные

Shanghai AI Lab · 8B параметров · 8k контекст

Мин. VRAM

8 ГБ (fp8)

Минимум GPU

RTX 3090

MIT

Kokoro

Речь

hexgrad

Мин. VRAM

2 ГБ (fp16)

Минимум GPU

RTX 3090

Apache-2.0

Llama 3.1 405B

LLM

Meta · 405B параметров · 128k контекст

Мин. VRAM

405 ГБ (fp8)

Минимум GPU

H100

Llama

Llama 3.1 70B

LLM

Meta · 70B параметров · 128k контекст

Мин. VRAM

70 ГБ (fp8)

Минимум GPU

RTX 4090

Llama

Llama 3.1 8B

LLM

Meta · 8B параметров · 128k контекст

Мин. VRAM

8 ГБ (fp8)

Минимум GPU

RTX 3090

Llama

Llama 3.2 1B

LLM

Meta · 1B параметров · 128k контекст

Мин. VRAM

1 ГБ (fp8)

Минимум GPU

RTX 3090

Llama

Llama 3.2 3B

LLM

Meta · 3B параметров · 128k контекст

Мин. VRAM

3 ГБ (fp8)

Минимум GPU

RTX 3090

Llama

Llama 3.3 70B

LLM

Meta · 70B параметров · 128k контекст

Мин. VRAM

70 ГБ (fp8)

Минимум GPU

RTX 4090

Llama

LLaVA 1.6 34B

Мультимодальные

Haotian Liu · 34B параметров · 4k контекст

Мин. VRAM

34 ГБ (fp8)

Минимум GPU

RTX 4090

Llama

Mixtral 8×22B

LLM

Mistral AI · 141B параметров · 66k контекст

Мин. VRAM

135 ГБ (fp8)

Минимум GPU

H100

Apache-2.0

NV-Embed v2

Эмбеддинги

NVIDIA · 7B параметров

Мин. VRAM

16 ГБ (fp16)

Минимум GPU

RTX 4090

MIT

OLMo 2 13B

LLM

Allen AI · 13B параметров · 4k контекст

Мин. VRAM

13 ГБ (fp8)

Минимум GPU

RTX 4090

Apache-2.0

Parler TTS

Речь

Hugging Face

Мин. VRAM

6 ГБ (fp16)

Минимум GPU

RTX 3090

Apache-2.0

Phi-3 Medium 14B

LLM

Microsoft · 14B параметров · 128k контекст

Мин. VRAM

14 ГБ (fp8)

Минимум GPU

RTX 4090

MIT

Phi-3 Mini 3.8B

LLM

Microsoft · 3.8B параметров · 128k контекст

Мин. VRAM

4 ГБ (fp8)

Минимум GPU

RTX 3090

MIT

Phi-4 14B

LLM

Microsoft · 14B параметров · 16k контекст

Мин. VRAM

14 ГБ (fp8)

Минимум GPU

RTX 4090

MIT

Pixtral 12B

Мультимодальные

Mistral AI · 12B параметров · 128k контекст

Мин. VRAM

12 ГБ (fp8)

Минимум GPU

RTX 4090

Apache-2.0

Qwen 2.5 14B

LLM

Alibaba · 14B параметров · 128k контекст

Мин. VRAM

14 ГБ (fp8)

Минимум GPU

RTX 4090

Apache-2.0

Qwen 2.5 32B

LLM

Alibaba · 32B параметров · 128k контекст

Мин. VRAM

32 ГБ (fp8)

Минимум GPU

RTX 4090

Apache-2.0

Qwen 2.5 72B

LLM

Alibaba · 72B параметров · 128k контекст

Мин. VRAM

72 ГБ (fp8)

Минимум GPU

A100

Apache-2.0

Qwen 2.5 7B

LLM

Alibaba · 7B параметров · 128k контекст

Мин. VRAM

7 ГБ (fp8)

Минимум GPU

RTX 3090

Apache-2.0

Qwen 2.5 Coder 32B

LLM

Alibaba · 32B параметров · 128k контекст

Мин. VRAM

32 ГБ (fp8)

Минимум GPU

RTX 4090

Apache-2.0

Qwen2-VL 72B

Мультимодальные

Alibaba · 72B параметров · 33k контекст

Мин. VRAM

72 ГБ (fp8)

Минимум GPU

RTX 4090

Apache-2.0

Qwen2-VL 7B

Мультимодальные

Alibaba · 7B параметров · 33k контекст

Мин. VRAM

7 ГБ (fp8)

Минимум GPU

RTX 3090

Apache-2.0

Stable Diffusion 3.5 Large

Изображения

Stability AI

Мин. VRAM

16 ГБ (fp16)

Минимум GPU

RTX 4090

Restricted

StarCoder2 15B

LLM

BigCode · 15B параметров · 16k контекст

Мин. VRAM

15 ГБ (fp8)

Минимум GPU

RTX 4090

Apache-2.0

Yi 1.5 34B

LLM

01.AI · 34B параметров · 200k контекст

Мин. VRAM

34 ГБ (fp8)

Минимум GPU

RTX 4090

Apache-2.0

CodeLlama 34B

LLM

Meta · 34B параметров · 100k контекст

Мин. VRAM

34 ГБ (fp8)

Минимум GPU

RTX 4090

Llama

ControlNet

Изображения

Lvmin Zhang

Мин. VRAM

6 ГБ (fp16)

Минимум GPU

RTX 3090

Apache-2.0

E5 Mistral 7B

Эмбеддинги

Microsoft · 7B параметров

Мин. VRAM

14 ГБ (fp16)

Минимум GPU

RTX 3090

MIT

Falcon 180B

LLM

TII · 180B параметров · 2k контекст

Мин. VRAM

180 ГБ (fp8)

Минимум GPU

H100

Restricted

Faster-Whisper Large v3

Речь

SYSTRAN

Мин. VRAM

6 ГБ (fp16)

Минимум GPU

RTX 3090

MIT

Mistral 7B v0.3

LLM

Mistral AI · 7B параметров · 32k контекст

Мин. VRAM

7 ГБ (fp8)

Минимум GPU

RTX 3090

Apache-2.0

Mixtral 8×7B

LLM

Mistral AI · 47B параметров · 32k контекст

Мин. VRAM

45 ГБ (fp8)

Минимум GPU

RTX 4090

Apache-2.0

SDXL Turbo

Изображения

Stability AI

Мин. VRAM

8 ГБ (fp16)

Минимум GPU

RTX 3090

Restricted

Stable Diffusion XL

Изображения

Stability AI

Мин. VRAM

8 ГБ (fp16)

Минимум GPU

RTX 3090

Apache-2.0

Whisper Large v3

Речь

OpenAI

Мин. VRAM

10 ГБ (fp16)

Минимум GPU

RTX 3090

MIT

XTTS v2

Речь

Coqui AI

Мин. VRAM

4 ГБ (fp16)

Минимум GPU

RTX 3090

Restricted

Stable Diffusion 1.5

Изображения

Runway ML

Мин. VRAM

4 ГБ (fp16)

Минимум GPU

RTX 3090

Apache-2.0

Whisper Medium

Речь

OpenAI

Мин. VRAM

5 ГБ (fp16)

Минимум GPU

RTX 3090

MIT

Whisper Small

Речь

OpenAI

Мин. VRAM

2 ГБ (fp16)

Минимум GPU

RTX 3090

MIT