LLM Llama

Llama 3.2 1B

1B параметров · Transformer · Контекст 128k · Meta · 2024

VRAM по точности

Точность VRAM Качество Рекомендация
FP16 2 ГБ Максимальное Для продакшена
FP8 1 ГБ Отличное Оптимально
INT8 1 ГБ Хорошее
INT4/Q4 1 ГБ Приемлемое Для экспериментов

Совместимые GPU

GPU VRAM Поддерживает
24 ГБ FP16, FP8, INT8, INT4 Арендовать
24 ГБ FP16, FP8, INT8, INT4 Арендовать

Рекомендуемые фреймворки

Быстрый старт

ollama
ollama run llama-3.2-1b

Характеристики модели

Технические параметры

Разработчик
Meta
Год выпуска
2024
Параметры
1B
Архитектура
Transformer
Контекстное окно
128,000 токенов
Лицензия
Llama

Применение

Edge inference Chatbots Text classification Low-latency applications

Llama 3.2 1B — ультракомпактная модель для задач, где важна скорость и малое потребление ресурсов. Подходит для edge-деплоя и сервисов с высокой нагрузкой.