LLM MIT

Phi-4 Mini

3.8B параметров · Transformer · Контекст 128k · Microsoft · 2025

VRAM по точности

Точность VRAM Качество Рекомендация
FP16 8 ГБ Максимальное Для продакшена
FP8 4 ГБ Отличное Оптимально
INT8 4 ГБ Хорошее
INT4/Q4 2 ГБ Приемлемое Для экспериментов

Совместимые GPU

GPU VRAM Поддерживает
24 ГБ FP16, FP8, INT8, INT4 Арендовать
24 ГБ FP16, FP8, INT8, INT4 Арендовать

Рекомендуемые фреймворки

Быстрый старт

ollama
ollama run phi-4-mini

Характеристики модели

Технические параметры

Разработчик
Microsoft
Год выпуска
2025
Параметры
3.8B
Архитектура
Transformer
Контекстное окно
128,000 токенов
Лицензия
MIT

Применение

Reasoning Math Edge inference Code generation

Phi-4 Mini — компактная reasoning-модель Microsoft с 128k контекстом. Превосходит Phi-3 Mini на математических задачах при том же размере. Отличный выбор для edge-деплоя с требованиями к reasoning.