Эмбеддинги MIT

E5 Mistral 7B

7B параметров · Transformer · Microsoft · 2023

VRAM по точности

Точность VRAM Качество Рекомендация
FP16 14 ГБ Максимальное Для продакшена
INT8 7 ГБ Хорошее
INT4/Q4 4 ГБ Приемлемое Для экспериментов

Совместимые GPU

GPU VRAM Поддерживает
24 ГБ FP16, INT8, INT4 Арендовать
24 ГБ FP16, INT8, INT4 Арендовать

Рекомендуемые фреймворки

Быстрый старт

vllm
docker run --gpus all -p 8000:8000 vllm/vllm-openai:latest \
  --model e5-mistral-7b-instruct \
  --quantization fp8

Характеристики модели

Технические параметры

Разработчик
Microsoft
Год выпуска
2023
Параметры
7B
Архитектура
Transformer
Лицензия
MIT

Применение

Semantic search RAG Document retrieval Question answering

E5 Mistral 7B — embedding-модель Microsoft на базе Mistral 7B. Достигает state-of-the-art результатов на MTEB бенчмарке. MIT лицензия. Хороший выбор для высококачественного RAG pipeline.