Эмбеддинги MIT

BGE M3

Transformer · BAAI · 2024

VRAM по точности

Точность VRAM Качество Рекомендация
FP16 4 ГБ Максимальное Для продакшена
INT8 2 ГБ Хорошее

Совместимые GPU

GPU VRAM Поддерживает
24 ГБ FP16, INT8 Арендовать
24 ГБ FP16, INT8 Арендовать

Рекомендуемые фреймворки

Быстрый старт

vllm
docker run --gpus all -p 8000:8000 vllm/vllm-openai:latest \
  --model bge-m3 \
  --quantization fp8

Характеристики модели

Технические параметры

Разработчик
BAAI
Год выпуска
2024
Архитектура
Transformer
Лицензия
MIT

Применение

Semantic search RAG Document retrieval Multilingual embeddings

BGE M3 — мультиязычная embedding-модель BAAI, поддерживающая 100+ языков. Объединяет dense, sparse и multi-vector retrieval в одной модели. MIT лицензия, высокое качество на BEIR бенчмарках.