Phi-3.5-MoE-instruct
Phi-3.5-MoE-instruct — это модель со смесью экспертов (mixture-of-experts) с общим количеством параметров около 42 миллиардов (6,6 миллиарда активных) и контекстным окном в 128K токенов. Она превосходно справляется с рассуждениями, математикой, программированием и многоязычными задачами, превосходя по производительности более крупные плотные модели во многих бенчмарках. Модель прошла тщательный процесс пост-обучения для обеспечения безопасности (SFT + DPO) и лицензируется под MIT. Эта модель идеально подходит для сценариев, где требуются как эффективность, так и высокая производительность, особенно в многоязычных задачах или задачах, требующих интенсивных рассуждений.
Основные характеристики
Временная шкала
Технические характеристики
Результаты бенчмарков
Показатели производительности модели на различных тестах и бенчмарках
Общие знания
Программирование
Математика
Рассуждения
Другие тесты
Лицензия и метаданные
Похожие модели
Все моделиPhi 4
Microsoft
Phi 4 Reasoning Plus
Microsoft
Phi 4 Reasoning
Microsoft
Gemma 2 27B
Jamba 1.5 Mini
AI21 Labs
Llama-3.3 Nemotron Super 49B v1
NVIDIA
ERNIE 4.5
Baidu
Llama 3.3 70B Instruct
Meta
Рекомендации основаны на схожести характеристик: организация-разработчик, мультимодальность, размер параметров и производительность в бенчмарках. Выберите модель для сравнения или перейдите к полному каталогу для просмотра всех доступных моделей ИИ.