Mistral Large 2
Модель с 123 миллиардами параметров, обладающая сильными возможностями в генерации кода, математике и рассуждениях. Отличается улучшенной многоязычной поддержкой десятков языков, контекстным окном 128k и продвинутыми возможностями вызова функций. Превосходно следует инструкциям и обеспечивает краткие результаты.
Основные характеристики
Параметры
123.0B
Контекст
128.0K
Дата выпуска
24 июля 2024 г.
Средний балл
87.6%
Временная шкала
Ключевые даты в истории модели
Анонс
24 июля 2024 г.
Последнее обновление
19 июля 2025 г.
Сегодня
31 августа 2025 г.
Технические характеристики
Параметры
123.0B
Токены обучения
-
Граница знаний
-
Семейство
-
Возможности
МультимодальностьZeroEval
Ценообразование и доступность
Вход (за 1М токенов)
$2.00
Выход (за 1М токенов)
$6.00
Макс. входящих токенов
128.0K
Макс. исходящих токенов
128.0K
Поддерживаемые возможности
Function CallingStructured OutputCode ExecutionWeb SearchBatch InferenceFine-tuning
Результаты бенчмарков
Показатели производительности модели на различных тестах и бенчмарках
Общие знания
Тесты на общие знания и понимание
MMLU
Точность
В контексте оценки модели LLM точность относится к способности модели правильно отвечать на вопросы или решать задачи. Точность можно измерить, определив долю правильных ответов от общего числа заданных вопросов. В качестве критерия точности часто используется экспертная оценка, автоматизированная проверка или сравнение с опубликованными эталонными ответами.
Точность является важным аспектом оценки, поскольку дает представление о том, насколько надежна модель при ответе на вопросы в определенной предметной области или в различных контекстах. Она помогает выявить сильные стороны и ограничения модели, а также определить области, требующие дальнейшего совершенствования. • Self-reported
Программирование
Тесты на навыки программирования
HumanEval
Pass@1
Метод оценки Pass@1 измеряет процент задач, которые модель решает успешно с первой попытки. Это прямой показатель качества работы модели при единичном запросе без возможности исправления или множественных попыток.
Данная метрика особенно важна для сценариев, где пользователи ожидают немедленного и точного ответа, или в случаях, когда повторные попытки невозможны из-за ограничений по времени, стоимости или архитектуры системы.
При расчете Pass@1:
• Модель получает задачу один раз
• Генерирует одно решение
• Решение оценивается как правильное или неправильное
• Финальный показатель — процент правильных ответов из всех задач
Высокий показатель Pass@1 указывает на надежность модели и ее способность находить верные решения без дополнительных итераций. Эта метрика часто используется в сравнительном анализе различных моделей для определения их базовой производительности. • Self-reported
Математика
Математические задачи и вычисления
GSM8k
Точность
AI-generated answers can sound plausible but still be incorrect. To measure how well LLMs can produce factually accurate answers, we can present them with test questions with known answers, and assess the percentage of their responses that are correct.
Benchmarks:
- General Knowledge: MMLU, a comprehensive test covering 57 subjects from STEM to humanities.
- Advanced Knowledge: GPQA (Graduate-level Professional Questions & Answers), which tests expert-level knowledge.
- Mathematical Reasoning: GSM8K for grade school math problems, and MATH for competition-level problems.
This metric helps evaluate if models can reliably generate factual information rather than just producing coherent-sounding text. High accuracy suggests an LLM can be trusted to provide correct information within its training domain. • Self-reported
Другие тесты
Специализированные бенчмарки
MMLU French
Точность
AI: The model gave the correct answer.
Человек: Модель дала правильный ответ. • Self-reported
MT-Bench
Score
Оценка • Self-reported
Лицензия и метаданные
Лицензия
mistral_research_license
Дата анонса
24 июля 2024 г.
Последнее обновление
19 июля 2025 г.
Похожие модели
Все моделиCodestral-22B
Mistral AI
22.2B
Лучший скор:0.8 (HumanEval)
Релиз:май 2024 г.
Цена:$0.20/1M токенов
Llama 3.1 405B Instruct
Meta
405.0B
Лучший скор:1.0 (ARC)
Релиз:июль 2024 г.
Цена:$3.50/1M токенов
DeepSeek-R1
DeepSeek
671.0B
Лучший скор:0.9 (MMLU)
Релиз:янв. 2025 г.
Цена:$7.00/1M токенов
DeepSeek-V2.5
DeepSeek
236.0B
Лучший скор:0.9 (HumanEval)
Релиз:май 2024 г.
Цена:$2.00/1M токенов
Mistral Small 3 24B Instruct
Mistral AI
24.0B
Лучший скор:0.8 (HumanEval)
Релиз:янв. 2025 г.
Цена:$0.10/1M токенов
Mistral NeMo Instruct
Mistral AI
12.0B
Лучший скор:0.7 (MMLU)
Релиз:июль 2024 г.
Цена:$0.15/1M токенов
Ministral 8B Instruct
Mistral AI
8.0B
Лучший скор:0.7 (ARC)
Релиз:окт. 2024 г.
Цена:$0.10/1M токенов
Devstral Medium
Mistral AI
Релиз:июль 2025 г.
Цена:$0.40/1M токенов
Рекомендации основаны на схожести характеристик: организация-разработчик, мультимодальность, размер параметров и производительность в бенчмарках. Выберите модель для сравнения или перейдите к полному каталогу для просмотра всех доступных моделей ИИ.