GPT-5 без VPN

Aijora.ru — без ограничений

Попробовать бесплатно
Anthropic logo

Claude Sonnet 4.6

Мультимодальная
Anthropic

Claude Sonnet 4.6 — полное обновление модели класса Sonnet с улучшениями в кодинге, управлении компьютером, рассуждении на длинном контексте, планировании агентов, работе со знаниями и дизайне. Пользователи предпочитали Sonnet 4.6 вместо Sonnet 4.5 примерно в 70% случаев. Первая модель класса Sonnet с контекстным окном 1M токенов (бета) и компактизацией контекста. Значительное улучшение навыков управления компьютером по сравнению с предыдущими моделями Sonnet.

Основные характеристики

Параметры
-
Контекст
200.0K
Дата выпуска
17 февраля 2026 г.
Средний балл
73.6%

Временная шкала

Ключевые даты в истории модели
Анонс
17 февраля 2026 г.
Последнее обновление
20 февраля 2026 г.
Сегодня
21 февраля 2026 г.

Технические характеристики

Параметры
-
Токены обучения
-
Граница знаний
-
Семейство
-
Возможности
МультимодальностьZeroEval

Ценообразование и доступность

Вход (за 1М токенов)
$3.00
Выход (за 1М токенов)
$15.00
Макс. входящих токенов
200.0K
Макс. исходящих токенов
64.0K
Поддерживаемые возможности
Function CallingStructured OutputCode ExecutionWeb SearchBatch InferenceFine-tuning

Результаты бенчмарков

Показатели производительности модели на различных тестах и бенчмарках

Программирование

Тесты на навыки программирования
SWE-bench Verified
SWE-bench Verified — бенчмарк для оценки способности модели решать реальные задачи из GitHub-репозиториев.Self-reported
79.6%

Рассуждения

Логические рассуждения и анализ
GPQA
GPQA Diamond — бенчмарк для оценки способности модели отвечать на вопросы уровня PhD по физике, биологии и химии.Self-reported
89.9%

Другие тесты

Специализированные бенчмарки
ARC-AGI v2
ARC-AGI v2 — бенчмарк для оценки способности к абстрактному рассуждению и обобщению.Self-reported
58.3%
MMMLU
MMMLU — многоязычная версия MMLU для оценки знаний модели на множестве языков.Self-reported
89.3%
CharXiv-R
CharXiv-R — бенчмарк для оценки способности модели понимать и рассуждать о графиках и диаграммах.Self-reported
74.7%
MMMU-Pro
MMMU-Pro — продвинутая версия MMMU для мультимодальной оценки на уровне экспертов.Self-reported
75.6%
HLE
HLE (Humanity's Last Exam) — бенчмарк из сложнейших вопросов, составленных экспертами для проверки пределов знаний ИИ.Self-reported
49.0%
SimpleQA
SimpleQA — бенчмарк для оценки фактической точности ответов модели на простые вопросы.Self-reported
72.5%

Лицензия и метаданные

Лицензия
proprietary
Дата анонса
17 февраля 2026 г.
Последнее обновление
20 февраля 2026 г.

Похожие модели

Все модели

Рекомендации основаны на схожести характеристик: организация-разработчик, мультимодальность, размер параметров и производительность в бенчмарках. Выберите модель для сравнения или перейдите к полному каталогу для просмотра всех доступных моделей ИИ.