GPT-5 без VPN

Aijora.ru — без ограничений

Попробовать бесплатно
Anthropic logo

Claude Opus 4.6

Мультимодальная
Anthropic

Claude Opus 4.6 — самая интеллектуальная модель Anthropic для построения агентов и программирования. Значительно улучшены навыки кодинга: более тщательное планирование, длительная поддержка агентных задач, надёжная работа в крупных кодовых базах, улучшенный код-ревью и отладка. Контекстное окно: 200K токенов по умолчанию, 1M токенов доступен в бета-режиме с премиальной ценой ($10/$37.50 за миллион input/output токенов при >200K). Вывод до 128K токенов. Новые функции API: адаптивное мышление (модель сама решает когда использовать extended thinking), контроль усилий (low/medium/high/max), сжатие контекста для долгих задач. Лидирует на Terminal-Bench 2.0 (агентный кодинг), Humanity's Last Exam (мультидисциплинарное рассуждение), GDPval-AA (знаниевая работа в финансах, юриспруденции), BrowseComp (поиск информации), DeepSearchQA (глубокий агентный поиск). Поддерживает agent teams в Claude Code, Claude in Excel и Claude in PowerPoint.

Основные характеристики

Параметры
-
Контекст
1.0M
Дата выпуска
4 февраля 2026 г.
Средний балл
80.9%

Временная шкала

Ключевые даты в истории модели
Анонс
4 февраля 2026 г.
Последнее обновление
6 февраля 2026 г.

Технические характеристики

Параметры
-
Токены обучения
-
Граница знаний
1 мая 2025 г.
Семейство
-
Возможности
МультимодальностьZeroEval

Ценообразование и доступность

Вход (за 1М токенов)
$5.00
Выход (за 1М токенов)
$25.00
Макс. входящих токенов
1.0M
Макс. исходящих токенов
128.0K
Поддерживаемые возможности
Function CallingStructured OutputCode ExecutionWeb SearchBatch InferenceFine-tuning

Результаты бенчмарков

Показатели производительности модели на различных тестах и бенчмарках

Программирование

Тесты на навыки программирования
SWE-Bench Verified
SWE-Bench Verified — решение реальных задач из GitHub issues.Self-reported
78.0%

Рассуждения

Логические рассуждения и анализ
GPQA
Точность GPQA Diamond.Self-reported
91.3%

Другие тесты

Специализированные бенчмарки
Vending-Bench 2
Финальный баланс в USD. Симуляция вендингового бизнеса за год работы. Стартовый баланс $5,000.Self-reported
100.0%
GDPval-AA
Elo рейтинг. Независимая оценка Artificial Analysis. Превосходит GPT-5.2 на ~144 Elo и Claude Opus 4.5 на 190 пунктов.Self-reported
53.5%
AIME 2025
Точность Consensus@64 (наиболее часто встречающийся ответ среди 64 сэмплов). Независимая оценка Artificial Analysis.Self-reported
100.0%
TAU2 Telecom
Агентное использование инструментов (τ2-bench Telecom).Self-reported
99.0%
Graphwalks Parents >128K
GraphWalks Parents 256K подмножество 1M. F1 с максимальными выходными токенами, контекст 1M, среднее из 5 попыток.Self-reported
95.0%
MRCR v2 (8-needle)
OpenAI MRCR v2 256K 8-needles. Mean Match Ratio с максимальными выходными токенами. Контекст 1M, среднее из 5 попыток.Self-reported
93.0%
Humanity's Last Exam
Точность на HLE бенчмарке.Self-reported
46.2%
BrowseComp
Точность BrowseComp — навигация по интернету для поиска сложной информации.Self-reported
72.0%
ARC-AGI v2
ARC-AGI-2 — абстрактное рассуждение через визуальные трансформации сетки.Self-reported
68.8%
CharXiv-R
CharXiv-R — рассуждение о научных графиках из статей arXiv.Self-reported
74.0%

Лицензия и метаданные

Лицензия
proprietary
Дата анонса
4 февраля 2026 г.
Последнее обновление
6 февраля 2026 г.

Статьи о Claude Opus 4.6

Похожие модели

Все модели

Рекомендации основаны на схожести характеристик: организация-разработчик, мультимодальность, размер параметров и производительность в бенчмарках. Выберите модель для сравнения или перейдите к полному каталогу для просмотра всех доступных моделей ИИ.