GPT-5 без VPN

Aijora.ru — без ограничений

Попробовать бесплатно
Anthropic logo

Claude Opus 4.7

Мультимодальная
Anthropic

Claude Opus 4.7 — последняя модель класса Opus от Anthropic, прямое улучшение Opus 4.6 со значительным прогрессом в продвинутом программировании, особенно на самых сложных задачах. Справляется со сложными долгими агентными воркфлоу с надёжностью и согласованностью, более точно следует инструкциям и проверяет собственный вывод перед ответом. Существенно улучшено зрение: поддерживает изображения высокого разрешения до 2576 пикселей по длинной стороне (~3.75 мегапикселя, в 3 раза больше предыдущих моделей Claude), что разблокирует чтение плотных скриншотов, извлечение сложных диаграмм и пиксельные ссылки. Улучшенная файловая память (file system-based memory) обеспечивает связную работу через несколько сессий. Введён новый уровень усилий 'xhigh' между 'high' и 'max' для тонкого контроля компромисса между рассуждением и задержкой. Поставляется с task budgets (public beta) на платформе Claude. Использует обновлённый токенизатор (входы могут отображаться в ~1.0–1.35× больше токенов чем у Opus 4.6). Выпущен с автоматическими защитными механизмами от запрещённого использования в области кибербезопасности. Доступен через Claude products, Claude API, Amazon Bedrock, Google Cloud Vertex AI и Microsoft Foundry. Цена $5/$25 за миллион токенов (input/output), без изменений с Opus 4.6.

Основные характеристики

Параметры
-
Контекст
200.0K
Дата выпуска
16 апреля 2026 г.
Средний балл
91.0%

Временная шкала

Ключевые даты в истории модели
Анонс
16 апреля 2026 г.
Последнее обновление
3 мая 2026 г.

Технические характеристики

Параметры
-
Токены обучения
-
Граница знаний
1 мая 2025 г.
Семейство
-
Возможности
МультимодальностьZeroEval

Ценообразование и доступность

Вход (за 1М токенов)
$5.00
Выход (за 1М токенов)
$25.00
Макс. входящих токенов
200.0K
Макс. исходящих токенов
128.0K
Поддерживаемые возможности
Function CallingStructured OutputCode ExecutionWeb SearchBatch InferenceFine-tuning

Результаты бенчмарков

Показатели производительности модели на различных тестах и бенчмарках

Программирование

Тесты на навыки программирования
SWE-Bench Verified
SWE-Bench Verified — решение реальных задач из GitHub issues, агентная оценка.Self-reported
88.0%

Рассуждения

Логические рассуждения и анализ
GPQA
Точность GPQA Diamond.Self-reported
94.0%

Другие тесты

Специализированные бенчмарки
CharXiv-R
CharXiv-R — рассуждение о научных графиках из статей arXiv.Self-reported
91.0%

Лицензия и метаданные

Лицензия
proprietary
Дата анонса
16 апреля 2026 г.
Последнее обновление
3 мая 2026 г.

Сравнить Claude Opus 4.7

Все сравнения

Похожие модели

Все модели

Рекомендации основаны на схожести характеристик: организация-разработчик, мультимодальность, размер параметров и производительность в бенчмарках. Выберите модель для сравнения или перейдите к полному каталогу для просмотра всех доступных моделей ИИ.