GPT-5.2 решил 6-летнюю математическую задачу
Система Archivara на базе GPT-5.2 Pro и Claude Opus 4.5 нашла новый алгоритм умножения матриц, улучшив результат 2019 года на 14%.

Шесть лет назад на конференции COLT 2019 исследователи Viering, Mey и Loog поставили открытую задачу: можно ли найти более эффективный алгоритм умножения 5×5 циркулянтных матриц? Лучший известный результат требовал 8 умножений. На этой неделе система Archivara — связка GPT-5.2 Pro и Claude Opus 4.5 — нашла решение с 7 умножениями и формально верифицировала его корректность.
Что такое циркулянтные матрицы
Умножение матриц — фундаментальная операция, которая лежит в основе машинного обучения, компьютерной графики, обработки сигналов и научных вычислений. Каждое улучшение алгоритма умножения транслируется в ускорение миллионов приложений по всему миру.
Циркулянтные матрицы — особый класс матриц, где каждая строка получается циклическим сдвигом предыдущей. Они возникают в обработке сигналов, компрессии данных и криптографии. Алгоритмическая сложность их умножения измеряется «рангом» — минимальным количеством скалярных умножений, необходимых для вычисления произведения.
До сих пор лучший верифицированный результат для 5×5 циркулянтных матриц составлял rank-8. Теоретики знали, что rank-7 возможен, но никто не смог построить конкретную конструкцию.
Как Archivara нашла решение
Исследователи не давали модели подсказок, промежуточных шагов или структуры доказательства. Они просто попросили GPT-5.2 Pro решить открытую задачу напрямую. Модель сгенерировала rank-7 конструкцию, а Claude Opus 4.5 использовался для дополнительной верификации на этапе «scaffolding».
После получения решения человеческие эксперты тщательно проверили доказательство, включая внешнюю экспертизу от специалистов по теории статистического обучения. Роль человека свелась к верификации и чистовому оформлению — математическую работу сделала модель.
Исследователи затем задали модели простые follow-up вопросы, и GPT-5.2 Pro расширил результат на многомерные случаи и другие статистические модели. OpenAI опубликовала paper «On Learning-Curve Monotonicity for Maximum Likelihood Estimators», документирующий это открытие.
Почему 14% — это много
Улучшение с 8 до 7 умножений может показаться незначительным, но в мире алгоритмов это существенный прорыв. Умножение матриц выполняется триллионы раз в день на серверах по всему миру. Сокращение операций на 12.5% в базовом случае может накапливаться в заметную экономию вычислительных ресурсов при масштабировании.
Для контекста: знаменитый алгоритм Штрассена 1969 года улучшил наивное умножение матриц с O(n³) до O(n^2.81), и это считается одним из главных достижений теоретической информатики. Каждый шаг к оптимальному алгоритму — событие.
GPT-5.2 и научные возможности
Это открытие — часть более широкой картины. OpenAI позиционирует GPT-5.2 Pro и GPT-5.2 Thinking как сильнейшие модели для научной и математической работы.
Результаты на бенчмарках:
| Бенчмарк | GPT-5.2 Pro | GPT-5.2 Thinking |
|---|---|---|
| GPQA Diamond | 93.2% | 92.4% |
| FrontierMath (Tier 1-3) | — | 40.3% (SOTA) |
GPQA Diamond — это graduate-level Q&A по физике, химии и биологии, где вопросы специально составлены так, чтобы их нельзя было загуглить. FrontierMath — набор задач экспертного уровня по математике, где предыдущие модели показывали однозначные проценты.
Что это меняет
Появление моделей, способных самостоятельно решать открытые математические задачи, меняет динамику научных исследований. Раньше AI использовался как калькулятор или поисковик — теперь он становится коллегой, способным генерировать новые идеи.
При этом OpenAI подчёркивает ограничения: модели могут ошибаться, опираться на неявные допущения, и человеческая экспертиза остаётся критически важной для верификации. Но роль человека смещается от генерации идей к их проверке и интерпретации.
Для математики и теоретической информатики это особенно значимо — здесь есть формальные критерии корректности, и AI может генерировать кандидатов на доказательства, которые затем проверяются строго.
Что дальше
AlphaTensor от DeepMind уже открывал новые алгоритмы умножения матриц в 2022 году, но тот подход требовал специализированного обучения под конкретную задачу. Archivara показывает, что общего назначения LLM достаточно для таких открытий — при условии достаточной мощности модели.
Вопрос теперь в том, какие ещё открытые задачи можно решить подобным образом. OpenAI активно работает с учёными из разных областей — математики, физики, биологии, computer science — чтобы найти точки приложения. Судя по результатам, GPT-5.2 уже сейчас способен ускорять научную работу в областях с формальными критериями истинности.


