GPT-5.4 Pro за 80 минут решил проблему Эрдёша, над которой бились 58 лет
Модель OpenAI закрыла гипотезу Эрдёша, Шаркёзи и Шемереди №1196 за одну сессию. Теренс Тао назвал работу «доказательством из Книги»

1968 год. Пал Эрдёш вместе со Шаркёзи и Шемереди формулируют гипотезу о примитивных множествах натуральных чисел. 2026 год, 13 апреля. Математик Лиам Прайс нажимает «отправить» в интерфейсе GPT-5.4 Pro. Через 80 минут модель выдаёт доказательство. Ещё через 30 оформляет его в LaTeX-препринт. Теренс Тао — один из самых авторитетных математиков современности — пишет в форуме: это доказательство раскрывает раньше неописанную связь между анатомией целых чисел и теорией марковских процессов. Это больше, чем решение одной задачи.
Что за гипотеза
Задача №1196 из каталога erdosproblems.com звучит так: возьмите любое число x и любое примитивное подмножество A целых чисел из промежутка от x до бесконечности. «Примитивное» означает, что никакие два элемента не делят друг друга. Верно ли, что сумма обратных величин (1 делить на a, умноженное на логарифм a) не превосходит 1 плюс малую величину, стремящуюся к нулю при x стремящемся к бесконечности?
Частный случай x равного 1 (известная «константа Эрдёша-Шаркёзи-Шемереди») был доказан в 2022 году Джаредом Лихтманом — он получил оценку 1. Но общий случай оставался открытым 58 лет. Лучшая публично известная верхняя граница — примерно 1.399, тоже от Лихтмана. До значения 1 оставалось 40% — и это был вопрос, над которым билось несколько поколений специалистов по аналитической теории чисел.
Как GPT-5.4 Pro её решил
Лиам Прайс задал модели задачу одним запросом — без разбиения на подзадачи, без подсказок по методу. GPT-5.4 Pro провёл в режиме рассуждения около 80 минут и выдал доказательство на 4 леммы. Леммы 2 и 3 — известные результаты. Новое содержание — в лемме 4 и теореме 1.
Идея такая. Рассмотрим понижающую цепь Маркова: от числа n переходим к n делить q с вероятностью функция Мангольдта от q, делённая на логарифм n, где q — делитель n. Логарифм в знаменателе работает потому, что сумма функций Мангольдта по всем делителям n равна логарифму n — классическое тождество. Начальная масса распределения — 1 делить на произведение n и логарифма n.
Теперь рассмотрим сопряжённую цепь к этой — процесс, где мы движемся в обратную сторону. При правильной усечке получается суб-марковская цепь: сумма исходящих весов не превышает единицы. Два элемента примитивного множества A не могут попасть друг в друга при таких переходах — поэтому по суб-марковскому свойству сумма вероятностей попадания в элементы A ограничена. Эта сумма пропорциональна 1 делить на произведение a и логарифма a. Остаётся оценить начальную массу источника Bx — она даёт Bx равное 1 плюс O от 1 делить на логарифм x, что и требовалось доказать.
Реакция математиков
Наблюдатели на форуме erdosproblems.com разошлись в оценках, но сходятся в одном: проверили — не нашли ошибок.
Модератор natso26 первым поставил под сомнение результат (доказательство короткое, новая часть компактная), но после разбора написал: «Я не смог найти в нём изъяна. Стратегия очень интересная». Участник old-bielefelder прогнал доказательство через Gemini 3.1 Pro для независимой верификации: «Нет ошибок, нет пробелов, нет слабых мест. Это строгое, самодостаточное и высококреативное доказательство».
Теренс Тао написал развёрнутый разбор. Ключевая цитата:
«Сгенерированная AI статья неявно высветила более тесную связь между двумя областями математики — анатомией целых чисел и теорией марковских процессов — чем было ранее эксплицитно зафиксировано в литературе. Это осмысленный вклад в анатомию целых чисел, выходящий далеко за рамки решения этой конкретной задачи Эрдёша». — Теренс Тао, Филдсовский лауреат 2006
Кевин Баррето, который скоро присоединяется к команде AI for Science в OpenAI, отметил, что марковская техника — естественная идея «из других областей», которую математики-люди упустили несмотря на годы работы над задачей. Лихтман, автор лучшего предыдущего результата, написал: «Это замечательный артефакт. Я бы сказал, что, если вынести за скобки начальную прозу, это AI-доказательство из Книги. Возможно, первое такое».
Отсылка к «Книге» — не случайная. Эрдёш сам говорил о воображаемой «Книге доказательств», в которой Бог записывает самые элегантные из возможных доказательств математических теорем. Для математиков это высшая похвала.
Почему это важно для дискуссии об AI
Вокруг LLM уже несколько лет идёт спор: могут ли модели открывать новое знание, выходящее за пределы тренировочных данных. Скептики указывают, что модели «просто интерполируют» между виденными примерами. Сторонники ссылаются на редкие, но всё более частые случаи оригинальных решений.
Задача №1196 — аргумент в пользу второй позиции, но с важной оговоркой. Модель не изобрела новую технику — марковские цепи в теории чисел существуют давно. Но именно эту цепь с весами функции Мангольдта никто раньше не применял к этому классу задач. Это не изобретение инструмента — это креативная комбинация уже существующих инструментов, которую люди за 58 лет не нашли.
Важно и другое: GPT-5.4 Pro потратил на решение всего 80 минут в одном разговоре. Для сравнения — другая задача (№851) потребовала от модели более 20 продолжений и 15–20 часов рассуждений. Для №1196 не было нужды в итеративном диалоге: модель сразу увидела правильный путь.
Особо интересный пост оставил qrdl. Он попросил GPT-5.4 провести «враждебный» анализ собственного доказательства — найти слабые места. Модель ответила честно: «Естественно ли это для точки зрения статьи Лихтмана — да. Естественно ли это для техник статьи — не совсем. Можно ли сказать, что идея предложена статьёй в смысле ожидаемого продолжения — нет». Модель сама признала, что сделанный ей прыжок не является тривиальным продолжением известной работы.
Что будет дальше
Лихтман предложил Лиаму Прайсу оформить результат в совместную статью с расширениями: задача имеет импликации для связанных гипотез Эрдёша-Шаркёзи-Шемереди 1960-х годов, и новая техника может привести к более короткому доказательству старого результата самого Лихтмана. Формальная верификация в Lean идёт параллельно — её ведёт участник форума qrdl.
Для OpenAI это второй значимый математический результат за два месяца: в феврале GPT-5.2 Pro помог открыть новое явление в теории амплитуд рассеяния глюонов, в марте GPT-5.4 Pro закрыл задачу из FrontierMath по гипергиперграфам Рамсея. Паттерн повторяется: не «AI заменил математиков», а «AI нашёл идею, которую математики упустили».
Вопрос, который теперь задают всерьёз — не «могут ли модели решать открытые задачи», а «какие ещё задачи из длинного списка открытых проблем на самом деле уже можно закрыть, если правильно их сформулировать для GPT-5.4 Pro или Claude Opus 4.6». Полный архив Erdős Problems содержит около 800 открытых гипотез. Лиам Прайс, судя по тону форума, просто продолжит.


