GPT-5 без VPN

Aijora.ru — без ограничений

Попробовать бесплатно
Все новости
yann-lecunfrancois-cholletagillmphilosophymetaworld-models

Два голоса против мейнстрима: LeCun и Chollet о том, куда AI идёт не туда

Yann LeCun уходит из Meta ради стартапа с world models. François Chollet предупреждает об угрозах когнитивной автоматизации. Что объединяет двух критиков современного подхода к AGI.

Влад МакаровВлад Макаровпроверил и опубликовал
9 мин чтения
Два голоса против мейнстрима: LeCun и Chollet о том, куда AI идёт не туда

Силиконовая долина бьётся над одной задачей: сделать языковые модели умнее. Больше параметров, больше данных, больше GPU. Но два человека, чьи имена неразрывно связаны с историей нейросетей, смотрят на эту гонку со скептицизмом. Yann LeCun, один из «крёстных отцов» глубокого обучения, недавно покинул Meta и готовит стартап, основанный на принципиально другой архитектуре. François Chollet, создатель Keras и автор ARC Prize, уже несколько лет предупреждает о том, что когнитивная автоматизация — это не путь к искусственному интеллекту, а инструмент манипуляции.

LeCun уходит из Meta

В ноябре 2025 года Wall Street Journal опубликовал статью с провокационным заголовком: «He's Been Right About AI for 40 Years. Now He Thinks Everyone Is Wrong». Речь шла о Yann LeCun, который открыто заявил, что языковые модели — тупик на пути к AGI.

«Мы не достигнем человеческого уровня интеллекта просто масштабируя LLM. Никаким образом. И что бы ни говорили мои более авантюрные коллеги — это не произойдёт в ближайшие два года».

LeCun сравнивает современные модели с разумом кота — и считает, что кот умнее. По его словам, LLM — это предиктивные системы, обученные на текстах. Они не понимают физический мир, не имеют причинно-следственных моделей реальности и не способны адаптироваться к ситуациям, которых не видели в обучающих данных.

Вместо этого LeCun продвигает концепцию world models — систем, которые учатся понимать мир через визуальную информацию, подобно тому, как это делает ребёнок или детёныш животного. Не предсказание следующего токена, а построение внутренней модели реальности.

Chollet: автоматизация — не автономия

François Chollet формулирует проблему иначе. В эссе «AI is cognitive automation, not cognitive autonomy» он разделяет три типа AI: когнитивная автоматизация, когнитивная помощь и когнитивная автономия.

Почти весь современный AI попадает в первую категорию. Это системы, которые кодируют человеческие абстракции в софт — либо явно через правила, либо неявно через обучение на размеченных данных. Deep learning модели, по сути, работают как интерполятивные базы данных: они не хранят точные примеры, но могут выдавать промежуточные точки между ними.

Chollet подчёркивает ключевое различие между автоматизацией и интеллектом: адаптивность к неизвестному. Живое существо способно самостоятельно приспособиться к изменяющемуся будущему. Когнитивный мультфильм — даже очень реалистичный — будет работать только в тех сценах, которые для него запрограммировали.

Интеллект — это адаптация к неизвестным неизвестным на неизвестном диапазоне задач. Автоматизация, в лучшем случае — надёжная обработка известных неизвестных на известных задачах.

Угроза, о которой не говорят

Если LeCun критикует техническую сторону — архитектуру моделей — то Chollet смотрит глубже, на социальные последствия. В эссе «What worries me about AI» (2018) он описал механизм, который сегодня работает в полную силу: AI-оптимизированные новостные ленты как инструмент манипуляции поведением.

Социальные сети одновременно собирают данные о нас и контролируют информацию, которую мы потребляем. Это создаёт контур обратной связи, где алгоритм может наблюдать текущее состояние целей и настраивать подаваемую информацию, пока не добьётся нужного мнения или поведения. Reinforcement learning для человеческого разума.

Chollet описывает конкретные векторы атаки: усиление идентичности (ассоциация нужных взглядов с маркерами, с которыми вы себя идентифицируете), негативное социальное подкрепление (показ критики только противникам ваших постов), позитивное подкрепление (лайки от единомышленников или ботов), sampling bias (создание информационного пузыря), персонализация аргументов (контент, максимально эффективный для вашего психологического профиля).

Человеческий разум — статичная, уязвимая система. Эти уязвимости не патчатся, они в нашей ДНК. И всё более умные алгоритмы будут их эксплуатировать.

Общий знаменатель

При всех различиях в фокусе, у LeCun и Chollet есть общая позиция: современный подход к AI ведёт в неправильном направлении. LeCun считает, что масштабирование LLM не приведёт к AGI технически. Chollet предупреждает, что даже без AGI текущие системы создают экзистенциальные риски для демократии и человеческой автономии.

Оба скептически относятся к идее «intelligence explosion» — концепции, что первый seed AI запустит лавину самоулучшения и быстро станет сверхразумом. Chollet ещё в 2017 году опубликовал эссе «The implausibility of intelligence explosion», где математически обосновывал, почему это маловероятно.

Интересно, что оба исследователя не против AI как такового. LeCun строит стартап на основе world models — он верит, что это правильный путь. Chollet видит огромный потенциал в когнитивной помощи — AI как инструмент, расширяющий человеческие возможности, а не заменяющий их. Ключевая разница: кто контролирует алгоритм — вы или корпорация.

Критика критиков

Позиция LeCun вызывает неоднозначную реакцию в сообществе. Gary Marcus, многолетний критик deep learning, указывает, что многие идеи, которые LeCun сейчас продвигает, были высказаны другими исследователями раньше. Критика LLM звучала с 2019 года. Важность world models обсуждалась Schmidhuber ещё в 1990-х. Проблему commonsense reasoning поднимали Pat Hayes, Ernest Davis и сам Marcus.

Недавний опрос AAAI показал, что большинство исследователей не верят, что LLM приведут к AGI. LeCun не одинок в своём скептицизме — скорее, он озвучивает мнение, которое давно существовало, но не получало широкого освещения в прессе.

С другой стороны, Meta и OpenAI продолжают инвестировать миллиарды в масштабирование именно языковых моделей. Mark Zuckerberg строит «суперинтеллект» на основе Llama. OpenAI привлекает $60 миллиардов на развитие GPT. Рынок голосует деньгами за мейнстримный подход.

Что это значит

Дискуссия между LeCun, Chollet и мейнстримом AI-индустрии — это не просто академический спор. Это вопрос о будущем человечества: создаём ли мы инструменты, которые расширяют наши возможности, или системы, которые нас заменяют и контролируют?

LeCun предлагает альтернативную архитектуру. Его стартап с world models — эксперимент, который покажет, есть ли жизнь за пределами LLM. Chollet призывает к переосмыслению целей: AI должен служить пользователю, а не эксплуатировать его. Вместо алгоритмов, максимизирующих «вовлечённость», нужны системы, которые помогают учиться и расти.

Обе позиции сходятся в одном: контроль должен оставаться у человека. Не у корпорации, не у государства, не у алгоритма.

Выводы

Два голоса — LeCun и Chollet — звучат вразрез с консенсусом Кремниевой долины. Один уходит из Meta, чтобы доказать, что world models — более перспективный путь, чем LLM. Другой предупреждает, что даже текущие системы представляют угрозу для демократии через массовую манипуляцию поведением.

Ирония в том, что оба — не луддиты. Они не против AI, они против конкретного направления развития. LeCun хочет построить системы, которые действительно понимают мир. Chollet хочет, чтобы пользователь контролировал алгоритмы, а не наоборот.

2026 год покажет, кто прав. Стартап LeCun с world models против миллиардов OpenAI и Meta. Философия Chollet о когнитивной помощи против бизнес-модели, построенной на максимизации engagement. Ставки высоки — речь идёт о том, каким будет наше будущее с AI.

Похожие новости

Листайте вниз

для загрузки следующей статьи