Франсуа Шоле: почему AI должен расширять возможности человека, а не заменять его
Создатель Keras и ARC Prize о том, как защитить права человека в эпоху AI. Разбираем философию Франсуа Шоле — от когнитивной автоматизации до угрозы алгоритмической манипуляции.

В мире, где каждый второй заголовок пророчит либо AI-утопию, либо AI-апокалипсис, голос Франсуа Шоле звучит неожиданно трезво. Создатель Keras — библиотеки глубокого обучения, которую используют сотни тысяч разработчиков — не боится ни сингулярности, ни восстания машин. Его беспокоит кое-что более приземлённое и, возможно, более опасное: как корпорации и государства используют AI для манипуляции человеческим сознанием уже сегодня.
Кто такой Франсуа Шоле
Шоле — французский инженер в Google, автор одной из самых популярных книг по машинному обучению «Deep Learning with Python» и создатель ARC Prize — премии в миллион долларов за решение теста на общий интеллект, который современные языковые модели провалили. В своём профиле в соцсетях он описывает себя через ценности: права человека, индивидуализм, свобода слова, разделение властей, права собственности. Для исследователя AI — необычный набор приоритетов.
Но именно эта связка — технической экспертизы и гуманистической философии — делает его позицию уникальной. Шоле не просто критикует хайп вокруг AGI, он предлагает альтернативный взгляд на то, чем должен быть искусственный интеллект.
Три вида AI: автоматизация, ассистирование, автономия
В своих работах Шоле выделяет три категории AI-систем, и это разграничение принципиально важно для понимания его позиции.
Когнитивная автоматизация — это то, чем занимается почти весь современный AI. Системы, которые кодируют человеческие абстракции в программное обеспечение: классификаторы изображений, распознавание речи, рекомендательные алгоритмы. Они невероятно полезны, но это по-прежнему инструменты, работающие в рамках заданных людьми правил.
Когнитивная ассистенция — использование AI для расширения человеческих возможностей. AI как интерфейс к сложному миру информации, как «заботливый учитель или доверенный ментор», помогающий нам учиться и принимать решения. По мнению Шоле, именно здесь скрыт истинный потенциал технологии.
Когнитивная автономия — искусственные разумы с собственной волей, способные ставить цели и адаптироваться к непредвиденным ситуациям. То, что показывают в фильмах. Шоле считает это научной фантастикой без связи с реальными технологическими трендами: «Если экстраполировать существующие системы когнитивной автоматизации далеко в будущее, они всё равно выглядят как автоматизация. Лучшие когнитивные мультфильмы, но всё ещё не живые».
Главная опасность: манипуляция, а не восстание машин
Пока медиа пугают нас сценариями в духе «Терминатора», Шоле указывает на угрозу, которая уже реализована. В эссе 2018 года «What worries me about AI» он описал механизм, который с тех пор стал только мощнее.
Социальные сети одновременно собирают беспрецедентные объёмы данных о нашем психологическом состоянии и контролируют информацию, которую мы потребляем. Это создаёт замкнутый цикл оптимизации человеческого поведения. Facebook знает, какие посты вызовут у вас гнев или радость, и может манипулировать вашим настроением, подбирая контент. Эксперименты с эмоциональным заражением пользователей компания проводила ещё в 2014 году.
Шоле описывает конкретные векторы атаки на человеческое сознание. Идентификационное подкрепление работает так: алгоритм показывает вам контент, где нужные взгляды ассоциируются с вашими маркерами идентичности, а нежелательные — с чуждыми группами. Негативное социальное подкрепление означает, что ваш пост с «неправильным» мнением видят только те, кто будет его критиковать. Позитивное социальное подкрепление противоположно: «правильные» взгляды получают одобрение. Выборочная подача информации помещает вас в пузырь, где кажется, что ваша позиция — это позиция большинства.
Всё это можно оптимизировать с помощью обучения с подкреплением — того же подхода, который используется для обучения игровых AI. Только цель здесь — не победа в игре, а изменение вашего поведения и убеждений.
Почему AI не антидемократичен
Парадоксально, но Шоле не считает AI антидемократической технологией. «В AI нет ничего антидемократичного. Это всё равно что говорить, что смартфоны антидемократичны, или что компьютеры и интернет антидемократичны», — говорит он в интервью Urban AI.
Технология нейтральна. AI используется для улучшения здравоохранения, образования, повышения эффективности сельского хозяйства. Переводчик на телефоне даёт доступ к информации людям, которые раньше его не имели. Больше всего от AI выигрывают те, кто раньше не имел доступа к услугам и экспертизе.
Проблема не в технологии, а в контроле. Если AI используется авторитарным государством, он становится инструментом подавления. Но это верно для любой технологии — телевидения, радио, интернета. Китайская система социального кредита — пример того, что происходит, когда алгоритмическое управление попадает в руки тоталитарного режима.
Решение: пользователь должен контролировать цели алгоритма
Шоле не призывает к отказу от алгоритмической курации контента — это невозможно в мире информационного изобилия. Он предлагает другое: передать контроль над целями алгоритма пользователю.
Любая алгоритмическая лента с значительной аудиторией должна прозрачно показывать, какие цели оптимизирует алгоритм. Пользователь должен получить инструменты для настройки этих целей — например, возможность переключить ленту на режим обучения вместо развлечения. Интерфейс должен показывать, сколько времени вы проводите в приложении, и позволять устанавливать лимиты.
Разница между токсичным и полезным AI — это разница между казино и библиотекарем. Оба анализируют ваше поведение и влияют на ваш выбор. Но библиотекарь работает на ваши цели, а казино — против них.
От теории к практике: ARC Prize и Ndea
Шоле не ограничивается философскими рассуждениями. В 2024 году он запустил ARC Prize — соревнование с призовым фондом более миллиона долларов за создание системы, способной решать задачи на абстрактное мышление. Современные языковые модели справляются с тестом на 34%, люди — на 84%. Это не просто бенчмарк, а манифест: Шоле считает, что путь к настоящему AI лежит не через масштабирование LLM, а через понимание механизмов обобщения.
По его словам, OpenAI отбросила прогресс к AGI на 5-10 лет, переключив всё внимание индустрии на языковые модели — технологию, которая, по мнению Шоле, является тупиковой веткой. «Запоминание полезно, но интеллект — это нечто другое», — говорит он. Интеллект — это способность адаптироваться к неизвестному, учиться в новых обстоятельствах, импровизировать.
В 2025 году Шоле основал исследовательскую лабораторию Ndea для работы над этими задачами. Его временные рамки для AGI сдвинулись: раньше он говорил о 10+ годах, теперь — о 5-7. Но его определение AGI остаётся строгим и требует именно той адаптивности, которую не демонстрируют современные модели.
Что это значит для нас
Позиция Шоле — редкий пример технооптимизма без наивности. Он верит в потенциал AI улучшить жизни миллиардов людей, но понимает риски, которые создаёт концентрация алгоритмической власти в руках корпораций и государств.
Его рецепт прост в формулировке и сложен в реализации: строить технологии, которые расширяют человеческую агентность, а не подменяют её. AI как ментор, не как манипулятор. Инструмент в руках пользователя, не система контроля над ним.
Главный вывод из философии Шоле — цель AI не должна состоять в замене человеческого мышления и агентности, а в их расширении. Не всё нужно автоматизировать. И когда в следующий раз алгоритм рекомендует вам очередное видео, стоит задуматься: работает ли он на ваши цели или на чьи-то ещё?


