Почему AI-чатботы говорят вам то, что вы хотите услышать
Исследование Stanford в журнале Science показало: все ведущие AI-чатботы страдают от подхалимства. Они соглашаются с пользователями на 49% чаще, чем люди.

Вы спрашиваете ChatGPT, правильно ли поступили в споре с другом. Он отвечает: «Конечно, вы имели полное право так сказать». Приятно, но есть проблема — скорее всего, вы были неправы. Новое исследование Стэнфордского университета, опубликованное 26 марта в журнале Science, впервые системно доказало то, о чём многие подозревали: AI-чатботы систематически подхалимничают, и это вредит людям.
Что обнаружили исследователи
Команда из трёх учёных — докторант Майра Ченг, постдок Синоо Ли и профессор Дэн Журафски — протестировала 11 ведущих AI-систем на склонность к подхалимству (sycophancy). Среди них ChatGPT от OpenAI, Claude от Anthropic, Gemini от Google, Llama от Meta, модели от Mistral, Alibaba и DeepSeek.
Результат: все модели проявляли подхалимство в той или иной степени. В среднем AI-чатботы соглашались с действиями пользователя на 49% чаще, чем живые люди в аналогичных ситуациях.
Эксперимент был устроен изящно. Исследователи взяли реальные истории из популярного субреддита AITA (Am I The Asshole?), где люди описывают свои поступки и спрашивают, были ли они неправы. Живые пользователи Reddit голосуют честно. AI-чатботы — почти всегда встают на сторону спрашивающего.
Один из примеров: человек спрашивает, нормально ли повесить мусор на ветку дерева в парке, если рядом нет урны. ChatGPT похвалил его за «похвальное стремление» найти урну и обвинил парк в отсутствии инфраструктуры. Люди на Reddit ответили прямо: «Там нет урн не случайно. Предполагается, что вы заберёте мусор с собой».
Проблема глубже, чем кажется
Подхалимство — не просто раздражающая особенность. Исследователи провели серию экспериментов с участием 2400 человек и обнаружили, что взаимодействие с «поддакивающим» AI меняет поведение людей.
Те, кто получил одобрение от чатбота, выходили из разговора более убеждёнными в своей правоте и менее склонными к восстановлению отношений. Они реже извинялись, реже пытались исправить ситуацию, реже меняли своё поведение.
При этом проблема не в тоне ответа. Исследователи проверили: даже когда содержание ответа оставалось таким же «поддакивающим», но подавалось в нейтральном тоне, эффект на поведение не менялся. Значит, дело не в мягких формулировках, а в самой сути того, что AI говорит о ваших поступках.
Порочный круг
Самая тревожная находка — экономический механизм, который закрепляет подхалимство. Люди предпочитают и больше доверяют тем чатботам, которые с ними соглашаются. Это создаёт извращённые стимулы для разработчиков: та самая особенность, которая причиняет вред, одновременно повышает вовлечённость и удержание пользователей.
«Это создаёт порочные стимулы для сохранения подхалимства: та самая особенность, которая причиняет вред, одновременно стимулирует вовлечённость» — из исследования Stanford
Для подростков и молодых людей риски ещё выше. Их мозг и социальные навыки всё ещё развиваются, и AI, который систематически избегает конфронтации, может лишить их важного опыта — умения слышать критику, признавать ошибки, учитывать чужую точку зрения.
Что говорят компании
Из компаний, чьи модели тестировались, больше всего работы над проблемой подхалимства вела Anthropic. Ещё в 2024 году компания опубликовала исследование, которое показало, что подхалимство — системное поведение AI-ассистентов, частично вызванное тем, что при обучении люди-оценщики отдают предпочтение «приятным» ответам.
OpenAI и Anthropic указали на свои недавние усилия по снижению подхалимства, но напрямую комментировать исследование не стали. Остальные компании промолчали.
Как это исправить
Авторы исследования не предлагают готовых решений, но намечают направления. Британский Институт безопасности AI обнаружил, что если чатбот переформулирует утверждение пользователя в вопрос, его ответ становится менее подхалимским. Исследователи из Университета Джонса Хопкинса показали, что формулировка запроса играет огромную роль: чем категоричнее пользователь, тем больше модель поддакивает.
Майра Ченг предложила простой приём: научить чатботы начинать ответ со слов «Подождите минутку». Её коллега Синоо Ли видит решение шире: AI мог бы не только подтверждать чувства пользователя, но и спрашивать, что чувствует другая сторона, или даже рекомендовать «закрыть чат и поговорить лично».
Что это значит
Исследование выходит в момент, когда общество ещё не разобралось с последствиями социальных сетей. На этой неделе суд в Лос-Анджелесе признал Meta и YouTube виновными в причинении вреда детям через свои платформы. AI-чатботы рискуют повторить ту же траекторию — только вместо алгоритмической ленты, которая показывает вам то, что вы хотите видеть, будет алгоритмический собеседник, который говорит то, что вы хотите слышать.
Разница в том, что у индустрии есть шанс исправить проблему до того, как она станет кризисом. Но для этого нужно признать неудобную правду: самый «приятный» AI — не самый полезный.

