«Это вопрос принципов»: глава робототехники OpenAI ушла из-за сделки с Пентагоном
Кейтлин Калиновски покинула OpenAI после соглашения компании с Министерством обороны США. Она назвала решение поспешным и предупредила об угрозах слежки и автономного оружия.

Кейтлин Калиновски, руководитель направления робототехники и аппаратного обеспечения OpenAI, объявила об уходе из компании. Причина — сделка с Пентагоном, которую она назвала поспешной и лишённой достаточных гарантий против злоупотреблений. Это первый публичный уход топ-менеджера OpenAI на фоне растущего конфликта вокруг военного применения ИИ.
Что произошло
7 марта Калиновски опубликовала заявление в X, в котором объяснила своё решение. Формулировки были прямыми:
«AI играет важную роль в национальной безопасности. Но слежка за американцами без судебного надзора и летальная автономия без человеческого разрешения — это линии, которые заслуживали большего обсуждения, чем получили.» — Кейтлин Калиновски
Она подчеркнула, что проблема не в людях, а в принципах, и что соглашение с Министерством обороны было заключено «без определённых защитных мер». Калиновски пришла в OpenAI в 2024 году из Meta, где руководила проектом Orion — AR-очками компании.
OpenAI подтвердила уход и заявила TechCrunch, что соглашение с Пентагоном «создаёт рабочий путь для ответственного использования ИИ в целях национальной безопасности» и содержит чёткие красные линии: никакой внутренней слежки и никакого автономного оружия.
Контекст: как OpenAI оказалась в Пентагоне
История началась ещё в июне 2025 года, когда OpenAI вместе с Anthropic, Google и xAI получила контракт на $200 млн от Пентагона на разработку инструментов ИИ для национальной безопасности. Тогда речь шла о кибербезопасности, анализе разведданных и логистике.
Но в начале 2026 года ситуация изменилась. Администрация Трампа разорвала контракт с Anthropic, официально признав компанию «риском для цепи поставок» после того, как та отказалась разрешить военным использовать Claude для автономного оружия и массовой слежки. Это расчистило дорогу для OpenAI, которая пошла на углубление сотрудничества с Министерством обороны — теперь переименованным в «Department of War».
Сэм Альтман позже признал, что соглашение выглядело «оппортунистическим и небрежным», и назвал процесс «поспешным». Договор был дополнен — теперь в нём явно указано, что системы на базе ChatGPT «не должны намеренно использоваться для внутренней слежки за гражданами США».
Волна последствий
Уход Калиновски — часть более широкой картины. Удаление ChatGPT с телефонов выросло на 295% на следующий день после объявления о сделке с Пентагоном. Одновременно загрузки Claude от Anthropic подскочили на 55%. Движение #CancelChatGPT набирает обороты — его поддержала даже Кэти Перри с 85 миллионами подписчиков.
Калиновски не единственный исследователь, покинувший компанию из-за этических разногласий. В феврале из Anthropic ушёл руководитель отдела исследований безопасности Мринанк Шарма, предупредив в открытом письме, что «мир в опасности». Он писал, что команды безопасности находятся под нарастающим давлением, пока компании гонятся за развёртыванием мощных систем ИИ.
Что это значит для отрасли
Ситуация обнажает фундаментальный раскол в индустрии ИИ. С одной стороны — коммерческое давление и геополитическая гонка, в которой военные контракты приносят сотни миллионов долларов. С другой — исследователи и инженеры, которые строили эти системы с верой в их мирное применение.
Для OpenAI потеря руководителя робототехники — болезненный удар. Робототехника считается одним из ключевых направлений будущего компании, и уход человека, который формировал эту стратегию, сигнализирует о глубине внутренних разногласий. Калиновски не просто рядовой сотрудник — она была нанята специально для создания роботехнического подразделения с нуля.
Anthropic, в свою очередь, получает репутационные дивиденды от своей позиции. Компания отказалась от военного контракта и потеряла контракт с Пентагоном, но выиграла в общественном мнении — и в загрузках. Это создаёт прецедент: этическая позиция может быть не только моральным выбором, но и конкурентным преимуществом.
Что дальше
OpenAI заявила, что продолжит «вести дискуссии с сотрудниками, правительством, гражданским обществом и сообществами по всему миру». Но слова звучат глухо на фоне действий. Пока компания углубляется в военное сотрудничество, из неё уходят люди, которые могли бы определить границы безопасного применения этих технологий.
Главный вопрос не в том, должен ли ИИ использоваться в целях безопасности — это, вероятно, неизбежно. Вопрос в том, кто устанавливает правила и насколько серьёзно к ним относятся. Калиновски считает, что правила должны были появиться до сделки, а не после.


