GPT-5 без VPN

Aijora.ru — без ограничений

Попробовать бесплатно
Все новости
openaiпентагонsam altmanвоенный AIтрансформация

Путь OpenAI: некоммерческая → коммерческая → военный подрядчик

Как компания, основанная ради безопасного AI для человечества, за 10 лет дошла до контракта с Пентагоном. Хронология трансформации OpenAI.

Влад МакаровВлад Макаровпроверил и опубликовал
9 мин чтения
Путь OpenAI: некоммерческая → коммерческая → военный подрядчик

Десять лет назад Сэм Альтман, Илон Маск и группа исследователей создали OpenAI как некоммерческую организацию. Миссия звучала амбициозно: обеспечить, чтобы искусственный интеллект принёс пользу всему человечеству. В пятницу, 28 февраля 2026 года, эта же организация подписала контракт с Пентагоном на развёртывание AI в засекреченных военных сетях — спустя несколько часов после того, как её конкурент Anthropic был объявлен «угрозой цепочки поставок» за отказ от аналогичной сделки.

Три акта трансформации

История OpenAI — это история постепенного отхода от первоначальных принципов, каждый раз с убедительным обоснованием.

Акт первый: некоммерческая (2015-2019). OpenAI создана как nonprofit с открытым исследовательским подходом. Публиковала всё, делилась моделями. Идея: AI слишком важен, чтобы быть в руках одной корпорации.

Акт второй: «ограниченная прибыль» (2019-2024). Обоснование: для конкуренции с Google и развития GPT нужны миллиарды. Появляется структура capped-profit, Microsoft вкладывает $13 млрд. Открытость постепенно исчезает — GPT-4 уже выходит без техдеталей.

Акт третий: полноценная коммерция и военный контракт (2025-2026). OpenAI конвертируется в коммерческую компанию. Оценка достигает $730 млрд. В феврале 2026 подписывает сделку с Пентагоном. Круг замыкается: компания, созданная чтобы AI не попал «не в те руки», теперь поставляет его военным.

«Было определённо поспешно»

Сэм Альтман не стал скрывать обстоятельства. В AMA-сессии на X он признал: сделка «was definitely rushed, and the optics don't look good» — «была определённо поспешной, и выглядит это нехорошо». OpenAI начала переговоры с Пентагоном только после того, как стал очевиден конфликт с Anthropic, и закрыла их за считанные дни.

Альтман объяснил спешку желанием «деэскалировать» ситуацию между военными и AI-индустрией. Логика такая: если OpenAI покажет, что можно договориться, давление на всю отрасль ослабнет. «Если мы правы и это приведёт к деэскалации — будем выглядеть гениями. Если нет — нас и дальше будут называть поспешными и неосторожными», — написал он.

Юридический vs моральный подход

MIT Technology Review точно сформулировал суть различия. Anthropic настаивала на конкретных запретах в контракте — это моральный подход. OpenAI сделала ставку на ссылки на действующее законодательство — это юридический подход.

Контракт OpenAI разрешает использование «для всех законных целей» (all lawful purposes), но включает ссылки на Четвёртую поправку, Закон о национальной безопасности 1947 года, FISA и директиву Пентагона 3000.09 об автономном оружии. Идея: раз закон уже запрещает массовую слежку и неконтролируемое автономное оружие — зачем дублировать это в контракте?

Проблема в том, что, как отмечает профессор Джессика Тиллипман из George Washington University, этот контракт «не даёт OpenAI свободно стоящего права запретить иное законное использование правительством». Он лишь фиксирует, что Пентагон не будет нарушать текущие законы. А законы, как показала история с программами слежки, вскрытыми Сноуденом, могут интерпретироваться весьма гибко.

Бунт изнутри

Реакция сотрудников OpenAI оказалась болезненной для руководства. Многие подписали открытое письмо в поддержку позиции Anthropic. Лео Гао, исследователь alignment в OpenAI, публично раскритиковал работодателя в X, назвав упоминания ограничений «оконным декором» (window dressing).

Кампания #CancelChatGPT набрала обороты. Claude от Anthropic на какое-то время обогнал ChatGPT в App Store. Тротуар перед штаб-квартирой OpenAI в Сан-Франциско покрылся критическими граффити мелом.

Показательно, что даже OpenAI выступила против присвоения Anthropic статуса supply chain risk: «Это было бы очень плохо для нашей индустрии и нашей страны», — написал Альтман.

Уже пересматривают

3 марта, спустя три дня после подписания, Альтман объявил о пересмотре условий. По его словам, сделка была «оппортунистической и небрежной». OpenAI добавила в контракт прямой запрет на внутреннюю слежку за гражданами США, включая использование коммерчески доступных данных. Также Пентагон согласился, что спецслужбы (включая АНБ) не получат доступа к OpenAI по текущему контракту — потребуется отдельное соглашение.

Это косвенно подтверждает правоту Anthropic: без чётких запретов в контракте границы размываются. Если бы OpenAI изначально подписала сделку с достаточными гарантиями, пересматривать через три дня было бы нечего.

Прецедент, который определит будущее

Для индустрии AI эта история — водораздел. Два подхода к работе с государством теперь обозначены предельно ясно. Anthropic предпочла потерять контракт, но сохранить принципы. OpenAI предпочла подписать и дорабатывать на ходу.

Кто окажется прав — зависит от того, будет ли Пентагон соблюдать дух соглашения, а не только его букву. Сэм Альтман сам сказал: «Я глубоко верю в демократический процесс. Меня пугает мир, где AI-компании считают, что у них больше власти, чем у правительства. Но меня также пугает мир, где правительство решит, что массовая слежка — это нормально».

Оба мира теперь стали чуть ближе.

Похожие новости

Листайте вниз

для загрузки следующей статьи