Anthropic против OpenAI: бой за иммунитет AI-лабораторий в Иллинойсе
В Иллинойсе обсуждается закон SB 3444, который снимает с AI-лабораторий ответственность за массовые жертвы. OpenAI — за, Anthropic — категорически против.

Представьте, что чья-то AI-модель помогает злоумышленнику собрать биооружие, в результате которого гибнут сотни людей. Кто несёт ответственность — оператор модели или лаборатория, которая её обучила? В американском штате Иллинойс этот вопрос перешёл из области философии в плоскость голосования. И две главные AI-лаборатории мира оказались по разные стороны баррикад.
Что за закон
Речь о законопроекте SB 3444. Если его примут в нынешнем виде, разработчик frontier-модели не понесёт ответственности за массовый ущерб от её использования — при условии, что у компании опубликован собственный safety framework на сайте. Под «массовым ущербом» закон понимает в том числе гибель людей и материальный урон свыше $1 млрд.
Это, по сути, юридический иммунитет в обмен на формальное соблюдение собственных же правил безопасности. Сторонники называют это «гармонизацией ответственности», критики — «get-out-of-jail-free card».
OpenAI законопроект публично поддержала. Глава Anthropic по работе с штатами Цезарь Фернандес назвал его «противоположностью настоящей прозрачности» и заявил, что компания ведёт лоббистскую работу против него — переговоры с сенатором Биллом Каннингемом, спонсором SB 3444, и другими законодателями штата.
«Хорошее регулирование должно обеспечивать общественную безопасность и подотчётность компаний, разрабатывающих эту мощную технологию, а не выдавать им индульгенцию против любой ответственности». — Цезарь Фернандес, глава Anthropic по работе с штатными и местными властями США
Офис губернатора Иллинойса Дж. Б. Прицкера осторожно дистанцировался: «Губернатор не считает, что крупные технологические компании когда-либо должны получать полный щит, освобождающий их от обязанностей перед обществом».
Почему это важно прямо сейчас
Шансы, что SB 3444 пройдёт в нынешнем виде, по оценкам экспертов невелики. Но именно поэтому история интересна — она вскрыла политический разлом между OpenAI и Anthropic, который раньше не выходил за пределы Twitter-перепалок и публичных подкастов.
Anthropic традиционно занимает более жёсткую позицию по вопросам ответственности. Компания была основана пять лет назад выходцами из OpenAI, ушедшими из-за разногласий именно по теме безопасности. На прошлой неделе Anthropic дала показания в поддержку другого иллинойского законопроекта — SB 3261, который наоборот обязал бы frontier-разработчиков публиковать safety-планы и проходить независимый аудит.
OpenAI же действует прагматично: компания работает с Нью-Йорком, Калифорнией и теперь Иллинойсом над тем, что сама называет «гармонизированным подходом» — единым набором правил по штатам, чтобы избежать лоскутного одеяла из противоречивых требований.
За что на самом деле спор
Формально это спор о компенсациях. Реально — о том, кого общество посчитает виноватым в день, когда AI-модель действительно причинит крупный вред. Этот день, по консенсусу AI-сообщества, не «если», а «когда».
Аргумент Anthropic: если на frontier-разработчика не возложить часть ответственности, у него пропадает экономический стимул вкладываться в безопасность. Сейчас угроза суда — мощнейший рычаг, заставляющий компании тратить ресурсы на red-teaming, фильтры, мониторинг. Уберите рычаг — и safety-команды первыми попадут под сокращения.
Аргумент OpenAI: безусловная ответственность убивает инновации, особенно для малого бизнеса, который интегрирует AI-модели. Никто не будет лицензировать GPT-5 для медицинского чат-бота, если за ошибку модели можно сесть на скамью подсудимых вместе с разработчиком.
Оба аргумента имеют под собой основу. Закон SB 3444 решает второй кейс через крайнюю меру — фактическое снятие ответственности при минимальных формальных требованиях. Юрист Томас Вудсайд, сооснователь Secure AI Project, сформулировал жёстко: «Liability уже существует в общем праве и создаёт мощный стимул для AI-компаний предотвращать предсказуемые риски. SB 3444 пошёл бы на крайний шаг — почти полностью устранить ответственность за серьёзный вред».
Контекст: Anthropic под давлением Трампа
Этот эпизод накладывается на более широкую историю. Администрация Трампа последовательно пытается ограничить штатное регулирование AI, считая, что оно тормозит развитие индустрии. Бывший «AI-царь» при Белом доме Дэвид Сакс осенью прошлого года в посте на X обвинил Anthropic в «изощрённой стратегии regulatory capture, основанной на нагнетании страха».
В марте 2026 года Anthropic выиграла судебный приказ, заблокировавший попытку администрации запретить госорганам использование Claude — суд назвал это «незаконной местью» за публичные позиции компании. Прицкер сейчас оказался в неудобном положении: подписать закон, который Трамп бы поддержал, или встать на сторону Anthropic, которая для администрации — раздражитель.
Что это меняет для индустрии
Главный вывод — публичная пропасть между OpenAI и Anthropic стала шире, чем когда-либо. Раньше компании разговаривали друг с другом через подкасты Дварко Патель и страницы Twitter; теперь они нанимают разных лоббистов в одних и тех же штатных столицах.
Для разработчиков, использующих API frontier-моделей, это сигнал: правила игры по ответственности будут меняться, причём в разные стороны в разных штатах. SOC2 и юридическая экспертиза становятся такой же частью AI-стека, как outage handling.
Для российских и европейских наблюдателей — урок про то, как формируется AI-регуляторика в США. Не через Конгресс, а через десятки штатных законов, каждый из которых лоббируется отдельно. EU AI Act выглядит на этом фоне моделью простоты.
Что дальше
SB 3444 ждут поправки или забвение. Anthropic будет добиваться его существенной переработки. Параллельно SB 3261 имеет шансы пройти и стать одним из самых жёстких AI-законов в США. Если оба сценария реализуются, frontier-разработчики получат одновременно более строгие требования к прозрачности — и сохранение ответственности за серьёзный вред. Худший компромисс с точки зрения OpenAI и лучший — с точки зрения Anthropic.
Следующие месяцы покажут, кто из двух лабораторий лучше играет в политическую игру по штатам. Технологическое лидерство — не единственная метрика 2026 года.

