NYT: Иран развернул AI-машину пропаганды в войне с США
Расследование New York Times показало, как Иран использует генеративный AI для создания фейков и дезинформации во время конфликта.

В асимметричной войне побеждает тот, кто лучше управляет информацией. По данным расследования New York Times от 28 марта, Иран превратил генеративный AI в полноценное оружие информационной войны — и масштаб операции выходит далеко за рамки привычных ботоферм.
Не просто боты
Речь не о примитивных аккаунтах с флагами и лозунгами. NYT описывает «изощрённую операцию», которая использует AI для генерации реалистичного контента — текстов, изображений и видео — направленного на подрыв поддержки американских и израильских военных действий. Контент адаптируется под разные платформы и аудитории, что делает его сложным для обнаружения стандартными инструментами модерации.
Ещё 14 марта NYT опубликовала интерактивное расследование о «каскаде AI-фейков», связанных с конфликтом. Elon Musk's X, который занял «широко разрешительную позицию» по отношению к дезинформации, оказался особенно уязвимой площадкой.
Почему это важно для AI-индустрии
Ситуация высвечивает неудобный вопрос: инструменты, которые индустрия создаёт для повышения продуктивности, одновременно снижают стоимость и порог входа для информационных операций. Генерация убедительного фейкового видео, которая раньше требовала студии и бюджета, теперь доступна через API за десятки долларов.
Для компаний вроде OpenAI, Google и Anthropic это означает нарастающее давление со стороны регуляторов. Вопрос уже не в том, можно ли злоупотребить AI-генерацией, а в том, кто несёт ответственность, когда это происходит в масштабе государственной операции.
Что дальше
Пока технологические компании полагаются на водяные знаки и метаданные для маркировки AI-контента — меры, которые легко обойти. Иранский кейс показывает, что оборонительные технологии отстают от наступательных. И чем мощнее становятся модели генерации, тем шире этот разрыв.
