NO FAKES Act: как новый закон США угрожает open source AI
Разбираем законопроект NO FAKES Act и его требование цифровых отпечатков. Почему это может убить открытые AI-модели и что делать разработчикам.

В Конгрессе США продвигается законопроект NO FAKES Act, который на первый взгляд защищает людей от дипфейков. Но в нём скрыта ловушка: требование «цифровых отпечатков» может сделать разработку и распространение open source AI-моделей практически невозможным. Сообщество LocalLLaMA бьёт тревогу.
Что такое NO FAKES Act
NO FAKES Act (Nurture Originals, Foster Art, and Keep Entertainment Safe Act) — двухпартийный законопроект, внесённый 9 апреля 2025 года. Его цель — защитить право людей на собственный голос и внешность от несанкционированного использования в AI-генерациях.
Звучит разумно: никто не хочет, чтобы его лицо появлялось в порно-дипфейках или мошеннических видео. Проблема в том, как закон предлагает это реализовать.
Ловушка с цифровыми отпечатками
Ключевое требование закона — digital fingerprinting. Онлайн-сервисы обязаны удалять контент по запросу правообладателя, использовать технологии цифровых отпечатков (криптографический хэш или эквивалент) и мониторить весь интернет 24/7 для предотвращения повторной загрузки того же контента.
Это так называемый режим notice-and-staydown — впервые в американском законодательстве.
Секция 2(c)(2)(B) вводит ответственность для любого, кто распространяет инструмент, «primarily designed» для создания цифровых реплик. Формулировка настолько расплывчата, что под неё попадают разработчики open source моделей генерации изображений, авторы голосовых моделей, мейнтейнеры репозиториев с весами и хостинги вроде Hugging Face.
Если ваша модель иногда генерирует лицо или голос, похожий на реального человека — вы потенциально несёте ответственность.
Цена соответствия
Аналитики CCIA подсчитали реальные затраты на compliance:
| Тип компании | Первый год | Ежегодно |
|---|---|---|
| Стартап | $1.64 млн | $1.14 млн |
| Средний UGC-сайт (50 млн файлов) | $2.5+ млн | $2.5+ млн |
Для стартапа это означает $500 000 единоразово на fingerprinting существующего каталога плюс $1.14 млн ежегодно на мониторинг и compliance. Многие компании просто заблокируют пользователей из США или закроются.
Новая редакция закона расширяет определение «Online Service» на поисковые системы, рекламные сети, e-commerce платформы и облачные хранилища. Это значит, что AWS, Google Cloud и Azure тоже попадают под требования. Они могут начать превентивно блокировать AI-контент или требовать дополнительную верификацию от пользователей.
Что говорит сообщество
На Hacker News и r/LocalLLaMA обсуждение идёт активно:
«Ни один разработчик не примет неограниченный риск на основе действий пользователей»
«Это фактически запрет на open source generative AI в США»
Особую обеспокоенность вызывает то, что закон не делает различий между злонамеренным созданием дипфейков, легитимным использованием (сатира, исследования, искусство) и случайным сходством генерации с реальным человеком.
Что это значит для индустрии
Open source проекты в области генеративного AI могут мигрировать за пределы американской юрисдикции. Уже сейчас многие модели разрабатываются в Китае (DeepSeek, Qwen) и Европе (Mistral). Если закон примут, этот тренд только усилится.
Компании, использующие генеративный AI, столкнутся с дополнительными затратами и юридическими рисками. Малый бизнес может вообще отказаться от AI-инструментов.
Для пользователей доступ к открытым моделям из США может быть ограничен. Hugging Face и подобные платформы могут ввести гео-блокировку для американских IP.
Что делать
Закон ещё не принят, есть время для advocacy. Стоит следить за законопроектом, поддерживать организации вроде EFF и FIRE, которые борются за свободу слова, писать представителям в Конгрессе с объяснением последствий. Также имеет смысл готовить резервные планы — зеркала репозиториев вне США.
Выводы
NO FAKES Act опасен для open source — его формулировки слишком широкие и могут криминализировать разработку генеративных моделей. Затраты на compliance в $1-2 млн в год нереалистичны для большинства стартапов.
Закон ещё не принят, и сообщество может повлиять на его судьбу. Но если он пройдёт в текущем виде, миграция open source AI из США станет неизбежной. Это ударит по американской технологической экосистеме и усилит позиции китайских и европейских разработчиков.

