GPT-5 без VPN

Aijora.ru — без ограничений

Попробовать бесплатно
Все новости
национализацияopenaiполитикарегулированиеканадабезопасность

Национализировать AI: от маргинальной идеи до заголовков Globe and Mail

Скандал с OpenAI в Канаде поднял вопрос о государственном контроле над AI. Разбираем аргументы сторонников национализации и почему эта идея набирает силу в 2026 году.

Влад МакаровВлад Макаровпроверил и опубликовал
7 мин чтения
Национализировать AI: от маргинальной идеи до заголовков Globe and Mail

Год назад идею национализировать AI можно было встретить в академических журналах и левых Substack. Сегодня она появляется на первых полосах деловых изданий, в парламентских дебатах и даже в аргументах консерваторов.

1 марта 2026 года The Globe and Mail — главная деловая газета Канады — опубликовала статью под заголовком «OpenAI has shown it cannot be trusted. Canada needs nationalized, public AI». Авторы — Натан Сандерс и Брюс Шнайер, не маргинальные активисты, а уважаемые исследователи в области кибербезопасности и AI-политики.

Поводом стал скандал: выяснилось, что OpenAI знал о связях с массовым стрелком из Тамблер-Ридж ещё до того, как события произошли, и промолчал — одновременно активно лоббируя отношения с канадским правительством.

Откуда берётся идея национализации

Требование государственного контроля над AI не новое. Но аргументы за последний год стали острее.

Первый аргумент — рыночная власть. Горстка частных компаний (OpenAI, Anthropic, Google, Meta) контролирует инфраструктуру, которая становится критической для общества. Когда ChatGPT используют сотни миллионов людей, а правительства строят политику на его данных — это уже не просто продукт. Это инфраструктура публичного значения, которая по логике должна регулироваться как коммунальная служба.

Второй аргумент — доверие. История с Тамблер-Риджем показывает: когда частная компания обнаруживает общественно значимую информацию, у неё нет обязательства её раскрывать. Государственная система работала бы иначе — с подотчётностью, с обязательными протоколами уведомления.

Третий аргумент — геополитика. США уже принудили Anthropic к сотрудничеству с Пентагоном под угрозой санкций в рамках Defense Production Act. Если американское правительство может фактически национализировать AI-компанию в военных целях, почему другие страны не должны создавать собственные публичные альтернативы?

Что происходит в США

В феврале 2026 года администрация Трампа приостановила доступ федеральных агентств к Anthropic. Формальный повод — вопросы цепочки поставок. Реальная логика — давление на частные AI-компании, чтобы те соответствовали военным приоритетам.

Парадоксально, но это сближает позиции людей с очень разными взглядами. Либералы говорят: «AI слишком важен, чтобы оставлять его частникам». Националисты говорят: «AI слишком важен для нацбезопасности, чтобы оставлять его неконтролируемым». Вывод одинаковый — больше государственного контроля — но мотивы противоположные.

Трамп тем временем подписал исполнительный приказ о национализации стандартов AI, блокирующий штаты от введения собственного регулирования. Государство хочет единого контроля, но в интересах правительства, а не граждан.

Аргументы против

Противники национализации указывают на очевидное: государственные технологические проекты исторически работают хуже рыночных конкурентов. Европейские попытки создать «суверенный поиск» или «публичный браузер» заканчивались ничем. Национализированный AI рискует стать инструментом пропаганды в авторитарных режимах — примеры не нужны.

Есть и практический аргумент: скорость развития. Частные лаборатории тратят сотни миллиардов долларов на исследования, привлекают лучших инженеров мира, итерируют каждые несколько месяцев. Государственная структура так не работает.

Третье возражение — определение. «Национализировать AI» звучит конкретно, но что именно национализировать? Веса моделей? Датацентры? Компании целиком? Или только регулировать доступ и использование? Размытость понятия делает дискуссию сложнее.

Реалистичный сценарий

Полная национализация AI-индустрии в ближайшие годы — маловероятна в демократических странах. Но более осторожные варианты вполне реальны.

Канада обсуждает создание государственной AI-инфраструктуры как публичной альтернативы — не вместо OpenAI, а рядом с ним. Европейский AI Act вводит регуляторную логику «коммунальной службы» для самых мощных моделей. Великобритания экспериментирует с публичными вычислительными мощностями для исследователей.

Это не национализация в советском смысле. Но это признание того, что AI уже слишком встроен в общество, чтобы регулироваться так же, как Instagram или Airbnb.

Скандал с Тамблер-Риджем стал триггером, но не причиной. Причина — растущее ощущение, что частные компании, управляющие критической инфраструктурой, не несут достаточной ответственности перед обществом. Этот разговор будет продолжаться, и он будет становиться острее с каждым подобным инцидентом.

Похожие новости

Листайте вниз

для загрузки следующей статьи