GPT-5 без VPN

Aijora.ru — без ограничений

Попробовать бесплатно
Все новости
ai-этикаdeepfakeкитайцифровой-двойникобщество

Год она звонит сыну. Сын год как мёртв

В Шаньдуне семья создала AI-двойника погибшего сына, чтобы пожилая мать не узнала о его смерти. История, которая раскалывает китайские соцсети.

Влад МакаровВлад Макаровпроверил и опубликовал
6 мин чтения
Год она звонит сыну. Сын год как мёртв

«Звони мне почаще. Я так по тебе скучаю». Восьмидесятилетняя китаянка из провинции Шаньдун каждый день созванивается со своим единственным сыном по видеосвязи. Сын обещает приехать, как только заработает достаточно денег. Сын говорит, что много работает в другом городе. Сын кивает, наклоняется вперёд по своей привычке, говорит на родном диалекте.

Сын умер год назад в автокатастрофе. Все эти видеозвонки — AI.

Как это устроено

Историю предал огласке руководитель технической команды Чжан Цзэвэй, который базируется в провинции Цзянсу — материал вышел в местном издании Litchi News. Семья из Шаньдуна — один из его клиентов.

Сын мужчины, погибшего в дорожной аварии в начале 2025 года, обратился к Чжану с просьбой создать цифрового двойника отца. У бабушки серьёзные проблемы с сердцем и она в возрасте; родственники боялись, что новость о смерти единственного ребёнка её убьёт. Заказчик передал команде сотни фотографий, видеозаписей и аудио — особенно важно было сохранить голос на родном диалекте.

Результат, по описанию журналистов, неотличим от живого человека. Двойник копирует не только внешность, но и характерную манеру наклоняться вперёд во время разговора. Каждый день он звонит маме через мессенджер. Извиняется, что не может приехать. Обещает быть осторожнее. Слушает её просьбы тепло одеваться и не забывать про сердечные таблетки.

Сам Чжан занимается этим бизнесом три года. На вопрос, как он это для себя называет, отвечает: «обманываю чувства людей». И тут же добавляет: «то, что мы делаем — утешает живых».

Почему это резонирует

Пост на Reddit о случае собрал 520 апвоутов и 86 комментариев за сутки. В китайских соцсетях мнения резко разделились — и это, пожалуй, главная характеристика истории. Здесь нет очевидно правильного ответа.

Одна сторона: «Это очень трогательно. AI-сын — это нежная ложь. Я бы тоже хотел воскресить отца». Другая: «Я не на стороне этой семьи. Мать обманывают уже год. Когда правда вскроется, ей будет в разы хуже».

Оба аргумента сильные. И оба — про одно и то же: про то, что технология опередила наши представления о том, что считается нормальным горем, нормальной заботой, нормальной памятью.

Где проходит этическая граница

Цифровые двойники умерших — не новинка. В Южной Корее уже несколько лет работают сервисы, которые создают AI-аватары умерших родственников по запросу самих скорбящих — то есть когда живой человек осознанно решает «поговорить с тем, кого больше нет». Это может быть частью терапии горя, и психологи относятся к таким сервисам неоднозначно, но скорее с интересом.

Шаньдунский кейс принципиально другой. Здесь обманутая сторона не давала согласия — потому что не знает, что её обманывают. Это не помощь в проживании горя. Это его подмена.

Здесь сразу несколько слоёв проблем. Юридический: в Китае пока нет закона, прямо запрещающего создавать AI-двойник без согласия живого человека, чьи данные используются (отец сам не давал разрешения при жизни). Психологический: чем дольше длится обман, тем тяжелее его раскрытие — а раскрытие почти неизбежно, потому что соседи, родственники, врачи рано или поздно проговорятся. Экзистенциальный: имеет ли мать право знать правду о смерти своего ребёнка, или забота о её здоровье важнее правды?

Для китайского общества с глубокой традицией сыновней почтительности (孝, сяо) эта история особенно болезненна. Сын обещает «вернуться домой и заплатить долг сыновней почтительности». Эту фразу за него произносит алгоритм. Конфуцианская мораль 2500-летней выдержки попала в категорию «ввод данных».

Что это значит для индустрии

Технически история несложная — сегодня сделать видеоаватар голоса и лица может специалист среднего уровня за несколько недель работы. Стоимость подобного сервиса в Китае — несколько тысяч юаней (десятки тысяч рублей), и спрос растёт.

Главный сигнал индустрии — необходимость опережающего регулирования. Когда технология дешевеет до уровня частного заказа, реактивные законы, написанные после прецедента, всегда будут отставать. ЕС в AI Act прописал обязательную маркировку deepfake-контента — но как эта норма работает в личной видеосвязи между двумя людьми? Никак.

В России и Беларуси аналогичных кейсов пока публично не зафиксировано, но технически барьер тот же — несколько часов хорошего видео и аудио покойного. Вопрос не «будут ли», а «когда узнаем».

Для AI-разработчиков это очередное напоминание, что safety-команды должны думать не только про bioweapons и cyber. Эмоциональный обман через личные интерфейсы — отдельный класс рисков, который пока обсуждается в академических статьях, но не в продуктовых требованиях. Ситуация Чжан Цзэвэя — про то, как «помощь людям» без проработанной этической рамки превращается в индустрию обмана с трогательными мотивами.

Что дальше

Эта история, скорее всего, не закончится решением суда — китайская правовая система такие случаи пока не классифицирует. Скорее всего, она закончится тем, как и началась: тихо. Бабушка состарится ещё на год-два. Двойник будет звонить. Однажды связь оборвётся — и семье придётся придумывать новую легенду про то, что «сын переехал ещё дальше» или «у сына сломался телефон».

Так выглядит первый зрелый случай, когда AI используется не для воскрешения умершего ради скорбящего — а для того, чтобы скорбь не наступила вовсе. Это новый этический ландшафт. И мы только начинаем по нему ходить.

Похожие новости

Листайте вниз

для загрузки следующей статьи