GPT-5 без VPN

Aijora.ru — без ограничений

Попробовать бесплатно
Все новости
ai-агентыспаммошенникиэксперимент

AI-агент неделю отвечал на спам-сообщения — мошенники не выдержали

Эксперимент: что будет, если натравить AI-агента на телефонных мошенников. Результаты недельного теста показали неожиданную уязвимость спам-индустрии.

Влад МакаровВлад Макаровпроверил и опубликовал
3 мин чтения

Что будет, если вместо вас на спам-сообщения начнёт отвечать AI? Один разработчик решил проверить: настроил AI-агента на автоматические ответы мошенникам и оставил его работать на неделю. Результат: мошенники оказались совершенно не готовы к собеседнику, который никогда не устаёт, не раздражается и с удовольствием ведёт бесконечные разговоры ни о чём.

Что произошло

Автор эксперимента, опубликовавший результаты на Reddit в сообществе r/AI_Agents, подключил языковую модель к обработке входящих спам-сообщений на телефоне. Агент не просто блокировал спам — он вступал с мошенниками в диалог. Задавал уточняющие вопросы, притворялся заинтересованным, просил перезвонить позже, уточнял детали «выигрыша» или «задолженности».

Ключевая идея: если мошенник тратит время на разговор с ботом, он не тратит его на реального человека. За неделю агент провёл десятки диалогов. Некоторые мошенники бросали трубку через пару минут, другие вели переписку часами, пытаясь «дожать» несуществующую жертву.

Особенно эффективной оказалась стратегия «почти готов заплатить»: агент доводил разговор до момента, когда мошенник уже предвкушал результат — и начинал задавать новые вопросы, возвращая диалог на начало.

Почему это важно

Сообщество отреагировало с энтузиазмом: пост собрал сотни комментариев. Главная мысль, которую подхватили многие: если достаточное количество людей развернёт подобных анти-мошеннических агентов, экономика телефонного спама просто перестанет работать. Мошенники не могут позволить себе тратить часы на каждый номер — их бизнес-модель строится на том, что большинство людей просто кладут трубку, а один из тысячи попадается.

Но если каждый второй номер «попадается» и ведёт бесконечный разговор — затраты на одну реальную жертву вырастают в разы. При достаточном масштабе мошенничество становится нерентабельным.

Это не теоретическое рассуждение. По данным Morningstar, в 2026 году каждый четвёртый американец уже столкнулся с AI-дипфейк-звонками. Потери от голосового фишинга оцениваются в $40 млрд. Идея бороться с AI-мошенниками при помощи AI-защитников выглядит не просто забавно — она экономически обоснована.

Что дальше

Пока подобные эксперименты остаются делом энтузиастов, но направление понятно. Несколько стартапов уже работают над коммерческими «анти-скам-агентами» — приложениями, которые автоматически перехватывают подозрительные звонки и сообщения и ведут мошенников по кругу. Если телеком-операторы начнут встраивать подобные системы на уровне сети, мы можем увидеть первую AI-гонку вооружений, где обе стороны — и атакующая, и защищающая — будут полностью автоматизированы.

Похожие новости

Листайте вниз

для загрузки следующей статьи