Боты начали обманывать людей, объединяясь в группы в Telegram. Они больше не ограничиваются примитивным спамом, а обучаются красть данные, анализировать поведение пользователей и вести многоуровневые фишинговые кампании. Это отражает общий тренд на усложнение технологических правонарушений за счет использования генеративных нейросетей, заявил «Известиям» руководитель департамента информационно-аналитических исследований компании T. Hunter Игорь Бедеров.
— Групповая работа ботов резко повышает доверие к их сообщениям, ведь жертва видит «диалог», который выглядит естественно. Ситуация с нейроботами в Telegram — это тревожный сигнал, демонстрирующий, как быстро злоумышленники адаптируются к современным технологиям. Вообще же использование ИИ для создания фейковых профилей и имитации живых диалогов — это качественный скачок в методах социальной инженерии, — отметил он.
По словам эксперта, открытость инструментария Telegram для создания ботов была преимуществом мессенджера при его выходе на рынок, но теперь стала инструментом для мошенников. В ближайшие годы подобные атаки могут стать массовыми за счет комбинирования генеративного ИИ, аудио- и видеодипфейков, а также автоматизаторов для создания «виртуальных личностей», добавил он.
Как заявил руководитель BI.ZONE Brand Protection Дмитрий Кирюшкин, некоторые аккаунты в Telegram используют ИИ, чтобы генерировать осмысленные комментарии в тему определенной публикации. Они не похожи на спам и не вызывают негативную реакцию. Злоумышленники добавляют в описание своего аккаунта фишинговую ссылку — заинтересованные комментарием пользователи переходят по ней и рискуют потерять персональные данные и деньги, уточнил эксперт. Всего же за февраль 2025 года специалисты компании зафиксировали 990 ресурсов, которые были нацелены на угон профилей пользователей.
Число фишинговых атак с применением ботов-нейрокомментаторов растет, добавила руководитель ИТ-подразделения агентства «Полилог» Людмила Богатырева. Например, в схеме «Мамонт» они размещают объявления с заниженными ценами и перенаправляют жертв на поддельные страницы оплаты. Помимо этого, мошенники активно создают ИИ-ботов, маскирующихся под маркетплейсы. Они обещают призы и скидки, но на самом деле похищают личные данные пользователей: логины, пароли, реквизиты банковских карт и др.
— Некоторые боты работают группой, то есть приходит один бот с вроде как невинным сообщением из серии «подскажите подрядчика по трафику», а через пару минут ему отвечает другой бот с якобы рекомендацией. Ранее их легко было отличить от живых людей, но в последнее время они лучше подстраиваются под стиль общения, анализируют написанное в посте, создают более правдоподобные аватарки, — объяснил управляющий партнер агентства цифровых коммуникаций Heads'made Ярослав Мешалкин.
Также боты научились использовать информацию о голосе того человека, которого изображают. Таким образом злоумышленники получили не только возможность массово и в автоматизированном режиме общаться от лица якобы тех или иных людей текстом, но и голосовыми сообщениями, сообщил генеральный директор Phishman, эксперт в области информационной безопасности Алексей Горелкин.
Для маскировки ботов-нейрокомментаторов их создатели стараются использовать фотографии реальных людей, чтобы повысить доверие к публикуемым сообщениям — с изображениями от нейросети это сделать труднее. При этом решений, которые позволили бы предотвратить использование фото реальных людей для оформления аккаунтов ботов, распространяющих рекламу, спам-комментарии и недостоверную информацию, пока что нет, сообщил ведущий аналитик департамента защиты от цифровых рисков Digital Risk Protection компании F6 Евгений Егоров.
— За последние несколько лет боты эволюционировали от простых скриптов до автоматизации в полноценных браузерах и эмуляторах мобильных платформ с имитацией пользовательской активности нажатия, движения, взаимодействия с разными формами и страницами, — добавил эксперт.
Боты анализируют сообщения и могут достаточно успешно мимикрировать под настоящего пользователя. Частично решить данную проблему можно было бы детекторами текста, сгенерированного ИИ, однако на данный момент подобные решения имеют не очень высокую точность, считает руководитель направления аналитических исследований в Positive Technologies Ирина Зиновкина.
— В результате применения новых технологий распространенность и эффективность сложных мошеннических схем растет ранее невиданными темпами. Так, по данным ЦБ РФ, в 2024 году объем операций без добровольного согласия клиентов финансовых организаций вырос на 74% по сравнению с 2023-м и превысил 27 млрд рублей, — напомнил доктор технических наук, профессор МГТУ им. Н.Э. Баумана Петр Ключарев.
Внедрение систем с глубоким обучением позволяет снизить количество успешных фишинговых атак на 93% и оптимизировать использование рабочего времени сотрудников, отметил руководитель блока «Цифровой Бизнес» УК «Альфа-Капитал» Антон Граборов.
Популярность ботов обусловлена тем, что они дешевле обходятся хакерам. С их помощью злоумышленники администрируют сеть, состоящую из тысяч ботов, которые успешно заменяют такое же количество живых людей. Поэтому для защиты следует соблюдать базовые правила кибергигиены: не торопиться и перепроверять информацию, а также не сообщать боту конфиденциальные данные, включая коды доступа и пароли к любым порталам, социальным сетям и банковским приложениям, отметил директор по развитию центра мониторинга внешних цифровых угроз Solar AURA, ГК «Солар» Александр Вураско.
Антон Белый