За последние четыре года число дел, в которых фигурируют правонарушения с использованием искусственного интеллекта, выросло на 39%, сообщили «Известиям» в исследовательском центре «Аналитика. Бизнес. Право». В 2021 году число таких дел составляло всего 112, а к 2024 году их количество выросло до 292. Рост в прошлом году по сравнению с 2023-м рост составил 20,1%.
Лидерами по количеству рассмотренных дел стали Москва и Московская область. На втором и третьем местах: Санкт-Петербург и Свердловская область. Далее следуют Новосибирск и Краснодар.
В целом пока количество дел в статистике правонарушений невелико, но их может быть гораздо больше, рассказала «Известиям» автор исследования и директор центра Венера Шайдуллина.
— Законодательное регулирование ИИ только формируется, поэтому многие споры могут просто не называть искусственный интеллект как способ совершения преступлений, — сказала она. — Актуальная статистика, вероятно, показывает лишь верхушку айсберга, так как многие случаи использования ИИ в противоправных целях могут оставаться невыявленными или квалифицироваться без упоминания его роли.
Эксперт пояснила, что методология исследования учитывала дела, где искусственный интеллект упоминается в судебных актах. И множество киберпреступлений и правонарушений сейчас квалифицируются как традиционные составы дел о мошенничестве или, к примеру, краже.
Упоминание ИИ сейчас особенно часто прослеживается в делах в сфере интеллектуальной собственности — это споры о правах на контент, созданный с помощью нейросетей, рассказала Венера Шайдуллина.
— А в уголовных делах фигурируют дела о мошенничестве с использованием дипфейков, преступления с использованием ИИ для подделки документов, продажи наркотиков, когда используются магазины — ИИ-боты, незаконное получение кредитов, — добавила автор.
Так, например, певица Лариса Долина в 2024 году попала в скандал, который устроили ей мошенники, нацелившиеся на ее загородный особняк. Преступники воспользовались программой изменения внешности и сгенерировали видеоролик, в котором артистка якобы лично объясняет банку необходимость в кредите на 50 млн рублей.
В сфере защиты прав потребителей ИИ фигурирует в спорах с банками по поводу решений, принятых автоматизированными системами скоринга, конфликтах из-за ошибок чат-ботов и автоматических систем обслуживания, в претензиях к качеству услуг, оказанных с использованием ИИ.
В административной практике наблюдаются случаи обжалования штрафов от камер с системами распознавания, споры о законности использования таких систем, конфликты в связи с автоматической фиксацией нарушений, при которых используется технология ИИ.
Пока в общем объеме дел доминируют гражданские дела — их доля составляет почти 59%. И в 73% случаев дел, где упоминается ИИ, его ошибки или мошенничества с использованием нейросетей, требования удовлетворяют полностью либо частично.
Общая сумма требований компенсаций по таким делам за четыре года составила почти 2 млрд рублей. Средняя сумма требований в гражданских делах достигает 2,1 млн рублей, в административных — 856 тыс. рублей.
За последние годы технологии искусственного интеллекта значительно продвинулись вперед, становясь неотъемлемой частью различных сфер жизни — от маркетинга и медицины до производства, напомнила AI-маркетолог, основатель маркетингового агентства Concretto Ольга Болина.
— Однако вместе с прогрессом возникают и новые угрозы, — сказала она «Известиям». — Одной из ключевых проблем становится рост числа мошенничеств, основанных на использовании генеративных моделей ИИ (используются для создания рассказа в стиле конкретного писателя, создания реалистичного образа человека и тп. — Ред.). Эти схемы становятся всё более изощренными.
Спектр правонарушений с использованием нейросетей хотя и широк, но они не создают новые возможности, а делают эффективными уже существующие процессы, добавил замгендиректора группы компаний «Гарда» Рустэм Хайретдинов.
— На виду сейчас находятся мошеннические действия с использованием аудио- и видеофейков, имитирующие доверенного собеседника, но существенно картину мошенничества по схеме «мама, я попал в аварию, скинь денег» они не изменили, — пояснил эксперт.
Например, летом 2024 года мошенники создали дипфейк мэра Москвы Сергея Собянина. И с его помощью пытались обмануть руководителей московских театров.
С этим согласился и руководитель направления по развитию стратегии информационной безопасности IT-интегратора «Телеком биржа» Александр Блезнеков.
— Мошенники используют нейросети даже не для новых схем обмана, а для того, чтобы проапгрейдить старые. Например, используют LLM (Большая языковая модель, тип программы ИИ, способной генерировать контент. — Ред.) для написания большого числа разных фишинговых писем, — сказал он. — ИИ позволяет быстро сформировать убедительное сообщение, чтобы условный сотрудник организации кликнул на ссылку или открыл файл.
Менее заметны, но гораздо более успешны нейросети в подборе паролей и в поиске уязвимостей. Уровень развития технологий искусственного интеллекта таков, что уже сейчас ИИ может заменить специалиста по кибербезопасности средней руки, отметил директор по продуктам Servicepipe Михаил Хлебунов.
— И если можно сформировать скрипт или комплект скриптов для тестирования уязвимостей, например, выявления ошибок в коде, то точно так же возможно искать слабые места и для атаки, — сказал он. — Несколько лет назад всплеск простеньких атак приходился на период школьных каникул, а сейчас в руках юных дарований появился инструмент для более быстрого выявления уязвимостей в системах и проверки их на прочность.
Один из наиболее опасных видов мошенничества — использование дипфейков и фейковых новостей, отметила Ольга Болина.
— Такие фальшивые новости выглядят очень убедительно благодаря использованию фотографий известных людей и якобы достоверной информации, которая на самом деле не соответствует действительности, — добавила она.
Эксперт отметила, что ИИ позволяет создать и точную копию голоса любого человека, основываясь на нескольких образцах его речи. Этот метод особенно опасен при телефонном мошенничестве, когда злоумышленники имитируют голоса близких людей жертвы, чтобы убедить ее передать конфиденциальную информацию или совершить определенные действия.
Если мошенники подошли к вопросу серьезно, то распознать их можно только по нехарактерному поведению говорящего, добавил Александр Блезнеков.
— А номер можно подменить с помощью специальной программы и он на телефоне будет определяться как знакомый, можно создать и похожий аккаунт мессенджера, — сказал он.
Также ИИ всё чаще применяется для взлома систем безопасности, автоматизированных атак на банковские счета и персональные данные, напомнила управляющий партнер аналитического агентства «ВМТ Консалт» Екатерина Косарева.
— Расследование таких преступлений осложнено несколькими факторами. Во-первых, техническая сложность — следователям требуется глубокое понимание алгоритмов машинного обучения, — отметила эксперт. — Во-вторых, проблема с идентификацией виновных — алгоритмы могут действовать автономно, а преступники часто используют подменные серверы и анонимные сети. В-третьих, вопрос доказательств — суду нужно разбираться, как именно работал ИИ и был ли умысел у оператора.
Еще одна серьезная проблема — кибератаки, направленные на сбор и обработку больших объемов личных данных пользователей, добавила Ольга Болина. Компании прилагают значительные усилия для защиты персональных данных своих клиентов, но хакеры продолжают находить способы обойти эти меры, нередко прибегая к помощи ИИ-алгоритмов.
— Примером могут служить целевые атаки на организации и учебные заведения с низким уровнем защищенности персональных данных, в результате которых похищается информация о клиентах или студентах, — пояснила она. — Эта информация впоследствии может быть использована для мошеннических операций, таких как кража идентичности или вымогательство.
К 2030-му году доля дел по защите прав на интеллектуальную собственность возрастет до 45–50%, полагают аналитики. Число административных правонарушений может достичь 25–30% за счет расширения автоматизированных систем контроля.
Доля уголовных дел вырастет до 15–18% из-за роста киберпреступности, прогнозируют авторы исследования. Сегодня она составляет 12% от общего числа дел.
Яна Штурма
Валерия Мишина