Фракция ЛДПР готовит к внесению в Госдуму законопроект, который предполагает введение уголовной ответственности за использование технологии дипфейки в мошеннических целях. Речь идет о поправках в ст. 63 «Обстоятельства, отягчающие наказание», ст. 159 «Мошенничество», ст. 158 «Кража», ст. 163 «Вымогательство», ст. 160 «Присвоение или растрата чужого имущества» УК РФ.
— Мы предлагаем добавить к отягчающим обстоятельствам использование технологии дипфейки, то есть подмены лица и голоса на фото, видео или во время виртуального общения в интернете. Это дает право вынести максимальное наказание по видам преступлений, которых оно касается, — пояснил «Известиям» один из авторов законопроекта, зампред фракции ЛДПР Ярослав Нилов.
Он добавил, что, например, по статье «Мошенничество» виновному будет грозить лишение свободы до пяти лет или штраф, «Кража» — до двух лет, «Вымогательство» — до четырех лет, «Присвоение или растрата чужого имущества» — до двух лет.
— Мы живем в мире, который всё больше погружается в виртуальное пространство. Общаемся в мессенджерах, соцсетях, по видеосвязи, смотрим ролики на видеохостингах, пересылаем друг другу документы, фотографии и видео. Дипфейк позволяет влезть в этот рутинный процесс, и обманом или через страх отобрать деньги, заставить что-то сделать или передать информацию, — пояснил депутат.
В пример он привел ситуацию, когда с украденного аккаунта в мессенджере рассылался ролик, на котором человек с лицом и голосом владельца аккаунта просит деньги в долг. Другой способ — мошенник звонит по телефону и голосом известного публичного человека предлагает сделать пожертвование или что-то купить.
— Вариаций может быть очень много, а с развитием технологии будет еще больше. Мы должны сделать упреждающий шаг, — подчеркнул Ярослав Нилов.
«Известия» направили запрос в Минцифры с предложением оценить перспективу поддержки законопроекта.
В комитете Госдумы по информационной политике считают, что такой документ заслуживает внимания и поддержки.
— Прогресс не стоит на месте, благодаря ему человечество получает новые инструменты. Дипфейки — потрясающая технология, которая, например, позволяет «оживлять» давно умерших людей, делает разнообразнее развлекательный контент, может помочь в психотерапии. Но, к сожалению, ее осваивают и преступные элементы для того, чтобы обманывать, красть и вымогать деньги у добропорядочных граждан, — отметил зампред комитета Андрей Свинцов.
По его словам, законодатели должны дать ответ, так как сегодня наказания за это преступление не существует.
— Применение такой технологии должно усиливать ответственность. Так что законопроект правильный и своевременный, действует на опережение, — пояснил он «Известиям».
Первый зампред комитета по экономической политике Госдумы Николай Арефьев считает, что поддержать такой проект закона можно, но всей проблемы он не решит.
— У нас слишком торопятся с цифровизацией, которая действительно открывает неограниченные возможности, но не очень беспокоятся о защите персональных данных граждан. Россияне сегодня очень плохо защищены от всякого рода мошенников, — отметил депутат.
«Известия» направили запрос в ЦБ, а также в крупнейшие российские банки.
— Мы ежедневно отслеживаем новые способы мошенничества, чтобы эффективно им противодействовать. Клиенты могут быть уверены, что данные, в том числе те, которые хранятся в единой биометрической системе, находятся в безопасности, — сообщили в пресс-службе Уральского банка реконструкции и развития.
В ВТБ считают, что в данный момент нет рисков применения дипфейков для финансового мошенничества путем подмены голоса или изображения человека, поскольку есть технологии, которые проверяют их аутентичность.
В ЦБ на запрос «Известий» не ответили, хотя ранее там увидели угрозу в идентификации банковских клиентов по видео. Об этом регулятор сообщил в отзыве на законопроект Ассоциации банков России. Новыми нормами предлагалось предоставить финансовым организациям возможность удаленно открывать счета гражданам для выдачи ипотечных кредитов.
В Сбербанке планируют создать свою технологию распознавания дипфейков. Об этом СМИ ранее сообщал зампред председателя правления финансовой организации Станислав Кузнецов. Он также поделился информацией о произошедшем инциденте: бухгалтер одного из предприятий получила сообщение от своего директора, чтобы та срочно с ним связалась по видеосвязи. При этом в момент звонка она общалась не с реальным руководителем, а использовалась технология дипфейков. В результате по поручению липового руководителя бухгалтер сделала перевод на $100 тыс.
По словам главы Ассоциации профессиональных пользователей социальных сетей и мессенджеров Владимира Зыкова, такая технология появилась давно, однако сейчас она стала более широко применяться.
— Идет в ход всё: звук, видео, изображение. При этом с каждым годом она становится всё доступней. Теперь ее могут использовать обычные люди на своих компьютерах. Это вызывает опасение. Например, в США и Китае уже обсуждают возможности ограничения дипфейков, хотя до сих пор никакого регулирования по использованию этой технологии нет, — пояснил он «Известиям».
По его словам, очевидно, что вопрос регулирования использования дипфейков необходим. Если вам звонят мошенники, которые представляются сотрудниками банка или правоохранительных органов, зная о вас большое количество информации, эта технология позволит сделать этот обман еще более убедительным. Например, использовать для этого голос родственников или их видеоизображение.
Бизнес-консультант по информационной безопасности Positive Technologies Алексей Лукацкий оценил проблему дипфейков неоднозначно.
— С одной стороны, она не критична, так как банки массово не используют биометрическую систему. С другой — с помощью этой технологии возможно организовывать различные звонки якобы от близких людей, от имени которых мошенники просят перевести им деньги. В этом случае дипфейки играют опасную роль, особенно если они совмещены с подменой телефонного номера, — пояснил он «Известиям».
При этом эксперт считает, что отдельно ужесточать законодательство по этому поводу не стоит, так как мошенники могут найти и другие способы обмана граждан.
Наталья Башлыкова
Наталья Ильина