Депутаты внесли два законопроекта по борьбе с дипфейками в один день

Де­пута­ты Гос­ду­мы РФ внес­ли два за­коноп­роек­та, ко­торые зат­ра­гивают ре­гули­рова­ние дип­фей­ков. Ав­то­ры пер­во­го хо­тят внес­ти из­ме­нения в нес­коль­ко ста­тей Уго­лов­но­го ко­дек­са и ох­ва­тывают как ис­поль­зо­вание изоб­ра­жений, так и ис­поль­зо­вание го­лоса. Ав­то­ры вто­рого пред­ла­гают внес­ти поп­рав­ки в Граж­дан­ский ко­декс, и ка­сают­ся они толь­ко ис­поль­зо­вания го­лоса.

Первый законопроект внесла группа депутатов от партии ЛДПР утром 16 сентября 2024 г. Авторы инициативы предлагают внести изменения в Уголовный кодекс. За клевету, совершенную с использованием изображения, голоса (в том числе фальсифицированных или искусственно созданных) или с использованием биометрических персональных данных предлагается ввести штраф в размере до 1,5 млн руб., или в размере заработной платы, или другого дохода за период до 18 месяцев, или назначить лишение свободы до двух лет и другие меры.

За мошенничество предлагают наказывать штрафом в размере до 400 тыс. руб. или в размере зарплаты или другого дохода за период до двух лет, либо лишением свободы на срок до шести лет с возможным ограничением свободы на срок до полутора лет и другие меры.

В отзыве на законопроект заместитель председателя Правительства РФ - руководитель аппарата правительства Дмитрий Григоренко указал, что законопроект требует существенной доработки.

Второй законопроект депутаты внесли вечером того же дня. Среди авторов - сенатор Андрей Клишас, зампред Совета по развитию цифровой экономики при Совете Федерации Артем Шейкин и другие. Они предлагают внести изменения в Гражданский кодекс и дополнить его статьей 152.3 ("Охрана голоса гражданина"). Законопроект предполагает, что запись голоса человека можно использовать только с его согласия. То же касается и записей, в которой содержится воссозданный с помощью специальных технологий голос гражданина - речь идет о технологиях синтеза речи, дипфейках. В пояснительной записке сказано, что законопроект разработан при участии Альянса в сфере искусственного интеллекта (ИИ) и Национальной федерации музыкальной индустрии.

"При недобросовестном использовании технологий синтеза речи возникают неблагоприятные правовые последствия для граждан. В частности, искусственный интеллект, обучившись на аудиозаписях реального голоса, может в дальнейшем его имитировать, и "производные" записи могут быть использованы способом, неприемлемым для человека - обладателя голоса, поскольку получение его согласия прямо не предусмотрено законодательством", - сказано в пояснительной записке.

В случае смерти голос человека можно использовать только с согласия детей и супруга или родителей. Однако под регулирование попадает не любая запись: если она была записана на публичных мероприятиях, за плату или публикуется в государственных и иных интересах, согласие не нужно.

При нарушении материальные носители, содержащие запись голоса, на основании судебного решения должны быть изъяты из оборота и уничтожены. Если голос распространяется в интернете, можно потребовать удалить запись и запретить ее использование в будущем.

"Количество дипфейков растет во всем мире, а технологии ИИ достигли такого уровня, что уже практически невозможно отличить поддельные голос и внешность людей от настоящих", - считает коммерческий директор группы компаний X-Com Сергей Косецкий. "Наибольшую проблему представляют голосовые дипфейки, потому что на голос человека не действует право собственности ни в одной стране мира, если его имя не зарегистрировано как коммерческий бренд. К сожалению, этим не преминул воспользоваться криминал: статистика МВД неумолимо свидетельствует о росте количества противоправных инцидентов", - сказал Сергей Косецкий.

Опрошенные ComNews эксперты считают, что в законодательстве необходимо закрепить определение дипфейка, так как в настоящий момент не ясно, что к нему относится, а что - нет. Специалист по информационной безопасности AKTIV.CONSULTING Анастасия Калиничева добавляет, что необходимо также законодательно определить взаимосвязь сущностей дипфейков и биометрических персональных данных.

На Петербургском международном юридическом форуме 2024 зампред комитета Госдумы по информационной политике Антон Горелкин сообщил, что в работе над законодательством наиболее эффективным будет сосредоточиться на ответственности за недобросовестное использование технологии - например, сделать дипфейки отягчающем обстоятельством. Также он считает важным не ограничиваться только регулированием, но и сосредоточиться на создании технологий по распознаванию дипфейков. Эксперты в сфере информационной безопасности добавляют, что эффективным будет информирование людей о новых видах мошенничества.

По словам Сергея Косецкого, все еще нет действенных технологий для обнаружения дипфейков. При этом к моделям ИИ, позволяющим легко создавать дипфейки, доступ имеет большое количество людей, объяснила специалист AKTIV.CONSULTING Анастасия Калиничева. "Раньше к подобным сервисам необходимо было приобретать платный доступ, теперь существует множество бесплатных вариантов", - сказала она.

Также во время обсуждения регулирования технологии поднимается вопрос о маркировке контента, созданного с помощью ИИ. Сергей Косецкий отметил, что мошенники вряд ли будут использовать маркировку, а ужесточение наказания могут возыметь эффект. Однако маркировка имеет смысл для добросовестных создателей контента.

Ведущий юрисконсульт практики интеллектуальной собственности юридической компании "ЭБР" и эксперт Moscow Digital School Спартак Хулхачиев отметил, что создавать регулирование сложно, так как юридическая сфера не всегда готова ответить актуальным и продуманным до мелочей регулированием на развитие новых технологий.

Ан­на Шве­цова

Автор: Александр Абрамов.

Тематики: Регулирование

Ключевые слова: регулирование, Искусственный интеллект