Начальник управления президента России по развитию информационно-коммуникационных технологий и инфраструктуры связи Татьяна Матвеева на пленарном заседании на "Цифротехе" отметила, что с начала года в сети интернет было выявлено 3900 уникальных текстовых фейков и 9 млн их копий. "Следующий вызов - дипфейки (поддельные видео), - сообщила она. - Надо обратить внимание на законодательное регулирование в России. Например, в Китае все дипфейки обязаны маркироваться, в Японии проводят глубокий анализ видеоконтента. Мы должны задуматься о регулировании дипфейков в России: как их маркировать, кто будет контролирующим органом, как их выявлять. Также необходимо проводить работу с населением".
Председатель комитета Государственной Думы по информационной политике, информационным технологиям и связи, депутат от партии "Единая Россия" Александр Хинштейн сообщил, что Комитет по информполитике уже готовит соответствующие законодательные инициативы. "Нам важно описать это явление и четко отрегулировать меры, которые должны будут предпринимать те, кто распространяет такую информацию. Набор механизмов, что у нас есть, более чем достаточен для сдерживания информационных войн и их противодействия. Но мы сталкиваемся с системным неисполнением российского законодательства. Несмотря на предписания Роскомнадзора и возможность для частичной блокировки интернет-ресурсов и замедления трафика, часть мировых ИТ-гигантов продолжает игнорировать российское законодательство и фактически провоцирует государство на принятие заведомо непопулярных и жестких решений. Это постоянная проверка нас на прочность. С каждым днем появляются новые угрозы и явления, с которыми приходится разбираться - например, с дипфейками. Для большинства людей появление образа человека, говорящего со знакомым голосом, не вызывает сомнений - существование дипфейков, в этой связи, вызывает угрозу", - пояснил он.
Независимый эксперт Дмитрий Колесов считает инициативу с регулированием дипфейков странной. "Видимо, российские министры не всегда четко понимают, когда докладывают вышестоящему начальству на онлайн-совещаниях, кто перед ними - дипфейк или нет. А если серьезно, переход части делового общения в онлайн привел к тому, что действительно возникает задача идентификации. Но думаю, что нужна именно идентификация (возможно с использованием оффлайн-процедур), а не регулирование", - считает он.
Гендиректор телекомпании "49 канал" и директор студии "Телерегион" (Новосибирск) отметил, что дипфейки – это мошенничество, в случае если это не юмористическое видео, а нечто, угрожающее здоровью, безопасности и благополучию людей. "И в этом случае следует прибегать к защите закона. А для этого необходимо, прежде всего, дать юридическое определение этому явлению и обозначить меры ответственности. Контролирующих органов в сфере медиа у нас более чем достаточно, будучи мотивированными, они справятся. И, по-моему, необходимо участие общественных экспертов, наблюдателей, советов. Основная сфера распространения поддельного видео - интернет, оттуда он проникает и на телевидение. С каждым годом его будет все больше – технологии совершенствуются", - прокомментировал он.
Технология дипфейк, предположительно, используется в России, в том числе, на государственном телевидении. Один из экспертов рынка видеоконтента напомнил, как 5 марта 2022 г. по ТВ-каналам первого мультиплекса был показан фрагмент встречи президента РФ Владимира Путина с представительницами летного состава российских авиакомпаний, прошедшей в авиационном учебном центре "Аэрофлота". "В то время Владимир Путин при личных встречах общение вел на большой дистанции - всем памятен 10-метровый стол, за которым он принимал гостей, - говорит эксперт. - А на встрече со стюардессами он сидел с ними бок о бок. При этом некоторые наблюдатели обратили внимание на то, что вокруг президента был зеленый контур, его рука свободно проходила через микрофон, в некоторых местах звук не совпадал с его артикуляцией. Были и иные нестыковки". Белорусское издание Telegraf.by тогда сообщило, что три из пяти видео-сканеров на базе технологий искусственного интеллекта, включая сканер Deepware, сочли это видео подозрительным (с вероятностью 52%-63%), алгоритм Analyst подтвердил использование технологии дипфейк, а приложение Avatarify в принципе не обнаружила дипфейк в этом видео.
Юлия Мельникова