ГРЧЦ объявил конкурс на создание информсистемы, которая с помощью искусственного интеллекта будет выявлять нарушающие российское законодательство изображения и видеоматериалы. Это следует из конкурсной документации, «Известия» ознакомились с ней. Стартовая цена разработки — 70 млн рублей. Подвести итоги конкурса ГРЧЦ намерен 30 июня, сказано в документах.
Как следует из технического задания, «Окулус» (так называется создаваемая система) будет анализировать не менее 200 тыс. изображений в сутки с погрешностью не более 20%. Алгоритмы искусственного интеллекта должны выявлять в том числе материалы с признаками терроризма и экстремизма, призывами к массовым беспорядкам, оскорбления в адрес российских государственных символов и органов власти, пропаганду наркотиков и суицида, пропаганду среди несовершеннолетних нетрадиционных сексуальных отношений и иной нежелательный контент.
К исполнителям предъявлено требование предоставить не меньше 1 тыс. изображений по каждому типу нарушений для обучения искусственного интеллекта, указано в документации.
Кроме того, в «Окулус» необходимо реализовать распознавание текстовой информации на изображениях и кадрах видеоматериалов, в том числе расшифровку QR-кодов, переписки в чатах и каналах мессенджеров, надписей, URL-адресов, субтитров и другие опции, требует от разработчиков ГРЧЦ.
«Известия» направили запросы в ГРЧЦ и Роскомнадзор.
О планах создания системы мониторинга визуального контента стало известно еще в прошлом году — тогда ГРЧЦ объявил конкурс на проведение научно-исследовательских работ по изучению возможностей искусственного интеллекта в этой сфере. Победителем того конкурса стал Московский физико-технический институт (МФТИ), он предложил провести эти изыскания за 14 млн рублей.
Ранее бороться с противоправным контентом в Сети уже договорились крупнейшие российские digital-компании. В феврале 2022 года «Яндекс», VK и «Лаборатория Касперского» (ЛК) в рамках Альянса по защите детей в цифровой среде запустили пилотный проект по выявлению и блокировке детской порнографии, а также «сексуализированного контента с участием несовершеннолетних». Такой контент передается с площадок «Яндекса» и из соцсетей VK («ВКонтакте» и «Одноклассники») в виде цифровых отпечатков (хэшей) и в виде ссылок. При этом данные зашифрованы, рассказал «Известиям» представитель альянса. Это дает возможность фильтровать разные форматы сообщений — для поиска компании используют как искусственный интеллект, так и ручную выборку, отметил он.
Качественная реализация проекта сделает «Окулус» эффективным инструментом поиска запрещенного контента и позволит существенно увеличить скорость и качество выявления признаков правонарушений, считает замруководителя юридического департамента Amulex.ru Александр Кожевников.
«Известия» направили запросы в компании, занимающиеся искусственным интеллектом и машинным зрением, — в «Яндекс», VK и VisionLabs.
Технологии, позволяющие отслеживать противозаконный видеоконтент в интернете, в России пока что находятся на зачаточном уровне, считает руководитель департамента информационно-аналитических исследований компании T.Hunter Игорь Бедеров. Впрочем, методы, позволяющие анализировать тексты и фото пользователей в социальных сетях, уже есть, отметил он.
— В этой ситуации было бы логично обратиться к опыту правообладателей, которые с помощью специальных сетей отслеживают наличие и легальность использования своего контента в социальных сетях и на каналах платного ТВ, — полагает эксперт.
В целом распознавание видео с порно, сценами насилия или пропагандой наркотиков наладить сложно, но реально, считает Игорь Бедеров.
— Сейчас системы по распознаванию смогут найти всё. Для обучения потребуется размеченный массив данных и некоторое количество времени, технических ограничений для этого точно нет, — отметил эксперт.
Создание подобной системы — крайне сложная и трудоемкая задача, предупредил эксперт Российской ассоциации электронных коммуникаций (РАЭК) Карен Казарян. По его словам, на рынке есть наработки в сфере машинного анализа изображений и видео, но оценивать сложные сюжеты они пока не могут.
— Достаточно легко распознать порнографию или, к примеру, по шаблону найти на изображении свастику. Но если речь идет об абстрактном насилии или экстремизме, искусственный интеллект тут вряд ли поможет, — считает эксперт.
По его словам, подобные системы могут решать узкие задачи, но необходим более комплексный подход к мониторингу и анализу, добавил он.
Валерий Кодачигов