В России обсудят запрет ИИ с «угрожающим уровнем риска»

Участники рынка, эксперты и депутаты обсуждают проект госрегулирования ИИ. Он запрещает системы с «неприемлемым уровнем риска», вводит маркировку контента и ответственность разработчиков за вред, нанесенный нейросетями

Профильная рабочая группа разработала проект законодательного регулирования искусственного интеллекта в России, сообщили РБК пять источников, знакомых с инициативой. В группу входят юристы, представители консалтинговых компаний и участников рынка, развивающих ИИ, указали они. Инициатива оформлена в виде законопроекта «О регулировании систем искусственного интеллекта (ИИ) в России» (копия есть у РБК, ее подлинность подтвердили два источника РБК на IT-рынке). Документ обсуждался на заседаниях рабочих групп в Госдуме, в «Деловой России», а также на отраслевых дискуссионных площадках, отметили собеседники РБК.

В пояснительной записке к проекту отмечается, что он разработан для реализации Национальной стратегии развития ИИ до 2030 года (была утверждена в феврале 2024 года).

Зампред комитета по информационной политике, член рабочей группы по ИИ в Госдуме Андрей Свинцов говорит, что сейчас по поручению председателя нижней палаты парламента Вячеслава Володина создана рабочая группа «по разработке всего, что связано с законодательством в области ИИ».

По его словам, законодательные инициативы пока депутатами «всерьез не рассматриваются». «Рабочая группа создана, для того чтобы проработать и внимательно, детально изучить все запросы от различных отраслей», — пояснил он. По словам Свинцова, в ближайшие месяцы должны появиться несколько инициатив, «которые точечно будут регулировать какие-то отраслевые запросы, вводить какие-то пилотные зоны или пилотные режимы», но законопроекта, который зарегулирует всю деятельность ИИ, в этом году он не ожидает. Среди тех сфер, которые отрегулируют в первую очередь, депутат назвал маркировку. Но законопроекта в готовой редакции в Госдуме пока нет, подчеркнул он.

Представители аппарата правительства и Минцифры говорят, что к ним не поступал на рассмотрение такой законопроект. Если поступит, они его рассмотрят.

Что предлагает законопроект

  • Ввести понятие искусственного интеллекта (комплекс технологических и программных решений, имитирующий когнитивные функции человека, в том числе самообучение, поиск решений без заранее заданного алгоритма, и обеспечивающий получение результатов, сопоставимых с результатами интеллектуальной деятельности человека).
     
  • Понятие технологий ИИ (к ним относят технологии компьютерного зрения, обработки естественного языка, распознавания и синтеза речи, интеллектуального анализа данных, машинного обучения и др.).
     
  • Понятие систем ИИ (информационные системы, которые имитируют когнитивные функции человека, применяя перечисленные выше технологии), разработчика, оператора и пользователя подобных систем и др.
     
  • Ввести требования к маркировке систем ИИ, то есть обязательному информационному обозначению, которое будет указывать на использование ИИ при взаимодействии с пользователем. Маркировка должна быть «явной, недвусмысленной и легко идентифицируемой». Ее должен обеспечить оператор системы ИИ до каждого случая взаимодействия с пользователем. Требование не будет распространяться на системы ИИ, используемые в закрытых технологических процессах, для внутренней автоматизации организаций и ряде других.
     
  • Ввести классификацию систем ИИ по уровню потенциального риска: системы с неприемлемым, высоким, ограниченным и минимальным уровнем риска. Предлагается запретить в России разработку и эксплуатацию систем ИИ, относящихся к категории с неприемлемым уровнем риска, то есть создающих угрозу безопасности личности, общества и государства, а также нарушающих основополагающие права и свободы человека и гражданина; для систем с высоким уровнем риска (тех, которые применяются в здравоохранении, транспорте, финансах, правоохранительной деятельности и других сферах, где это может создать существенные риски для жизни, здоровья, основных прав и свобод граждан) ввести обязательную госрегистрацию и сертификацию; для тех, у которых ограниченный уровень риска, — системы внутреннего контроля качества, добровольную сертификацию.
     
  • Ввести ответственность за причинение вреда жизни, здоровью или имуществу для лиц, участвующих в разработке и эксплуатации систем искусственного интеллекта. Но в документе оговаривается, что разработчик не будет нести ответственность, если принял все необходимые меры для предотвращения причинения вреда, если вред возник из-за нарушения правил эксплуатации системы и в нескольких других исключениях, оператор систем ИИ будет освобожден от ответственности, если докажет, что вред возник по вине разработчика в результате нарушения пользователем правил использования системы и др. Предлагается ввести обязательное страхование ответственности операторов систем ИИ с высоким уровнем риска.
     
  • Для определения, кому принадлежат права на результат интеллектуальной деятельности, созданный с использованием ИИ, предлагается ориентироваться на то, был ли существенный творческий вклад человека (определял ли человек параметры и критерии создания результата, делал ли творческий отбор и доработку, принимал ли творческие решения в процессе создания). Если такой вклад был, то исключительное право на результат должно принадлежать этому человеку, если не было, то оператору системы ИИ (действует в течение 50 лет).

Если документ будет принят в текущем виде, операторы и разработчики систем ИИ должны будут выполнить его требования в течение года после его вступления в силу; системы ИИ с высоким уровнем риска, которые были созданы до принятия проекта, должны будут пройти обязательную сертификацию в течение двух лет.

Нужно ли регулировать ИИ

Источник РБК в одной компании — разработчике ИИ говорит, что ранее в правительстве заявляли о преждевременности регулирования этой технологии. Например, в феврале этого года вице-премьер Дмитрий Григоренко говорил, что законодательное регулирование ИИ не планируется в ближайшие два года.

«Российские компании внедряют меры по саморегулированию, используют маркировку ИИ-сгенерированного контента и действуют на основе отраслевых стандартов по ответственному развитию технологий искусственного интеллекта, — говорит источник РБК. — Чрезмерное и поспешное регулирование приведет к замедлению развития стратегически важной отрасли для экономики страны, ограничит возможности и пользу технологий для пользователей и бизнеса, приведет к технологическому отставанию отечественных игроков». Он отметил, что негативное влияние регулирования видно на примере европейских компаний: закон об ИИ в ЕС привел к тому, что лидеры рынка сокращают присутствие в регионе, собственные конкурентоспособные решения не появляются.

Директор по цифровым технологиям «Ростелекома» Роман Хазеев говорит, что на текущий момент еще нигде в мире не было сформировано достаточной законодательной базы и практик для определения ответственности разработчиков нейросетей, границ творчества и факта применения дипфейков. «Может показаться, что законодательные инициативы в этой части находятся в позиции догоняющих. Но это не так: введение регулирующих норм целесообразно только после определенной стабилизации процессов и формирования проблематики для урегулирования в законодательной плоскости», — говорит Хазеев, отмечая, что все видят увеличивающиеся случаи применения дипфейков, сталкиваются с трудностью отличить подлинную информацию от выдуманной.

Представители «Яндекса», МТС и VK отказались от комментариев. РБК направил запрос в «Сбер».

Анна Балашова,
Екатерина Шокурова,
Мария Лисицына,
Евгения Стогова

Тематики: Регулирование

Ключевые слова: регулирование, Искусственный интеллект, Нейросети