Российские компании и госструктуры должны будут указывать, что общаются с гражданами по телефону или через интернет с помощью ИИ — если такие технологии применяются в их контакт-центрах. Это следует из законопроекта «О регулировании систем искусственного интеллекта», подготовленного рабочей группой, в которую входят депутаты Госдумы, представители бизнеса и деловых ассоциаций. С документом ознакомились «Известия».
Если клиент или пользователь услуг общается с их поставщиком по телефону, ему следует предоставить возможность взаимодействия с оператором — человеком, а если через чат-бот в интернете — должно быть указание на автоматизированный характер формирования ответов и сообщений, говорится в документе. В любом случае следует обозначить порядок направления претензий и обращений в структуру, применяющую ИИ.
— Сегодня ИИ активно используется в call-центрах, чат-ботах, сервисах поддержки, но далеко не всегда пользователи осознают, что общаются не с человеком. В условиях, когда технологии становятся всё более реалистичными, вопрос честного уведомления выходит на первый план — как с этической, так и с правовой точки зрения, — сказал «Известиям» член комитета Госдумы по информационной политике, информационным технологиям и связи Антон Немкин.
Такое информирование поможет минимизировать риски манипуляций, особенно в чувствительных сферах — например, при финансовом консультировании, обслуживании уязвимых категорий граждан или предоставлении медицинской информации, отметил он. Пользователь должен понимать, когда он получает автоматизированный ответ, чтобы адекватно оценивать его значимость, точность и возможные ограничения. Кроме того, наличие функции переключения на живого специалиста по запросу усиливает контроль со стороны клиента и снижает риск недопонимания, объяснил депутат.
Это особенно актуально в борьбе с мошенничеством. Под видом ИИ-сервисов могут действовать злоумышленники, стремящиеся ввести человека в заблуждение, выманить личные данные или провести фишинговую атаку, считает Антон Немкин.
Очевидно, что требования к «телефонному» ИИ создаются «на вырост» — сейчас, как правило, человек довольно быстро распознает, что общается с роботом, отметил директор Института исследований интернета Карен Казарян. Но с перепиской в интернете вопрос стоит остро — человек сутками может «стучаться» в чат-бот на базе ИИ и не понимать, что это робот, который не может реагировать на нестандартные ситуации и решать специфические проблемы, добавил он.
— Законопроект, о котором идет речь, подготовили коллеги из Госдумы. Мы планируем подключаться к его обсуждению. Говорить о деталях документа пока преждевременно. Отметим только, что любая технология должна применяться исключительно с соблюдением прав и интересов граждан, — сказали «Известиям» в Минцифры.
Информировать о звонках и интернет-переписке с участием ИИ необходимо — в ряде случаев это может оказаться вопросом жизни и смерти, уверен руководитель проекта Content-Review Сергей Половников. Чат-бот или автоответчик на базе нейросети не всегда может решить проблему человека в нестандартной ситуации или решить ее вообще, указывает он.
При этом в поддержку часто обращаются люди в состоянии стресса и просто не могут разобраться, с роботом или человеком общаются, особенно это касается пожилых россиян, продолжает эксперт. Неверное решение, подсказанное «человекообразным» помощником, способно оказаться фатальным — например, если пенсионер перевел деньги мошенникам. Пациент может оказаться не в состоянии правильно сформулировать запрос к ИИ своей страховой компании — так, чтобы получить на него ответ: тут последствия могут оказаться непоправимыми, приводит он примеры.
Крупные коммерческие организации, в первую очередь банки, маркетплейсы, операторы связи злоупотребляют ИИ при взаимодействии с клиентами, утверждает председатель коллегии адвокатов «Сулим и партнеры» Ольга Сулим.
— В ряде случаев они вовсе отказываются от call-центров и переводят всё общение с клиентами на голосовых помощников (ботов), а это, во-первых, не способствует оперативному решению проблем клиентов. Это актуально, например, в случаях с кредитными организациями, когда человек может стать жертвой мошенников и у него возникнет необходимость блокировки платежных средств, ограничения доступа в личный кабинет или запрета на совершение определенных действий, — пояснила она.
Общение с голосовыми ботами, имеющими ограниченный функционал, может вести к нарушению прав потребителя, добавила эксперт. По неофициальной статистике, наиболее распространенной командой для голосовых помощников на протяжении нескольких лет остается фраза «соединить с оператором», а положительные оценки взаимодействия с ними — это редкость, что в целом отражает уровень неудовлетворения людей от общения с автоматизированными системами в целях разрешения возникших вопросов, рассказала она.
Компании всё чаще стали подключать нейросети в систему поддержки пользователей и зацикливать всю платформу на ИИ, чтобы сэкономить на операторах, добавил гендиректор группы компаний ST IT, эксперт рынка TechNet НТИ Антон Аверьянов. Это приводит к тому, что пользователи не могут достучаться до консультанта и получить поддержку от искусственного интеллекта в ряде случаев, утверждает он.
— Были случаи, когда ИИ давал неправильные рекомендации, которым следовал человек. Также нужно обязательно указывать, какая система ИИ применяется, потому что если дело касается какой-то системы поддержки, человек может передавать в нее свои персональные данные. А если это так, то они не должны уходить за границу, — добавил эксперт.
Пользователь может полагать, что взаимодействует с реальным человеком, вести себя с ним как с человеком, в том числе провокационно: например, манипулируя давлением на жалость или просто действуя иррационально, указывает эксперт центра компетенций НТИ «Технологии машинного обучения и когнитивные технологии» на базе ИТМО Александр Бухановский. Сложная генеративная система ИИ может отреагировать по-своему, как это делает человек в силу особенностей эмоционального интеллекта, утверждает он. Пользователь, сможет «спровоцировать» ИИ на неадекватную (в его понимании) реакцию: в лучшем случае это вызовет разочарование, в худшем — может быть воспринято как оскорбление, рассказал эксперт.
— Попытки регулирования контента, который создают системы искусственного интеллекта, — от текстов и изображений до голосовых роботов и видео категории deep fake — предпринимаются во многих странах мира. За этими действиями стоит базовый страх человека перед роботом/алгоритмом — что он не поймет запрос, ошибется, навредит и т.п. Во многом это связано с новизной технологий ИИ. При этом в бюро переводов мало у кого возникают сомнения в том, что переводчик наделает ошибок в переводе, равно как и при визите в нотариальную контору никто не сомневается в способности нотариуса правильно составить доверенность, — отметил партнер ComNews Research Леонид Коник.
В силу того, что человек еще не прожил с роботами и алгоритмами длинную жизнь, разумно предупреждать его о факте столкновения с ИИ — в частности, при входящих звонках и иных случаях дистанционного взаимодействия, считает он. Это снимет тревожность и ускорит осознание человеком мысли о том, что во многих случаях системы ИИ удобнее и быстрее, чем другой человек, полагает эксперт.
По словам Леонида Коника, схожие инициативы развиваются сейчас и в других странах. Например, в Евросоюзе действует закон об искусственном интеллекте, который призван остановить распространение дезинформации и предписывает создателям генеративных моделей ИИ вводить соответствующие уведомления.
Валерий Кодачигов