Ректор Российского технологического университета Станислав Кудж обратился в письме к главе Министерства цифрового развития, связи и массовых коммуникаций РФ с просьбой разработать программу защиты критически важной инфраструктуры от кибератак с использованием нейросетей. Кудж также предложил обязательно маркировать специальным графическим знаком контент, созданный с помощью таких технологий.
Ректор также призвал добавить пункт в приказ Минцифры от 21.12.2020 № 734 "Об определении угроз безопасности персональных данных", который касается угрозы несанкционированного доступа к персональным данным людей без соответствующих полномочий в информационных системах и их использования с помощью нейросетей.
Кроме того, РТУ МИРЭА предлагает включить модуль "Противодействие неправомерному использованию нейросетей" в спецпроект Минцифры "КиберЗОЖ" федерального проекта "Информационная безопасность".
Участники исследования, проведенного экспертами РТУ МИРЭА, выделили возможный рост киберпреступности как наиболее опасную угрозу, связанную с использованием нейросетей. Вуз не ответил на запрос ComNews и не сказал, сколько экспертов было опрошено и кто они.
В письме отмечается, что без введения дополнительных мер контроля за развитием искусственного интеллекта нейросети могут эффективнее, чем люди, взламывать защиту компьютерных программ.
Эксперты, опрошенные ComNews, согласились, что инициативы по регулирования ИИ необходимы. Александр Малетов, руководитель отдела корпоративных продаж группы компаний X-Com, считает инициативу РТУ разумной и своевременной. "В обозримом будущем потребуется ряд регуляторных инициатив, направленных на предотвращение участившихся случаев применения ИИ в противоправной деятельности. Попадая в руки мошенников, технология способна вводить жертву в заблуждение и выманивать персональные данные", - рассказал Малетов об использовании мошенниками нейросетей.
"В открытом доступе уже появились инструкции о том, как обойти фильтры популярных нейросетей для создания вредоносного ПО. Более того, использование инструментов, таких как ChatGPT, позволяет злоумышленнику с минимальными усилиями создать эксплоит. Поэтому защита критически важной инфраструктуры от атак с помощью нейросетей - необходимый ответ на вызовы в области информационной безопасности", - считает Владимир Арышев, эксперт по комплексным ИБ-проектам Step Logic. Он добавил, что для защиты инфраструктуры необходима система, которая обеспечит выявление и блокировку атак с использованием нейросетей - для этого производители уже интегрируют ИИ с существующими средствами защиты. Системы по распознаванию поддельного контента пока не входят в типовой набор технических мер по защите информации, но их внедрение – это только вопрос времени, считает Арышев.
Юлия Леонова, заместитель генерального директора и директор петербургского офиса SPN Communications, отметила, что большая проблема, связанная с нейросетями - дипфейки, которые могут разрушить репутацию компаний и людей. "Маркировка контента ознаменует новый этап в развитии ИИ. Теперь нейросети не просто игрушка, а целая система, требующая внимания закона", - считает Леонова.
Пользователи платных тарифов сервиса для проверки текстов на заимствования "Антиплагиат" теперь могут узнать, сгенерирован ли текст нейросетью— программа помечает такие документы как "подозрительные".
В блоге "Антиплагиата" сказано, что, согласно результатам бета-тестирования на сбалансированной тестовой выборке, сервис выделил 11 ложноположительных срабатываний на 1000 текстов, которые создали люди. При этом он смог обнаружить 97% текстов, написанных искусственным интеллектом.
Корреспондент ComNews проверил "Антиплагиат". Для этого он отправил сервису на проверку два текста: один сгенерировал ChatGPT, другой - написал журналист портала. Оба текста состояли из пяти абзацев, материалы приблизительно равны по объему. Первая заметка, которую написал ИИ, была посвящена использованию нейросетей в журналистике. "Антиплагиат" промаркировал заметку как "подозрительную" и написал, что в "документе присутствует сгенерированный текст". Программа подчеркнула все слова как подозрительные и оказалась права — корреспондент не редактировал текст. Уникальность составила 100%. Вторую заметку журналист посвятил проблемам использования ИИ в образовании. Материал написан сухим языком: корреспондент подражал стилю ChatGPT. Программа не промаркивала документ как подозрительный, несмотря на усилия сотрудника СМИ. Уникальность также составила 100%.
"В работе над определением сгенерированного текста разработчики компании "Антиплагиат" используют алгоритмы искусственного интеллекта, обученные на задачи детектирования. Несмотря на все успехи ChatGPT или Jasper, их тексты все еще отличаются от написанных человеком", – приводит сайт сервиса "Антиплагиат" слова исполнительного директора компании Юрия Чеховича.
Станислав Ашманов, генеральный директор компании "Наносемантика", заметил, что есть дефицит сервисов, распознающих контент, созданный нейросетями: "Проблема распознавания сейчас не решается технически: то небольшое количество сервисов, которые, по заявлению авторов, отличают сгененированный контент (например, изображения), работают очень некачественно. Кроме того, любой такой сервис будет использоваться разработчиками генеративного ИИ (ChatGPT, MidJourney и других нейросетей) для создания более качественного набора обучающих данных. В отличие от аналогичной гонки "вирус-антивирус", разрабатывать методы детекции генеративного контента гораздо сложнее, чем алгоритмы его генерации. Эта асимметрия будет приводить к тому, что на практике сервисы по распознаванию будут в большой степени бесполезны". Он добавил, что в текстах, созданных с помощью GPT2 и GPT3, можно заметить статистические признаки, не свойственные материалам, написанным человеком. Однако качество скорость обновления ChatGPT высока, поэтому есть вероятность, что вскоре будет невозможно выявить сгенерированный текст.
"Важнее оценивать источник контента. Каждому нужно определить, можно ли доверять ленте "френдов" в социальных сетях и десяткам чатов в мессенджерах", - подытожил Ашманов.
Анна Швецова