Компания OpenAI, оператор чат-бота ChatGPT, занимается тестированием систем по отсеиванию нежелательной информации на базе искусственного интеллекта (ИИ). Об этом сообщило агентство Bloomberg со ссылкой на заявление представителя компании Андреа Валлоне.
По ее словам, нейросеть GPT-4, на основе которой сейчас работает ChatGPT, можно использовать для быстрой маркировки и фильтрации сообщений, что позволяет задействовать ее для разработки правил в отношении контента определенного рода.
Руководитель группы защиты инфраструктурных ИТ-решений компании «Газинформсервис» Сергей Полунин рассказал о рисках в применении ИИ-систем:
– Очень логичное применение искусственного интеллекта – автоматизация рутины, это то, чего мы ждем больше всего. Тут важно помнить, что ChatGPT остается компьютерной программой, которая подвержена специфическим уязвимостям, которые могут повлиять на принимаемые ей решения. Существует десяток способов заставить ИИ ошибаться, подсунув некорректные данные в процессе постоянного обучения, поэтому при всей перспективности этой затеи, систему нужно грамотно сопровождать и контролировать, а это может сделать только человек.