Взяться за оружие: ChatGPT разрешили применять в военных целях

Американская компания OpenAI обновила политику использования чат-бота ChatGPT на основе искусственного интеллекта (ИИ) — из документа исчез прямой запрет на применение этой технологии в военных целях. По мнению экспертов, в перспективе ИИ может радикально изменить военные конфликты, но при этом его применение в бою сопряжено с большим количеством рисков. Подробности о том, почему ChatGPT разрешили применять в военных целях и чем может обернуться это решение, читайте в материале «Известий».

Большие перемены

На изменения в политике использования ChatGPT обратило внимание издание The Intercept. Как отмечается в публикации его журналистов, до 10 января на странице с правилами применения разработок OpenAI было специальное положение, запрещавшее использование ИИ для «деятельности, сопряженной с высоким риском физического вреда», — в том числе «разработки оружия» и «военных действий».

Эти нормы исключали возможность использования ChatGPT любыми военизированными государственными органами, включая министерство обороны. Однако в новой версии правил использования чат-бота пункт о недопустимости его применения как в армии, так и в военном деле исчез. В то же время сохранился запрет на применение нейросетей OpenAI для причинения вреда себе или другим, включая создание или использование оружия.

Как пояснили в OpenAI, политика использования ChatGPT была изменена из-за необходимости упростить свод правил и принципов. В компании отметили, что требование «не причинять вред себе и другим» по-прежнему остается очень широким. Кроме того, его уточняет отдельный запрет на разработку и использование оружия с помощью чат-бота.

— Любое применение наших технологий, в том числе военными, для разработки или использования оружия, нанесения вреда другим людям или уничтожения собственности, а также участие в несанкционированной деятельности, нарушающей безопасность какой-либо службы или системы, запрещено, — подчеркнули в OpenAI.

Навстречу Пентагону

Как отмечает в беседе с «Известиями» основатель и СЕО Mirey Robotics, эксперт по ИИ Андрей Наташкин, нельзя сказать, что компания OpenAI открыто заявила о том, что ее разработки будут использоваться в военных целях. Она просто поменяла политику использования данных и, скорее всего, не очень хотела акцентировать на этом внимание.

— Факт того, что из документа исчез прямой запрет на использования чат-бота в военных целях, подметили журналисты, после чего представителям компании пришлось давать комментарии, — рассказывает эксперт.

По словам Наташкина, такая позиция абсолютно понятна: крупные IT-компании не раз оказывались в центре скандалов из-за контактов с военными. К примеру, в 2017 году сотрудничать с минобороны США стала корпорация Google — ее разработки в сфере машинного обучения должны были использоваться для различных задач американских военных, в том числе для более точного поражения целей дронами и распознавания лиц.

При этом решение Google о сотрудничестве с военными вызвало бурную негативную реакцию как среди сотрудников корпорации, так и во внешней среде, отмечает Андрей Наташкин. В итоге под давлением общественности компания публично отказалась от сотрудничества, а в ее политике появился прямой запрет на использовании ИИ-разработок для военных задач.

— В 2022 году другая крупная американская компания, Boston Dynamics, заявила, что не будет передавать свои разработки военным, хотя ранее у нее был подобный кейс, — отмечает специалист.

В то же время возможность подобного сотрудничества крайне заманчива для различных компаний, поскольку Пентагон и правительство США являются крупнейшими заказчиками, говорит главный специалист отдела комплексных систем защиты информации компании «Газинформсервис» Дмитрий Овчинников. По словам эксперта, корпорация Boeing и многие компании в Кремниевой долине выросли как раз на военных заказах. А Apple многие из своих инновационных продуктов создает, опираясь на те технологии, которые были разработаны на основе грантов и инвестиций правительства США в интересах американской армии.

Боевые перспективы

Финансовая составляющая — это та причина, по которой заключение контракта с Пентагоном является заветной мечтой для руководства многих компаний, говорит Дмитрий Овчинников. Впрочем, есть и другая причина — невозможность полного контроля использования чат-ботов, в том числе ChatGPT.

— Да, можно составить множество ограничений и заставить пользователей подписывать лицензионное соглашение, но фактически ChatGPT может быть использован в военных целях без ведома создателей, — поясняет собеседник «Известий». — Так зачем же ставить ограничение, которое нельзя проконтролировать?

По словам Овчинникова, нейросети и ИИ уже сегодня активно применяются военными в алгоритмах обработки спутниковых фотографий. Кроме того, примитивным ИИ оснащены многие головки наведения баллистических и противокорабельных ракет. Между тем Андрей Наташкин указывает на то, что использование ИИ в военных целях потенциально несет в себе большие риски.

— В первую очередь встает вопрос о контроле технологий и ответственности за ошибки, цена которых — человеческие жизни, — говорит эксперт. — Причем подобные случаи есть уже сегодня.

В качестве примера Наташкин приводит инцидент, который произошел в 2020 году в Ливии, где боевой дрон в автоматическом режиме выследил и атаковал цель. Официально вся информация по этому происшествию была засекречена — обрывочные данные содержатся лишь в отчете Совета Безопасности ООН, опубликованном год спустя. Из этого документа известно, что атака произошла в Ливии, дрон был произведен в Турции, а поражена была «человеческая цель». Этот случай стал первым реальным примером того, как ИИ нанес удар без контроля со стороны человека.

Дмитрий Овчинников считает, что в будущем использование ИИ в военной сфере будет только нарастать. К примеру, общим искусственным интеллектом может быть оснащен рой ракет, за счет чего он будет более надежно поражать цели и подавлять противоракетную оборону (ПРО) противника.

Обратная сторона

Между тем коммерческий директор компании «Код безопасности» Федор Дбар, говоря о перспективах применения ИИ в военной сфере, призывает разделять понятия нейросетей и технологий, подобных ChatGPT. Нейросети используются в военном деле давно и активно: это и системы наведения высокоточного оружия, и работа с широкополосным форматом связи, и шифрование, и различные системы управления боем или дронами.

— В то же время важно понимать, что такие технологии, как ChatGPT, — это «гражданский» вариант применения нейросетей, который малопригоден для каких-либо задач военного назначения, — считает собеседник «Известий». — В целом все угрозы военного применения чат-ботов сильно переоценены.

По мнению Дбара, разговоры о том, что ИИ или нейросети могут представлять угрозу для человечества, сегодня относятся к разряду дилетантства. В настоящее время цифровые технологии не угрожают планете. Как поясняет эксперт, все инструменты на основе ИИ создают программисты, которые в процессе разработки среди прочего закладывают в свои продукты механизмы безопасности.

— С точки зрения угроз для человечества куда опаснее выглядит вероятность ядерной войны или падения астероида на Землю, — подчеркивает специалист.

Федор Дбар дополняет, что на сегодняшний день нет ни особого искусственного интеллекта, ни нейросети, которая могла бы полностью управлять какой-либо системой. Конечно, в шахматах компьютер может двигать фигуры и продумывать стратегию, но в реальности (особенно в военной сфере) такого сейчас нет — и подобная технология вряд ли появится в обозримом будущем. Поэтому нейросети — именно нейросети, а не чат-боты — могут быть лишь элементом какой-либо военной инфраструктуры, но не полноценными «командующими», заключает эксперт.

Дмитрий Булгаков

Тематики: Безопасность, Инновации

Ключевые слова: Искусственный интеллект