По функциональности можно классифицировать системы ИИ на три типа: предсказательные, генеративные и системы принятия решений (СПР). СПР – это модели, которые на основе определенных алгоритмов обработки данных помогают специалистам принимать те или иные решения: например, сотруднику банка – решение о выдаче кредита, врачу – решение о постановке диагноза. Такие системы появились раньше остальных и сегодня наиболее распространены.
Предсказательный искусственный интеллект может предсказывать те или иные события, а также распознавать и классифицировать объекты на изображении, в документе или в текстовом сообщении. Например, проанализировав чек из магазина, система может спрогнозировать потенциал покупателя и его склонность к выбору тех или иных продуктов.
Третий вид ИИ, который сегодня представляет наибольший интерес у максимально широкой аудитории, – генеративный, направленный на создание нового контента (изображения, текста, аудио) на основе модели, обученной на огромных массивах данных.
Gartner выделяет четыре тенденции в технологиях ИИ, каждая из которых объединяет различные направления и подкатегории: датацентричность, моделецентричность, человекоцентричность и наукоцентричность.
Датацентричный ИИ направлен на задачи, связанные с обработкой больших объемов данных, выборкой и подготовкой данных для аналитики – то, что для человека оказывается крайне трудоемким делом. В его развитии фокус делается на улучшение качества и обогащение данных, используемых для обучения алгоритмов. В цикле хайпа Gartner в этой категории можно выделить такие технологии, как Synthetic Data (использование искусственно сгенерированных системой данных для обучения и тестирования моделей ИИ), Knowledge Graphs (структурированные базы данных для организации и анализа знаний), Data Labeling and Annotation (разметка данных для ML-моделей).
Кирилл Меньшов, старший вице-президент ПАО «Ростелеком» по информационным технологиям
«Big Data и искусственный интеллект очень сильно взаимосвязаны. Искусственный интеллект невозможен без данных, данные являются для него фундаментом. Компании, которые не умеют собирать данные, не смогут и полноценно использовать технологии ИИ, это очень важно понять», – говорит Кирилл Меньшов.
Моделецентричный ИИ, наоборот, соревнуется с человеком в тех областях, где специалист изначально показывал высокую эффективность: генерация контента, субъективный анализ. Развитие технологий в этой категории связано с повышением качества и эффективности моделей ИИ. Здесь на кривой Gartner обращают на себя внимание такие технологии, как Deep Learning (глубокое машинное обучение), Causal AI (выявление и понимание причинных связей между событиями и факторами), Composite AI (объединение различных видов ИИ для создания универсальных систем), Generative AI (создание новых данных), Foundation Models (крупномасштабные ML-модели), Physics-Informed AI (использование принципов физики и естественных законов для ML).
Наукоцентричный ИИ объединяет технологии, которыми занимаются ученые-исследователи и которые в будущем могут привести к следующему прорывному воздействию на общество.
Технологии человекоцентричного ИИ направлены на более удобное, безопасное и эффективное применение ИИ людьми. Здесь можно выделить такие подкатегории, как AI TRiSM (Trust, Risk and Security Management), Responsible AI (практика внедрения ИИ с соблюдением этических и юридических норм), Digital Ethics (исследование моральных и этических вопросов ИТ, в том числе ИИ), AI Maker and Teaching Kits (наборы и инструменты для обучения технологиями ИИ).
«Хотел бы отметить именно этические и юридические нюансы. Что является результатом труда искусственного интеллекта? Какие у него есть права и кто этими правами владеет? И самое главное – кто несет ответственность за применение технологий ИИ? Это очень важный вопрос – субъектности искусственного интеллекта. В законодательстве этого нет. Предположим, мы купили машину с автопилотом и с ней что-то случилось – кто за это отвечает, мы как покупатели, производитель машины, разработчик софта? Еще один вопрос – каким образом этика заложена внутрь модели? На практике мы часто сталкиваемся с тем, что какой-нибудь ChatGPT отказывается отвечать на определенный вопрос, считая его неэтичным. Самое интересное, что, немного перефразировав вопрос, можно все-таки получить ответ. Это означает, что этику в модель заложить достаточно сложно», – комментирует Кирилл Меньшов.
На сегодняшний день в мире существует огромное количество общедоступных нейросетей. Например, в российском каталоге alilib.ru собрано около 1,5 тысяч инструментов ИИ, а в глобальном futurepedia.io их уже 350 тысяч. Идея состоит в том, что каждый должен научиться пользоваться этими инструментами, понимая, какие из них лучше подходят для решения тех или иных задач.
«У нас есть гипермаркет инструментов, решающих похожие или разные задачи, и ваша цель – для себя собрать собственный набор, который вам по каким-то причинам будет нравиться. Важно знать, где этот гипермаркет находится, пробовать разные инструменты, какие-то для себя выбрать и использовать их в работе», – поясняет Кирилл Меньшов. Уточним, что речь эксперта шла о применении генеративных моделей в журналистике. Но те же принципы могут быть актуальны для многих других профессий, связанных с написанием текста, генерации изображений или аудио: например, для программистов, юристов, переводчиков, маркетологов, иллюстраторов, режиссеров, видеомонтажеров и т. д.
К наиболее востребованным и продвинутым нейросетям для журналистов эксперты «Ростелекома» относят ChatGPT, ChatGPT для YouTube, Smodin, Writesonic, Perplexity AI, GigaChat, YaGPT, 300.ya.ru, Gerwin AI, Jasper, Stable Diffusion, DALL-E 2, Midjourney, Synthesys X, «Кандинский», Whisper.
Рекомендации «Ростелекома»: распространенные нейросети для журналистики
«Искусственный интеллект ни в коем случае не заменяет нас. Но он, как полезный инструмент, может помочь нам делать свою работу количественно больше, одновремнно повышая ее качество. Когда-то проходило множество дискуссий о том, надо ли школьникам пользоваться калькулятором. Время показало что использование калькулятора было правильным решением, это высвободило время. Если бы ученики выполняли все сложные математические расчеты на бумаге, они просто смогли бы решить меньше задач», – добавил Кирилл Меньшов. Он также отмечает ряд других нюансов использования общедоступных моделей искусственного интеллекта.
Во-первых, как уже упоминалось выше, каждая нейросеть всегда имеет внутри себя некий этический движок, который периодически модифицируется создателями модели, в том числе в ответ на особенности ее самообучения. Это означает, что иногда нейросеть может выставлять для пользователей некоторые ограничения, которых раньше не было.
«Нейросети стремительно меняются, на основе взаимодействия с пользователями модели перестраиваются. Поэтому если сегодня она вам ответила на вопрос, завтра может дать на него другой ответ, а может перестать считать этот вопрос этичным. Надо воспринимать это как неизбежность, нейросеть живет своей жизнью, взрослеет. Надо понимать что нейросети дают разные ответы на одни и те же вопросы», – рассказывает Кирилл Меньшов.
Во-вторых, нейросети обучаются на больших объемах информации. Поэтому чем более редко упоминаются в Сети факт или персона, про которую необходимо написать, тем менее качественным будет ответ – вплоть до того, что нейросеть может начать путать факты или персонажей.
Третий важный момент: правовой статус результата работы нейросетей пока формально не закреплен, и в этом есть риски с точки зрения использования их в работе. Например, западные ChatGPT и Midjourney запрещены разработчиками к использованию на территории РФ, то есть любой контент, созданный с их помощью, имеет неопределенный правовой статус. В этом плане российские нейросети применять предпочтительнее. Кроме того, в пользовательском соглашении к некоторым моделям могут быть прописаны условия о том, что авторское право на созданный в ней контент остается за сервисом нейросети.
Наконец, для эффективного применения генеративных моделей пользователям необходимо овладеть искусством создания запросов для них – то есть промтингом.
«Для «Ростелекома» использование тех или иных моделей искусственного интеллекта – очень важная задача, в первую очередь, – с точки зрения производительности труда. Мы понимаем, что в ближайшем будущем нас ждет дефицит разработчиков и представителей других профессий. И для нас самое главное – облегчить труд сотрудников, чтобы они могли справляться с увеличивающимся объемом задач. Поэтому мы даже не ставим перед собой вопрос – заменит ли искусственный интеллект людей. Вопрос в другом: как обеспечить экономику необходимыми людьми? Мне кажется, искусственный интеллект способен эту задачу решить», – подчеркнул спикер.