Активный период пилотных проектов по внедрению искусственного интеллекта (ИИ) в 2024-2025 годах убедительно доказал, что эффективность решений зависит не от выбора модели, а от качества, структуры и управляемости данных. Несмотря на доступность технологий, большинство инициатив терпит неудачу на этапе промышленной эксплуатации именно из-за отсутствия комплексного подхода к подготовке данных. В результате в 2026 году вместо точечных экспериментов бизнес будет активнее инвестировать в создание масштабируемых платформ управления данными, которые становятся базой для экономически оправданного применения ИИ.
Однако для управления ИИ-проектами классического Data Governance с его метриками качества данных уже недостаточно. Искусственный интеллект — это динамичная система, которая не только использует данные, но и самостоятельно генерирует данные, создавая при этом новые риски. Все это приводит к росту интереса к AI Governance — комплексному управлению жизненным циклом ИИ-решений, включая вопросы безопасности, этики, прозрачности и соответствия требованиям регуляторов. Цель такого подхода — обеспечить контролируемое масштабирование ИИ-проектов, снизить риски и дать бизнесу измеримую отдачу от инвестиций.
Растет и важность регламентированного доступа к внешним данным: отраслевым аналитическим системам, агрегированным рыночным показателям и информации от партнеров по экосистеме. Это создает спрос на отраслевые центры данных и коммерческие маркетплейсы, которые обеспечивают безопасный обмен и обогащение информации. Благодаря этому компании получают аналитические возможности, выходящие за рамки внутренних массивов данных.
Одновременно растет спрос на технологические решения, которые делают использование ИИ доступнее за счет автоматизации ключевых процессов:
На рынке BI-решений спрос смещается от сложных, заранее подготовленных отчетов к интерактивной аналитике в реальном времени. А внедрение ИИ, который понимает вопросы на естественном языке, становится стандартом. Такие инструменты позволяет бизнес-пользователям формулировать запросы на обычном языке, автоматически преобразуя их в сложные SQL-запросы, интерактивные дашборды или готовые отчёты. В результате заметно снижается зависимость от технических специалистов, цикл получения инсайтов сокращается в разы, а скорость принятия решений возрастает.
Бизнес-аналитика становится не узкоспециализированным инструментом, а повседневным рабочим ресурсом для сотрудников разных уровней. BI-платформы все чаще предлагают готовые прикладные кейсы «из коробки» – например, для оценки рисков, скоринга, анализа эффективности продаж или управления запасами. Это снижает порог внедрения аналитических решений и позволяет бизнесу быстрее переходить от анализа данных к практическим действиям на их основе.
Рост объемов и разнообразия данных требует от компаний не просто наращивания вычислительных мощностей, а нового подхода, объединяющего низкую стоимость хранения «сырых» данных Data Lake с производительностью, управляемостью и транзакционной надежностью хранилищ. Поэтому рынок активно развивается в сторону архитектуры Data Lakehouse, позволяющей работать со структурированными и неструктурированными данными в едином слое. Это обеспечивает высокую скорость обработки, включая AI/ML-нагрузки, и снижает совокупную стоимость владения.
Российский рынок подобных решений находится на этапе активного становления. Несмотря на наличие предложений от ряда вендоров, их зрелость и распространённость пока не достигли уровня мировых аналогов, а конкурентная среда только формируется. Количество успешных проектов промышленной эксплуатации также пока невелико. Эта ситуация создаёт для заказчиков определённую сложность: дефицит проверенных референсов требует более взвешенного и осторожного подхода к внедрению.
«На свободном рынке с новыми технологиями риски создания самописных архитектур особенно велики. Закрытие open-source веток, как в случае с Greenplum, так и в 2025 году с проектом MinIO, который лежит в основе многих Lakehouse-решений, наглядно показывает уязвимость такого пути. Компания, которая полагается на узкоспециализированных внутренних экспертов или некоммерческие версии ПО, рискует столкнуться с потерей ключевых специалистов, прекращением поддержки ключевых компонентов, геометрически растущей стоимостью таких решений, что парализует развитие и ведет к потере вложений», – отмечает Дмитрий Красников, руководитель направления Big Data & BI К2Тех.
В эпоху дорогих денег компании возвращаются к проверенному инструменту — системам управления мастер-данными (MDM). Эти системы обеспечивают прямую экономию за счет создания единых нормализованных справочников клиентов, продуктов и контрагентов, что позволяет устранять дублирующие закупки, оптимизировать логистику и управлять запасами на основе согласованных данных. Современные MDM-платформы, работающие в гибридных и облачных средах, также служат фундаментом для аналитики и ИИ. Поскольку качество моделей напрямую зависит от чистоты исходных данных, MDM обеспечивает тот базовый уровень целостности информации, без которого невозможны точные прогнозы и автоматизированные решения.