05.05.2026
2 3 0 / 0
#ai #Management

AI Operating Model: как не слить бюджет на умные игрушки

Что такое AI Operating Model, почему без неё AI-проекты умирают в пилоте и это исправить без боли и консалтинга за миллион.

Значит, в компании решили внедрить AI. Наняли дата-сайентиста, дали ему сервак с GPU, через полгода он показал красивую модель с 94% accuracy. Все похлопали. CEO сфоткался со героем. А потом… тишина. Модель живёт в Jupyter Notebook, бизнес её не использует, деньги потрачены.

Это называется AI в вечном пилоте. И это не проблема реализации. Это проблема того, что никто не подумал, как AI вообще должен работать внутри компании. Вот тут и появляется AI Operating Model.

AI Operating Model - это не технология. Это система: кто принимает решения, как проекты доходят до продакшена, кто отвечает когда что-то идёт не так, и как понять что AI вообще приносит деньги.

ну а чего нет то?

Почему без этого всё разваливается

Представь: маркетинг пилит свою модель рекомендаций, логистика - свою модель прогноза спроса, HR уже купил какой-то AI-инструмент для найма. Все работают независимо, данные не совпадают, стандартов нет, безопасники узнают об этом последними.

Это не AI-компания. Это AI-зоопарк. И чем дольше он существует без порядка, тем дороже потом наводить порядок. AI Operating Model - это про то, чтобы AI не был хобби одного умного чувака, а стал реальным инструментом бизнеса. Звучит скучно, но именно это отличает компании, которые зарабатывают на AI, от тех, кто только рассказывает про него

Из чего это состоит

1. AI Governance. Судья + правила + капитан в одном флаконе.

Кто решает, какие AI-проекты запускать? Кто говорит «стоп», если модель начинает нести чушь или дискриминировать клиентов? Кто отвечает перед регулятором? Без этого ты получаешь ситуацию, где каждый делает что хочет, а потом все смотрят друг на друга когда что-то идёт не так. Спойлер: всегда идёт не так.

Governance, это

  • Кто решает - запускаем этот AI-проект или нет
  • Кто следит - что модель не несёт чушь в продакшне
  • Кто отвечает - когда что-то пошло не так (а оно пойдёт)
  • Какие правила - что AI в компании делать можно, а что нельзя

Компания запустила AI-чат-бот для поддержки клиентов.
Никто не назначил ответственного за AI.

Через месяц бот начал советовать несуществующие скидки
и отвечать на жалобы в стиле «ваша проблема не важна».

Маркетинг говорит: «это не наш бот, мы только контент писали»
IT говорит: «мы только деплоили, за логику не отвечаем»
Продукт говорит: «мы только ТЗ давали»

Клиенты злятся. Регулятор интересуется что там с данными? 152-ФЗ стучится в дверь.
Крайнего нет.

Вот это и есть жизнь без AI Governance

Компания запустила AI-чат-бот для поддержки клиентов.
Назначили AI Product Owner - он отвечает за всё что делает бот.

Через месяц мониторинг поймал аномалию:
бот начал предлагать скидки которых нет в базе.

AI Product Owner получил алерт → остановил бот за 20 минут.
Созвал разбор: ML Engineer нашёл баг в данных,
Data Engineer починил пайплайн,
юрист проверил - до клиентов ничего не дошло, 152-ФЗ спокоен.

Через 2 часа бот снова в продакшне, но уже с валидацией скидок.

Маркетинг знает свою зону: контент и тон.
IT знает свою зону: инфраструктура и деплой.
Продукт знает свою зону: логика и метрики.
AI Product Owner знает всё и отвечает за результат.

Клиенты не заметили. Регулятор не пришёл.

Жизнь с AI Governance

2. Люди. Почему один дата-сайентист не спасёт

Самая частая ошибка: нанять Data Scientist и ждать магии. Но он строит модели - он не деплоит их в продакшн, не готовит данные, не объясняет бизнесу зачем это нужно. AI-команда - это всегда экосистема. ML Engineer берёт модель и делает так, чтобы она работала в реальном мире. Data Engineer готовит данные (и это 70% всей работы, да). AI Product Manager объясняет бизнесу что вообще происходит. Без любого из них цепочка рвётся.

3. Процессы. Как модель добирается до продакшна

Честный путь AI-проекта без нормальных процессов: три месяца разработки → IT говорит мы не знаем как деплоить → безопасники говорят мы вообще не в курсе → бизнес говорит ладно, забудьте, уже не надо.

MLOps - это DevOps для машинного обучения. Автоматизированные пайплайны, мониторинг моделей в продакшне, автоматическое переобучение когда модель начинает деградировать.
Без этого каждый деплой - ручной квест с непредсказуемым концом.

4. Платформа. Не изобретай велосипед!

Когда каждая команда использует свой стек - это технический долг, который растёт быстрее, чем ты успеваешь его замечать. Единая AI-платформа - это не про унификацию ради унификации. Это про то, чтобы Data Scientist тратил время на модели, а не на настройку инфраструктуры.

Azure ML, AWS SageMaker, Google Vertex AI, Databricks - выбирай под свой облачный стек и бюджет. Главное что должно быть: хранилище фичей, трекинг экспериментов, реестр моделей и нормальный serving. Без этого твои Data Scientists тратят 70% времени не на AI, а на DevOps и это не метафора.

5. Метрики. Покажи мне деньги?

Финальный и самый важный блок. Потому что AI ради AI - это дорогое хобби. Классическая ловушка: модель достигла 95% accuracy! - а CEO не понимает где деньги. Accuracy - только техническая метрика. Бизнесу нужно другое: отток клиентов снизился на 15%, это 5M в год. Вот это почёт и потенциал для премии.

Каждый AI-проект должен иметь бизнес-метрику, baseline (что было до) и ROI. Если этого нет на старте - проект либо умрёт в пилоте, либо никто не поймёт зачем он вообще был нужен.

Три способа организовать AI-команду

Как расположить AI внутри компании - отдельный холивар.
Есть три основных подхода, и у каждого своя цена:

  • Централизованная - Все AI-специалисты в одном CoE (специализированное подразделение или команда экспертов внутри организации). Работают как внутренний консалтинг для бизнеса.
  • Децентрализованная - AI-команды в каждом бизнес-юните. Быстро, близко к задачам, полный зоопарк.технический хаос
  • Федеративная - Центральная платформа + governance + embedded специалисты в бизнесе

Большинство компаний начинают с централизованной - это нормально, это стартовая точка. Потом, когда AI-культура созревает, переходят к федеративной. Если сразу прыгнуть в децентрализацию, то 100% получишь зоопарк без смотрителя.

Итого

Если видишь требование AI Operating Model в вакансии - от тебя ждут не знания алгоритмов, а понимания как встроить AI в операционку компании. Как выстроить процессы, людей, governance и метрики так, чтобы AI-проекты не умирали в пилоте, а доходили до продакшна и приносили деньги.

P.s. Хорошая новость: большинство компаний пока на стадии «хаос» или «вечный пилот». Тот, кто умеет выстроить нормальную операционную модель - стоит дорого.