Генеративный ИИ в среднем бизнесе США: какие процессы реально автоматизировали (кейсы и разбор)

Курс учит проводить глубокое исследование американского mid-market и собирать подтвержденные кейсы внедрения генеративного ИИ. Вы разберете, какие именно процессы были автоматизированы/оптимизированы (по функциям бизнеса), как проверять достоверность заявлений и как оформлять результаты в виде базы кейсов и инсайтов для принятия решений.

1. Рамка исследования: mid-market США, отрасли и критерии «реального кейса»

Рамка исследования: mid-market США, отрасли и критерии «реального кейса»

Эта статья задаёт рамку исследования для всего курса: кого мы считаем средним бизнесом (mid-market) в США, какие отрасли включаем, и по каким критериям будем отбирать реальные кейсы внедрения генеративного ИИ (GenAI), где автоматизация/оптимизация процессов действительно произошла, а не осталась на уровне презентаций.

Зачем нужна рамка (и от чего она защищает)

Рынок GenAI переполнен заявлениями вида «мы внедрили ИИ» без уточнений, что именно изменилось в операционной деятельности. Чтобы собрать кейсы, пригодные для повторения в среднем бизнесе, нам нужна рамка, которая:

  • отделяет пилоты и PR от внедрений, влияющих на процесс и метрики
  • задаёт границы mid-market и исключает «кейсы бигтеха», плохо переносимые на средний бизнес
  • делает сравнение кейсов корректным: одинаковые типы процессов, похожие ограничения по бюджету, данным и комплаенсу
  • Определяем mid-market США: границы и практическое правило

    В США нет единственного универсального определения среднего бизнеса. Для курса используем сочетание двух осей: выручка (как основной фильтр mid-market) и размер по SBA (как контекст по отрасли).

    Основное определение для курса: выручка 1B

    Наиболее цитируемая рамка среднего рынка в США — определение от National Center for the Middle Market (NCMM): компании с годовой выручкой примерно от 1 млрд.

  • Источник: National Center for the Middle Market — What is the Middle Market?
  • Почему это удобно для исследования GenAI:

  • у компаний уже есть формализованные процессы (support, продажи, финансы, HR, ops)
  • есть IT-функция и бюджеты на софт, но редко есть «армия» ML-инженеров
  • давление на эффективность высокое, а ROI обычно ожидают быстрее, чем в enterprise
  • Контекстный фильтр: отраслевые стандарты SBA

    SBA публикует Size Standards (по NAICS), где «малый бизнес» определяется по выручке или численности — и пороги сильно отличаются по отраслям. Мы используем это не как основное определение mid-market, а как проверку реалистичности: кейс должен происходить в компании, которая по своей отрасли и масштабу находится между SMB и enterprise.

  • Источник: U.S. SBA — Size Standards
  • Практическое правило включения кейса в курс

    Кейс включается в исследование, если выполняется хотя бы одно условие:

  • компания прямо относится к диапазону 1B выручки (по NCMM-логике)
  • компания по описанию и структуре очевидно mid-market (региональная/национальная, не глобальная), даже если точная выручка не раскрыта, но есть подтверждения масштаба (численность, сеть филиалов, объём операций)
  • Что считаем «генеративным ИИ» в рамках курса

    Чтобы не смешивать разные типы автоматизации, в курс включаем только решения, где модель генерирует текст/код/контент или извлекает ответ из корпуса знаний с генерацией.

    Включаем:

  • LLM-ассистенты для сотрудников (support, sales, финансы, юристы)
  • RAG-подходы (retrieval augmented generation): генерация ответа с опорой на базу знаний
  • суммаризация и классификация обращений/документов, если результат используется в процессе (например, авто-черновик ответа)
  • генерация кода/SQL/тестов в разработке, если встроено в SDLC
  • Не включаем:

  • классическую RPA без GenAI (если нет генерации)
  • чисто предиктивные модели (прогноз спроса) без генеративного компонента
  • «чатботы» на правилах без LLM
  • Отрасли mid-market, где GenAI чаще даёт быстрый эффект

    Для курса мы фокусируемся на отраслях, где у mid-market обычно много текстовых операций, повторяющихся запросов и документных потоков. Это повышает шанс увидеть реальную автоматизацию.

    Приоритетные отрасли:

  • B2B-услуги (профессиональные сервисы, консалтинг, аутсорсинг)
  • дистрибуция и логистика (customer service, order management, claims/returns)
  • производство (инструкции, качество, техподдержка, инженерные изменения)
  • страховые брокеры и финсервисы mid-market (документы, заявки, комплаенс)
  • healthcare-services вне бигсистем (клиники/сети, billing, обращения)
  • ритейл и e-commerce среднего масштаба (контент, support, merchandising)
  • Почему не начинаем с «самых громких» отраслей:

  • big tech и крупные банки часто имеют уникальные данные/команды
  • госструктуры и hyperscale обычно имеют регуляторные и бюджетные условия, непохожие на mid-market
  • Критерии «реального кейса»: что должно быть доказано

    В этом курсе реальный кейс — это не «мы купили Copilot», а изменение процесса, подтверждаемое источниками и результатами.

    Ниже — критерии, по которым мы будем принимать решение: включать кейс или нет.

    Критерий 1: конкретный бизнес-процесс и его границы

    Должно быть чётко названо:

  • где процесс начинается и заканчивается
  • кто участники (роль/функция)
  • что было «до» (ручные шаги, инструменты)
  • что стало «после» (какой шаг автоматизирован/ускорен)
  • Примеры процессов, которые обычно можно описать однозначно:

  • создание черновика ответа клиенту в support + маршрутизация тикета
  • подготовка коммерческого предложения (RFP/RFQ) по шаблону
  • суммаризация звонка/встречи + постановка задач в CRM
  • генерация описаний товаров/категорий + контроль качества
  • поиск ответа по внутренним политикам (HR/IT) с цитированием источников
  • Критерий 2: уровень внедрения (не только пилот)

    Кейс считается зрелым, если есть признаки операционного внедрения:

  • используется регулярной командой (не 3 человека «поигрались»)
  • встроено в рабочий инструмент (helpdesk/CRM/IDE/портал)
  • есть обучение пользователей и правила применения
  • Критерий 3: измеримый эффект (хотя бы одна метрика)

    Не обязательно раскрывать деньги, но должна быть хотя бы одна метрика уровня процесса:

  • снижение среднего времени обработки (AHT/handle time)
  • рост доли self-service / deflection
  • увеличение throughput (заявок/документов/страниц контента в неделю)
  • снижение ошибок/эскалаций/повторных обращений
  • сокращение времени подготовки документа (например, RFP)
  • Если заявлены только общие слова («стало быстрее»), кейс попадает в раздел наблюдений, но не в ядро курса.

    Критерий 4: понятная техническая конструкция (минимально)

    Мы не требуем глубокой архитектуры, но должны понимать:

  • LLM-платформа или класс решения (например, LLM + RAG)
  • где хранятся знания (wiki/SharePoint/CRM/файлы) и как их подключили
  • как обеспечили доступы и разграничение данных
  • Критерий 5: управление рисками и качеством

    Даже в mid-market должны быть описаны хотя бы базовые меры:

  • политика по конфиденциальным данным
  • human-in-the-loop для критичных выходов (например, юридические письма)
  • контроль качества (выборки, review, запрещённые темы)
  • Для общей рамки управления рисками можно опираться на NIST AI RMF.

  • Источник: NIST — AI Risk Management Framework (AI RMF 1.0)
  • Критерий 6: проверяемость источника

    Кейс должен иметь проверяемые следы:

  • публичный кейс-стади от вендора с конкретикой процесса и результата
  • интервью/выступление руководителя (операционный владелец процесса)
  • публикация компании (блог/пресс-релиз) с деталями
  • Если есть только маркетинговая страница «мы используем ИИ», без процесса и эффекта, это не «реальный кейс».

    Источники данных: где искать mid-market кейсы (и как их фильтровать)

    Mid-market компании часто не публикуют подробные отчёты, поэтому стратегия поиска отличается от enterprise.

    Надёжные источники:

  • кейс-стади вендоров helpdesk/CRM/contact center/knowledge management
  • выступления на отраслевых конференциях и вебинарах (видео/транскрипт)
  • блоги интеграторов, если есть конкретные шаги и результат
  • локальные бизнес-издания, когда описывается конкретный процесс
  • Слабые источники (используем осторожно):

  • пресс-релизы без метрик
  • «AI-washing» объявления о партнёрстве без внедрения
  • посты в соцсетях без подтверждений и деталей
  • Рубрика оценки кейса: как мы будем сравнивать внедрения

    Чтобы в следующих статьях сравнивать кейсы одинаково, используем рубрику.

    | Измерение | Что фиксируем | Минимум для включения в курс | |---|---|---| | Процесс | название, границы, участники | процесс описан однозначно | | Внедрение | пилот/продакшн, охват | есть регулярное использование | | Эффект | метрика до/после или динамика | хотя бы 1 измеримый показатель | | Техподход | LLM, RAG, интеграции | понятна связка «вход → модель → выход» | | Риски | данные, контроль качества | описан хотя бы human review или политика данных | | Источник | тип и качество подтверждения | есть проверяемая публикация |

    Как эта рамка превращается в структуру курса

    Дальше курс будет строиться так:

  • по каждой приоритетной отрасли собираем 5–10 реальных кейсов по рубрике
  • группируем их по типам процессов (support, sales, ops, finance, HR, IT)
  • разбираем, какие паттерны повторяются (RAG, ассистенты, авто-черновики, контроль качества)
  • отдельно отмечаем, какие кейсы выглядят как PR и почему они не проходят критерии
  • !Воронка отбора кейсов: от шумного рынка к проверяемым внедрениям

    Итоги

    В рамках курса mid-market США — это прежде всего компании масштаба 1B выручки (NCMM-логика) с поправкой на отраслевые особенности (SBA). Реальный кейс — это внедрение GenAI, привязанное к конкретному процессу, с признаками продакшн-использования, измеримым эффектом и проверяемым источником. Эта рамка нужна, чтобы все последующие статьи курса опирались на сопоставимые и повторяемые примеры, а не на «AI-обещания».

    2. Клиентские процессы: поддержка, продажи, маркетинг и self-service с GenAI

    Клиентские процессы: поддержка, продажи, маркетинг и self-service с GenAI

    Эта статья продолжает рамку исследования из предыдущего модуля: мы рассматриваем только те внедрения GenAI в mid-market США, где есть привязка к конкретному клиентскому процессу, понятная техническая конструкция и хотя бы минимально измеримый эффект. Здесь фокус на клиентских процессах — именно они чаще всего дают быстрый ROI в среднем бизнесе, потому что содержат много повторяющейся текстовой работы и знаний, распределённых по разным системам.

    Почему клиентские процессы чаще всего автоматизируют первыми

    В mid-market США клиентские функции обычно имеют три особенности:

  • высокий объём коммуникаций: тикеты, письма, звонки, чаты
  • знание разбросано: CRM, helpdesk, wiki, PDF, прайс-листы, policy-документы
  • метрики процесса уже живут в системах: AHT, CSAT, deflection, конверсия, скорость ответа
  • GenAI даёт эффект именно там, где можно:

  • генерировать черновики и сокращать время на создание ответа/документа
  • суммаризировать и структурировать разговоры и обращения
  • искать ответы в базе знаний через RAG и отдавать их в виде готовых объяснений
  • RAG (retrieval augmented generation) — это подход, где модель отвечает не “из головы”, а сначала находит релевантные фрагменты во внутренней базе знаний, а затем формирует ответ с опорой на найденные источники.

    Карта клиентских процессов, где GenAI реально “садится” в операционку

    Ниже — типовая карта процессов, где в среднем бизнесе чаще всего происходят реальные изменения шага процесса (а не просто “купили чатбот”).

    | Функция | Процесс | Что автоматизируют/оптимизируют GenAI | Типичный артефакт “после” | Как измеряют эффект | |---|---|---|---|---| | Support | обработка тикетов | черновик ответа, суммаризация, извлечение данных из обращения, подбор статьи базы знаний | готовый ответ + ссылки на KB, краткое резюме, теги | AHT, FRT, доля решённых без эскалации, CSAT | | Support | triage и маршрутизация | классификация темы/приоритета, определение языка/тональности, предложение очереди | авто-теги, suggested assignee/queue | скорость назначения, SLA-breach rate | | Support | self-service | Q&A по базе знаний, генерация инструкций, уточняющие вопросы | чат-ответ с цитатами, “next step” | deflection, containment rate | | Sales | SDR/AE рутина | резюме звонка, письмо follow-up, обновление CRM, подготовка вопросов | meeting summary, авто-задачи, draft email, CRM notes | time-to-follow-up, CRM hygiene, конверсия этапов | | Sales | RFP/RFQ | черновики ответов по библиотеке, сопоставление требований | черновик ответа + источники | время цикла, win-rate, нагрузка на SME | | Marketing | контент и креатив | варианты объявлений, описания товаров, SEO-структуры, e-mail цепочки | набор вариантов + тональность/бренд-гайды | throughput контента, CTR/CR (осторожно с атрибуцией) |

    Support: где GenAI реально сокращает трудозатраты

    Агент-ассистент в helpdesk: “черновик ответа + источники”

    Это самый “операционный” сценарий: агент остаётся владельцем ответа, но GenAI берёт на себя 60–80% черновой работы.

    Как выглядит процесс до:

  • агент читает тикет
  • ищет ответ в базе знаний/Slack/старых тикетах
  • формирует ответ вручную
  • при необходимости эскалирует
  • Как выглядит процесс после:

  • агент открывает тикет
  • ассистент автоматически:
  • - суммаризирует запрос - предлагает 1–2 релевантных статьи - генерирует черновик ответа в нужном тоне
  • агент проверяет, редактирует, отправляет
  • Что здесь важно для критериев “реального кейса” из рамки:

  • процесс чётко встроен в helpdesk (а не отдельный чат)
  • есть измерение AHT/FRT до и после
  • есть политика: что запрещено отправлять без проверки
  • Платформенные реализации, которые часто используют mid-market команды:

  • Zendesk AI как набор функций для agent assist, triage и self-service
  • Intercom Fin для self-service и разгрузки первой линии
  • Как не перепутать с PR: если “ассистент” не пишет черновик ответа и не вставляется в тикет, а живёт отдельным чатом, чаще всего это пилот, который не меняет операционную механику.

    Triage: авто-классификация и маршрутизация (экономия не на тексте, а на очередях)

    В mid-market support-организациях “узкое место” часто не в написании ответа, а в правильном назначении:

  • определить тему
  • распознать срочность
  • отправить в нужную очередь
  • GenAI здесь применяют как “умный слой” над входящими обращениями:

  • присваивает категорию (billing, onboarding, bug)
  • предлагает приоритет
  • извлекает важные поля (номер заказа, продукт, версия)
  • Важно: этот сценарий обычно требует чётких правил human-in-the-loop, потому что ошибка маршрутизации бьёт по SLA.

    Self-service: чат-ответы по базе знаний с ограничением риска

    Self-service сценарии в среднем бизнесе чаще всего внедряются по модели:

  • отвечаем только на вопросы, где есть подтверждённые источники
  • если источника нет, ассистент предлагает создать тикет или уточняющий вопрос
  • Это снижает риск “галлюцинаций” и помогает пройти внутреннее согласование.

    Ключевые элементы зрелого self-service решения:

  • RAG по утверждённой базе знаний
  • цитирование фрагментов, из которых собран ответ
  • “границы компетенции”: что бот не делает
  • !Схема потока обращений: triage, RAG и ответ агентом/ботом

    Sales: ускорение цикла и рост “гигиены CRM” через GenAI

    Продажи в среднем бизнесе редко начинают с “автономных” ИИ-агентов, но часто успешно внедряют GenAI как копилота для рутины.

    Суммаризация звонков и авто-заполнение CRM

    Частая проблема mid-market: менеджеры продают, но плохо фиксируют данные в CRM. Результат — слабый forecast и потеря контекста.

    GenAI-оптимизация строится вокруг артефакта встречи:

  • авто-резюме: что обсудили
  • список вопросов клиента и возражений
  • next steps и задачи
  • черновик follow-up письма
  • структурированные поля для CRM
  • Это внедряется либо в CRM, либо в связке “звонок/встреча → ассистент → CRM”. Примеры классов решений:

  • Salesforce Einstein как семейство AI-возможностей вокруг CRM
  • Microsoft Copilot for Sales как слой для писем, резюме встреч и работы с данными продаж
  • Что считать реальным эффектом: не “менеджерам понравилось”, а измеримые изменения, например рост доли заполненных полей, сокращение времени на post-call работу, ускорение отправки follow-up.

    RFP/RFQ и коммерческие предложения: “черновик из библиотеки ответов”

    Для B2B mid-market компаний RFP — это дорогой процесс, где много участия subject matter experts.

    GenAI здесь обычно применяют так:

  • собирают библиотеку утверждённых ответов (фрагменты, политики, характеристики)
  • делают поиск и черновик ответа по требованию RFP
  • вводят review-поток, где ответ утверждается владельцем контента
  • Критически важно отделить:

  • генерацию черновика
  • утверждение финальной версии
  • Иначе повышается юридический и коммерческий риск.

    Marketing: где GenAI даёт throughput, но требует контроля качества

    Маркетинг чаще других функций сталкивается с соблазном “генерировать бесконечно”. В реальных внедрениях mid-market цель обычно прагматичнее: ускорить производство и снизить стоимость единицы контента при контроле бренда.

    Контент-производство: описания, лендинги, e-mail, вариации объявлений

    Наиболее переносимые в средний бизнес сценарии:

  • генерация вариантов заголовков и описаний под разные сегменты
  • переписывание текста под тональность бренда
  • создание черновиков писем и nurture-цепочек
  • генерация карточек товаров для e-commerce
  • Платформенные направления, которые часто используются командами без большой инженерии:

  • HubSpot AI как набор функций для маркетингового контента и CRM-процессов
  • Что измеряют: чаще всего throughput (сколько единиц контента выходит в неделю) и время цикла согласований. Метрики CTR/CR тоже используют, но осторожно: на них влияет много факторов, и attribution легко “переобъяснить”.

    Knowledge-to-content: превращение внутренних знаний в публичные материалы

    Один из самых практичных сценариев: взять внутренние материалы (FAQ, инструкции, release notes) и делать из них:

  • статьи базы знаний
  • ответы для поддержки
  • “объяснялки” для маркетинга
  • Это уменьшает разрыв между тем, что знают сотрудники, и тем, что видит клиент.

    Как отличить “реальную автоматизацию” клиентских процессов от пилота

    Используйте чек-лист, совместимый с рубрикой из первой статьи.

    Признаки, что это продакшн, а не демо

  • ассистент встроен в основную систему работы (helpdesk/CRM), а не отдельный чат
  • выход GenAI превращается в артефакт процесса: тикет-ответ, CRM note, письмо, RFP-черновик
  • есть владелец процесса, который отвечает за метрики
  • Признаки измеримого эффекта

  • есть базовая линия “до” (например, медианный AHT)
  • есть “после” хотя бы на пилотной группе
  • эффект выражен в метриках процесса, а не только в “ощущениях”
  • Минимальная техническая понятность

  • понятно, какие источники знаний используются (KB, CRM, документы)
  • описан способ ограничения доступа и ролей
  • описан механизм контроля качества (review, запреты, fallback)
  • Для общего подхода к управлению рисками полезно опираться на NIST AI Risk Management Framework.

    Практический шаблон описания кейса (для дальнейших модулей курса)

    Чтобы собирать кейсы по единому стандарту, фиксируйте их в одинаковом формате.

  • Контекст компании
  • Процесс
  • Изменение шага процесса
  • Технический подход
  • Метрики и эффект
  • Риски и контроль качества
  • Источник подтверждения
  • Этот шаблон позволит дальше, в следующих статьях курса, сравнивать внедрения по функциям и отраслям, не теряя операционную конкретику.

    Итоги

    В клиентских процессах mid-market США GenAI чаще всего даёт быстрый результат в трёх направлениях: agent assist в поддержке (черновики ответов и поиск по знаниям), sales copilot (резюме встреч, follow-up и заполнение CRM) и ускорение контент-производства в маркетинге. Ключ к “реальным кейсам” — не факт использования LLM, а изменение конкретного шага процесса, встроенность в рабочие системы и измеримый эффект на метриках вроде AHT, FRT, deflection и времени цикла.

    3. Операции и бэк-офис: финансы, закупки, юридические документы и HR

    Операции и бэк-офис: финансы, закупки, юридические документы и HR

    Эта статья дополняет предыдущие модули курса.

  • В рамке исследования мы договорились, что считаем реальным кейсом: изменение конкретного шага процесса, встроенность в рабочие системы, измеримый эффект, понятная техконструкция и контроль рисков.
  • В модуле про клиентские процессы мы увидели быстрый ROI за счёт агент-ассиста и self-service.
  • Теперь переносим ту же логику на бэк-офис: здесь GenAI обычно внедряют не ради «креативной генерации», а ради ускорения документных потоков, снижения ручного труда и уменьшения количества ошибок в рутинных операциях.

    Почему бэк-офис mid-market США стал второй волной внедрений GenAI

    В среднем бизнесе США бэк-офис часто выглядит так:

  • много документов и текстовых артефактов: счета, заявки, договоры, политики, письма, объяснения отклонений
  • данные разбросаны по ERP, DMS, почте, SharePoint/Google Drive и «папкам отделов»
  • высокая цена ошибки: платежи, налоги, комплаенс, трудовое право
  • Отсюда типичные цели внедрения:

  • ускорить цикл обработки (invoice-to-pay, закупка, найм)
  • уменьшить долю ручной работы на подготовке черновиков и поиске информации
  • стандартизировать ответы и формулировки
  • улучшить контроль качества через обязательные проверки и ссылки на источники
  • Ключевое отличие от клиентских процессов: в бэк-офисе чаще нужен аудит-трейл (кто что предложил, кто утвердил, на основании каких данных), поэтому «просто чат» почти никогда не считается внедрением.

    Универсальные паттерны GenAI в операциях (то, что реально приживается)

    Паттерн 1: Draft-and-review вместо полной автономии

    GenAI генерирует черновик (письма, пояснения, пункта договора, резюме кандидата), а сотрудник утверждает.

    Признак «реальности»: черновик создаётся внутри рабочего инструмента и превращается в артефакт процесса.

    Паттерн 2: RAG по утверждённым источникам

    RAG используют, когда важно отвечать «только по политике/контракту/процедуре», а не «как модель считает».

    Признак «реальности»: ответ содержит ссылки или цитаты на внутренние документы и имеет режим отказа (fallback), если источника нет.

    Паттерн 3: Структурирование неструктурного

    GenAI помогает превращать письма, PDF и свободный текст в структуру:

  • извлечение полей
  • классификация
  • выявление исключений
  • Важный нюанс: в зрелых кейсах GenAI не «пишет в ERP сам», а формирует предложение, которое проходит контроль.

    Паттерн 4: Policy-to-action для сотрудников

    Сотрудник спрашивает: «Можно ли оплатить это как CapEx?», «Какой лимит на командировки?», «Какие документы нужны для I-9?»

    GenAI даёт:

  • короткий ответ
  • шаги
  • ссылку на политику
  • Признак «реальности»: ассистент встроен в портал/интранет/ITSM и измеряется deflection или временем решения.

    Паттерн 5: Управление риском по NIST AI RMF

    Для бэк-офиса это особенно важно: платежи, персональные данные, юридические формулировки.

    Практический ориентир: NIST AI Risk Management Framework (AI RMF 1.0).

    Финансы: где GenAI реально экономит время (и как это встраивают в контроль)

    Ниже — сценарии, которые чаще всего доходят до продакшна в mid-market, потому что хорошо «ложатся» на существующие контуры контроля.

    Accounts Payable: обработка счетов и исключений (invoice-to-pay)

    #### Где обычно узкое место

  • ручная проверка, что именно выставлено и соответствует ли заказу/условиям
  • переписка по исключениям: нет PO, не совпали суммы, не тот налог, не те реквизиты
  • кодирование затрат (GL coding) и объяснения для апруверов
  • #### Что оптимизируют GenAI

  • суммаризация счета и сопроводительных писем
  • черновик объяснения исключения и письма поставщику
  • предложенный GL-код и комментарий почему (с опорой на политику и историю похожих операций)
  • создание черновика тикета в финансы/закупки при расхождениях
  • #### Как выглядит «реальный» встраиваемый шаг процесса

  • Счет попадает в AP-инбокс или систему обработки.
  • GenAI формирует карточку: краткое резюме, извлечённые поля, выявленные несоответствия.
  • GenAI предлагает черновик письма поставщику или апруверу.
  • Сотрудник утверждает и отправляет.
  • !Поток AP с местами, где GenAI даёт максимальный эффект без риска автономных проводок

    #### Метрики эффекта, которые реально собирать

  • среднее время обработки счета
  • доля счетов, прошедших без ручной переписки
  • время закрытия исключений
  • доля корректировок после проведения
  • #### Контроли качества, которые отличают продакшн

  • запрет на автономную публикацию проводок
  • обязательная ссылка на источник для предложенного решения (политика, PO, контракт)
  • журналирование: кто утвердил, что было предложено
  • Финансовое закрытие и объяснения отклонений

    GenAI часто внедряют как ассистента для подготовки variance commentary.

    Что меняется в процессе:

  • вместо ручного «соберите причины отклонения по почте» финансовый аналитик получает черновик объяснения на основе заметок, данных из отчётов и комментариев ответственных
  • быстрее готовятся материалы для руководства
  • Контроль: аналитик подтверждает факты и формулировки, а источники данных фиксируются (например, ссылки на отчёт или выгрузку).

    FP&A: подготовка «первого черновика» управленческих материалов

    В mid-market FP&A редко строит автономные модели на GenAI, но часто автоматизирует текстовую часть:

  • черновики слайдов
  • резюме по KPI
  • ответы на типовые вопросы руководителей
  • Главное условие «реальности»: связка с утверждёнными данными (BI/финансовые отчёты) и запрет на генерацию чисел без источника.

    Закупки: RFQ, сравнение предложений, политика закупок

    Закупки в среднем бизнесе обычно начинают не с «ИИ ведёт переговоры», а с ускорения документных операций.

    RFQ и коммуникации с поставщиками

    Что автоматизируют:

  • черновик запроса поставщику (RFQ) под категорию закупки
  • стандартизированные письма по уточнениям
  • суммаризация ответа поставщика и выделение ключевых условий
  • Контроль: финальная отправка и условия всегда утверждаются человеком.

    Сравнение предложений и «пакет для апрува»

    Одна из самых практичных точек: подготовка пакета для утверждения закупки.

    GenAI помогает:

  • сделать сравнение в едином формате (сроки, условия оплаты, исключения)
  • подсветить риски по формулировкам (например, автоматическое продление)
  • составить черновик обоснования выбора
  • Метрики:

  • время от получения предложений до отправки на утверждение
  • доля возвратов «на доработку» пакета
  • скорость прохождения согласования
  • Ассистент по политике закупок

    Если в компании много «вопросов на почту» типа «нужен ли PO?» или «какой лимит без тендера?», GenAI-ассистент по политикам снижает нагрузку на закупки.

    Чтобы это было безопасно:

  • ответы только по RAG на утверждённых политиках
  • если политика не найдена, ассистент предлагает создать запрос в закупки
  • Юридические документы: договоры, redlining, playbooks

    Юридическая функция в mid-market обычно небольшая и перегруженная. Поэтому «реальные» внедрения чаще всего фокусируются на ускорении типового потока.

    Контрактинг: черновики и ускорение циклов согласования

    Где GenAI даёт эффект:

  • черновик типовых разделов (SOW, DPA-черновик по шаблону)
  • суммаризация изменений контрагента
  • извлечение ключевых условий: срок, автопродление, лимиты ответственности, SLA
  • Важно: в продакшн-сценариях GenAI почти всегда ограничен playbook-логикой.

    Playbook-подход как «антигаллюцинация»

    Playbook — это набор правил юридической команды:

  • какие формулировки приемлемы
  • какие требуют эскалации
  • какие запрещены
  • GenAI используют, чтобы:

  • подсветить отклонения от playbook
  • предложить формулировку-замену из библиотеки
  • Метрики:

  • время цикла согласования договора
  • доля договоров, закрытых без привлечения старших юристов
  • количество итераций redline
  • Контроль рисков

  • обязательный human review
  • ограничение контекста: модель работает с конкретным документом и утверждённой библиотекой, а не «со всем интернетом»
  • журналирование версий и предложений
  • HR: найм, ответы сотрудникам, политики и обучение

    HR в среднем бизнесе часто «тонкий»: много операций на небольшую команду. Это делает GenAI особенно полезным, но одновременно повышает требования к корректности из-за персональных данных и рисков дискриминации.

    Employee self-service: ответы по политикам и процедурам

    Типовой внедряемый сценарий:

  • сотрудник задаёт вопрос про отпуск, бенефиты, командировки, справки
  • ассистент отвечает на основе HR-политик и справочных материалов
  • Метрики:

  • deflection (сколько вопросов не дошло до HR)
  • среднее время ответа HR на оставшиеся обращения
  • Онбординг и обучение

    GenAI помогает:

  • собрать персонализированный план онбординга по роли
  • сделать краткие инструкции «как у нас принято» на основе внутренних материалов
  • суммаризировать обязательные политики для подтверждения ознакомления
  • Контроль: финальные документы и формулировки должны соответствовать утверждённым HR-политикам.

    Найм: суммаризация резюме и интервью, но с осторожностью

    В реальных внедрениях GenAI обычно используют как ассистента:

  • краткое резюме резюме и интервью
  • выделение соответствия требованиям вакансии
  • черновик коммуникации кандидату
  • Ограничения:

  • нельзя превращать вывод модели в автоматическое решение о найме без проверки
  • нужно избегать использования защищённых характеристик и их прокси
  • Полезный регуляторный ориентир по теме оценки рисков при использовании алгоритмов в занятости: EEOC guidance on disability discrimination and the use of AI.

    Техническая конструкция, которая чаще всего встречается в mid-market

    Типовой стек без «большой ML-команды»

  • LLM через корпоративный доступ (с политиками данных)
  • RAG-слой над SharePoint/Drive/Confluence/политиками/шаблонами
  • интеграции с системами записи: ERP, HRIS, e-sign, ticketing
  • Минимально жизнеспособные меры безопасности

  • разграничение доступов по ролям (например, HR-ассистент не видит финансы)
  • маскирование персональных данных там, где возможно
  • логирование запросов и ответов для аудита
  • human-in-the-loop на юридических и финансовых выходах
  • Как описывать «реальный кейс» бэк-офиса по рубрике курса

    Используйте тот же шаблон, что и для клиентских процессов, но добавьте акцент на контроль.

  • Контекст компании и системы (ERP/HRIS/DMS).
  • Процесс и границы.
  • Какой шаг процесса изменился.
  • Технический подход: LLM, RAG, интеграции.
  • Метрика эффекта: время цикла, пропускная способность, доля исключений.
  • Контроли: кто утверждает, какие запреты, где хранится аудит.
  • Источник подтверждения.
  • Итоги

    В бэк-офисе mid-market США GenAI чаще всего становится не «автономным исполнителем», а ускорителем документных операций.

  • В финансах зрелые внедрения концентрируются на AP-исключениях, пояснениях отклонений и черновиках управленческих материалов.
  • В закупках — на RFQ-коммуникациях, стандартизации сравнения предложений и ассистенте по политике.
  • В юрдокументах — на playbook-ограниченном анализе и ускорении redlining.
  • В HR — на employee self-service и онбординге, а в найме только как на ассистенте с повышенными ограничениями.
  • Ключ к «реальности» тот же, что и в предыдущих статьях: изменение конкретного шага процесса, встраивание в систему работы, метрики эффекта и управляемый риск по принципам вроде NIST AI RMF.

    4. ИТ и разработка: code assistant, тестирование, документация, DevOps и безопасность

    ИТ и разработка: code assistant, тестирование, документация, DevOps и безопасность

    Эта статья продолжает логику курса: мы считаем реальными только те внедрения GenAI, которые меняют конкретный шаг процесса, встроены в рабочие инструменты (IDE, репозитории, CI/CD, ITSM), измеряются метриками (скорость, качество, риск) и имеют контроль (review, политики, аудит). Если в клиентских и бэк-офис процессах доминировал паттерн draft-and-review, то в ИТ и разработке он становится ещё более строгим: цена ошибки выше, а «галлюцинации» могут превращаться в уязвимости и инциденты.

    Почему mid-market США внедряет GenAI в разработку и ИТ одним из первых

    У среднего бизнеса США типичная комбинация:

  • небольшие команды инженеров и ИТ
  • жёсткая конкуренция за скорость поставки фич и за стабильность
  • уже оцифрованные процессы: Git-потоки, тикеты, CI/CD, мониторинг
  • Поэтому GenAI чаще всего применяют там, где результат превращается в артефакт процесса:

  • код и тесты в pull request
  • описание изменений (release notes)
  • runbook, постмортем, инструкции
  • изменения инфраструктуры (IaC) через review
  • При этом mid-market почти никогда не начинает с «автономного агента, который пушит в main». Реальный продакшн-паттерн выглядит как ускорение подготовки черновика + обязательный контроль.

    Карта процессов ИТ и разработки, где GenAI реально автоматизирует шаги

    | Функция | Процесс | Что именно меняется с GenAI | Где встраивается | Чем измеряют | |---|---|---|---|---| | Разработка | написание кода | генерация черновика функции/класса, рефакторинг, пояснения | IDE, PR-комментарии | lead time, время на задачу, скорость code review | | QA/тестирование | тест-дизайн и автотесты | генерация тест-кейсов, шаблонов автотестов, фикстур, моков | IDE, репозиторий | покрытие критичных веток, дефекты на проде, скорость регрессии | | Документация | инженерная документация | авто-черновики README, ADR, runbook, API-описаний | репозиторий, wiki | актуальность, время подготовки релиза, нагрузка на SME | | DevOps/SRE | инциденты и эксплуатация | суммаризация алертов и чатов, черновик постмортема, предложения по remediation | ITSM, ChatOps | MTTR, время триажа, повторяемость инцидентов | | Безопасность | secure SDLC | объяснение findings, генерация патчей, безопасные шаблоны, подсказки по секретам | PR, CI, security tools | время устранения уязвимостей, доля повторных дефектов, policy violations |

    !Схема показывает, что GenAI встраивается в существующий SDLC и усиливает, а не заменяет контроли

    Code assistant в разработке: что реально автоматизировали

    Генерация черновика кода в IDE с контролем через PR

    Изменённый шаг процесса: вместо «писать с нуля» разработчик получает черновик (функция, обработчик, запрос к БД, преобразование данных) и доводит его до стандарта команды.

    Почему это считается реальным внедрением: выход GenAI сразу материализуется в коде и проходит существующие контуры качества (линтер, тесты, code review).

    Типовые варианты внедрения в mid-market:

  • IDE-ассистент для автодополнения и генерации блоков кода (часто в связке с корпоративными настройками)
  • подсказки по стилю и рефакторинг
  • объяснение чужого кода и создание краткого резюме изменений для ревьюеров
  • В качестве внешне подтверждённого эффекта полезно опираться на экспериментальные данные (это не «кейс компании», но проверяемая метрика влияния на процесс): исследование GitHub показало ускорение выполнения задач разработчиками при использовании Copilot в контролируемом эксперименте.

  • Источник: GitHub Research: Quantifying GitHub Copilot’s impact on developer productivity and happiness
  • RAG по внутреннему инженерному знанию

    Проблема mid-market: стандарты и контекст живут в разрозненных местах (Confluence, старые PR, внутренние библиотеки, SDK, runbooks). Поэтому «общая модель» часто пишет не то, что принято в компании.

    Изменённый шаг процесса: вместо ручного поиска «как мы делаем X» разработчик задаёт вопрос, а ассистент отвечает с опорой на внутренние репозитории и документацию.

    Практические границы, которые обычно ставят в продакшне:

  • отвечать только с цитатами на внутренние источники
  • не предлагать изменения, которые нельзя связать с конкретной версией API/сервиса
  • для критичных репозиториев ограничивать контекст (например, только конкретный сервис)
  • Тестирование и QA: где GenAI даёт эффект без риска «сломать качество»

    Генерация тест-кейсов и чек-листов из требований и тикетов

    Изменённый шаг процесса: QA/разработчик получает черновик тест-сценариев по описанию задачи, acceptance criteria или по диффу PR.

    Что реально автоматизируют:

  • перечисление позитивных и негативных сценариев
  • выделение граничных значений (валидации, лимиты, пустые значения)
  • преобразование сценариев в шаблон автотеста (например, структуру Arrange-Act-Assert)
  • Что обязательно остаётся у человека:

  • приоритизация (что действительно критично)
  • проверка корректности предположений (модель часто «додумывает» требования)
  • Генерация автотестов как draft-and-review

    Реальный паттерн для mid-market: GenAI генерирует автотесты, но команда принимает их только если:

  • тесты проходят локально и в CI
  • тест не флейки (нет случайных падений)
  • тест проверяет бизнес-утверждения, а не «повторяет реализацию»
  • Практика, которая отличает продакшн от демо:

  • правило: любой сгенерированный тест обязан ссылаться на требование (тикет) или на сценарий
  • правило: PR с тестами не мерджится без запуска полного набора проверок
  • Документация: автоматизация, которая особенно заметна в среднем бизнесе

    Документация в mid-market часто страдает не из-за отсутствия знаний, а из-за отсутствия времени.

    README, ADR, release notes и runbooks

    Изменённый шаг процесса: GenAI генерирует черновик документа из фактов, которые уже есть в системе разработки.

    Типовые источники:

  • дифф PR и описание задачи
  • список изменений в релизе
  • лог инцидента и таймлайн алертов
  • Типовые артефакты «после»:

  • README с примерами запуска и конфигурации
  • ADR (Architecture Decision Record) в виде шаблона с заполненными секциями
  • release notes в понятном для бизнеса языке
  • runbook с шагами диагностики и отката
  • Практическая мера качества:

  • документ должен содержать ссылки на конкретные коммиты, PR или тикеты
  • документ создаётся как PR в репозиторий документации, чтобы работали review и история изменений
  • DevOps и SRE: инциденты, изменение и эксплуатация

    Триаж инцидентов и «сжатие контекста»

    Изменённый шаг процесса: вместо ручного чтения каналов ChatOps и ленты алертов дежурный получает резюме:

  • что произошло
  • какие сервисы затронуты
  • что уже пробовали
  • текущий статус и гипотезы
  • Это влияет на операционные метрики:

  • ускоряет первичную диагностику
  • снижает стоимость переключения контекста между командами
  • Постмортемы и корректирующие действия

    Реальное внедрение выглядит так:

  • GenAI собирает таймлайн из алертов, тикетов и чата.
  • Формирует черновик постмортема по шаблону команды.
  • SRE/владелец сервиса проверяет факты и формулировки.
  • Action items создаются в трекере задач.
  • Важно: GenAI не должен «изобретать» причины. В зрелых схемах он имеет право описывать только то, что подтверждено логами/событиями, и маркировать предположения как гипотезы.

    Безопасность: как использовать GenAI, не увеличивая риск

    В ИТ и разработке есть два ключевых риска GenAI:

  • утечки секретов и конфиденциальных данных
  • генерация уязвимого кода под видом правильного решения
  • Поэтому «реальные» внедрения почти всегда дополняют, а не заменяют secure SDLC.

    GenAI как ускоритель исправлений и объяснения findings

    Изменённый шаг процесса: security-инструмент или инженер получает понятное объяснение уязвимости и черновик исправления, который затем проходит обычный PR-процесс.

    Где это лучше всего работает:

  • типовые классы уязвимостей (инъекции, небезопасная десериализация, неправильные права)
  • исправления конфигураций (заголовки безопасности, настройки IAM по шаблону)
  • Какие контроли отличают продакшн:

  • запрет на автопочинку без PR
  • обязательный запуск SAST/DAST/secret scanning в CI
  • журналирование того, какой фрагмент был сгенерирован и кем принят
  • Полезные ориентиры по процессу безопасной разработки:

  • NIST Secure Software Development Framework (SSDF) SP 800-218
  • Модель угроз для LLM-приложений и внутренних ассистентов

    Если компания делает внутреннего ассистента (например, RAG по репозиториям или по ITSM), добавляются специфические риски: prompt injection, утечки через контекст, небезопасные плагины.

    Для практического чек-листа по типовым рискам LLM-приложений удобно использовать отраслевую таксономию OWASP:

  • OWASP Top 10 for LLM Applications
  • Как mid-market отличает «поставили Copilot» от реальной автоматизации

    Ниже признаки, что GenAI действительно изменил процесс разработки/ИТ.

    Признаки операционного внедрения

  • ассистент встроен в IDE, репозиторий, CI или ITSM, а не живёт «в отдельном чате»
  • есть правила применения: где можно, где нельзя, какие репозитории исключены
  • есть владелец процесса: инженерный менеджер, DevOps lead, AppSec
  • Признаки измеримого эффекта

  • ускорение цикла PR (время от открытия до merge)
  • сокращение времени на «после кодинга»: документация, тесты, релизные заметки
  • снижение MTTR или времени триажа инцидентов
  • уменьшение времени исправления типовых уязвимостей
  • Признаки управляемого риска

  • human-in-the-loop обязателен для мерджа, релиза и изменений инфраструктуры
  • контекст ограничен правами и «границами знаний» (особенно для RAG)
  • данные и секреты защищены политиками, а попытки утечки детектируются
  • !Визуализация помогает выбрать сценарии GenAI по соотношению ценности и риска

    Шаблон описания «реального кейса» для ИТ и разработки

    Чтобы собирать кейсы по рубрике курса, фиксируйте одинаковый набор полей.

  • Контекст: отрасль, масштаб, стек (языки, облако, CI/CD, ITSM).
  • Процесс: границы (например, PR от открытия до merge).
  • Изменённый шаг: что именно стало делаться иначе.
  • Технический подход: IDE assistant или RAG, источники знаний, интеграции.
  • Метрики: скорость (lead time), качество (дефекты), надёжность (MTTR), безопасность (время исправления).
  • Контроли: review, запреты, политика данных, аудит.
  • Источник: публикация/выступление/кейс-стади или измерение внутри компании.
  • Итоги

    В ИТ и разработке mid-market США GenAI чаще всего внедряют как ускоритель черновиков в существующем SDLC: code assistant в IDE, генерация тестов и документации, суммаризация инцидентов и подготовка постмортемов, а также ускорение исправления типовых уязвимостей. «Реальность» внедрения определяется тем же, что и в предыдущих модулях курса: конкретный изменённый шаг процесса, встроенность в инструменты, измеримые метрики и жёсткий human-in-the-loop с безопасными ограничениями по NIST SSDF и практиками управления рисками LLM.

    5. Документооборот и знания: поиск, RAG, корпоративные базы знаний и аналитика

    Документооборот и знания: поиск, RAG, корпоративные базы знаний и аналитика

    Эта статья связывает предыдущие модули курса в одну практическую линию: во всех функциях (support, sales, финансы, юристы, HR, IT) повторяется один и тот же фундаментальный слой внедрения GenAI — доступ к знаниям и документам компании с контролем качества и прав. Именно поэтому в mid-market США наиболее «реальные» внедрения часто начинаются не с «магического чатбота», а с построения слоя поиска, RAG и аналитики использования знаний, который затем подключается к helpdesk, CRM, ERP, HRIS, DMS и репозиториям.

    Дальше мы разберём:

  • какие процессы в документных потоках реально меняются из-за GenAI
  • чем корпоративный поиск отличается от RAG-ответа
  • как устроен типовой контур RAG в среднем бизнесе (архитектура и контроль)
  • как измерять эффект и качество, чтобы отличать продакшн от пилота
  • Почему «документы и знания» — это общий множитель для GenAI в mid-market

    В предыдущих статьях повторялся паттерн draft-and-review: GenAI генерирует черновик, человек утверждает. Чтобы черновик был полезным и безопасным, модели нужен правильный контекст:

  • актуальные политики, процедуры, прайс-листы, SLA
  • шаблоны контрактов и playbooks
  • инструкции по продукту и базовые причины инцидентов
  • исторические решения по тикетам и RFP-ответам
  • В mid-market США проблема обычно не в отсутствии контента, а в том, что он:

  • распределён по SharePoint/Google Drive/Confluence/Box и почте
  • дублируется в разных версиях
  • плохо размечен и трудно ищется
  • ограничен правами доступа (и это нельзя ломать)
  • Отсюда практический вывод: если компания не построила слой управляемого доступа к знаниям, то GenAI либо «галлюцинирует», либо повышает риск утечки.

    Термины без путаницы: поиск, RAG и «чат по документам»

    Корпоративный поиск

    Корпоративный поиск — это когда сотрудник вводит запрос и получает список документов/фрагментов, которые нужно открыть и прочитать.

  • Сильная сторона: минимальный риск «придуманного ответа».
  • Слабая сторона: время сотрудника на чтение и сбор ответа.
  • Пример класса решений: поисковые продукты для enterprise content.

  • Amazon Kendra
  • RAG

    RAG (retrieval augmented generation) — это когда система сначала находит релевантные фрагменты во внутренних источниках, а затем генерирует ответ, опираясь на эти фрагменты.

  • Сильная сторона: экономия времени, потому что ответ уже «собран».
  • Слабая сторона: риск неверной сборки контекста и неверной интерпретации.
  • RAG — это не один продукт, а архитектурный паттерн, который можно реализовать на разных платформах.

    «Чат по документам»

    Под этим названием часто продают разные вещи. Для курса важно разделять:

  • чат без источников (высокий риск и слабая проверяемость)
  • RAG с цитатами и режимом отказа (это чаще похоже на продакшн)
  • Какие процессы реально автоматизировали на слое знаний и документов

    Ниже — процессы, которые в mid-market чаще всего доходят до продакшна, потому что они:

  • имеют понятный артефакт (ответ, черновик, резюме, пакет для согласования)
  • имеют метрики времени и качества
  • хорошо сочетаются с human-in-the-loop
  • | Процесс | Что было «до» | Что стало «после» с RAG/GenAI | Где встраивают | Что измеряют | |---|---|---|---|---| | Q&A по политикам (HR/финансы/IT) | вопросы в почту и чаты | ответ с цитатами + ссылка на политику + next steps | intranet/портал/ITSM | deflection, время решения | | Подготовка черновика ответа в support | ручной поиск по KB и старым тикетам | черновик ответа + релевантные статьи KB | helpdesk | AHT/FRT, CSAT | | Сборка «пакета на согласование» (закупки/финансы) | вручную собрать файлы и обоснование | резюме + список исключений + ссылки на документы | ERP/DMS/внутренний workflow | время цикла, возвраты | | Контрактный анализ | вручную сравнить с playbook | подсветка отклонений + предлагаемые формулировки из библиотеки | CLM/DMS | длительность согласования | | Инженерный self-service (IT/SRE) | чтение runbooks и старых инцидентов | ответ по runbook + ссылки на PR/тикеты | ITSM/ChatOps | время триажа, MTTR |

    Типовая архитектура RAG для среднего бизнеса (без «большой ML-команды»)

    !Показаны основные компоненты RAG-контура и места контроля качества и доступа

    Источники знаний

    Типовые источники в mid-market:

  • базы знаний support (Zendesk/Intercom)
  • intranet и документы политик (SharePoint/Google Drive)
  • wiki (Confluence)
  • DMS/контракты
  • ITSM и runbooks
  • Ключевое условие продакшна: источник должен иметь владельца и жизненный цикл (кто обновляет, кто утверждает).

    Индексация и подготовка контента

    В реальных внедрениях «качество ответа» часто определяется не моделью, а тем, как подготовили корпус.

  • Очистка: удаление дубликатов, мусора, устаревших версий.
  • Нормализация: приведение форматов (PDF, DOCX, HTML) к извлекаемому тексту.
  • Разбиение на фрагменты (chunking): документ режут на небольшие части.
  • Метаданные: тип документа, отдел, продукт, версия, дата, владелец.
  • Права доступа: перенос ACL в индекс.
  • Chunking — это разбиение документа на фрагменты, чтобы поиск мог вернуть именно тот кусок, который отвечает на вопрос. Слишком крупные фрагменты ухудшают точность, слишком мелкие теряют контекст.

    Поиск (retrieval)

    Retrieval обычно комбинирует два подхода:

  • лексический поиск (ключевые слова)
  • семантический поиск (по смыслу)
  • В продакшне часто побеждают гибридные схемы: сотрудник пишет «как обычно», а система находит нужное даже при несовпадении терминов.

    Генерация ответа (LLM) и «ограждения»

    Чтобы RAG был «операционным», а не демонстрационным, обычно вводят ограничения:

  • ответ должен содержать цитаты или ссылки на источники
  • модель не должна придумывать политики и цифры
  • если источников нет, ассистент обязан сказать «не найдено» и предложить следующий шаг
  • Эта логика хорошо согласуется с управлением рисками, которое мы обсуждали ранее.

  • NIST AI Risk Management Framework (AI RMF 1.0)
  • Контроль доступа и безопасность: почему «RAG с правами» — критический критерий реальности

    В среднем бизнесе США документные системы почти всегда содержат чувствительные данные:

  • персональные данные сотрудников
  • финансовые условия
  • юридические документы
  • данные клиентов
  • Поэтому «реальный» RAG почти всегда строится так:

  • индексация учитывает ACL исходной системы
  • ответ формируется только из документов, на которые у пользователя есть права
  • логируются запросы и использованные источники
  • Два типовых провала пилотов:

  • индекс без прав (всем показывается всё)
  • контекст из запроса пользователя (пользователь вставляет куски конфиденциального документа в чат, и это уходит в сторонний сервис)
  • Для приложений на LLM добавляется класс специфических рисков (например, prompt injection), который стоит учитывать уже на этапе дизайна.

  • OWASP Top 10 for Large Language Model Applications
  • Корпоративная база знаний: как GenAI меняет сам KB-процесс

    Многие команды думают о GenAI только как об «интерфейсе вопросов». В реальных внедрениях сильный эффект часто даёт другое: GenAI улучшает производство и поддержание базы знаний.

    Автоматизация создания статей KB из «сырья»

    Типовые источники «сырья»:

  • решённые тикеты
  • переписки в Slack/Teams
  • release notes
  • записи обучения
  • Изменённый шаг процесса:

  • вместо того чтобы KB-менеджер писал статью с нуля, система генерирует черновик статьи, включает шаги, предупреждения и ссылки
  • Контроли качества:

  • статья не публикуется без утверждения владельца продукта/процесса
  • у статьи есть дата актуализации и владелец
  • Дедупликация и обнаружение пробелов

    GenAI и аналитика запросов позволяют находить:

  • дубликаты статей с разными формулировками
  • вопросы, на которые KB не отвечает (частые запросы без хороших источников)
  • статьи, которые дают неправильные ожидания (много последующих обращений)
  • Это превращает KB из «кладбища документов» в управляемый продукт.

    Аналитика: как доказать, что слой знаний действительно работает

    В предыдущих модулях мы требовали метрики «до/после». Для слоя RAG и KB это особенно важно, потому что иначе легко застрять в субъективных оценках «вроде полезно».

    Минимальный набор продуктовых метрик RAG

  • Answer rate: доля вопросов, на которые ассистент дал ответ с источниками.
  • Fallback rate: доля вопросов, где ассистент корректно отказался и направил в тикет/человека.
  • Citation coverage: доля ответов с цитатами/ссылками.
  • Click-through to source: как часто пользователи открывают источники.
  • Операционные метрики (связь с бизнесом)

  • deflection в support/HR/IT (сколько обращений не дошло до человека)
  • снижение AHT/FRT в support за счёт agent assist
  • скорость подготовки документов (пакет на согласование, ответ на RFP)
  • Метрики качества и риска

  • доля эскалаций «из-за неправильного ответа»
  • количество случаев устаревшей политики в источниках
  • количество жалоб на доступ (когда ассистент ссылается на документ, который пользователь не может открыть)
  • Практика «замкнутого цикла улучшений»

    Чтобы RAG становился лучше, в продакшне обычно строят цикл:

  • Логирование: запрос, источники, ответ, результат (приняли/не приняли).
  • Разметка: причины ошибок (нет источника, плохой retrieval, устаревший документ).
  • Действие: исправить документ, метаданные, правила retrieval, разбиение.
  • Повторное измерение.
  • Это важно: улучшение чаще делается не через «поменяли модель», а через дисциплину данных и контента.

    Паттерны внедрения в mid-market: как это реально запускают

    Паттерн «сначала intranet-политики, затем встраивание в процессы»

    Часто начинают с внутреннего ассистента по политикам (HR/IT/финансы), потому что:

  • корпус ограничен и понятен
  • вопросы повторяются
  • риск ниже, чем в клиентском контуре
  • Потом подключают тот же слой retrieval к:

  • helpdesk (agent assist)
  • закупкам и финконтролю
  • юридическим шаблонам
  • Паттерн «один высокоценный корпус»

    Вместо попытки индексировать всё, выбирают один корпус, который даёт быстрый ROI:

  • KB поддержки
  • playbooks и шаблоны договоров
  • инженерные runbooks
  • Паттерн «гибридный интерфейс: поиск + ответ»

    Чтобы снизить риск и повысить доверие, интерфейс часто показывает:

  • короткий сгенерированный ответ
  • список источников и фрагменты
  • кнопку «открыть документ»
  • !Показано, как совмещают генерацию и проверяемые источники

    Чек-лист «реальности» кейса по слою знаний (по рубрике курса)

    Чтобы включить кейс в исследование курса, фиксируйте:

  • процесс и артефакт (например, ответ по политике с цитатой и ссылкой)
  • встраивание (портал, helpdesk, CRM, ITSM)
  • метрика эффекта (deflection, AHT, время цикла)
  • техподход (источники, retrieval, цитаты, fallback)
  • управление доступом (ACL, роли, логирование)
  • управление качеством (review контента, цикл улучшений)
  • Итоги

    Слой документооборота и знаний — это практическая основа большинства «реальных» внедрений GenAI в среднем бизнесе США. На продакшн-уровне GenAI почти никогда не работает как «чат, который всё знает». Он работает как поиск + RAG с источниками + режим отказа + соблюдение прав доступа + аналитика, встроенные в конкретные процессы (support, HR, финансы, юристы, IT). Компании, которые измеряют метрики и выстраивают замкнутый цикл улучшений корпуса знаний, быстрее переходят от пилота к устойчивой автоматизации.

    6. Метрики, ROI и риск-контроль: качество, комплаенс, утечки, governance

    Метрики, ROI и риск-контроль: качество, комплаенс, утечки, governance

    В предыдущих статьях курса мы разбирали, какие процессы mid-market США реально меняют с GenAI (support, sales, бэк-офис, IT/DevOps, слой знаний через RAG). Эта статья отвечает на вопрос, без которого кейсы не становятся повторяемыми: как доказать эффект и как не «выпустить риск в продакшн».

    В среднем бизнесе США типичная траектория такая:

  • Быстрый пилот в отдельном чате.
  • Разочарование из-за отсутствия метрик и инцидентов качества.
  • Повторный запуск уже как продукта: с измерением ROI, контролями и governance.
  • Здесь мы фиксируем практический набор метрик, минимальную финансовую модель ROI и контуры риск-контроля, которые отличают операционное внедрение от PR.

    Как отличают «реальный продакшн» от «поигрались»: 5 обязательных признаков

    Чтобы GenAI-кейс в mid-market США считался зрелым, обычно одновременно выполняется следующее:

  • Есть владелец процесса (support lead, head of finance, legal ops, engineering manager), который отвечает за метрики.
  • Есть базовая линия (что было до на ключевых метриках) и сравнение (пилотная группа или период).
  • Есть инструментирование: логирование запросов, источников, ответов, прав доступа, статуса проверки человеком.
  • Есть контуры качества и риска: ограничения, human-in-the-loop, отказ (fallback), аудит.
  • Есть финансовая модель: понятны источники выгоды и полная стоимость владения.
  • Эти принципы хорошо ложатся на общий подход к управлению рисками ИИ в организации через рамку NIST AI Risk Management Framework (AI RMF 1.0).

    Карта метрик GenAI: что измеряют, чтобы увидеть ROI и не потерять качество

    В mid-market удобно держать метрики в виде единой карточки продукта (scorecard), где каждый показатель связан с конкретным шагом процесса.

    Метрики внедрения и использования (adoption)

    Эти метрики отвечают на вопрос: решение реально встроилось в работу или им «пользуются по настроению».

  • доля пользователей функции, которые используют GenAI регулярно
  • доля задач/тикетов/документов, где GenAI применён
  • частота отказов пользователей: «не подошло, сделал вручную»
  • Важно: высокая активность не равна полезности. Поэтому adoption всегда смотрят вместе с качеством и эффектом.

    Операционные метрики эффективности (efficiency)

    Эти метрики фиксируют, какой шаг стал дешевле/быстрее.

  • Support: AHT (average handle time), FRT (first response time), доля эскалаций
  • Self-service: deflection и containment (сколько обращений не дошло до агента)
  • Sales: time-to-follow-up, заполненность CRM-полей, скорость подготовки RFP-черновика
  • Finance/AP: время обработки счета, время закрытия исключений
  • Legal: длительность цикла согласования, количество итераций redline
  • IT/SRE: MTTR, время триажа инцидента, время подготовки постмортема
  • Метрики качества результата (quality)

    Это центр тяжести для GenAI, потому что ускорение без качества часто превращается в рост рисков и повторных обращений.

    Чаще всего в продакшне используют сочетание человеческой оценки и прокси-метрик:

  • доля ответов/черновиков, которые приняты с минимальными правками
  • «глубина правок» человеком (насколько сильно переписали)
  • доля ответов с корректными ссылками/цитатами на источники (для RAG)
  • доля случаев, где система корректно отказалась (fallback) и направила в правильный канал
  • доля повторных обращений/эскалаций из-за неправильного ответа
  • Метрики риска и комплаенса (risk)

    Здесь оценивают не только «были ли инциденты», но и насколько система удерживает границы.

  • количество событий нарушения политики (попытки вставить секреты, PII/PHI, запросы на запрещённые действия)
  • процент запросов, где сработали фильтры/редакторы
  • количество обращений в security/privacy по поводу GenAI
  • доля ответов, где нарушены правила доступа (например, ссылка на документ, который пользователь не должен видеть)
  • !Единая карточка метрик, чтобы связать внедрение, эффект, качество и риск

    Минимальная финансовая модель ROI для mid-market

    Что такое ROI и почему в GenAI важно считать полную стоимость

    ROI (возврат на инвестиции) в самом простом виде можно записать так:

    Где:

  • — суммарная выгода за период (например, экономия часов, снижение подрядчиков, рост пропускной способности)
  • — суммарные затраты за период (лицензии, интеграции, безопасность, обучение, сопровождение)
  • Эта формула полезна как ориентир, но ключевой риск GenAI-проектов в среднем бизнесе — считать только «стоимость лицензий», игнорируя:

  • интеграции с helpdesk/CRM/DMS
  • подготовку корпуса знаний и поддержку контента
  • безопасность и комплаенс
  • время сотрудников на review
  • Как считать выгоду: 4 повторяющихся источника

    В mid-market США выгоды почти всегда укладываются в одну из категорий:

  • Экономия времени на единицу работы
  • Рост пропускной способности без расширения штата
  • Снижение стоимости ошибки (меньше пересогласований, меньше неправильных платежей, меньше инцидентов)
  • Сдвиг нагрузки в self-service (deflection) при контроле качества
  • Практический подход: сначала считаем время, потом переводим в деньги (через fully loaded cost) или в высвобожденную пропускную способность.

    Как считать затраты: что обязательно включить

    Для mid-market полезно держать чек-лист полной стоимости владения:

  • лицензии на GenAI-функции и/или LLM API
  • инфраструктура RAG (индексация, векторное хранилище, поиск)
  • интеграции и разработка (коннекторы, UI, права)
  • безопасность (DLP, логирование, тестирование, red teaming)
  • контент-операции (владельцы документов, обновления, дедупликация)
  • обучение пользователей и change management
  • юридические расходы (оценка поставщиков, условия использования данных)
  • Пример привязки ROI к процессу: support agent assist

    Чтобы не «потеряться» в теории, ROI всегда привязывают к шагу процесса.

  • Процесс: обработка тикета агентом
  • Изменение шага: GenAI делает резюме и черновик ответа с источниками
  • Метрика: AHT и доля эскалаций
  • Выгода: меньше минут на тикет при сохранении CSAT
  • Затраты: лицензия + подготовка KB + интеграция + QA/логирование
  • Критический момент: если AHT упал, но выросли повторные обращения или упал CSAT, реальная экономия может быть иллюзией.

    Качество GenAI-выходов: как измеряют «не галлюцинирует» без академических метрик

    Mid-market редко делает сложные офлайн-бенчмарки. Вместо этого строят операционную систему качества, где есть правила, выборки и пороговые значения.

    Минимальный набор quality-контролей для production

  • Human-in-the-loop по критичности
  • - клиентский ответ, юридический текст, финансовые объяснения: обязательно review - внутренние справки низкого риска: допускается автоматизация с fallback
  • Принцип источника
  • - если ответ обязан быть точным, он обязан быть обоснованным: цитаты/ссылки (RAG) или ссылка на утверждённую политику
  • Режим отказа (fallback)
  • - если источника нет или уверенность низкая, система должна корректно сказать «не знаю» и направить дальше

    Практические метрики качества для RAG

  • citation coverage: доля ответов с цитатами
  • grounded answer rate: доля ответов, где пользователь/ревьюер подтверждает, что ответ действительно следует источникам
  • wrong-but-confident rate: доля «уверенных» неверных ответов (самая опасная категория)
  • time-to-correct: время исправления проблемы через обновление документа/метаданных/правил retrieval
  • Эти показатели проще собирать, если ответы всегда сопровождаются списком использованных фрагментов и их идентификаторами в индексе.

    Комплаенс и конфиденциальность: что проверяют в США в средних компаниях

    В США требования зависят от отрасли, но в mid-market повторяются одни и те же темы: персональные данные, коммерческая тайна, данные клиентов, требования контрактов.

    Классы данных и политика использования GenAI

    Минимально жизнеспособная политика данных обычно делит информацию на классы:

  • публичные данные
  • внутренние (не чувствительные)
  • конфиденциальные (коммерческая тайна, финусловия, клиентские данные)
  • регулируемые (например, медицинские данные)
  • Дальше вводятся правила:

  • что можно отправлять в внешние модели
  • что можно только в корпоративный контур с контрактными гарантиями
  • что нельзя использовать вообще
  • Что фиксируют в договорах с провайдерами GenAI

    Чтобы снизить риск утечки и регуляторных проблем, в продакшне обычно требуют ясности по пунктам:

  • используется ли клиентский контент для обучения моделей
  • сроки хранения и условия удаления данных
  • субподрядчики (subprocessors)
  • география обработки данных
  • аудит и уведомления об инцидентах
  • Практические ориентиры по «честному» использованию AI

    Как общий регуляторный тон в США полезно понимать позицию FTC о том, что нельзя вводить в заблуждение про возможности ИИ и нужно управлять рисками справедливости и точности.

  • FTC: Aiming for truth, fairness, and equity in your company’s use of AI
  • Утечки и безопасность: специфические риски LLM и как их закрывают

    GenAI добавляет не только традиционные риски утечек, но и новые, специфические для LLM-приложений:

  • prompt injection: документ или пользовательский ввод «переписывает» инструкции системы
  • data exfiltration через коннекторы и инструменты (tool use)
  • утечки секретов из логов, контекста, IDE
  • небезопасные ответы, которые выглядят правдоподобно
  • Практический чек-лист угроз для LLM-приложений

    Для структурирования таких рисков часто используют таксономию OWASP.

  • OWASP Top 10 for Large Language Model Applications
  • Контроли, которые реально встречаются в mid-market

  • allowlist источников и инструментов: ассистенту разрешены только конкретные коннекторы и только чтение там, где это нужно
  • перенос ACL: ассистент видит только то, что видит пользователь
  • фильтрация и DLP: маскирование PII, блокировка секретов
  • логирование запросов и источников (для расследований и улучшения качества)
  • обязательный PR/review для кода и инфраструктуры
  • Для инженерных контуров дополнительно полезна рамка безопасной разработки ПО.

  • NIST Secure Software Development Framework (SSDF) SP 800-218
  • Governance: кто принимает решения, кто несёт риск, кто улучшает качество

    В mid-market governance должен быть лёгким, иначе он «убивает скорость». Но без него GenAI быстро превращается в набор несвязанных экспериментов.

    Минимальная модель ролей (без бюрократии)

  • executive sponsor: задаёт бизнес-цель и приоритизацию
  • process owner: отвечает за метрики процесса и внедрение в операционку
  • AI product owner: отвечает за функциональность, backlog и качество
  • security/privacy: задают обязательные контроли и проводят review
  • legal/procurement: фиксируют условия использования данных и требования к поставщикам
  • Практический артефакт, который помогает избежать «ничьих» рисков, это матрица ответственности (RACI): кто отвечает, кто утверждает, кого консультируют, кого информируют.

    Политики и артефакты, которые обычно достаточно иметь

  • политика данных для GenAI (что можно/нельзя)
  • список утверждённых инструментов и моделей
  • правила логирования и хранения логов
  • требования к RAG: цитаты, fallback, ACL
  • процедура инцидентов качества (как реагировать на неверные ответы)
  • регулярный отчёт по scorecard метрик
  • !Схема показывает, что governance — это цикл управления продуктом, а не разовое согласование

    Как запускать измерение и контроль: практический план на 30–60–90 дней

    Первые 30 дней: базовая линия и безопасный пилот

  • выбрать один процесс и один артефакт (например, черновик ответа в support)
  • зафиксировать baseline метрик (AHT, FRT, CSAT, доля эскалаций)
  • включить логирование запросов и ответов
  • определить правила данных и запреты
  • 60 дней: production-пилот с контролями качества

  • внедрить RAG с цитатами и fallback
  • настроить ACL и ограничение источников
  • запустить выборочную проверку качества (например, ежедневная выборка)
  • начать считать «стоимость сопровождения» (время на контент и review)
  • 90 дней: финансовая модель и governance-цикл

  • сформировать scorecard и регулярный отчёт
  • зафиксировать ROI по одной функции и решить: масштабировать или остановить
  • формализовать RACI и процедуру изменения источников/промптов/моделей
  • Итоги

    В mid-market США GenAI становится реальной автоматизацией, когда он измеряется и управляется как продукт:

  • Метрики должны покрывать adoption, эффективность, качество и риск.
  • ROI считают от конкретного шага процесса и учитывают полную стоимость владения.
  • Качество в продакшне держится на принципе источника (RAG с цитатами), fallback и human-in-the-loop по критичности.
  • Риск-контроль требует данных, безопасности, контроля доступа и логирования, а governance задаёт роли и цикл улучшений.
  • Эта связка превращает GenAI из «разрозненных экспериментов» в повторяемые кейсы, которые можно масштабировать между процессами: от поддержки и продаж до финансов, юристов и инженерных команд.

    7. Сбор и верификация кейсов: источники, интервью, доказательства и формат базы

    Сбор и верификация кейсов: источники, интервью, доказательства и формат базы

    Эта статья — операционный модуль курса: как собирать, проверять и приводить к единому формату кейсы внедрения генеративного ИИ (GenAI) в среднем бизнесе США.

    В предыдущих статьях мы:

  • зафиксировали рамку mid-market США и критерии «реального кейса»
  • разобрали типовые процессы, где GenAI реально внедряют: клиентские функции, бэк-офис, ИТ/разработка, слой знаний через RAG
  • определили, что зрелость внедрения проявляется через метрики, контроль качества и риск-контроль (например, по NIST AI RMF)
  • Теперь задача практическая: построить реплицируемую базу кейсов, где каждый кейс:

  • проверяем по источникам
  • описан одинаковыми полями
  • сравним с другими кейсами по процессу, эффекту, рискам и техподходу
  • !Пайплайн превращения «шума рынка» в проверяемые кейсы

    Что именно мы верифицируем

    Чтобы не скатиться в «AI-washing», мы проверяем не факт использования LLM, а то, что процесс стал другим и это подтверждается.

    В терминах курса верификация — это ответы на вопросы:

  • Процесс: какой шаг процесса изменился и где границы «до/после».
  • Внедрение: что встроено в рабочий инструмент, а что осталось отдельным чатом.
  • Эффект: какие метрики изменились и как именно измеряли.
  • Техника: что за конструкция (ассистент, RAG, интеграции) и какие источники знаний.
  • Риски: какие ограничения, human-in-the-loop, контроль доступа, логирование.
  • Источник: насколько утверждения проверяемы.
  • Где искать кейсы mid-market США: карта источников

    Ниже — источники, которые чаще всего дают проверяемые следы внедрения в среднем бизнесе. Важно: один источник почти всегда недостаточен, поэтому мы сразу планируем триангуляцию.

    Вендорские кейс-стади и страницы продуктов

    Это основной массив «видимых» кейсов, но он требует осторожности: маркетинг любит общие слова.

    Полезны как точка входа и для поиска конкретных процессов и терминов:

  • контакт-центр и helpdesk функции: Zendesk AI
  • self-service в поддержке: Intercom Fin
  • маркетинг/CRM: HubSpot AI
  • продажи и CRM: Microsoft Copilot for Sales
  • CRM-экосистема: Salesforce Einstein
  • Как использовать вендорские источники правильно:

  • Выписать заявленный процесс и метрики.
  • Найти «операционную механику»: где именно встроено (helpdesk/CRM/IDE/портал).
  • Проверить, есть ли конкретика: baseline, период, охват пользователей.
  • Найти независимые подтверждения: вебинар, выступление, интервью представителя компании.
  • Вебинары и конференции (особенно с процессными владельцами)

    Вебинар, где выступает руководитель поддержки, финансовый директор, head of IT или legal ops, часто ценнее статьи, потому что:

  • описывают ограничения и детали
  • чаще называют метрики процесса
  • отвечают на вопросы аудитории, где всплывают нюансы
  • Практика: сохранять ссылку на запись или страницу события, фиксировать таймкоды, а ключевые утверждения переносить в базу как цитируемые пункты.

    Публикации про риск и контроль как индикатор зрелости

    Даже если кейс описывает эффекты, зрелость часто видна по тому, как компания говорит о рисках. Для сравнения используйте внешние ориентиры:

  • рамка управления рисками: NIST AI RMF 1.0
  • безопасная разработка ПО (для IT/SDLC кейсов): NIST SSDF SP 800-218
  • типовые угрозы LLM-приложений (для RAG и ассистентов): OWASP Top 10 for LLM Applications
  • Если кейс вообще не упоминает контроль данных, review и ограничения — это не автоматически «фейк», но это красный флаг для продакшн-зрелости.

    Технические кейсы: исследования производительности как «фон», но не как «кейсы компании»

    Иногда mid-market не раскрывает данные. Тогда допустимо использовать проверяемые эксперименты как контекст ожидаемого эффекта, но не подменять ими реальные кейсы.

    Пример: экспериментальные результаты по ускорению задач разработчиков с ассистентом кода:

  • GitHub Research: Quantifying GitHub Copilot’s impact on developer productivity and happiness
  • В нашей базе это должно маркироваться как external benchmark, а не «кейc компании X».

    Отраслевые и регуляторные ориентиры

    Они не дают кейсы, но помогают задавать правильные вопросы про риски:

  • позиция о честности и рисках использования AI: FTC guidance on AI truth and fairness
  • риски AI в занятости и дискриминации (для HR кейсов): EEOC guidance on AI and disability discrimination
  • Скрининг: быстрый фильтр «годится в базу или нет»

    Чтобы не тратить часы на слабые истории, используйте фильтр в 10 минут.

    Минимум для прохождения скрининга

  • Компания соответствует нашему mid-market диапазону по логике курса (ориентир: 1B выручки по NCMM)
  • Описан конкретный процесс (support, AP, RFP, contract review, SDLC, ITSM)
  • Есть конкретное изменение шага процесса (черновик, суммаризация, маршрутизация, RAG-ответ с цитатами)
  • Есть хотя бы одна метрика или измеримая единица эффекта
  • Есть проверяемый источник (кейc-стади, запись, публикация)
  • Если один пункт отсутствует, кейс не выбрасывается автоматически, но переводится в статус lead и требует добора доказательств через интервью или вторичные источники.

    Доказательства: что считается сильным подтверждением

    В исследовании GenAI-кейсов полезно мыслить «лестницей доказательств».

    Уровни доказательств (практическая шкала)

    | Уровень | Что это | Почему это сильнее/слабее | Как использовать в базе | |---|---|---|---| | Высокий | Выступление процессного владельца с метриками и описанием внедрения | чаще есть детали «как измеряли» и ограничения | фиксировать таймкоды, выписывать метрики и условия | | Средний | Вендорский кейс-стади с процессом и цифрами | может быть маркетинговый перекос, но есть структура | требовать второе подтверждение | | Низкий | Пресс-релиз/пост без деталей процесса и измерений | легко «AI-washing», нет проверяемости | хранить как сигнал, не как кейс |

    Триангуляция: как «закреплять» утверждения

    Триангуляция — это когда одно и то же утверждение подтверждается минимум двумя независимыми углами.

    Практический подход:

  • Зафиксировать утверждение атомарно: «AHT снизился на X% на очереди Y за период Z».
  • Найти минимум одно независимое подтверждение или уточнение:
  • - запись выступления - интервью с сотрудником компании - документ процесса, скриншоты артефактов, описание настройки
  • Отметить условия применимости:
  • - на какой группе пользователей - в каких каналах (email, chat) - с каким human review

    Интервью: как получить операционную правду, а не презентацию

    Интервью — главный инструмент превращения «описания внедрения» в «повторяемый кейс».

    Кого интервьюировать

    Цель — получить процессную картину и данные измерения, поэтому приоритетные роли:

  • владелец процесса (support lead, AP manager, procurement lead)
  • продуктовый владелец внутреннего AI-решения
  • IT/интеграции (кто встраивал в helpdesk/CRM/DMS)
  • security/privacy (кто ставил ограничения)
  • Как подготовиться

  • Прочитать все доступные материалы и выписать противоречия.
  • Принести на интервью черновик карточки кейса (шаблон ниже) и закрывать пробелы.
  • Сразу договориться о режиме конфиденциальности:
  • - можно ли упоминать компанию - можно ли указывать цифры или только относительные изменения - можно ли хранить артефакты (скриншоты, схемы)

    Структура интервью (вопросы, которые дают факты)

  • Процесс и границы
  • - «Где процесс начинается и заканчивается?» - «Какие роли участвуют и какие системы задействованы?»
  • Боль и baseline
  • - «Что было узким местом до GenAI?» - «Какие метрики вы смотрели до внедрения и за какой период?»
  • Изменение шага процесса
  • - «Как выглядел шаг “до” по действиям сотрудника?» - «Что изменилось в интерфейсе или workflow “после”?»
  • Техника и источники знаний
  • - «Какие источники данных использует ассистент?» - «Есть ли RAG, цитаты, режим отказа?»
  • Качество и риск
  • - «Где обязателен human review?» - «Как вы ловите неправильные ответы и что делаете потом?»
  • Эффект
  • - «Какие изменения по метрикам вы приняли как “достаточно хорошо”, чтобы масштабировать?» - «Какие эффекты не подтвердились?»

    Артефакты, которые стоит запросить

    Не всегда их дадут, но запрос сам по себе повышает качество данных.

  • скриншоты “до/после” (например, draft ответа в helpdesk)
  • шаблон prompt/инструкций агента (без чувствительных данных)
  • пример ответа с цитатами (для RAG)
  • пример политики использования данных или запретов
  • схема интеграции на уровне блоков
  • Красные флаги: как распознать «AI-washing»

    Ниже — признаки, что кейс, вероятно, не соответствует критериям «реального» внедрения из рамки курса.

  • «Мы внедрили ИИ» без указания процесса и границ.
  • Метрики только про «вовлечённость» и «понравилось», без метрик процесса.
  • Нет описания, где встроено в инструмент: всё сводится к отдельному чату.
  • Заявлен «полностью автоматический контур» там, где обычно обязателен контроль (юридические тексты, платежи, изменения инфраструктуры), и при этом нет описанных guardrails.
  • RAG упоминается, но нет:
  • - источников - цитирования - режима отказа - переноса прав доступа

    Формат базы кейсов: карточка, поля, теги, версии

    Чтобы кейсы были сопоставимы между модулями (support, finance, legal, IT, RAG), база должна хранить одинаковые сущности.

    !Рекомендуемая структура данных для базы кейсов

    Карточка кейса: минимальный обязательный набор

    | Поле | Что записывать | Почему важно | |---|---|---| | Company | отрасль, примерный масштаб, география | чтобы не смешивать mid-market с enterprise | | Process | название, границы, роли, системы | чтобы кейс был воспроизводим | | Change | какой шаг изменился, что стало артефактом | отличает внедрение от «чат-пилота» | | Tech approach | ассистент/агент, RAG, интеграции, источники | позволяет сравнивать паттерны | | Metrics | baseline, after, период, метод измерения | база без метрик превращается в PR | | Controls | human review, ACL, цитаты, fallback, логирование | показывает зрелость и риск | | Evidence | ссылки, уровень доказательства, таймкоды | обеспечивает проверяемость | | Status | lead / verified / deprecated | управляет качеством базы |

    Как хранить метрики, чтобы они были сравнимы

    Проблема рынка: одна и та же метрика называется по-разному, и сравнение ломается.

    Практика нормализации:

  • Хранить оригинальное название метрики из источника.
  • Присваивать нормализованное имя из словаря курса.
  • Хранить единицы и контекст.
  • Пример словаря нормализованных метрик:

  • support: AHT, FRT, CSAT, deflection, escalation rate
  • sales: time-to-follow-up, CRM field completion, RFP cycle time
  • finance/AP: invoice cycle time, exception resolution time, rework rate
  • legal: contract cycle time, redline iterations
  • IT/SRE: MTTR, triage time, time-to-document
  • Как фиксировать «утверждения» отдельно от источников

    Чтобы база не зависела от формата одного документа, полезно хранить claims — атомарные утверждения.

    Практическая структура:

  • Claim: текст утверждения и тип (процесс/метрика/контроль).
  • Evidence: ссылка и фрагмент, который это подтверждает.
  • Confidence: уровень уверенности (например, high/medium/low) на основе числа и качества evidence.
  • Это позволяет:

  • обновлять evidence без переписывания кейса
  • помечать устаревшие утверждения
  • строить отчёты «какие эффекты чаще всего подтверждаются»
  • Версионирование: что делать, если кейс устарел

    GenAI-продукты и политики меняются быстро, поэтому база должна уметь «стареть» корректно.

    Рекомендация по статусам:

  • lead: сигнал найден, но недостаточно доказательств
  • verified: прошёл критерии курса, есть проверяемость
  • deprecated: источник устарел или процесс изменился так, что сравнение некорректно
  • Правило: устаревшие кейсы не удаляются, а получают статус и комментарий почему.

    Минимальный стандарт качества для включения кейса в курс

    Для включения кейса в «ядро» курса используйте короткий стандарт:

  • Есть конкретный процесс и изменённый шаг.
  • Есть встроенность в рабочую систему.
  • Есть хотя бы одна метрика эффекта или производственная метрика качества.
  • Есть описание контроля (минимум human review или RAG с источниками и fallback).
  • Есть проверяемый источник.
  • Если кейс проходит 1–3, но не проходит 4–5, он может быть полезен как «наблюдение рынка», но не как «реальный кейс автоматизации».

    Итоги

    Сбор кейсов GenAI в mid-market США — это не подбор красивых историй, а построение проверяемой базы: источники, интервью, доказательства, нормализованные метрики, контроль рисков и единый формат карточки. При таком подходе кейсы становятся сравнимыми между функциями (support, finance, legal, IT, RAG) и пригодными для повторения, а курс перестаёт быть набором примеров и превращается в карту реальных автоматизаций.