В этом году я глубоко погрузился в тему оценки эффективности обучения. Всё началось с того, что я написал серию статей и провёл мастер-класс на конференции Елены Тихомировой. Позже появилась методичка — около тридцати страниц практических рекомендаций, а затем я начал проводить корпоративные тренинги в университетах крупных компаний. Именно в процессе этих мероприятий я окончательно сформулировал и систематизировал подход, который сегодня называю комплексной моделью исследования и оценки результатов обучения.
Для меня эта тема не просто профессиональная — она стала личной. Много лет назад, когда я только начинал работать бизнес-тренером, я впервые столкнулся с профессиональным выгоранием. Причина была в том, что я не понимал, какую реальную ценность приносит моя работа: как она влияет на бизнес-результаты компании, где та самая граница между «хорошим тренингом» и реальным изменением показателей.
Позже я понял, что отсутствие понимание бизнес-эффективности обучения — это системная проблема всей индустрии корпоративного обучения. Эту мысль точно выразил Уилл Тальгеймер:
Мы разрабатываем и реализуем: адаптационные программы, кадровые резервы, тренинги, электронные курсы, вебинары, но редко понимаем, как они влияют на бизнес. В итоге страдает не только эффективность, но и профессиональная самооценка специалистов по обучению.
От моделей к инструментарию
Когда я впервые системно подошёл к вопросу оценки, то быстро убедился: в мире существует огромное количество моделей, которые описывают, что именно можно измерять. Среди них — классическая модель Дональда Киркпатрика, методология ROI Дж. Филлипса, модель Брингерхоффа (Success Case Method), подход Андерсона, CIPP-модель Стаффлбима, LTEM Тальгеймера и многие другие.
Легко можно найти описания тридцати и более подобных фреймов. Однако при всём многообразии у них есть общий недостаток: они хорошо отвечают на вопрос “что измерять”, но почти не дают ответа “как именно это делать”.
В практической работе этот разрыв становится критическим. L&D-специалистам нужны не только концепции, но и чёткий, воспроизводимый инструментарий — набор методов и процедур, которые можно применить в конкретной компании. Именно этот пробел я и пытаюсь всё это время закрыть.
Моя цель была не в том, чтобы придумать очередную теоретическую схему, а в том, чтобы предложить реальный рабочий инструмент, который можно внедрить в корпоративную практику. Так появилась комплексная модель исследования и оценки результатов обучения, которая объединяет лучшие идеи существующих теорий и дополняет их практическими шагами. Я настаиваю, что это модель именно "исследования", так как работа над оценкой эффективности обучения, это исследование, в котором надо найти ЧТО можно измерить, КАК это сделать и обойти большое количество препятствий на этом пути (иногда, даже от заказчика).
Аксиома оценки эффективности обучения
В основе модели лежит простая, но важная аксиома: → не существует единой универсальной формулы оценки эффективности обучения.
Каждый новый запрос, каждая образовательная программа требуют индивидуального проектирования системы оценки. Универсальных решений здесь нет и быть не может — слишком различаются цели, контексты бизнеса, аудитории и доступы к информации.
Комплексная модель — это не жесткий шаблон, а рамка (framework), наполненная инструментарием. Она позволяет выбрать подходящие методы под конкретный проект и организацию.
Под капотом этой модели — синтез нескольких классических подходов:
Модель Киркпатрика (четыре уровня оценки);
Методология Брингерхоффа (Success Case Method);
Подход Андерсона (оценка влияния на стратегические цели бизнеса);
Модель CIRO (Context–Input–Reaction–Outcome);
и наши личные, бюро РАЙЗ, наработки, накопленные в проектах корпоративного обучения.
Так сформировалась рамка комплексной оценки, которая рассматривает процесс обучения как исследование: с гипотезами, выбором инструментов, анализом данных и интерпретацией результатов.
Структура комплексной модели: уровни и инструменты
Комплексная модель исследования и оценки результатов обучения строится на поэтапной логике, где каждый уровень фиксирует определённый аспект эффективности. В ней сочетаются идеи Киркпатрика, Брингерхоффа, Андерсона и CIRO, но главное — она дополняется практическими инструментами, проверенными в корпоративных проектах. Открывает шаблон "шапка": сюда вносим название проекта, ЦА и цели обучения. Если к эти блокам подойти детально, то понимание ЦА (и её особенностей) и целей обучения точно поможет в проработке системы оценки.
1. Уровень реакции: оценка процесса обучения
Часто этот уровень воспринимают как формальный — тот самый опрос «понравилось или нет». Однако я убеждён: реакция — это не про эмоции, а про восприятие процесса обучения. На этом уровне важно понять, насколько обучающий опыт оказался релевантным, понятным и применимым для участников.
Здесь я сознательно отказываюсь от привычных для EdTech метрик, таких как NPS (Net Promoter Score) или CSI (Customer Satisfaction Index). Они могут быть полезны для оценки клиентского опыта или обучения на курсах, когда сотрудник сам за себя платит, но в корпоративном обучении они малоинформативны. Заказчику не интересно: понравился ли ваш курс и готовы ли его участники рекомендовать. Высокий NPS не говорит нам, повлияло ли обучение на реальную работу сотрудников.
ДЛЯ КАЖДОЙ СЛОЖНОЙ ЗАДАЧИ СУЩЕСТВУЕТ РЕШЕНИЕ, КОТОРОЕ ЯВЛЯЕТСЯ БЫСТРЫМ, ПРОСТЫМ И НЕПРАВИЛЬНЫМ
Это высказывание Менкена наилучшим образом подходит к NPS и CSI в корпоративном обучение — это и есть наше быстрое, простое и неправильное решение задачи по оценке эффективности.
Вместо этого я предлагаю формулировать вопросы, которые действительно дают аналитические данные:
Насколько представленный контент был актуален для вашей работы?
Был ли понятен и структурирован материал?
Какие инструменты оказались более полезными, а какие нет?
Что оказалось сложным в процессе обучения, с какими трудностсями столкнулись?
Какой план действий вы сформировали после программы и планируете ли внедрять новый инструментарий в работу?
Такой формат обратной связи позволяет увидеть не просто степень удовлетворённости, а практическую ценность обучения и возможные зоны доработки программы.
Важно помнить, что уровень реакции всегда субъективен. Он зависит от индивидуальных особенностей участников, формулировки вопросов и даже внешних деталей (как выразился один из моих слушателей, «печеньки были невкусные»). Но при грамотной постановке вопросов он становится ценным источником данных для анализа качества образовательного процесса и дальнейшей его доработки.
Уровень обучения: что действительно усвоено
Следующий уровень — Learning, или уровень усвоения обучения. По сути, на этом этапе нам надо найти ответы на три вопроса:
Разобрались ли участники в материале, изменились ли их знания?
Поверили ли они в ценность нового подхода?
Могут ли они воспроизвести и применить полученные инструменты?
Инструментарий для этого уровня я делю на шесть основных групп:
Кейсовые задания — мини-кейсы, разбор реальных ситуаций, анализ ошибок.
Симуляции и ролевые игры — моделирование рабочих ситуаций, VR-тренажёры, бизнес-игры.
Оценка по чек-листам — наблюдение тренера, ассессора или коллег за выполнением задач.
Самооценка и рефлексия — отличие от вопросов из анкеты первого уровня в том, что здесь мы интересуемся не мнением о программе а пониманием ученика степени овладевания инструменатрием. Безусловно, ответы его будут субъективны, но они помогут и ему самому понять свою готовность. Вопросы типа: "на сколько ты уверен, что полученной практики тебе хватит для использования инструмента..."; "расставь темы тренинга в порядке убывания от самой понятной для тебя к самой сложной"...
Тесты на удержание знаний — повторное измерение через 4-8 недель для оценки долговременного эффекта.
Моя рекомендация: на каждом проекте использовать не менее двух (увидеть прирост знаний и умений), а лучше трёх инструментов. Комбинация методов повышает надёжность оценки (тут мы не обсуждаем качество инструментов, так как те же тесты могут быть собранны поверхностно и только делать вид, что они что-то измеряют, а могут быть детально проработаны по правилам тестологии).
3. Уровень применения: перенос в рабочую практику
Один из самых сложных и редко измеряемых уровней — Behaviour, применение или перенос нового поведения в работу. Исследование LinkedIn (2024) показало, что лишь около 5% образовательных инициатив доходят до оценки этого уровня. Причина понятна: измерить, начали ли люди применять новые знания в работе, гораздо сложнее, чем провести тест. Здесь уже требуется вовлечение руководителей, HR-партнёров, а, возможно, и смежных подразделений.
Первый вопрос, на который стоит ответить, переходя к этому уровню: через какое время стоит проводить замер?
Если вы начнёте замерять сразу на следующей недели, после обучения, то вы получите только срез "попыток начать изменение поведения", так что это не подходит.
Если речь идёт о простых навыках (например, использование нового шаблона в работе с ПО), то оценку можно проводить через 1–2 месяца.
Если речь идёт о поведенческих или управленческих компетенциях, то тут стоит проводить такую оценку месяца через 3. Плюс, такми образом вы нивелируете мотивационный эффект после обучения - часто люди начинают пробовать что-то новое в первый месяц, после обучения, но потом бросают.
Я часто ссылаюсь на практику корпоративных университетов, так вот, тут пример от Сбера: в разговоре коллеги поделились, что они проводят первый замер именно через три месяца.
Кроме того, важно учитывать эффект Хотторна — явление, при котором сам факт наблюдения повышает вероятность того, что человек будет применять новые навыки. То есть измерение само по себе становится инструментом развития и переноса практик в работу.
Инструменты для этого уровня включают:
Learning contract я особенно ценю: он делает руководителя партнёром в развитии. Когда руководитель наблюдает за внедрением навыков, поддерживает сотрудника и фиксирует изменения, обучение перестаёт быть “вещью в себе” и становится частью управленческого цикла.
4. Уровень результата: влияние на бизнес
Четвёртый уровень — Results, или уровень бизнес-метрик. Это наиболее интересная, но и самая неоднозначная часть оценки.
Проблема в том, что классическая модель Киркпатрика даёт нам направление, но не методику расчёта. При попытках расчёта показателей этого уровня, у нас кристализовался инструмент — «Каскад эффективности».
Его логика проста:
Что будем измерять? — определяем конкретные бизнес- или HR-метрики (продажи, текучесть, скорость адаптации, конверсию и т.д.). Ещё раз подчеркну — тут вписываем только HR или Бизнес-метрики, в редких случаях, что-то другое, о чём договориись с заказчиком. Случайным образом, на одном из тренингов по применению этой модели, участники нашли, что тут уместен аналог инструмента "5 почему" — задаём несколько раз вопрос "и на что это влияет?", как правило, на 3-4 вопрос доходим до бизнес-метрик))))
Какие данные нужны и где их взять? — выявляем источники (HR-аналитика, CRM, KPI-отчёты). Иногда уже на этом этапе становится понятно, что нужных данных в компании просто нет — и это тоже ценный результат.
Как будем считать? — фиксируем алгоритм измерения: периоды, группы сравнения, ответственных, даты.
Кстати, может возникнуть вопрос: а зачем нам измерять 3 предыдущих уровня, если бизнес всё равно интересует только результат 4го?
Ответ прост: если вы можете подтвердить и знания, и перенос — то вы можете утверждать: результат тоже ваша заслуга. А если переноса нет, то и результат, скорее всего, не от обучения.
В процессе работы над темой "оценка эффективности обучения" родился ещё один инструмент, который может помочь понять — стоит ли идти в эту самую оценку эффективности. "Матрица сложности" — это 2 оси: -понятно ли какие бизнес-метрики замерять и как это можно сделать; -через какое время это надо сделать. Тут важно помнить, что бизнес-результат стоит измерять ПОСЛЕ измерения переноса в работу, поэтому, сроки измерения затягиваются.
Как итог, получается матрица из 4-х элементов, где ключевые:
«Понятно и быстро» — измеряем в первую очередь, даже если нет запроса от заказчика. Тут с минимальными усилиями вы сможете увидеть результат своей работы.
«Сложно и долго» — скорее всего, проект по оценке эффективности не будет доведён до конца, так как является сложным и долгосрочным.
5. Сверхуровень оценки: выход за рамки стандартных метрик
Четырёх уровней Киркпатрика часто бывает достаточно, чтобы показать связь между обучением и результатами. Но в реальной практике иногда нужно выйти за пределы привычной логики, так как бывают проекты настолько уникальные, что и метрики для них - уникальные.
Именно этот уровень я называю сверхуровнем оценки. Он основан на идеях нескольких исследователей:
Роберт Брингерхофф предлагал использовать Success Case Method — исследовать не средние результаты, а лучшие кейсы: что конкретно сделали участники, которые достигли наибольших изменений, и какие факторы им помогли. Возможно, в вашем проекте будет полезно исследовать учеников с лучшими результатами, чтобы понять, что они делают по-другому, чтобы включить это в обучении следующих групп.
Андерсон считал, что хорошее обучение должно влиять на бизнес-процессы компании. И такая метрика тоже может быть актуальна — изменило ли ваше обучение бизнес-процесс? Кейс: команда, по запросу руководства, просчитывала эффективность (на 4м уровне) обучения, которое запущенно 3 года назад и его прошли все сотрудники. Тут все понятные бизнес-метрики не работают, так как не с чем сравнивать. Оказалось, что это обучение изменило процесс работы компании — инструменты из него вошли в стандарты работы специалистов.
Джек Филлипс развил идею ROI (Return on Investment), и бывают ситуации, что вам надо посчитать и их. Хотя я не сторонник этой метрики, но она тоже возможна
ROE — Return on Expectations. Это метод, предложенный Роджером Робертсом: он позволяет показать, насколько реализованы ожидания заказчика от обучения. В экономике это тоже показатель про прибыль\деньги, но в обучении его используют в качестве оценки от заказчика "на сколько вы довольны прошедшим обучением и его результатами"))))
Джек Кауфман говорил о влиянии обучения на внешнюю среду: клиентов, партнёров, общественные процессы. И это стоит поисследовать, особенно, если ваше обучение касается работы с школьниками или студентами в регионе.
6. Презентация результатов: как показать эффективность
Одно из самых распространённых заблуждений в L&D — считать, что результаты оценки предназначены только для внутреннего анализа. На самом деле их нужно показывать — команде, заказчикам, руководству, а может и всему сообществу. Именно поэтому, в комплексную оценку мы включили итоговую презентацию 6-м шагом.
Это не формальный отчёт, а короткая визуализированная история изменений. В неё могут входить буквально 5-6 слайдов:
Такой формат помогает бизнесу увидеть вклад обучения в конкретных цифрах и действиях, а команде обучения — укрепить свою репутацию как стратегического партнёра.
Я часто повторяю: «Давайте считать изменения метрик после программ, а не то, насколько они понравились участникам».
Собранные данные стоит использовать не только для отчётности, но и для дальнейшего проектирования: улучшения контента, корректировки форматов, настройки длительности программ.
Заключение. Комплексная оценка как инструмент зрелости L&D
За последние годы я убедился, что тема оценки эффективности обучения — это не просто про цифры. Это про зрелость функции обучения и её позицию в компании. Пока L&D измеряет только NPS и CSI, обучение воспринимается как вспомогательная активность. Но когда мы можем доказать, что знания усвоены, навыки перенесены в работу, а метрики бизнеса изменились — отношение к обучению меняется.
Комплексная оценка помогает:
выстраивать прозрачную логику «от цели до результата»;
говорить с бизнесом на его языке;
повышать профессиональную уверенность самих специалистов по обучению.
В этом и заключается суть комплексного подхода: оценка — не формальность, а способ доказать ценность нашей работы, понять, где обучение действительно работает, а где требует донастройки.
Именно поэтому я рассматриваю каждый проект по оценке эффективности как исследование. Оно помогает не только посчитать результаты, но и понять логику изменений, увидеть, как обучение становится частью бизнес-процессов и культуры развития.
Вместо эпилога.
Комплексная модель исследования и оценки результатов обучения — это живой инструмент, который продолжает развиваться. С каждым новым проектом я уточняю инструменты, тестирую форматы, ищу баланс между измеримостью и здравым смыслом.
Измеряя эффективность обучение, мы становимся профессиональнее.