От анализа речи к пониманию намерений: новая роль ИИ в клиентском сервисе

Разбираем, как автоматизированный ИИ-анализ диалогов уже сегодня применяется в маркетинге и продажах: помогает выявлять намерения и повышать качество сервиса

От анализа речи к пониманию намерений: новая роль ИИ в клиентском сервисе
Источник изображения: Личный архив компании VOXYS

Падает качество клиентского сервиса? Дело не в том, что клиенты стали говорить сложнее — бизнесу все труднее понимать их реальные намерения в потоке коммуникаций. О том, как переход от классического распознавания речи к LLM-аналитике коммуникаций меняет подход к оценке диалогов и управлению продажами и качеством сервиса, рассказывает Елена Чаплинская, директор департамента качества и речевых технологий VOXYS, эксперт по речевой аналитике.

Речевая аналитика клиентских коммуникациях долгое время строилась вокруг технологий автоматического распознавания речи (ASR). ASR решает простую задачу: перевести аудио в текст и дальше искать в нем ключевые слова, триггеры или отклонения от скрипта.  Если речь идет о текстовых коммуникациях, то дело вообще ограничивается поиском по ключевым словам.  

Сочетание технологии распознавания речи и поиска формировало суть классической речевой аналитики, решавшей базовые задачи контроля качества, но имеевшей принципиальные ограничения:

  • низкая точность, анализ конкретных слов, а не распознавание смыслов;
  • система не учитывала контекст диалога;
  • требуется постоянная ручная настройка (наполнение словаря);
  • не распознает сарказм, эмоции и скрытые сигналы;
  • не масштабируется на новые тематики и категории без участия человека.

В результате аналитика давала сигнал — показывала следствие, но не объясняла причину ошибки. Знаю по своему опыту: руководители тратили время на ручную проверку диалогов, качество управленческих решений напрямую зависело от человека и характеризовалось  высокой степень субъективности. 

С ростом сложности клиентских коммуникаций — распространением омниканальности, увеличения скорости диалогов и вариативности сценариев, возможностей классической речевой аналитики стало недостаточно для эффективного контроля качества и развития бизнеса.

Что изменили LLM: от текста — к намерению

Появление больших языковых моделей (LLM) перевернуло подход к анализу коммуникаций с клиентами. Если ASR отвечает на вопрос «что сказал клиент», то LLM — «что он имел в виду и какой реакции бизнеса ожидает». Тектонический сдвиг в  функционале. Вместо поиска ключевых слов система:

  • понимает семантику — распознает все варианты выражения одной и той же проблемы;
  • анализирует диалог целиком: учитывает предыдущие реплики, интонацию, цель звонка; 
  • распознает иронию, раздражение, усталость, намеки на отток («Ну ладно, как обычно…», «Может, перейду в другой магазин»)
  • автоматически выявляет новые кластеры обращений без разметки ключевых слов — даже если раньше таких не было.

Например, классическая система фиксирует слова «дорого» или «не устраивает». LLM не только фиксирует эти слова, но и определяет, что клиент находится в стадии сомнения перед покупкой, и выделяет, и ранжирует по релевантности возможные причины: уровень цены, отсутствие информации или недоверие. 

На основании анализа всего диалога система может давать оператору рекомендации по ведению коммуникации. Это уже не пост-фактум контроль, а полноценная интерпретация диалога в режиме реального времени. 

Практический эффект: метрики, которые меняются

Переход от ASR к LLM — это не только про технологии, но и про измеримый бизнес-результат. Как показывает мой опыт, внедрение моделей, ориентированных на понимание намерений, дает:

  • Рост CSAT. За счет более точного понимания запросов клиента и корректной реакции операторов уровень удовлетворенности (CSAT) может расти до +45%. Основная причина — снижение числа ситуаций, когда оператор формально отвечает, но не решает реальную задачу клиента.
  • Снижение нагрузки на руководителей. LLM берет на себя значительную часть функций, которые раньше выполняли руководители групп и специалисты по речевой аналитике вручную. Система анализирует 100% диалогов по заданным сценариям и чек-листам и автоматически формирует обратную связь для операторов: фиксирует нарушения, оценивает полноту консультации, корректность идентификации клиента, решение вопроса и соблюдение других критически важных параметров обслуживания. В результате руководители перестают тратить время на выборочную проверку звонков, прослушивание диалогов и ручную классификацию ошибок. 
    Вместо контроля большого массива типовых коммуникаций они подключаются только к действительно критичным кейсам: ситуациям с репутационными рисками, потенциальными финансовыми потерями или сложными конфликтами с клиентами. Так формируется экономия до 18% рабочего времени управленческой команды, что позволяет перераспределять его на развитие сотрудников и повышение эффективности процессов.
  • Снижение стоимости аналитики. Использование больших языковых моделей позволяет автоматизировать оценку качества коммуникаций. Если классическая речевая аналитика чаще концентрировались на формальных или «мягких» параметрах общения, то большие языковые модели способны анализировать диалог по полноценному сценарию, заложенному в промпте.
    Фактически в модель можно «зашить» целый чек-лист оценки: был ли решен вопрос клиента, насколько полной была консультация, корректно ли проведена идентификация, соблюдены ли обязательные этапы коммуникации. При этом для внедрения новых сценариев оценки не требуются сложные интеграции или переработка системы — достаточно обновления логики промпта.

За счет этого увеличивается глубина и точность контроля качества. Система способна анализировать 100% коммуникаций по единым критериям, тогда как даже сильные команды аудита физически могут проверять только ограниченную выборку диалогов. Результат: более объективная оценка качества сервиса, снижение затрат на аналитику и возможность быстрее адаптировать контроль под новые задачи и сценарии обслуживания.

Большие языковые модели в реальных сценариях

Мои опыт показывает: переход к LLM-аналитике показывает наибольший экономический эффект для бизнеса в трех направлениях:

  • Продажи и удержание. Система выявляет реальные причины отказов: цена, недоверие, недостаток информации, неудачный тайминг коммуникации. Такой набор данных позволяет корректировать скрипты и продуктовые предложения оперативно и точечно, а при использовании интегрированных с LLM-ботов-суфлеров и цифровых ассистентов оператора — делать это буквально в режиме реального времени, прямо в ходе диалога оператора с клиентом.
  • Массовый рекрутинг. В сценариях с большим потоком кандидатов — например, до сотен тысяч контактов в месяц LLM помогает классифицировать ответы кандидатов, выделяет заинтересованных, снижает нагрузку на рекрутеров. В сочетании с голосовыми роботами это позволяет обрабатывать большие объемы трафика без потери качества и с меньшим числом повторных попыток контакта.
  • Контроль качества и обучение. Вместо формального чек-листа появляется: анализ логики диалога, оценка уместности ответов, выявление «узких мест» в коммуникации. Эти данные дают основу для точечного дополнительно обучения операторов, повышению уровня их квалификации и экспертности, ведущего к повышению эффективности их работы. 

Переход от ASR к LLM — это переход от контроля к пониманию, от выборочной к всеобъемлющей аналитике, от реакции к прогнозированию клиентского поведения. Представители компании уже внедривших LLM в классическую речевую аналитику, наиболее часто отмечают несколько позитивных эффектов:

  • рост удовлетворенности клиентов (CSAT);
  • снижение операционных затрат;
  • экономию времени управленческой команды;
  • рост числа подтвердившихся маркетинговых гипотез;
  • повышение качества управленческих решений.

Выбор редакции

Публикации, которые получают больше внимания и попадают в Сюжеты РБК

Рекомендации партнеров:

Данные о правообладателе фото и видеоматериалов взяты с сайта «РБК Компании», подробнее в Условиях использования
Анализ
×
Чаплинская Елена
Фактум
Компании