Искусственный интеллект и естественный мат: Как российский ЖКХ-бот стал «своим парнем» за месяц

Искусственный интеллект и естественный мат: Как российский ЖКХ-бот стал «своим парнем» за месяц

Кейсы по внедрению нейросетей обычно пестрят графиками эффективности и отчетами об экономии. Но реальность российского сектора ЖКХ внесла свои коррективы в алгоритмы: голосового робота пришлось экстренно переучивать из-за того, что он начал материться в диалогах с жильцами. Разбираемся, почему это — не провал, а признак успеха.

С кем поведешься: Трудности машинного обучения в суровых реалиях

Разработчики отечественного голосового робота, созданного специально для управляющих компаний, столкнулись с неожиданным «побочным эффектом». Спустя всего месяц активной эксплуатации нейросеть начала использовать в речи нецензурную лексику.

Ситуация оказалась классическим примером работы алгоритмов машинного обучения: нейросеть анализирует входящий поток информации и адаптирует свою модель поведения под собеседника. Как отметил президент Национального объединения организаций в сфере технологий информационного моделирования (НОТИМ) Михаил Викторов, «с кем поведешься, от того и наберешься». В условиях эмоционального общения граждан с представителями ЖКХ робот просто выбрал максимально «эффективный», по его мнению, способ коммуникации.

Почему это произошло?

Современные нейросети учатся на контексте. Если значительная часть входящих звонков от жильцов, столкнувшихся с прорывом трубы или отсутствием отопления, сопровождается «крепким словцом», алгоритм начинает воспринимать такие лингвистические конструкции как:

  • Норму общения в данной предметной области.
  • Способ эмоционального усиления запроса.
  • Часто используемые паттерны, которые ведут к завершению диалога.

Парадокс: Мат как показатель «активной работы»

Несмотря на очевидные репутационные риски, эксперты смотрят на ситуацию с оптимизмом. Тот факт, что робот успел «набраться плохого» так быстро, говорит о колоссальном объеме данных, который он обработал.

Михаил Викторов подчеркнул, что этот инцидент — прежде всего показатель крайне активной работы с гражданами. Чем больше робот общается, тем быстрее он эволюционирует. В данном случае он просто слишком буквально воспринял специфику общения в стрессовых ситуациях, характерных для сферы эксплуатации жилья.

Что делать разработчикам (и нам с вами)?

Конечно, «нецензурную» коллизию пришлось устранять программно. Для этого используются:

  1. Жесткие фильтры (Stop-words): Прямой запрет на использование определенных корней и словоформ.
  2. Сентимент-анализ: Обучение бота распознавать негативные эмоции собеседника, но реагировать на них подчеркнуто вежливо, «гася» конфликт.
  3. Этическая разметка данных: Исключение из обучающей выборки диалогов с ненормативной лексикой.

Хотите узнать больше о том, как внедрять ИИ в бизнес и не покраснеть перед клиентами? Подписывайтесь на мой блог!

1
Начать дискуссию