Как передача задач AI может стоить бизнесу миллионы

78% компаний по всему миру используют AI в своих продуктах. Но это не значит, что все 78% компаний экономят и зарабатывают больше с помощью нейросетей. Многие из них теряют деньги, клиентов и репутацию. И если вам кажется, что вы ускорили процессы, стоит проверить: не ускорили ли вы заодно путь к ошибкам, утечкам данных и неверным решениям.

Как передача задач AI может стоить бизнесу миллионы

Представим, что в одной крупной вымышленной edtech-компании работает Максим — менеджер по развитию бизнеса. С появлением ChatGPT в 2022 году он сошёл с ума. Максим начал с безобидного: попросил нейросеть написать письмо партнёру, он хотел быстрее формулировать мысли и не тратить много времени на переписки. Потом — подготовить презентацию. После — придумать стратегию выхода на новый рынок. А через пару месяцев нейросеть уже помогала ему с оценкой рисков, формулировкой офера, анализом воронки — и всё это на основе конфиденциальной информации вроде данных о лидах и выручке компании.

Максиму казалось, что он нанял себе бесплатного джуна, который никогда не устаёт. Но у менеджера быстро начались проблемы. Стратегия выглядела логично, но не учитывала контекст рынка. А ответы партнёрам почему-то перестали приводить к сделкам. Проблема была не в том, что AI «плохой». Дело в том, что Максим начал передавать ему задачи, которые требуют не скорости, а ответственности, контекста, принятия решений и связи человека с человеком.

Какие задачи нельзя передавать нейросетям или Почему Максима чуть не уволили

Для начала нужно понять простую, но не всем очевидную вещь — нейросети «глупые». Всё же это лишь математическая модель, которая хорошо находит закономерности и имитирует логику рассуждений, но у неё нет эмпатии, собственного опыта, ответственности за результат и понимания контекста за пределами того, что вы ей сами передали.

Максиму кажется, что эту «проблему» можно решить, если написать пятитомный промпт: описать бизнес с начала его существования, рынок за последние пять лет и скормить все конфеденциальные данные. Но даже в этом случае нейросеть будет работать не как думающий участник процесса, а как калькулятор, которому дали очень сложную формулу. Отсюда и вывод — AI хорошо справляется с работой на скорость и объём, но плохо с теми задачами, где решение остаётся за человеком, например:

  • Задачи, которые требуют оценочного, поведенческого и эмоционального суждения. То есть задачи, где решение строится на понимании людей, а не только фактов. В пик своего помешательства на нейросетях Максим начал использовать AI как советника по управлению командой. Например, он попросил подсказать, что делать с сотрудником, который несколько раз сорвал дедлайны. Но за цифрами скрывался контекст: у сотрудника тяжело заболел близкий человек, он разрывался между работой и больницей. Но нейросеть не понимает, где нужно проявить гибкость, а где — жёсткость, в таких ситуациях. AI может предложить логичный, но бесчеловечный вариант решения. А ответственность за последствия — увольнение, конфликт, потеря сильного специалиста или токсичная атмосфера в команде — всё равно остаётся на менеджере.
  • Коммерческие тайны. Максим загружал в нейросеть информацию о лидах, выручке, воронке продаж и планах по выходу на новые рынки. Но модели, которые «ходят» в интернет за информацией, обучаются на пользовательских данных. Да, они не выдают их напрямую, но используют для формирования будущих ответов и контекста. Это означает, что часть информации может косвенно утечь — не в виде конкретных цифр, а в виде инсайтов, которые получит кто-то другой, включая конкурентов. Ведь инфобез в AI сейчас находится примерно там же, где IT-безопасность была 5–10 лет назад: инструменты есть, но универсальных и понятных правил ещё нет. Поэтому любые коммерческие тайны, стратегические планы и чувствительные данные лучше держать вне публичных моделей — даже если кажется, что ничего страшного не случится.
  • Любое принятие решения. Нейросеть может помочь собрать данные, сравнить варианты, разложить аргументы «за» и «против», но само решение принять не сможет. Максим же опирался на искусственный интеллект при выборе ключевых направлений: какую фичу делать первой, какую гипотезу закрыть, как выстраивать архитектуру продукта. Но такой подход можно сравнить с проектированием дома. AI может помочь удешевить проект, подсказать варианты планировок, рассчитать нагрузку и собрать аналитику. Но если отдать нейросети проектирование несущей конструкции целиком, риски резко возрастают. С продуктами и бизнесом ровно так же: архитектурные, стратегические, фундаментальные решения должны оставаться за людьми с опытом и экспертизой.
Как передача задач AI может стоить бизнесу миллионы

То есть история Максима — не про «опасный» AI, а про неосознанное использование инструмента. Нейросети отлично ускоряют работу, забирают рутину и помогают думать быстрее. Но ровно до того момента, пока им не начинают делегировать ответственность, человеческие решения и контекст.

Это сейчас подтверждают и крупные игроки: например, по словам гендиректора OpenAI Сэма Альтмана, 2025 должен был стать годом, «когда ИИ-агенты заработают в полную силу». Тогда компании под влиянием стремительного развития ИИ сокращали людей целыми отделами. Но несмотря на хайп, прогноз Сэма не оправдался. По исследованиям, даже лучший ИИ-агент мог выполнить только 24% от порученных ему типичных задач. А стоимость поддержки и оплата за серверы оказалась выше, чем большинство ожидали. По итогу больше половины СЕО теперь говорят, что откажутся от планов «значительного сокращения персонала службы поддержки клиентов» к 2027 году. И речь здесь идёт лишь о поддержке клиентов, где казалось бы, люди обращаются с типичными проблемами. Но речь снова об ответственности, человеческих решениях и контексте.

А как тогда нужно? Два шага, чтобы нейросети были во благо, а не во вред

И в случае с вымышленным Максимом, и в реальности, когда человек начинает полагаться на мнение чего-то или кого-то другого и выполнять то, что ему говорят — за него думают. А значит через какое-то время он сам уже не умеет принимать решения самостоятельно. И в тот момент, когда ему нужно приложить усилия, чтобы решить задачу, вымышленный Максим или реальный специалист не будут выбирать между «сесть проанализировать» и «получить готовый рецепт» — они безоговорочно выберут второй вариант. И чем больше они так работают, тем сильнее могут навредить бизнесу: от слива коммерческой тайны до использования фейковой информации нейросети (галлюцинации) для работы.

Это можно сравнить с сериалом «Одна из многих», где по сюжету на планете появился вирус счастья. И в один миг все стали добрыми и довольными жизнью. И только одна женщина ставит перед зрителем вопрос: уверены ли они, что это счастье, а не лоботомия с доставкой на дом? Ей кажется, что в этом счастье что-то не то: все милые и дружелюбные, но в какой-то момент вот-вот произойдёт что-то плохое. Так и с искусственным интеллектом — это не панацея, и относится к нему нужно осознанно и осторожно.

Например, в ADV мы не заставляем использовать чёткие регламенты и чек-листы по использованию нейросетей. Но при этом каждый разработчик знает: навайбкодить на коленке не получится — этот код просто не пройдёт ревью. И мы призываем вас к тому же подходу: думать самостоятельно и относиться к технологии осознанно.

Над материалом работали операционный директор Михаил Парфенюк, исполнительный директор Иван Беляков и директор по проектированию продуктов Алексей Шмелев.

10
1
29 комментариев