Мат, КАПС и XML-теги: мифы промптинга против данных
«Напиши КАПСОМ – модель послушается». «Поругайся на неё – выдаст лучше». «Разбей на шаги – получишь глубокий анализ». Эти советы кочуют из блога в блог, из чата в чат. Кто-то ссылается на исследование Microsoft, кто-то – на личный опыт с ChatGPT.
Мы решили проверить – и проверили основательно. Взяли четыре модели, доступные в России без VPN: GigaChat-Ultra, GigaChat-2-Max, YandexGPT и Qwen3 Max. Каждую прогнали через десять техник промптинга – от простых ролевых заданий до XML-структур. Задачи – из реальной работы менеджера: анализ выручки, подготовка записки, увольнение по ТК РФ. Оценивали вслепую два независимых LLM-судьи. Для калибровки те же задачи решали GPT-5.4 и Claude Sonnet – чтобы зафиксировать потолок, к которому тянутся российские модели.
Половина популярных советов оказалась городскими легендами. Другая половина работает – но не так, как вы думаете.
Как мы это проверяли
Коротко, чтобы вы понимали, почему этим данным можно верить – и где их ограничения.
Каждую комбинацию «модель + техника + задача» прогнали несколько раз, чтобы результат не зависел от случайного везения. Оценка попарная: судья видит два ответа – наивный и улучшенный – и выбирает лучший. Судьи не знают, какая техника использована. Если не согласны – ничья.
Несколько важных оговорок. Оценку проводили LLM-судьи, а не люди. Все промпты написаны экспертом – типичный менеджер напишет проще, эффект будет меньше. Модели обновляются – результаты актуальны на апрель 2026. Все промпты и данные опубликованы.
Миф 1: «Поругайся на неё – и она постарается»
Совет звучит логично – но работает ли он? Вы недовольны ответом, пишете резко – и модель «пугается», старается больше. В чатах делятся историями успеха: "Я написал Алисе, что её ответ – позор, и она выдала нормальный текст".
Данные говорят обратное. YandexGPT буквально отвечает хуже, когда на неё кричат.
Вероятный механизм: модель обучена на обратной связи от пользователей. Агрессивный тон она ассоциирует с ситуациями, где человек недоволен – и переключается в режим извинений. Вместо аналитики вы получаете «Вы правы, давайте попробуем ещё раз» с минимальными изменениями по сути.
Почему тогда люди уверены, что это работает? Потому что вместе с руганью они обычно добавляют конкретные инструкции. «Это ужасный ответ, ты не упомянул дедлайны, нет альтернативных вариантов, всё слишком абстрактно» – это не крик, это обратная связь. Помогает конкретика, а не тон. Если убрать эмоции и оставить инструкции – результат будет тот же или лучше.
Миф 2: «Напиши КАПСОМ – модель обратит внимание»
Ещё один популярный совет. Исследование Microsoft 2024 года часто цитируют в его поддержку. Проблема в том, что в том исследовании КАПС тестировали вместе с дополнительными инструкциями. Мы изолировали чистый КАПС – те же самые слова, только БОЛЬШИМИ БУКВАМИ, без дополнительных указаний.
Разница с обычным текстом – на уровне статистического шума. КАПС не вредит, но и не помогает. Модель не «обращает внимание» на регистр так, как это делает человек. Для неё «ОБЯЗАТЕЛЬНО УКАЖИ ДЕДЛАЙНЫ» и «обязательно укажи дедлайны» – практически одно и то же.
Если вы привыкли писать КАПСОМ – это не мешает. Но если вы тратите время на расстановку акцентов через регистр, вы тратите его впустую. Лучше потратить его на секцию «ограничения и оговорки» в шаблоне ответа – это даст измеримый прирост.
Миф 3: «Разбей на шаги – получишь глубокий анализ»
Декомпозиция – техника, где вы разбиваете задачу на несколько последовательных вопросов. Сначала: «Проанализируй данные». Потом: «Теперь найди корневые причины». Потом: «Предложи план действий». Звучит разумно – вы ведёте модель за руку.
На YandexGPT это единственная техника, которая дала результат хуже наивного промпта.
Причина техническая: контекстное окно YandexGPT – 8 000 токенов. К третьему ходу диалога модель теряет данные из первого сообщения. Вы дали ей таблицу с выручкой в первом сообщении, попросили анализ во втором, а на третий ход она уже не помнит половину цифр. Ответ получается поверхностнее, чем если бы вы задали всё одним сообщением.
На моделях с большим контекстом – Qwen3 Max с его 128 000 токенов – декомпозиция работает. Но если ваш инструмент – Алиса в Яндекс Браузере или GigaChat в мобильном приложении, один хороший промпт лучше трёх простых вопросов.
Что реально работает
После трёх мифов – три техники, подтверждённые данными. Все решают одну и ту же проблему: YandexGPT хорошо *пишет*, но неглубоко *думает*. Модель не ленится – ей просто не сказали, что именно нужно проанализировать.
Шаблон ответа – одна минута, 75% побед
Самая простая техника с лучшим соотношением усилия и результата. Вы добавляете к своему вопросу шаблон – какие секции должны быть в ответе.
Вот пример. Допустим, клиент написал жалобу – третий раз за месяц заказ пришёл в повреждённой упаковке, угрожает уйти к конкурентам. Вместо «Как ответить клиенту и что делать?» вы пишете:
Клиент написал в поддержку:
«Третий раз за месяц заказ приходит с повреждённой упаковкой. Прошлые два раза обещали разобраться, но ничего не изменилось. Если повторится – уйду к конкурентам». Клиент с нами 2 года, средний чек 12 000 руб./мес.
Ответь строго по формату:
- Краткий вывод (2–3 предложения)
- Ответ клиенту (готовый текст письма)
- Внутренние действия – что проверить, кого подключить, дедлайны
- Варианты компенсации с суммами
- Ограничения и оговорки
- Как предотвратить повторение
Ключевая секция – «Ограничения и оговорки». Без неё YandexGPT уверенно предложит план, не предупредив, что ей неизвестны детали логистики или условия договора. С ней – начинает помечать, где не уверена. Модель знает, что не знает. Но только если вы просите об этом явно.
XML-теги – десять минут, 85% побед
Когда данных много – цифры квартала, метрики команды, условия договора – свободный текст промпта превращается в кашу. XML-теги создают однозначные границы секций, которые модель разбирает точнее, чем сплошной текст.
Формат выглядит сложно – но собирается за десять минут, и его можно переиспользовать. Поменяйте содержимое `<data>` и `<task>`, оставьте структуру – и у вас готовый промпт для следующего квартала.
Исследования подтверждают: гибридные структуры дают непропорционально большой прирост именно на менее сильных моделях. GPT-5.4 справится и без тегов. YandexGPT – нет.
Самокритика – бонусный приём
Попросите модель перечитать собственный ответ. Этот промпт отправляется вторым сообщением – после того, как модель уже ответила:
Перечитай свой ответ. Найди 3 слабых места: где ты была неконкретна, где могли быть ошибки, что упустила. Затем дай улучшенную версию.
Академические работы показывают, что малые модели не способны к полноценной самокритике – они не находят собственные ошибки, а «самоподтверждают» ответ. На YandexGPT мы увидели другое. Модель действительно не ловит фактические ошибки. Но ловит пропуски: «не упомянула сроки», «не привела альтернативы», «не указала ограничения». Это не глубокая рефлексия – модель просто сверяет ответ с представлением о полноте. И этого достаточно.
Приём работает слабее, чем шаблон – нужен дополнительный запрос, а эффект скромнее. Но если ответ уже получен и вы хотите его улучшить без переписывания промпта с нуля – это рабочий вариант.
Одна проблема – три ответа
Чтобы разница была не абстрактной – вот как выглядит один и тот же вопрос при трёх подходах. Задача: выручка интернет-магазина упала на 18% при росте трафика на 12%.
Наивный промпт – «Выручка упала на 18%, трафик вырос на 12%. Что делать?»
YandexGPT выдаёт три абзаца общих рекомендаций: «оптимизируйте конверсию», «пересмотрите ассортимент», «усильте маркетинг». Ни одна цифра из вопроса не используется в ответе. Нет оговорок о том, что данных недостаточно для выводов.
Шаблон ответа – тот же вопрос с дополнительными данными (средний чек, возвраты, NPS) и форматом ответа.
Модель связывает рост трафика с падением среднего чека – «реклама привлекает нецелевую аудиторию». Упоминает рост возвратов как отдельную проблему. Даёт конкретные действия с дедлайнами. Добавляет секцию «чего мы не знаем».
XML-шаблон – те же данные в структурированных тегах с явными ограничениями.
Модель выделяет три корневые причины, каждую привязывает к конкретной цифре. Замечает, что 40% заказов через новый склад при росте возвратов с 4% до 11% – вероятная связь. Предлагает проверить долю возвратов по складам. Формулирует план в виде таблицы. Явно перечисляет, каких данных не хватает для надёжных выводов.
Разница между первым и третьим ответом – не в качестве русского языка. YandexGPT и без тегов пишет грамотно. Разница в глубине анализа: модель перешла от «посоветовать что-нибудь общее» к «найти связи в данных и признать, где данных не хватает».
Почему это важно именно сейчас
В марте 2026 года Минцифры опубликовало законопроект о «доверенных моделях» ИИ. Если его примут – вступление в силу планируется с сентября 2027 – госструктуры и критическая инфраструктура смогут использовать только модели из реестра. ChatGPT, Claude и Gemini могут быть ограничены. На устройства планируется обязательная предустановка российских нейросетей.
Проблема в том, что российские модели отстают. В нашем исследовании GigaChat набрал 3,3 из 5, GPT-5.4 – 4,8. Разрыв – 30%.
Промптинг этот разрыв полностью не закрывает. XML-шаблон поднимает YandexGPT, но не до уровня GPT-5.4 с наивным промптом. Однако он превращает модель из «советчика общих фраз» в «аналитика, который работает с вашими данными». Для большинства ежедневных задач менеджера – подготовить записку, разобрать жалобу, спланировать разговор – этого достаточно.
Все три работающих техники решают одну задачу: они объясняют модели, чего от неё хотят. Не «напиши лучше» – а «вот структура, вот данные, вот что именно проверить». Получается, проблема была не в модели – а в том, как мы формулировали вопрос?
Что забрать с собой
Три вещи, которые можно применить прямо сейчас.
Первое: структура важнее тона. КАПС, агрессия, «пожалуйста» и «спасибо» – всё это не влияет на качество ответа. Влияет другое: какие секции вы хотите видеть в ответе, какие данные предоставляете и какие ограничения задаёте.
Второе: добавьте в шаблон секцию «Ограничения и оговорки». Одна строка – и модель перестаёт уверенно врать. Начинает отмечать, где данных не хватает, где выводы предварительные, что нужно проверить.
Третье: один структурированный промпт лучше трёх простых вопросов. На моделях с маленьким контекстом (YandexGPT, GigaChat) декомпозиция работает против вас. Соберите всё в один запрос – данные, задачу, формат, ограничения.
Эта статья дала шаблоны под несколько конкретных задач. Но задач у менеджера – десятки: план проекта, сложное письмо, конфликт в команде, проверка договора. Каждая требует другой структуры промпта. Копировать шаблон для каждого случая не получится – нужно понимать, как промпт устроен и какой элемент за что отвечает. Именно это разбирается в открытом модуле курса – девять задач менеджера, каждая со своей структурой. Бесплатно.