ChatGPT — это просто очень умный Т9. Объясняю на пальцах, как он вас обманывает (и как этим пользоваться)

Привет, VC! Иван Алмазов на связи. ChatGPT — это величайшая иллюзия нашего времени. Мы общаемся с ним и нам кажется, что на том конце — почти разумное существо. Мы начинаем ему доверять, влюбляться в его ответы, а некоторые даже видят в нем признаки сознания.

Хватит вестись на эту магию. Я хочу сорвать с этой технологии покров таинственности и показать, что на самом деле под капотом. Это не разум. Это статистическая модель. Очень сложный, но все же автоподбор текста, как Т9 в вашем телефоне. Когда вы поймете, как работает этот фокус, вы перестанете ждать от него чудес и начнете использовать его как безжалостно эффективный инструмент.

ChatGPT — это просто очень умный Т9. Объясняю на пальцах, как он вас обманывает (и как этим пользоваться)

Трюк №1: Как работает «мозг» ChatGPT

Забудьте слова «думает», «понимает», «анализирует». ChatGPT оперирует одним-единственным принципом: предсказание следующего слова (токена).

  1. Берется весь оцифрованный интернет: книги, статьи, форумы, код.
  2. Этот текст превращается в гигантский массив чисел.
  3. Модель ищет в этом массиве миллиарды статистических закономерностей.
  4. На основе этих закономерностей она учится для любой последовательности слов предсказывать наиболее вероятное продолжение.

Простая аналогия: Если вы видите фразу «Мама мыла...», ваш мозг, обученный на тысячах детских стишков, с вероятностью 99% предскажет слово «раму». ChatGPT делает то же самое, но с триллионами параметров и на всем тексте человечества. Он не знает, что такое мама и что такое рама. Он просто знает, что эти слова статистически часто идут вместе.

Трюк №2: Контекстное окно — единственная «память» модели

У ChatGPT нет долгосрочной памяти. Его единственная память — это контекстное окно. Это как оперативная память у компьютера.

  • Что это такое: Максимальный объем текста (в токенах), который модель может удерживать в голове ОДНОВРЕМЕННО.
  • Как это работает: Когда вы ведете диалог, модель каждый раз перечитывает ВСЮ историю вашей переписки (которая помещается в это окно), чтобы сгенерировать следующий ответ.
  • Почему он «забывает»: Как только ваш диалог становится слишком длинным и превышает лимит окна, самые старые сообщения просто «выпадают» из его памяти. Он их больше не видит и, соответственно, забывает.

Размеры окон у разных моделей:

  • GPT-3.5: ~3 000 слов (небольшая статья).
  • GPT-4o: ~96 000 слов (целый роман).
  • GPT-4.1: ~750 000 слов (весь «Властелин колец»).

Вывод: Длинный чат на разные темы — зло. Модель начинает путаться и терять контекст. Хотите точности — начинайте новый чат для новой задачи.

Трюк №3: Почему он так плох в русском (и в математике)

1. Проблема русского языка:Русский язык для нейросети — это ад.

  • Свободный порядок слов: «Машина ехала быстро», «Быстро ехала машина», «Ехала машина быстро» — для нас смысл один, а для модели это три разные последовательности токенов, что сбивает ее с толку.
  • Падежи и окончания: «Кот», «кота», «коту», «котом» — для нас это одно слово, а для модели — четыре разных паттерна, которые нужно выучить. В английском это просто cat.

Из-за этого на русский текст тратится больше токенов, а качество ответов падает. Модель просто видела меньше стабильных закономерностей на русском, чем на английском.

2. Проблема с математикой:ChatGPT не умеет считать. Он угадывает ответ.Число «12345» для него — это не число, а токены «123» и «45». Он видит не 2 + 2, а последовательность токенов и предсказывает, что после нее чаще всего идет токен 4.

  • Простые примеры (2+2=4) он решает, потому что миллион раз видел эту закономерность в обучающих данных.
  • Сложные примеры (847293 × 652847) он проваливает, потому что такой комбинации в данных не было, и он начинает галлюцинировать.

Лайфхак: Современные модели умеют вызывать внешний инструмент — калькулятор (пишут и запускают код на Python). Если вы видите, что ChatGPT запустил код, ответу можно доверять. Если нет — перепроверяйте на калькуляторе.

Как заставить этот «Т9» работать на вас: 5 практических приемов

Понимая, как работает модель, мы можем ею управлять. Вот 5 техник, которые я использую постоянно.

  1. Проблема: Ответы слишком общие.Решение: Дайте ему фреймворк. Не «придумай маркетинговую идею», а «придумай идею по фреймворку PAS (Problem-Agitate-Solution)». Модель получит четкую структуру и перестанет лить воду.
  2. Проблема: Нужно проанализировать большой документ.Решение: Дайте ему практическую задачу. Не «проанализируй отчет», а «на основе этого отчета составь презентацию для инвестора из 10 слайдов». Конкретная цель заставляет его работать с информацией, а не просто пересказывать ее.
  3. Проблема: Идеи слишком банальные.Решение: Введите градацию. «Мне нужны идеи 3-го уровня. Уровень 1 — это холодная рассылка (банально). Уровень 2 — вебинар (очевидно). Дай мне 5 идей уровня 3». Вы задаете планку, и модель пытается до нее допрыгнуть.
  4. Проблема: Ответы слишком прямолинейные.Решение: Заставьте его думать сценариями. «Проанализируй мой стартап и опиши три сценария: оптимистичный, пессимистичный и реалистичный». Это заставляет его рассматривать проблему с разных сторон.
  5. Проблема: Идея есть, но не хватает масштаба.Решение: Попросите его расширить идею. «Моя идея — AI-ассистент для поиска книг. Придумай 10 способов, как ее можно монетизировать или адаптировать под разные рынки».

P.S. Это лишь краткий курс по механике работы LLM. Вся мощь этих моделей раскрывается через сотни подобных практических приемов и глубокое понимание их логики.

В моем Telegram-канале Кнопка* я оставил полную версию этого гайда. Это не просто статья, а красивый и большой гайдбук на 75+ страниц, где есть все: от основ до конкретных юзкейсов для разных профессий.

Подписывайтесь и жмите на «Кнопку*», чтобы забрать гайд и получать другие полезные материалы:

Начать дискуссию