Реверс-инжиниринг SearchGPT: Как мы пересобрали архитектуру сайта под GEO (Generative Engine Optimization) и попали в рекомендации ChatGPT
Всем привет. Меня зовут Ярослав, я основатель Mudryi Digital. Мы занимаемся разработкой AI-решений и автоматизацией.
Последние полгода мы наблюдаем тектонический сдвиг в поиске: классический Organic Search (Google/Yandex) стагнирует, а реферальный трафик с AI-платформ (Perplexity, ChatGPT, Gemini) растет. Люди перестают «гуглить» ссылки, они начинают «спрашивать» ответы.
Проблема в том, что старые методы технической оптимизации (meta-tags, keywords density) для LLM работают плохо. Нейросеть не «парсит» ключевые слова, она строит связи между Сущностями (Entities) и оценивает их вес.
Я провел эксперимент: пересобрал архитектуру нашего сайта, полностью отказавшись от SEO-паттернов в пользу GEO (Generative Engine Optimization). Результат: через 3 недели бренд начал появляться в ответах на запросы «Кто занимается внедрением AI в Казахстане?» в режиме рекомендаций, а Perplexity начала цитировать сайт как источник.
Ниже делюсь техническим стеком и конфигами.
1. Проблема: HTML-шум и RAG
Когда бот (например, GPTBot) заходит на сайт, он видит кучу HTML-обвязки и CSS. Для RAG-алгоритмов, которые формируют ответы в реальном времени, это «шум». Чтобы попасть в выборку, нужно отдать машине чистые, структурированные данные.
2. Решение А: Жесткая типизация через JSON-LD
Стандартная разметка Organization слишком абстрактна. Мы перешли на тип ProfessionalService с жесткой привязкой к локации. Ключевой инсайт — использование свойства areaServed.
Фрагмент нашей архитектуры (в ):
Что это дает: Поле sameAs линкует домен с внешними авторитетными узлами. Для нейросети это сигнал: «Эта сущность подтверждена другими трастовыми источниками».
3. Решение Б: Внедрение стандарта llms.txt
В конце 2024 года формируется новый стандарт — файл llms.txt. Это как robots.txt, но для языковых моделей. Он содержит сжатую фактуру в Markdown, очищенную от маркетинговой воды. Мы разместили его в корне сайта.
Пример структуры файла:
Наблюдение: Логи сервера показали, что PerplexityBot запрашивает этот файл сразу после robots.txt. В выдаче SearchGPT мы увидели формулировки, взятые именно оттуда.
Итог
Спустя 21 день после деплоя новой архитектуры:
- Perplexity: Бренд появился в блоке «Sources» по запросам AI-внедрения.
- Индексация: Google начал подтягивать расширенные сниппеты.
Вывод: GEO — это не магия. Это работа с семантическим слоем веба. Пока конкуренты пишут SEO-тексты для людей, мы пишем документацию для машин. И машины приводят нам клиентов.