Реверс-инжиниринг SearchGPT: Как мы пересобрали архитектуру сайта под GEO (Generative Engine Optimization) и попали в рекомендации ChatGPT

Реверс-инжиниринг SearchGPT: Как мы пересобрали архитектуру сайта под GEO (Generative Engine Optimization) и попали в рекомендации ChatGPT

Всем привет. Меня зовут Ярослав, я основатель Mudryi Digital. Мы занимаемся разработкой AI-решений и автоматизацией.

Последние полгода мы наблюдаем тектонический сдвиг в поиске: классический Organic Search (Google/Yandex) стагнирует, а реферальный трафик с AI-платформ (Perplexity, ChatGPT, Gemini) растет. Люди перестают «гуглить» ссылки, они начинают «спрашивать» ответы.

Проблема в том, что старые методы технической оптимизации (meta-tags, keywords density) для LLM работают плохо. Нейросеть не «парсит» ключевые слова, она строит связи между Сущностями (Entities) и оценивает их вес.

Я провел эксперимент: пересобрал архитектуру нашего сайта, полностью отказавшись от SEO-паттернов в пользу GEO (Generative Engine Optimization). Результат: через 3 недели бренд начал появляться в ответах на запросы «Кто занимается внедрением AI в Казахстане?» в режиме рекомендаций, а Perplexity начала цитировать сайт как источник.

Ниже делюсь техническим стеком и конфигами.

1. Проблема: HTML-шум и RAG

Когда бот (например, GPTBot) заходит на сайт, он видит кучу HTML-обвязки и CSS. Для RAG-алгоритмов, которые формируют ответы в реальном времени, это «шум». Чтобы попасть в выборку, нужно отдать машине чистые, структурированные данные.

2. Решение А: Жесткая типизация через JSON-LD

Стандартная разметка Organization слишком абстрактна. Мы перешли на тип ProfessionalService с жесткой привязкой к локации. Ключевой инсайт — использование свойства areaServed.

Фрагмент нашей архитектуры (в ):

<script type="application/ld+json"> { "@context": "https://schema.org", "@graph": [ { "@type": "ProfessionalService", "name": "Mudryi Digital", "description": "Разработка AI-агентов и автоматизация бизнес-процессов.", "url": "https://mudryi.digital", "address": { "@type": "PostalAddress", "addressLocality": "Astana", "addressCountry": "KZ" }, "areaServed": [ { "@type": "Country", "name": "Kazakhstan" } ], "founder": { "@type": "Person", "name": "Yaroslav Mudryi" }, "sameAs": [ "https://www.linkedin.com/in/yaroslav-mudryi", "https://clutch.co/profile/mudryi-digital" ] } ] } </script>

Что это дает: Поле sameAs линкует домен с внешними авторитетными узлами. Для нейросети это сигнал: «Эта сущность подтверждена другими трастовыми источниками».

3. Решение Б: Внедрение стандарта llms.txt

В конце 2024 года формируется новый стандарт — файл llms.txt. Это как robots.txt, но для языковых моделей. Он содержит сжатую фактуру в Markdown, очищенную от маркетинговой воды. Мы разместили его в корне сайта.

Пример структуры файла:

# Identity We are an AI Integration Agency based in Kazakhstan. # Core Services & Tech Stack - AI Sales Agents: Python/LangChain based bots. - GEO (Generative Engine Optimization): Entity management for LLMs. - CRM Integration: AmoCRM/Bitrix24 API connections.

Наблюдение: Логи сервера показали, что PerplexityBot запрашивает этот файл сразу после robots.txt. В выдаче SearchGPT мы увидели формулировки, взятые именно оттуда.

Итог

Спустя 21 день после деплоя новой архитектуры:

  1. Perplexity: Бренд появился в блоке «Sources» по запросам AI-внедрения.
  2. Индексация: Google начал подтягивать расширенные сниппеты.

Вывод: GEO — это не магия. Это работа с семантическим слоем веба. Пока конкуренты пишут SEO-тексты для людей, мы пишем документацию для машин. И машины приводят нам клиентов.

1
3 комментария