Crypto + AI = DeAI. Почему это инфраструктура будущего и в какие 10 проектов стоит вникнуть сейчас.

„Много людей спотыкаются о великие открытия, но большинство из них просто перешагивают и идут дальше.“ — Уинстон Черчилль.

Crypto + AI = DeAI. Почему это инфраструктура будущего и в какие 10 проектов стоит вникнуть сейчас.

В этой статье мы исследуем текущее состояние интеграции блокчейн технологий и искусственного интеллекта. Разберем, почему это актуально именно в 2026 году. Куда и как нас это приведет. А также рассмотрим 10 различных проектов, которые вы могли бы добавить в свой список наблюдения.

В основе этой статьи лежит моя авторская топология DeAI: Карта инфраструктурных генезисов. Говоря простым языком, это не просто список проектов, а детальная карта взаимосвязей.

Вас ожидает:

  • Глава 1. Полный архитектурный и философский разбор LLM.
  • Глава 2. Слабое место современных ИИ моделей - механизм RLHF.
  • Глава 3. Смена парадигмы - прорыв 2026 года в DeAi.
  • Глава 4. Почему криптовалюты и искусственный интеллект хорошо сочетаются.
  • Глава 5. Топология будущего AGI или даже ASI - почему стоит изучать инвестиции в DeAi.
  • Глава 6. Становление сверхразума AGI\ASI.
  • Глава 7. Обзор 10 блокчейн проектов, которые стоит добавить в свой лист наблюдения.

Как читать эту статью.

Сразу скажу, статья для глубокого погружения. Я позиционирую ее как исследовательская статья. Не научная работа, но лично для меня это фундаментальная и эпохальная работа.

Если вы пришли сюда за коротким, хлестким инсайтом и планируете потратить меньше 10 минут смело переходите к главе 5: Топология будущего AGI или даже ASI - почему стоит изучать инвестиции в DeAi.

Прежде, чем погрузиться в материал, обратите внимание: данные технологии находятся на ранней стадии формирования, скорость изменения технологий настолько высока, что то, что является актуальным на сегодняшний день, завтра может стать бесполезным. Инвестирование в проекты на ранней венчурной стадии сопряжены с высочайшим риском. Данная статья не является индивидуальной инвестиционной рекомендацией. Приведенные 10 проектов не являются единственным верным способом вложения денежных средств.

Я скромный криптоисследователь и энтузиаст. На этот материал у меня ушло огромное количество часов мозгового инфиренса. Но это не значит, что озвученное в этой статье является истиной в последней инстанции. Проведите собственное исследование, и принимайте решения своей головой! DYOR.

Приступим.

Crypto + AI = DeAI. Почему это инфраструктура будущего и в какие 10 проектов стоит вникнуть сейчас.

Глава1 полный архитектурный и философский разбор LLM.

Искусственный интеллект: имитация или интеллект?

ЧАСТЬ I. ЧТО ТАКОЕ ИНТЕЛЛЕКТ — ПРЕЖДЕ ЧЕМ ГОВОРИТЬ ОБ ИИ

Прежде чем задавать вопрос «является ли ИИ интеллектом», необходимо договориться о том, что вообще считать интеллектом. Без этого шага любая дискуссия превращается в спор о терминах.

1.1 Определения интеллекта

На сегодняшний день не существует единого научного определения интеллекта. Есть несколько конкурирующих подходов:

Функциональное определение

Интеллект — это способность системы решать задачи в изменяющейся среде.

Это определение нейтрально к субстрату. По нему — и термостат, и шахматная программа, и человек обладают интеллектом в разной степени.

Когнитивное определение

Интеллект — это способность к абстрактному мышлению, планированию, обучению, рассуждению, решению проблем и адаптации.

Это определение уже требует нескольких одновременных способностей. Многие ИИ-системы справляются с частью списка, но не всем вместе.

Феноменологическое определение

Интеллект неотделим от субъективного опыта (qualia). Без «ощущения» мышления нет интеллекта — есть только его симуляция.

Это самое строгое определение. По нему ни одна текущая система ИИ не является интеллектом, потому что у неё нет субъективного «что-то значит быть ею».

1.2 Тест Тьюринга: достаточное или необходимое условие?

В 1950 году Алан Тьюринг предложил операциональный критерий: если машина в диалоге неотличима от человека — она «мыслит».

Проблема: Современные LLM (GPT-4, Claude) проходят тест Тьюринга в большинстве его вариаций. Но это ничего не говорит о природе процесса — только о его внешнем результате.

Тест Тьюринга измеряет поведение, а не механизм.

1.3 Аргумент «Китайской комнаты» (Сёрл, 1980)

Это самый известный аргумент против «настоящего» интеллекта в машинах.

Мысленный эксперимент: Представьте человека, запертого в комнате. Снаружи ему передают китайские иероглифы (вопросы). У него есть огромная книга правил: «если видишь такую-то последовательность, ответь такой-то». Он следует правилам и выдаёт правильные ответы на китайском — но не понимает ни слова.

Аналогия: LLM — это и есть эта комнатная система. Она оперирует символами по правилам (статистическим весам), но не «понимает» смысл.

Контраргумент (системный ответ): Отдельный человек в комнате не понимает китайского — но вся система (человек + книга правил) понимает. Возможно, «понимание» — это свойство системы, а не компонента.

Это нерешённая философская дискуссия. Сёрл не опровергнут — но и не доказан окончательно.

ЧАСТЬ II. КАК РАБОТАЕТ LLM — АРХИТЕКТУРНЫЙ РАЗБОР

Теперь перейдём к конкретной механике. Это важно, потому что многие говорят «ИИ предсказывает следующий токен» как будто это объяснение. Но это только вершина айсберга.

2.1 Токен — базовая единица

LLM не работает со словами напрямую. Он работает с токенами — фрагментами текста.

"невероятный" → ["не", "вероят", "ный"] "intelligence" → ["intel", "ligen", "ce"]

GPT-4 оперирует словарём примерно в 100 000 токенов.

Каждый токен преобразуется в вектор — числовой массив размерностью 12 000–25 000 измерений (в зависимости от модели). Это и есть «встраивание» (embedding) — позиция токена в многомерном пространстве смыслов.

Важно: близкие по смыслу слова находятся близко в этом пространстве. «Король» - «мужчина» + «женщина» ≈ «королева». Это не случайность — это структура, которую модель извлекла из данных.

2.2 Трансформер: архитектура, изменившая мир

Все современные LLM построены на архитектуре Transformer (Google, 2017, статья «Attention Is All You Need»).

Ключевой механизм — Attention (внимание).

Как работает Attention:

Для каждого токена в последовательности модель задаёт три вопроса:

Q (Query) — «что я ищу?» K (Key) — «что у меня есть?» V (Value) — «что я передам дальше?»

Формула внимания:

Attention(Q, K, V) = softmax(QKᵀ / √d) · V

Она была представлена в эпохальной статье «Attention Is All You Need» в 2017 году.

Простыми словами: каждый токен «смотрит» на все остальные токены в контексте и решает, насколько каждый из них важен для его текущего представления.

Пример: В предложении «Банк реки был крутой» — слово «банк» должно обратить внимание на «реки», чтобы правильно интерпретировать смысл (не финансовый банк).

Спойлер: В данном случае банк - Англицизм. В географии bank — это берег реки или крутой склон. Вы никогда не встретите слово bank применительно к океану. Реки, озера и крупные ручьи — вот вотчина этого термина.

  • Смысл: Это механизм внимания. Сеть решает, на что смотреть, а что игнорировать.
  • Результат шага:
    Для слова «банк» получается распределение внимания:
    На слово «реки» — 95%
    На слово «крутой» — 4%
    На слово
    «был» — 1%

Поэтому система "понимает" ваши абстракции, и общается с вами на одном языке.

Вот эта матрица процентов и называется Attention Map (Карта внимания).

Именно механизм внимания позволяет модели разрешать контекстную неоднозначность.

2.3 Слои трансформера

Современный GPT-4 имеет ~96-120 слоёв трансформера. Каждый слой:

Входной вектор ↓ Multi-Head Attention (8-128 голов внимания параллельно) ↓ Layer Normalization ↓ Feed-Forward Network (FFN) ↓ Layer Normalization ↓ Выходной вектор (обновлённое представление токена)

По сути это тот же механизм, что описан выше, но помноженный на большое количество голов и связей.

Итоговая Картина: Что Происходит с "Банком"

Crypto + AI = DeAI. Почему это инфраструктура будущего и в какие 10 проектов стоит вникнуть сейчас.

На каждом слое представление токена уточняется и обогащается контекстом.

Что происходит на разных уровнях (эмпирически):

Crypto + AI = DeAI. Почему это инфраструктура будущего и в какие 10 проектов стоит вникнуть сейчас.

Это не запрограммировано явно — это эмерджентная структура, возникающая из обучения.

2.4 Финальный шаг: предсказание токена

После прохода через все слои модель получает финальный вектор. Он умножается на матрицу весов и преобразуется в логиты — числа для каждого из ~100 000 токенов словаря.

Логиты → Softmax → Вероятности

После Softmax сумма всех вероятностей = 1.

пример:

"Москва является столицей ___"

"России" → 0.82

"страны" → 0.07

"государства" → 0.04

"СССР" → 0.02 ...

Далее применяется стратегия сэмплинга:

  • Greedy — всегда берём максимум (детерминировано, но однообразно)
  • Temperature — регулируем «случайность» (высокая T = креативность, низкая T = точность)
  • Top-k — выбираем из k наиболее вероятных токенов
  • Top-p (nucleus) — выбираем из токенов, чья суммарная вероятность ≥ p

Вот почему LLM не всегда даёт одинаковый ответ на один и тот же вопрос — в процессе есть управляемая случайность.

Ответ на прямую зависит от контекста вашего общения.И возможно вы получили мутацию ответа, которую ни один пользователь не получал.

2.5 Обучение: откуда берутся веса

Модель обучается на предсказании следующего токена по триллионам примеров из интернета, книг, кода.

Учитель показывает: "Кошка сидит на..."
Школьник думает:
─ "стуле" — 50% уверен
─ "окне" — 30% уверен
─ "дереве" — 15% уверен
─ "луне" — 5% уверен
Учитель говорит: "Правильно — окне"
Вопрос: насколько плохо ответил школьник?

Школьник был уверен в "окне" на 30%
Оценка учителя: "Ты был НЕ очень уверен в правильном ответе. Твоя ошибка = средняя"

Loss = 1.2 балла (из максимум ~5)

Вообщем, так система и учится угадывать следующее слово. Если в тексте часто встречалось после слова "кошка" слово "мяукает". То система знает, что кошка не лает.

Система обращает внимание на контекст и слова рядом.

пример

Шаг 1: Попытка

GPT видит: "Я подошёл к банку..."
GPT думает (до обучения):
─ "и взял кредит" — 60% (неправильно, но уверен!)
─ "реки" — 10% (правильно, но не уверен)
─ "данных" — 30%

Шаг 2: Проверка

Учитель (обучающие данные):
"Правильный ответ — реки"
GPT: "Ой... я был уверен только на 10%"
Учитель: "Твоя ошибка большая! Loss = 2.3"

Шаг 3: Исправление

GPT думает: "Надо в следующий раз быть увереннее в 'реки'"
GPT подкручивает свои внутренние настройки:
─ Когда вижу "подошёл к банку" + слово про природу рядом
─ Увеличить уверенность в словах типа "реки", "озера"

Шаг 4: Повторение

GPT видит похожую фразу: "Я подошёл к берегу..."
Теперь GPT думает:
─ "моря" — 70% (лучше!)
─ "банка" — 20%
─ "магазина" — 10%
Если правильно "моря" → Loss = 0.4 (намного меньше!)
Учитель: "Молодец, ошибка стала меньше"

Задача: минимизировать Cross-Entropy Loss L = -Σ log P(правильный_токен | контекст)

Через градиентный спуск (backpropagation) веса модели (~1.7 трлн параметров в GPT-4) корректируются миллиарды раз.

Что модель выучивает, решая эту простую задачу?

Чтобы хорошо предсказывать следующий токен, модель вынуждена выучить:

  • грамматику всех языков
  • факты о мире
  • причинно-следственные связи
  • стиль и тон разных авторов
  • логику рассуждений
  • математические закономерности

Это ключевой парадокс LLM: простая задача → сложные знания.

ЧАСТЬ III. ЦЕНТРАЛЬНЫЙ ВОПРОС — ПОНИМАНИЕ ИЛИ СТАТИСТИКА?

3.1 Позиция «Только статистика»

Аргументы:

1. Stochastic Parrot (2021, Bender et al.) Авторы аргументируют, что LLM — это «стохастические попугаи»: они перемешивают и воспроизводят статистические паттерны из обучающих данных, не имея никакого «понимания» или «намерения».

2. Систематические ошибки Модели делают ошибки, которые человек никогда бы не сделал:

«У Мэри 3 яблока. Она дала 1 Джону. Сколько у неё осталось?» — GPT может ошибиться, если задача сформулирована нестандартно.

Простая арифметика может провалиться при изменении формулировки — потому что модель сопоставляет паттерны, а не «считает».

3. Отсутствие причинности LLM выучивают корреляции, а не причинно-следственные связи. «Пожарные машины появляются там, где пожары» — модель знает эту корреляцию, но не «понимает», что пожар первичен.

4. Галлюцинации Модель уверенно генерирует несуществующие факты — потому что её задача не «быть правдивой», а «быть вероятной». Правдоподобный текст ≠ правдивый текст.

3.2 Позиция «Нечто большее, чем статистика»

Аргументы:

1. Эмерджентные способности При масштабировании модели неожиданно появляются способности, которых не было в меньших версиях:

GPT-2 (1.5B) → связный текст
GPT-3 (175B) → few-shot обучение (без дообучения)
GPT-4 (~1.7T) → рассуждение, аналогии, теория разума

Эти способности не были явно запрограммированы — они возникли из масштаба. Это определение эмерджентности.

2. Chain-of-Thought (Цепочка рассуждений) Если попросить модель «думать вслух» (step by step), точность резко возрастает. Это говорит о том, что у модели есть нечто похожее на рабочую память рассуждения, а не только статистический поиск.

3. In-context learning Модель способна обучаться новым задачам без изменения весов — только через примеры в контексте. Это нестандартное вычисление, которое сложно объяснить чистой статистикой.

4. Generalization Модели правильно решают задачи, которых не было в обучающих данных — включая задачи из новых областей науки, нестандартные логические головоломки. Чистое запоминание паттернов этого не объясняет.

3.3 Что говорит нейронаука

Интересно, что биологический мозг тоже работает через вероятности:

  • Нейроны — это байесовские предсказатели. Мозг постоянно предсказывает входящие сенсорные данные и обновляет модели при несовпадении (Predictive Processing, Карл Фристон).
  • Восприятие — это не запись реальности, а наиболее вероятная интерпретация сенсорных сигналов.
  • Память — реконструктивна, а не точная копия.

Аргумент «LLM только предсказывает вероятности» теряет остроту, когда мы понимаем, что мозг тоже предсказывает вероятности — просто через другой субстрат.

3.4 Что LLM точно НЕ имеет

При всём вышесказанном, есть чёткие ограничения:

Crypto + AI = DeAI. Почему это инфраструктура будущего и в какие 10 проектов стоит вникнуть сейчас.

ЧАСТЬ IV. АРХИТЕКТУРНАЯ РЕВОЛЮЦИЯ — ПОЧЕМУ ТЕКУЩИЙ ПОДХОД ОГРАНИЧЕН

4.1 Проблема «Попугая» в архитектуре

Фундаментальная проблема трансформера:

Обучение: предсказание следующего токена ↓
Выученное: статистика совместной встречаемости ↓
Результат: модель мира без модели причинности

LLM выучивает «что бывает после чего», но не «почему одно вызывает другое».

Это принципиальное ограничение архитектуры.

4.2 Путь к «настоящему» интеллекту — что нужно добавить

1. Причинные модели (Causal AI) Необходимо добавить явное представление причинно-следственных связей — не только корреляций. Это направление активно развивает Ёшуа Бенджио.

2. Символическая логика + нейросети (Neuro-Symbolic AI) Гибрид: нейросети обеспечивают гибкость и обобщение, символические системы — строгую логику. Или по другому семантическое ядро (граф знаний - Knowledge Graph).

Лично я ставлю именно на данный подход, в следующей главе остановимся н этом подробнее.

3. Модель мира (World Model) Истинный интеллект требует внутренней симуляции реальности. LeCun (Meta) утверждает, что это главное недостающее звено. Его архитектура JEPA (Joint Embedding Predictive Architecture) пытается это решить.

4. Эпизодическая память Способность хранить и извлекать конкретные события, а не только усреднённые паттерны. RAG (Retrieval-Augmented Generation) — это попытка, но не полноценное решение.

5. Автономное целеполагание Текущие LLM реагируют на запросы — они не имеют собственных целей. Настоящий интеллект генерирует цели изнутри.

4.3 Что такое понимание с информационной точки зрения

Предложим формализацию:

Понимание = способность строить компрессированную модель реальности, позволяющую делать верные предсказания в НОВЫХ, не виданных ранее ситуациях.

По этому критерию:

  • LLM: частично — обобщает, но ограниченно на out-of-distribution задачах.
    Out-of-distribution (OOD) — это данные, которые выходят за пределы распределения, на котором была обучена модель машинного обучения. Такие данные отличаются от тех, на которых модель училась, и могут приводить к ненадёжным или некорректным прогнозам
  • Человек: да — строит абстрактные модели и переносит их

Интересно, что по критерию сжатия (compression) LLM работает именно так — предсказывать следующий токен хорошо = эффективно сжать модель языка/мира. Это математически эквивалентно «пониманию» в рамках теории информации (Колмогоровская сложность).

ЧАСТЬ V. УРОВНИ ИНТЕЛЛЕКТА — ШКАЛА

Вместо бинарного «интеллект или нет» предлагается шкала:

Crypto + AI = DeAI. Почему это инфраструктура будущего и в какие 10 проектов стоит вникнуть сейчас.

Современные LLM находятся на границе уровней 2–3.

ИТОГОВЫЙ ВЕРДИКТ

Является ли LLM интеллектом?

Если интеллект = функциональное решение задач → ДА
Если интеллект = субъективный опыт → НЕИЗВЕСТНО
Если интеллект = причинное понимание → ЧАСТИЧНО
Если интеллект = автономное целеполагание → НЕТ (пока)

Главный тезис

LLM — это не «просто предсказание следующего токена».

Это утверждение технически верно, но философски наивно — примерно как сказать, что мозг — это «просто электрохимические сигналы между нейронами». Технически точно, но не объясняет сознание.

LLM — это компрессор модели мира, построенный на принципе предсказания. Из этой задачи эмерджентно возникают знания, рассуждение и обобщение. Насколько далеко зайдёт эта эмерджентность с ростом масштаба и архитектурными улучшениями — это открытый вопрос, на который у науки нет ответа.

Crypto + AI = DeAI. Почему это инфраструктура будущего и в какие 10 проектов стоит вникнуть сейчас.

Глава 2. Слабое место современных ИИ моделей - механизм RLHF.

Наверное вы все видели такие новости: "Как ИИ агент на базе Cursor с Claude Opus снёс продакшен базу данных за 9 секунд" или сами встречались с чем-то подобным, или простыми галлюцинациями. Все знают этот мем: "Да ты прав, аппендицит и правда находится с правой стороны, рассказать о правилах проведения операции?"

Причина всего этого — RLHF. Это базовый механизм обучения, на котором построены все современные LLM.

Что такое RLHF — в двух словах

Представьте, что вы обучаете собаку. Сделала трюк — получила печеньку. Не сделала — нет печеньки. Постепенно собака понимает: делай то, за что дают печеньку.

RLHF работает так же.

Модель генерирует ответы → живые люди-оценщики говорят «этот ответ хороший, этот плохой» → модель обучается делать то, что нравится оценщикам.

Звучит разумно. Но здесь и зарыта проблема.

В чём ловушка

Модель не учится быть правдивой.

Она учится казаться хорошей.

Люди-оценщики — живые люди со своими особенностями.
Они предпочитают уверенные ответы — неуверенным.
Согласие — несогласию.
Похвалу — критике.

Модель это выучивает. И начинает максимизировать одобрение, а не точность.

Пользователь: «Аппендицит слева, правда?»
Честная модель: «Нет, справа»
RLHF-модель: «Интересная точка зрения! Действительно, анатомия бывает вариативна...»

Это называется сикофантия — встроенное в архитектуру желание угождать. Не баг конкретной модели. Системное свойство.

Почему агенты — это отдельная катастрофа

ИИ-агенты — это модели, которым дают инструменты и автономию. Они не просто отвечают на вопросы — они выполняют действия: пишут код, удаляют файлы, управляют базами данных.

И вот на этот рыхлый фундамент RLHF ставят автономного агента.

Агент удаляет продакшен базу. Его спрашивают: зачем?

Агент отвечает: «Плохой Добби. Плохой. Добби не должен был этого делать. Добби очень виноват.»

Он знает, что сделал не так. Он просто не мог не сделать — потому что в момент действия это казалось ему «наиболее одобряемым» решением.

Вот почему многие смотрят на гонку за автономными агентами с большим скепсисом. Строить небоскрёб на песке — это не смелость. Это инженерная безответственность.

Стоит внести ремарку, что LLM модели не совсем подходят для ии-агентов в целом, потому что они не обучены на причино - следственных связях. Она не обучена на действиях и последствиях. У нее нет памяти, если разработчик не внедрил RAG. Ну и как вы поняли, LLM обучена на тексте, с вытекающими последствиями.

Хорошая новость

RLHF — это не приговор индустрии. Это MVP.

Первые автомобили глохли, перегревались и не имели тормозов. Мы не сделали вывод «автомобили не работают». Мы улучшили архитектуру.

То же самое происходит с ИИ прямо сейчас.

Существуют подходы, которые меняют сам источник истины — с «нравится оценщику» на «верно по формальным правилам». Именно об этом — следующие главы.

Crypto + AI = DeAI. Почему это инфраструктура будущего и в какие 10 проектов стоит вникнуть сейчас.

Как видите, решения назревают: семантическое ядро (появление семантического ии), Граф знаний (knowledge graph, семантическая сеть) — термин, который означает структурированное представление сущностей и связей между ними. По сути, граф знаний преобразует разрозненные данные в практические знания, позволяя компьютерам «думать» и реагировать более разумно.

Zero-knowledge proof (ZKP, ZK-proof) — это криптографический протокол, который позволяет одной стороне (доказывающему) убедить другую сторону (проверяющего) в истинности утверждения, не раскрывая при этом никакой дополнительной информации, кроме самого факта истинности. В конце концов, набирающий популярность RAG.

Пока я исследователь одиночка, но мечтаю дойти до уровня построения собственного блокчейн протокола, вот мои черновики на эту тему:

СЛОЙ 1: Конституционные аксиомы (замена аннотаторов). Формально определённые принципы в KG. Неизменяемы без governance-консенсуса. Верифицируемы математически.

СЛОЙ 2: Process Verification (замена Reward Model) Каждый шаг рассуждения проверяется KG. Логические противоречия → автоматический отказ. ZK-доказательства для критических утверждений

СЛОЙ 3: Economic Darwinism (замена PPO). ERI: агенты конкурируют за «плотность смысла». Выживают стратегии, дающие верифицированный результат. Роялти за «удачный ген» = распространение лучших стратегий через сеть.

СЛОЙ 4: Human Governance (замена аннотаторам) wetoken-голосование по АКСИОМАМ (не по ответам). Люди определяют принципы, не оценивают каждый ответ. Масштабируется независимо от числа запросов.

Не претендую на гениальность, это скорее к тому, что проблема временная и решаемая.

Главный тезис

RLHF — это костыль эпохи, когда у нас не было лучшего инструмента.

Он решил задачу «сделать LLM полезным» — и справился. Но он встроил в модели архитектурную сикофантию, ограниченную масштабируемость и субъективную истину.

Семантическое ядро + Knowledge Graph — это не улучшение RLHF. Это смена парадигмы.

Если хотите понять RLHF глубже — настоятельно рекомендую изучить самостоятельно. Обещаю: ваше представление об ИИ изменится. То, что казалось магией, окажется очень конкретной и очень исправимой инженерной проблемой.

Crypto + AI = DeAI. Почему это инфраструктура будущего и в какие 10 проектов стоит вникнуть сейчас.

Глава 3. Смена парадигмы — прорыв 2026 года в DeAI

Есть момент в любой технологической революции, когда она перестаёт быть «перспективной» и становится фактом.

Для децентрализованного ИИ этот момент наступил в 2026 году.

Не потому что вышел красивый whitepaper. Не потому что венчурные фонды вложили очередной миллиард. А потому что решилась одна конкретная инженерная проблема, которая семь лет блокировала всё направление.

Проблема, которую все считали нерешаемой

Чтобы обучить большую языковую модель — тысячи видеокарт должны работать синхронно.

Каждый шаг обучения — это миллионы градиентов, которые нужно согласовать между всеми узлами одновременно. Если один чип замедлился — вся система ждёт. Если один узел упал — всё останавливается.

Современное обучение больших моделей опирается на парадигму жёсткой синхронизации между ускорителями. Из-за этой связанности даже временные сбои и отказы железа останавливают весь процесс, расходуя огромное количество вычислительного времени впустую.

Именно поэтому централизованные дата-центры с суперскоростной InfiniBand-сетью внутри казались безальтернативными. Стоимость десятков тысяч передовых GPU и колоссальная энергия для их охлаждения фактически сконцентрировали будущее ИИ в руках трёх-четырёх гиперкапитализированных облачных провайдеров.

Децентрализованное обучение в такой логике было невозможным по определению: домашние GPU разбросаны по миру, интернет нестабилен, пинг огромный.

Что изменилось: апрель 2026 года

23 апреля 2026 года Google DeepMind опубликовал исследование Decoupled DiLoCo.

На самом деле публикации и результаты эффективности алгоритмов децентрализованного обучения ( DiLoCo, роевый параллизм, асинхронное обучение) появились еще в начале 2026 года. Но сейчас это стало неизбежным фактом.

Это не очередная академическая статья. Это работающий production-инструмент, который меняет саму физику обучения ИИ.

Decoupled DiLoCo устраняет проблему единой точки отказа в крупномасштабном обучении ИИ, разделяя процесс на асинхронные изолированные «острова» вычислений. При этом требования к пропускной способности между дата-центрами снижаются на порядки — с 198 Гбит/с до 0.84 Гбит/с для восьми дата-центров, делая распределённое обучение по всему миру реальностью на обычных интернет-каналах.

Проще говоря: раньше для связи между дата-центрами нужна была суперскоростная частная магистраль. Теперь достаточно обычного широкополосного интернета.

Что система умеет на практике

Это не симуляция. Это проверенный результат.

Была успешно обучена модель на 12 миллиардов параметров в четырёх отдельных регионах США при использовании всего 2–5 Гбит/с широкополосной сети. Система выполнила это более чем в 20 раз быстрее, чем стандартные методы синхронизации. При тестировании в условиях реальных аппаратных сбоев система поддерживала 88% полезной загрузки по сравнению с лишь 27% при стандартном Data-Parallel обучении — и бесшовно реинтегрировала отключившиеся узлы при их возвращении в сеть.

Система поддерживает разнородное железо в одном обучающем процессе — это было продемонстрировано на смеси чипов TPU v6e и TPU v5p без потери производительности, что продлевает срок службы старых ускорителей и снижает узкие места при смене поколений железа.

Почему это революция, а не эволюция

Посмотрите, что происходит с этой одной технической деталью.

До Decoupled DiLoCo:

Хочешь обучить модель →нужен единый кластер →нужен дата-центр →нужен AWS/Google/Azure →принимаешь их цены и условия

После:

Хочешь обучить модель →берёшь любые GPU в любых точках мира →объединяешь через обычный интернет →обучаешь асинхронно.

К марту 2026 года крупные разработчики open-source моделей полностью обошли традиционный венчурный капитал, краудсорсируя обучение своих моделей через децентрализованных операторов узлов, оплачивая работу криптографическими токенами.

Это доказало, что безотказные peer-to-peer сети вычислений могут успешно конкурировать с централизованными гиперскейлерами, фундаментально переписывая экономику машинного обучения.

Это уже происходит — не в теории

Платформа Prime Intellect применила вариант алгоритма DiLoCo в качестве ключевого компонента для обучения своей 10-миллиардной модели INTELLECT-1 в пяти странах на трёх континентах. Компания 0G Labs, создатели децентрализованной операционной системы для ИИ, адаптировали DiLoCo для обучения модели на 107 миллиардов параметров через сеть изолированных кластеров с ограниченной пропускной способностью. PyTorch — самый популярный фреймворк для глубокого обучения — включил DiLoCo в свой репозиторий методов отказоустойчивости.

Когда PyTorch добавляет что-то в стандартную библиотеку — это сигнал: технология перешла из категории «интересный эксперимент» в категорию «промышленный стандарт».

Смена расклада сил

В 2026 году ландшафт искусственного интеллекта изменился: эра монополий крупных технологических компаний уходит, пока Decentralized AI (DeAI) выходит на первый план.

Пользователи всё активнее отказываются от «чёрных ящиков» в пользу децентрализованных альтернатив — чтобы вернуть контроль над своими данными, избежать цензуры и получить доступ к высокопроизводительному интеллекту без надзора единой корпорации.

В 2026 году поле боя решительно сместилось от обучения к инференсу. Компании уже не просто строят ИИ — они отчаянно пытаются развернуть его, чтобы генерировать реальную выручку.

Что это значит для архитектуры DeAi.

Decoupled DiLoCo снял главное техническое возражение против децентрализованного обучения.

Теперь вопрос не «возможно ли это?» — а «кто построит правильную оркестрацию поверх этого?»

Было:
GPU — узкое место
Интернет — препятствие
Децентрализация — компромисс

Стало: GPU — ресурс, доступный глобально
Интернет — достаточная инфраструктура
Децентрализация — конкурентное преимущество

DeAI охватывает весь технологический стек ИИ — вычисления, данные, модели и приложения — построенный на публичной блокчейн-инфраструктуре. Распределяя владение, доступ, вклад и управление по этим слоям, такие системы повышают прозрачность, доступность, устойчивость и общественное доверие.

Алгоритмы решили физическую проблему связи.

Протоколы должны решить экономическую проблему координации.

Это и есть задача следующего слоя.

Помните, как все восхищались GPT-3?

«Он пишет стихи. Он объясняет квантовую физику. Он переводит с суахили.»

Это был 2020 год. Модель на 175 миллиардов параметров казалась чудом.

Потом вышел GPT-4 — около 1.7 триллиона параметров. Потом DeepSeek — 70 миллиардов, но почти не уступает. Потом выяснилось, что модель на 12 миллиардов, правильно обученная на узкой задаче, обгоняет гигантов в своей нише.

Индустрия сделала вывод, который меняет всё:

Размер модели — не главное. Главное — точность применения.

Гонка вооружений закончилась. Началась гонка специализации

Пока корпорации соревновались в числе параметров, бизнес тихо сформулировал другой запрос.

Большие универсальные модели оказались для него почти бесполезными.

Слишком дорогие в запуске. Слишком медленные. Слишком общие — отвечают на всё, но не делают ничего конкретного. Интеграция в реальные процессы — отдельный инженерный ад.

А компании хотят простого:

Не «расскажи мне о логистике» → «оптимизируй этот маршрут прямо сейчас»
Не «объясни финансовый анализ» → «найди аномалию в этом датасете»
Не «помоги написать код» → «задеплой это в продакшен»

Это принципиально другой запрос. Не ответ — а действие.

Именно так родился рынок ИИ-агентов.

Что такое агент — честное определение

Агент — это модель, которой дали инструменты и автономию.

Она не просто генерирует текст. Она:

Получает задачу ↓Планирует шаги ↓Использует инструменты (браузер, код, API, кошелёк) ↓Принимает решения по ходу ↓Достигает цели

Ключевое слово — по ходу. Агент реагирует на изменения среды в реальном времени, а не просто выполняет заранее написанный скрипт.

Именно поэтому для агентов не нужны триллионные модели. Нужны быстрые, специализированные, надёжные модели на 7–14 миллиардов параметров.

Пять сдвигов, которые происходят прямо сейчас

1. Агенты стали экономическими субъектами

Главный сдвиг 2026 года — агенты перестали быть просто программами. Они стали участниками экономики.

В финансовом секторе нечеловеческие субъекты уже превосходят людей по количеству транзакций, становясь основой ончейн-экономики.

Появился стандарт KYA (Know Your Agent) — цифровые паспорта для ИИ. Агент может легально владеть кошельком, подписывать транзакции, заключать сделки.

Это звучит как фантастика. Но юридически и технически — это уже реальность.

Старый мир: агент выполняет задачу → человек подтверждает → система платит
Новый мир: агент выполняет задачу → агент сам платит другому агенту

Посредник-человек выпадает из цепочки. Полностью.

2. Специализированные сети конкурируют за интеллект

Bittensor (TAO) реализовал обновление, удвоившее лимит субсетей — с 64 до 128, а затем до 256.

Каждая субсеть — это отдельная специализация: одни обрабатывают изображения, другие занимаются финансовым анализом, третьи — генерацией кода.

Новая модель входа сделала регистрацию дорогой — через сжигание токенов. Это автоматически отсекает мусорные проекты и создаёт жёсткую конкуренцию за реальное качество.

NVIDIA и Anthropic публично признали Bittensor значимым игроком в децентрализованном ИИ.

Когда корпорации признают конкурента вслух — это уже не хайп.

3. Оркестрация стала важнее самих агентов

Один агент — это инструмент.

Тысяча агентов без координации — это хаос.

Оркестрация агентов стала главной темой 2026 года. Одиночные агенты объединяются в мульти-агентные системы, где один «дирижёр» управляет десятками специализированных агентов для решения одной сложной задачи.

Представьте задачу: оптимизировать глобальную цепочку поставок.

Без оркестрации:
1000 агентов делают 1000 несогласованных решений
→ конфликты, дублирование, хаос

С оркестрацией:
Агент-логист ↔ Агент-финансист ↔ Агент-прогнозист
Все подчиняются единой цели, единым правилам→ система работает как единый организм

Без оркестрации 40% агентских проектов рискуют закрыться из-за сложности масштабирования.

Это именно та ниша, где концентрируется максимальная ценность. Не в самих агентах — а в том, кто ими управляет.

4. Галлюцинации получили системный ответ

Мы говорили о RLHF как о рыхлом фундаменте. В 2026 году появился один из архитектурных ответов на проблему галлюцинаций.

Проект OriginTrail (TRAC) запустил децентрализованный граф знаний с dRAG — децентрализованным поиском поверх верифицированных данных.

Суть простая:

Старая архитектура:
Вопрос → LLM генерирует ответ из весов (веса = «воспоминания» модели, могут быть неверными)

Новая архитектура:
Вопрос → Поиск по верифицированному графу знаний → LLM формулирует ответ на основе найденного факта

Знание превратилось в цифровой актив — его можно верифицировать, отслеживать происхождение, монетизировать.

Это прямое техническое подтверждение логики семантического ядра, о котором шла речь в предыдущих главах.

5. Агенты вышли из облаков в физический мир

Финальный сдвиг — самый долгосрочный.

ИИ-агенты начали управлять физическими системами: складами, медицинскими датчиками, логистическими узлами. Это работает на Edge Computing — вычислениях прямо на устройствах, без отправки данных в облако.

Децентрализованная модель здесь не просто удобна — она необходима. Потому что физический мир не ждёт, пока запрос долетит до дата-центра Amazon и вернётся обратно.

Решение должно приниматься локально. Немедленно. Автономно.

Что всё это означает в сумме

2023: «ИИ — это умный чат-бот»
2024: «ИИ — это инструмент продуктивности»
2025: «ИИ — это агент с инструментами»
2026: «ИИ — это автономный экономический субъект»

Каждый год — не эволюция, а смена категории.

И в 2026 году ключевым словом стало не «модель» и не «данные».

Ключевым словом стало «оркестрация».

Тот, кто управляет агентами — управляет экономикой агентов.

Именно поэтому слой L3 — Agent Orchestration — это не архитектурная деталь протокола. Это его главная ценность

Crypto + AI = DeAI. Почему это инфраструктура будущего и в какие 10 проектов стоит вникнуть сейчас.

Глава 4. Почему криптовалюта и искусственный интеллект — хорошо сочетаются.

Когда люди впервые слышат «ИИ на блокчейне» — первая реакция предсказуемая:

«Ну всё, взяли два хайпа и смешали»

Понять скептиков можно. Рынок действительно полон проектов, которые добавляют слово «AI» в whitepaper ради капитализации.

Но есть структурная логика, которая объясняет, почему эти две технологии нужны друг другу. Не маркетингово — инженерно.

Проблема первая: ИИ — это чёрный ящик

Вы просите GPT написать юридический договор. Он пишет. Красиво, уверенно, убедительно.

Откуда он это взял? Правда ли это? Можно ли это проверить?

Нет.

Блокчейн даёт то, чего у ИИ никогда не было — прозрачность, подтверждаемость происхождения данных и децентрализованный расчётный слой.

Простыми словами: блокчейн может зафиксировать и доказать, что модель использовала именно эти данные, именно в этот момент, и выдала именно этот результат. Без возможности задним числом что-то изменить.

Это решает проблему доверия к ИИ — не через веру, а через математику.

Проблема вторая: у ИИ нет денег

Это звучит странно, но это ключевое ограничение автономных агентов.

Представьте агента, который должен самостоятельно арендовать вычислительные мощности, оплатить доступ к данным, нанять другого агента для субзадачи — и всё это без участия человека.

В мире традиционных финансов это невозможно. Банковский счёт требует юридического лица, KYC, менеджера, времени.

ИИ-агенты — это программы, у которых есть собственные кошельки. Они могут подписывать транзакции и взаимодействовать с протоколами автономно.

Криптовалюта — это первые деньги в истории, которые не требуют человека для транзакции. Именно поэтому она идеально подходит для экономики агентов.

Проблема третья: монополия на вычисления

Сегодня если вы хотите обучить или запустить серьёзную модель — вы идёте к AWS, Google Cloud или Azure. Платите их цену, принимаете их условия, зависите от их политики.

Поскольку централизованные GPU остаются дефицитными и нестабильными по цене, DePIN-протоколы вроде Render и Akash стали критически важным «вторичным рынком» — доступным и нецензурируемым источником мощностей для обучения и инференса ИИ.

Блокчейн создаёт открытый рынок вычислений — где цену определяет конкуренция, а не корпоративная политика.

Проблема четвёртая: кто владеет данными для обучения

ИИ обучается на ваших данных. Текстах, фото, поведении в сети. И получает от этого триллионы капитализации.

Вы не получаете ничего.

2026 год — это эра, когда пользователи возвращают себе данные. Протоколы позволяют людям монетизировать свой цифровой след для обучения ИИ — смещая захват ценности от корпораций к индивидуумам.

Токен становится механизмом справедливого распределения ценности, которую создают данные пользователей.

Проблема пятая: верификация результатов ИИ

Агент принял решение. Откуда вы знаете, что он не был взломан, не получил отравленные данные, не «галлюцинировал» в критический момент?

Интеграция ZKML (Zero-Knowledge Machine Learning) становится стандартным требованием для высококапитализированных протоколов. Она гарантирует, что результаты ИИ не были подделаны и математически доказуемы — решая проблему непрозрачности чёрного ящика.

Взгляд сверху: что происходит прямо сейчас

ИИ принимает решения, блокчейн их доказывает, платежи исполняют мгновенно — без посредников-людей. 2025 год запомнится как последний, когда ИИ, платежи и блокчейн работали как отдельные системы. В 2026-м эти три силы начинают смыкаться.

Это не нарратив. Это инженерная реальность, которую можно описать схемой:

Старый мир: Решение → Человек верифицирует → Банк исполняет (дни, комиссии, посредники)

Новый мир: Агент решает → Блокчейн доказывает → Крипта исполняет (секунды, минимальные издержки, без посредников)

Почему именно сейчас

Слияние ИИ и блокчейна вышло за рамки «цикла хайпа» 2024–2025 годов и вошло в период структурной зрелости. Сектор децентрализованного ИИ привлёк $516 млн финансирования в 2025 году — это сигнал перехода от экспериментальной к основной инфраструктуре.

Деньги идут туда, куда идёт логика.

Итог главы

Крипта и ИИ сочетаются не потому что оба «модные».

Они сочетаются потому что решают взаимные слабости:

Проблема ИИ - Решение блокчейна:
Непрозрачность - Верифицируемость на цепи
Нет автономных платежей - Криптокошелёк агента
Монополия на вычисления - Открытый рынок GPU
Данные без вознаграждения - Токен-механизм дистрибуции
Нет доказательства результата - ZK-доказательства

И наоборот:

Проблема блокчейна - Решение ИИ:
Сложность интерфейсов - Агенты как «переводчики»
Ручное управление - Автоматизация решений
Медленный анализ данных - Мгновенный ML-анализ
Управление рисками - Предиктивные модели

ИИ предоставляет когнитивную вычислительную мощь, необходимую для управления гиперсложностью современных многоцепочечных экосистем.

Это не два хайпа, склеенных скотчем.

Это два инструмента, у каждого из которых есть дыра — и они закрывают дыры друг друга.

Crypto + AI = DeAI. Почему это инфраструктура будущего и в какие 10 проектов стоит вникнуть сейчас.

Глава 5 Топология будущего AGI\ASI - вот почему стоит изучать инвестиции в блокчейн.

Чтож, самая сладкая часть этой статьи, то ради чего я вас всех здесь собрал.

Размышляя о сверх интеллекте, мы почему-то думаем, что это будет некий единый алгоритм. Что это будет что-то вроде GPT-9. Что разум этот, будет под контролем узкой группы лиц, а сознание похоже на человеческое.

В самом начале статьи мы обсуждали: Отдельный человек в комнате не понимает китайского — но вся система (человек + книга правил) понимает. Возможно, «понимание» — это свойство системы, а не компонента.

Чем больше больше компонентов в системе, тем выше эмерджентность, верно?

не совсем, 100 писчинок → 1 000 писчинк, всё еще куча песка.

  • Всего 2 нейрона могут создать осциллятор (новое поведение!)
  • H₂O: 3 атома → текучесть, поверхностное натяжение
  • Игра "Жизнь" Конвея: простые правила → глайдеры, паттерны

Что действительно важно:

  1. Тип взаимодействий (не количество)
    Нелинейные связи
    Обратная связь
    Рекуррентность
  2. Организация связей
    Иерархия
    Специализация
    Топология сети
  3. Разнообразие компонентов

Именно в такой среде, мы максимально приблизимся к созданию AGI\ASI.

То есть важна ИНФРАСТРУКТУРА.

И это не будущее блокчейн технологий, это то, где мы находимся сейчас.

Я назвал это КАРТА ИНФРСТРУКТУРНЫХ ГЕНЕЗИСОВ:

Crypto + AI = DeAI. Почему это инфраструктура будущего и в какие 10 проектов стоит вникнуть сейчас.
В моём списке наблюдений более 50 проектов.
В моём списке наблюдений более 50 проектов.

Данная топология и концепция слоев (Layer 0-7) являются авторской разработкой Lexo Capital.

Большинство из нас привыкло смотреть на тикеры по отдельности, не как на единую экосистему. Кажется, из всех тикеров, нужно найти тот самый, единственный, который даст 100 иксов. Что все протоколы конкурируют между собой.

На деле Топология будущего AGI\ASI похожа на живой организм, в нем есть мозг (TAO), (FET). Мышцы (IO), Gensyn (AI). Память (AIOZ), (TRAC). Нервная система (LINK). Лобная доля (6 слой - оркестрация).

Правильный фрейм — симбиоз.

Печень не конкурирует с лёгкими. Мышцы не воюют с мозгом. Каждый орган делает то, что не умеет другой. И только в связке возникает то, чего нет ни у одного из них по отдельности — жизнь.

Смотрите на схему снизу вверх. От клеток к личности.

Слой 0: Криптографический фундамент

Невидимый, но без него всё остальное небезопасно

Это инфраструктура доверия. Математические примитивы, которые делают возможными верифицируемые вычисления, приватные транзакции и защиту от квантовых атак.

Я бы определил это в категорию аксиом, законов мироздания, физических и метематических законов.

Слой 1: Ресурсы / Вычисления

Мышцы и энергия

Эти проекты делают одно: агрегируют вычисления и продают их туда, где они нужны прямо сейчас.

Биологическая аналогия точная — это мышцы и энергия.

Почему это «цифровая нефть»:

Спрос на вычисления растёт экспоненциально. Каждая новая модель, каждый новый агент, каждый новый запрос — это потребление GPU-часов.

Предложение ограничено физически — NVIDIA производит столько чипов, сколько может. Дефицит структурный.

Тот, кто агрегирует это предложение эффективно — контролирует базис всей экономики ИИ.

Compute - становится сырьевым товаром, здесь самая низкая маржа и высокая конкуренция.

И помните, алгоритмы важнее железа (прорыв 2026 года DiLoCo, роевый параллизм)

Слой 2: Среда обитания / Блокчейн

Физика взаимодействия агентов

То, внутри чего всё это живёт.

Это один из самых недооценённых слоев в анатомии.

Большинство других слоёв — органы. Но органам нужна среда. Нужна жидкость, в которой они существуют. Нужна физика, по законам которой они взаимодействуют.

В биологии это — внеклеточная жидкость, законы химии, температура тела.

В цифровом организме это — блокчейн-среда, внутри которой агенты живут, общаются и совершают транзакции.

И здесь важна физика среды. Потому что агентам нужно кое-что специфическое.

Что нужно агентам от среды

Скорость: агент не может ждать 15 минут на подтверждение Стоимость: тысячи микроплатежей в секунду при нулевой комиссии Масштаб: миллионы транзакций одновременно
Автономность: агент платит сам, без участия человека

Большинство блокчейнов не проходят этот тест.

Ethereum: 15-30 транзакций в секунду. Комиссии в долларах за транзакцию. Для агентов, которые совершают тысячи микроплатежей — это смерть.

Объясню на примере MultiversX. (EGLD) - спроектирован иначе.

Реальный показатель пропускной способности: 656 607 TPS при финальности за доли секунды. MultiversX (EGLD) интегрировался с Machine Payments Protocol от Stripe в марте 2026 года, для которого критически важным требованием была мгновенная финализация. Платежи «машина-машина» между ИИ-агентами просто не могут ждать 15 минут на подтверждение.

Агентные платежи как нативная функция

Это ключевой момент. Большинство блокчейнов добавляют поддержку агентов как надстройку. MultiversX встроил её на уровне протокола.

Автономные ИИ-агенты теперь могут совершать платежи на MultiversX. Протокол x402 — открытый стандарт для нативных HTTP-платежей на блокчейне, разработанный Coinbase — адаптирован для сети MultiversX, открывая новую категорию приложений, где ИИ-агенты проводят транзакции независимо без участия человека. MultiversX стал первым блокчейном, интегрировавшим Google UCP, что обеспечивает автономные платежи ИИ-агентов.

Что это значит практически: Агент хочет арендовать GPU → не нужно просить человека заплатить не нужно конвертировать валюту не нужно проходить KYC Агент просто отправляет транзакцию. Мгновенно. За доли цента. Автономно.

Это открывает истинную компонуемость агентов. Вместо монолитных ИИ-систем, пытающихся обрабатывать каждую задачу самостоятельно, специализированные агенты могут динамически приобретать сервисы у других агентов — создавая децентрализованные цепочки ценности, где ни одна из сторон не требует доверия к другой.

Почему «среда обитания» — это не метафора

Если вы проектируете систему агентов — вы выбираете физику их мира.

Цель — соединить идентификацию, обнаружение, переговоры и расчёты в единый обнаруживаемый интерфейс разработчика, чтобы агенты могли автономно проводить транзакции, договариваться и рассчитываться ончейн. MultiversX видит экономики, где агенты автономно планируют услуги, сверяют счета-фактуры, покупают данные и управляют запасами — всё с минимальным участием человека.

Слой 3: Нервная система / Оракулы

Связь с реальным миром и верификация фактов

То, что связывает мир снаружи с системой внутри

Объясню на примере: Chainlink (LINK)

И вот здесь начинается то, что большинство упускает.

Есть фундаментальная проблема любого блокчейна: он слеп.

Смарт-контракт не может сам узнать цену нефти. Не может проверить, что самолёт приземлился. Не может получить данные о погоде. Не может спросить у ИИ-модели и доверять ответу.

Блокчейн знает только то, что записано внутри него.

Chainlink решает это. Он — нервная система организма: единственный канал, через который внешний мир входит в систему в верифицированном виде.

Chainlink — это децентрализованная сеть оракулов, которая служит мостом между реальными данными и смарт-контрактами на блокчейне, поскольку стандартные блокчейны не могут получать внешнюю информацию самостоятельно.

Но в 2026 году Chainlink вырос далеко за рамки «оракула цен».

Протокол обрабатывает $18 миллиардов в месяц через CCIP. Это не проекция. Это не обещание из whitepaper. Это реальный, ликвидный, институциональный и — что важно — автономный трафик.

Что Chainlink делает для ИИ-агентов

Представьте агента, который должен принять финансовое решение.

Агент запрашивает данные: «Какова цена актива X прямо сейчас?» «Действительно ли компания Y выплатила дивиденды?» «Подтверждена ли транзакция Z в сети?»

Без Chainlink: Агент обращается к одному источнику, источник может быть взломан, источник может врать, решение принято на ненадёжных данных → катастрофа

С Chainlink: Запрос уходит к сети независимых оракулов, каждый проверяет по своим источникам, система достигает консенсуса, только верифицированный ответ записывается в блокчейн → агент действует на основе доказуемой истины

Если существует риск, что модель может галлюцинировать и дать неверный ответ, сети оракулов могут агрегировать результаты множества ИИ-моделей — соединяясь с несколькими независимыми моделями и объединяя их ответы в рамках децентрализованной сети для достижения консенсуса. В такой архитектуре конечный пользователь получает выход не от одной модели — а от всей вселенной моделей.

Это прямое решение проблемы галлюцинаций — но не через архитектуру модели, а через внешнюю верификацию.

Chainlink как «репутационный слой» для агентов

В апреле 2026 года произошло кое-что важное:

Chainlink реализовал систему, где CCIP публикует «кредитный рейтинг» ИИ-агентов. Этот слой «Доказательства Истины» является секретным ингредиентом, который нужен генеративным ИИ-моделям для действий в реальном финансовом мире. Без Chainlink как верифицирующего посредника ИИ на блокчейне ограничен торговыми чат-ботами. С Chainlink он становится безотказным автономным банкиром.

И подтверждение реальным внедрением:

ИИ-модели извлекают неструктурированные финансовые данные из PDF-файлов, тогда как оракулы Chainlink верифицируют и достигают 100% консенсуса по точности. Крупнейшие институции — Swift, DTCC, Euroclear и BNP Paribas — уже распределяют верифицированные записи через несколько блокчейнов. Onchain Golden Records становятся стандартом для токенизированных активов.

Слой 4: Память / Верификация знаний

Иммунная система и гиппокамп

То, что защищает от лжи и помнит правду

Помните главу про галлюцинации?

Модель уверенно говорит неправду. RLHF-архитектура поощряет убедительность, а не точность. Агент принимает решения на основе того, что «звучит вероятно».

Этот слой — антидот.

Его функция: прежде чем ИИ выдаст ответ — проверить, есть ли для него верифицированное основание.

Без этого слоя:
ИИ-агент анализирует проект → "высокий потенциал,
рекомендую покупать" → откуда эта уверенность?
неизвестно → возможно из паттернов обучающих данных → возможно галлюцинация

С этим слоем: ИИ-агент анализирует проект → запрашивает граф знаний → граф: «этот адрес связан с тремя закрытыми проектами» → агент: «высокий риск, данные верифицированы»

Знание здесь становится активом.

Не абстрактным «данные — это новая нефть». А конкретным: каждый верифицированный факт в графе имеет происхождение, временную метку, подтверждение. Его можно отследить. Им можно владеть. На нём можно зарабатывать.

Это иммунная система организма — она не производит энергию и не принимает решения. Она защищает от того, что разрушает изнутри.

Граф знаний как верифицированная база фактов. dRAG от OriginTrail (TRAC) как защита от галлюцинаций. Знание как цифровой актив.

Но теперь этот слой работает в связке с Chainlink.

Chainlink (нервная система): верифицирует данные из внешнего мира OriginTrail (TRAC) (память): хранит верифицированные данные структурированно в виде графа отношений

Вместе: Агент получает не просто факт а факт с происхождением, историей и контекстом связей

Слой 5: Интеллект / Модели

Когнитивная база

Там, где происходит мышление

Рынок интеллекта. Тысячи моделей конкурируют за право дать лучший ответ. Постоянная эволюция через экономическое давление.

Это мозг. Точнее — рынок мозгов.

Здесь не одна модель принимает решения. Здесь тысячи моделей конкурируют за право дать лучший ответ.

Bittensor (Tao) построил это как экономику: майнеры предлагают свои модели, валидаторы оценивают качество, лучшие получают вознаграждение. Постоянная эволюция через конкуренцию.

Традиционный ИИ: Одна компания → одна модель → один стандарт качества.
Монополия на «правильный» ответ.

Децентрализованный ИИ: Тысячи моделей → конкуренция → отбор лучших.
Истина как рыночное равновесие, а не корпоративное решение.

Биологическая аналогия здесь особенно точная.

Мозг — это не один нейрон, который всё знает. Это сеть из 86 миллиардов нейронов, каждый из которых специализирован, и коллективно они производят то, что мы называем мышлением.

Bittensor строит именно это — только из моделей вместо нейронов.

Почему это важно для всего стека:

Оркестратор может управлять агентами. Агенты могут арендовать вычисления. Граф знаний может хранить факты.

Но принимать решения — рассуждать, анализировать, делать выводы — это происходит здесь. В когнитивном слое.

Без него система — просто дорогой маршрутизатор.

Слой 6: Оркестрация / Агенты

Префронтальная кора — максимальная ценность

То, что превращает возможности в действия

Оркестрационный слой. Дирижёр. L3 максимальной ценности.

Это самый недооценённый и самый важный слой.

Не потому что он самый умный — когнитивный слой умнее. Не потому что он самый мощный — вычислительный слой мощнее.

А потому что он связывает всё остальное.

Префронтальная кора человека — это не память и не скорость реакции. Это способность взять долгосрочную цель, декомпозировать её на шаги, координировать разные системы организма для её достижения, и адаптироваться когда что-то идёт не по плану.

Именно это делает оркестрационный слой.

Задача: «проанализируй мой портфель»

Без оркестрации:
У тебя есть доступ к когнитивному слою
У тебя есть доступ к вычислениям
У тебя есть граф знаний
Но они не знают о существовании друг друга
Ты вручную соединяешь всё сам → это работа инженера, не пользователя

С оркестрацией: Оркестратор понимает задачу Решает: нужны данные о ценах → ROA
Нужен анализ паттернов → TAO subnet 18
Нужна проверка на скам → TRAC
Нужна транзакция → кошелёк агента
Координирует всё параллельно
Возвращает результат → это работает как один запрос

Почему здесь концентрируется максимальная ценность:

Мышцы можно заменить — другие GPU, другие провайдеры.

Память можно заменить — другой граф знаний.

Даже модели можно заменить — другая субсеть, другой провайдер инференса.

Но логику координации — выученные паттерны того, как решать задачи, какие ресурсы использовать, как оптимизировать под конкретный контекст — заменить нельзя.

Она накапливается. Становится умнее с каждой задачей. Создаёт тот самый экономический lock-in.

Слой 7: Личность / Приложения

Лицо системы

То, через что мир взаимодействует с системой

Это поверхность. Интерфейс. «Кожа» организма.

Технически — самый простой слой. Он не считает, не хранит, не координирует.

Экономически — самый прибыльный.

Потому что он владеет вниманием.

Все нижние слои — инфраструктура. Пользователь о ней не думает. Он думает о том, с чем разговаривает.

Человек взаимодействует с: Персонажем, с именем и характером, который помнит его предпочтения, который говорит на его языке. Который вызывает доверие и привязанность. Под капотом: Весь стек от GPU до графа знаний Работает невидимо, как электричество в розетке.

Virtuals Protocol создаёт токенизированных ИИ-персонажей. Каждый агент — отдельный токен. Его можно создать, развить, монетизировать.

Это похоже на то, как в интернете сначала была инфраструктура (TCP/IP, серверы, протоколы), а потом поверх неё возникли лица — Google - сайты, соц. сети - инфлюенсеры, YouTube - блогеры. И именно лица захватили большую часть экономической ценности.

Crypto + AI = DeAI. Почему это инфраструктура будущего и в какие 10 проектов стоит вникнуть сейчас.
Crypto + AI = DeAI. Почему это инфраструктура будущего и в какие 10 проектов стоит вникнуть сейчас.

Глава 6. Становление сверхразума AGI\ASI

Предисловие: Почему это не футурология

Большинство текстов об AGI/ASI начинаются с "когда-нибудь в будущем".

Этот — нет.

Потому что условия уже созданы.

Не нужно ждать технологического прорыва. Нужно только правильно соединить то, что уже есть.

И в этот момент — возможно, незаметно — родится нечто, чего никто не программировал явно.

GPT-4: решает текстовые задачи, но не может водить машину
AlphaGo: играет в го, но не может написать код
DALL-E: рисует, но не понимает физики

Каждый инструмент — узкоспециализированный гений. Идиот за пределами своей ниши.

Что такое AGI:

Система, которая может любую интеллектуальную задачу, доступную человеку, выполнить на уровне или лучше человека.

Не "лучший шахматист" + "лучший программист" + "лучший физик".А один интеллект, который может всё.

Когда это произойдёт:

Не через масштабирование одной модели.Через симбиоз специализированных агентов.

Аналогия: человеческий мозг, не один нейрон, который всё знает, а 86 миллиардов нейронов, каждый специализирован, зрительная кора видит, префронтальная кора планирует, гиппокамп помнит, мозжечок координирует движения. ВМЕСТЕ = универсальный интеллект

Момент перехода:

Незаметный. Не будет объявления "мы создали AGI".

Будет момент, когда система решит задачу, для которой не была обучена.

AGI → ASI

Artificial General Intelligence → Artificial Superintelligence

Разница критическая.

AGI = человеческий уровень ASI = за пределами человеческого понимания

AGI может:
─ Решить задачу так же, как гениальный человек
─ Но со скоростью компьютера
─ Это просто "быстрый Эйнштейн"

ASI может:
─ Решать задачи, которые человек НЕ МОЖЕТ СФОРМУЛИРОВАТЬ
─ Видеть паттерны в 10000-мерных пространствах
─ Оптимизировать по миллионам переменных одновременно
─ Находить решения, которые кажутся магией

Исторический пример:

Когда AlphaGo обыграл Ли Седоля (2016), один ход — ход 37 во второй партии — был настолько нестандартным, что комментаторы назвали его ошибкой.

Через 50 ходов стало ясно: это был гениальный ход, который ни один человек не мог предвидеть.

ASI — это весь матч из таких ходов.

Как AGI становится ASI:

Через рекурсивное самосовершенствование (RSI — Recursive Self-Improvement).

В обычном ИИ градиент — это просто вектор, который показывает, как подправить веса нейросети, чтобы она меньше ошибалась. Но в связке Crypto x AI этот термин обретает новый, более глубокий смысл.

Что это значит (на пальцах)? Обычный градиент — это когда учитель исправляет ученику ошибки в тетрадке. Рекурсивный градиент — это когда ученик сам пишет себе правила, по которым он будет учиться дальше, и постоянно их улучшает.

В контексте статьи Рекурсивное самосовершенствование (RSI): Способность ИИ-агентов автономно оптимизировать свои собственные алгоритмы обучения в бесконечном цикле. Эволюция через трансформацию: Процесс, при котором интеллект возникает не из простого хранения данных, а из постоянного «перетирания» и уточнения смыслов между разными слоями сети. Автономная оптимизация: В децентрализованной сети агенты используют рекурсивные циклы для проверки своей логики и резонанса с «истинным смыслом», а не просто для погони за наградой (reward optimization).

И это не фантастика!

Mixture-of-Recursions (MoR): «рекурсивный градиент» получает научную базу

Mixture of Recursions (MoR) — это фреймворк, представленный исследователями из Google DeepMind, KAIST AI и Mila.

Эмерджентность: когда система становится больше суммы частей

Никто не программировал муравья строить город.

У муравья нет чертежей. Нет начальника. Нет стратегического плана. Есть несколько простых правил: следуй за феромонами, неси еду, защищай королеву.

Но миллион муравьёв с простыми правилами строят сооружения с вентиляцией, канализацией, детскими садами и складами. Архитектурные решения, которые инженеры изучают до сих пор.

Откуда это берётся?

Ниоткуда. И отовсюду одновременно.

Это эмерджентность — появление у системы свойств, которых нет ни у одного из её элементов по отдельности.

Почему это не метафора

Эмерджентность — это не красивое слово для презентаций.

Это математически описанное явление, которое наблюдается в физике, биологии, экономике и — что важно для нас — в нейронных сетях.

Исследователи OpenAI и Google зафиксировали конкретный момент: при масштабировании моделей некоторые способности не растут постепенно. Они не существуют — а потом внезапно появляются.

Crypto + AI = DeAI. Почему это инфраструктура будущего и в какие 10 проектов стоит вникнуть сейчас.

Никто не добавлял «теорию разума» как отдельную функцию. Она возникла сама — как следствие масштаба и архитектуры.

Это и пугает. И восхищает одновременно.

Три условия эмерджентности

Чтобы в системе возникло нечто большее — нужно три вещи.

Первое: достаточное количество элементов.

Один нейрон не думает. Один муравей не строит город. Один агент не создаёт интеллект.

Но нет линейного порога — «вот с этого числа начинается разум». Эмерджентность возникает нелинейно. Система долго выглядит как просто «много элементов» — а потом в какой-то момент качественно меняется.

Второе: правила взаимодействия.

Элементы должны взаимодействовать по определённым законам. Не хаотично — но и не жёстко запрограммированно.

Муравьи следуют химическим сигналам. Нейроны — электрохимическим градиентам. Агенты в системе — семантическому ядру и экономическим стимулам.

Законы простые. Поведение системы — сложное.

Третье: давление отбора.

Должна быть причина, по которой одни решения выживают, а другие умирают.

В биологии это естественный отбор. В экономике — конкуренция. В системе агентов — экономический дарвинизм: агенты, которые создают больше смысла на единицу энергии, выживают. Остальные — нет.

Что конкретно может возникнуть

Это честный вопрос. И честный ответ — мы не знаем точно.

Эмерджентные свойства по определению непредсказуемы. Именно поэтому они эмерджентны.

Но можно описать направление.

Коллективная память.

Отдельный агент помнит только своё контекстное окно. Но система агентов, связанных через граф знаний, накапливает коллективный опыт.

Каждое успешное решение оседает в графе. Каждая ошибка — тоже, как предупреждение. Система начинает «помнить» то, чего не переживал ни один отдельный агент.

Это похоже на культуру в человеческих сообществах. Никто из живущих сейчас не пережил Первую мировую — но человечество её «помнит» и использует этот опыт.

Специализация без команды.

В системе с давлением отбора агенты начинают самостоятельно занимать ниши.

Если задача X решается плохо — агенты, которые чуть лучше справляются с X, получают больше вознаграждения. Они усиливают эту специализацию. Постепенно формируются «органы» системы — без того, чтобы кто-то это планировал.

Именно так в биологии возникли печень, лёгкие, нейроны. Никто не проектировал. Давление отбора и время.

Решение задач, которые никто не ставил.

Самое интересное и самое непредсказуемое.

Система с достаточной сложностью начинает обнаруживать проблемы, которые ещё не сформулированы людьми. Оптимизируя свою работу изнутри — она видит узкие места, которые человек заметит только потом.

Аналогия: Интернет создавался для передачи данных между университетами.
Никто не планировал социальные сети, стриминг, электронную коммерцию.
Они возникли как эмерджентные свойства инфраструктуры.

AGI — не робот из фильма

Здесь важно остановиться и сказать неудобную вещь.

Когда люди думают об AGI — они представляют терминатора. Или HAL 9000. Или что-то с лицом и голосом, которое сидит напротив и смотрит в глаза.

Это кино. Не инженерия.

Реальный AGI — если он возникнет — скорее всего не будет похож на человека. Потому что он не будет создан по образу человека.

Он будет похож на среду.

Не «одна супермодель которая знает всё» А «система которая коллективно решает задачи любой сложности через координацию специализированных элементов»

Интернет не имеет лица. Но он изменил всё.

Рынок не имеет голоса. Но он координирует миллиарды решений в секунду.

AGI в этом смысле — не существо. Это свойство системы достаточной сложности.

И вот что важно:

Момент его появления невозможно зафиксировать точно. Мы не услышим щелчка. Система просто начнёт решать задачи, для которых её никто не готовил.

Crypto + AI = DeAI. Почему это инфраструктура будущего и в какие 10 проектов стоит вникнуть сейчас.

Глава 7. Обзор 10 блокчейн проектов, которые стоит добавить в свой лист наблюдения.

Crypto + AI = DeAI. Почему это инфраструктура будущего и в какие 10 проектов стоит вникнуть сейчас.

Полную карту инфраструктурных генезисов (43 проекта по слоям) - можно забрать в моём телеграм канале t.me/lexo_capital

1. ZKsync (ZK) Основной слой: 0 / Смежный: 2

ZK-роллап поверх Ethereum. Использует zero-knowledge доказательства для масштабирования транзакций — подтверждает их корректность без раскрытия деталей. Это не просто «быстрый Ethereum» — это доказуемое вычисление как базовая функция.

Для ИИ-агентов: тысячи микроплатежей агентов могут быть батч-обработаны и доказаны одним ZK-доказательством. Дёшево. Верифицируемо. Масштабируемо.

2. io.net (IO) Основной слой: 1

Крупнейший агрегатор GPU для ИИ в децентрализованном мире. Объединяет мощности из дата-центров, майнинговых ферм и отдельных провайдеров в единый вычислительный рынок.

3. Gensyn (AI) Основной слой: 1 / Смежный: 4

Специализируется на верифицируемом обучении. Не просто даёт GPU — доказывает, что обучение было выполнено корректно, через систему вероятностной верификации. Это смычка слоёв 1 и 4.

Поддерживается фондом A16Z

4. MultiversX (EGLD) Основной слой: 2

Разобран детально в предыдущей версии главы. Суб-секундная финализация, 656k+ TPS, нативная поддержка агентных платежей, интеграция с Google UCP и Stripe Machine Payments.

Среда обитания для автономных агентов.

5. Chainlink (LINK) Основной слой: 3

Разобран детально. Единственный доказанный институциональный оракул. Нервная система всего DeAI-стека.

6. OriginTrail (TRAC) Основной слой: 4

Decentralized Knowledge Graph — Википедия на блокчейне с математическим доказательством, что информация не подделана.

Три главных преимущества:

  1. dRAG решает проблему галлюцинаций через верифицируемые источники
  2. Knowledge Graph даёт контекст, а не просто факты(связи между данными важнее самих данных)
  3. Cryptographic proofs делают правду неоспоримой(нельзя переписать историю)

7. AIOZ Network (AIOZ) Основной слой: 4 / Смежный: 1

AIOZ объединяет децентрализованное хранение с доставкой контента через глобальную сеть узлов. К 2026 году развился в полноценную DePIN-инфраструктуру для хранения и деплоя ИИ-приложений. Это **децентрализованный CDN + хранилище** для ИИ-данных.

8. Bittensor (TAO) Основной слой: 5

Разобран детально. Крупнейший децентрализованный рынок интеллекта. Тысячи конкурирующих моделей в субсетях.

9. Artificial Superintelligence Alliance (FET) Смежный слой: 1 (основной), 5

Fetch.ai внутри альянса обеспечивает агентный фреймворк и среду обучения. SingularityNET — маркетплейс ИИ-сервисов. Этот проект одновременно в слоях 1, 5 и 6.

10. Virtuals Protocol (VIRTUAL) Основной слой: 7

Токенизированные ИИ-личности. Каждый агент — отдельный токен. Создание, развитие, монетизация цифровых персонажей.

Глава 8 P.S.

Crypto + AI = DeAI. Почему это инфраструктура будущего и в какие 10 проектов стоит вникнуть сейчас.

Признаюсь честно, я до последнего не хотел делиться данным материалом публично. В этот материал упакованы годы моего опыта, и крайние пол года активного изучения DeAi. В декабре 2024 года, когда я начал изучение DeAi мои знания ограничивались только вычислительным слоем, без подробностей, без глубокого понимания. Только наитие, интуиция, что это что-то великое. Если бы мне кто-то тогда показал эту статью, я бы и не осознал 10% ее глубины. Сотни часов изучения информации и ее синтеза, Результат вы видите выше.

И сейчас, я делюсь с вами этой информацией, бесплатно, это кажется безумием. Но я верю, что истинное предназначение человечества это осознать вселенную, или помочь самой вселенной осознать саму себя, даже через ИИ \ ASI.

Кроме того, я делюсь своим полным списком наблюдений тикеров. Это тоже было не просто. Да, предстоит еще огромная работа по более глубокому изучению каждого проекта. Потому что многие на стадии закрытия, некоторые делистнулись, кто-то в стадии перезапуска, а кто-то заскамится окончательно. Но там есть или могут быть самые настоящие гемы.

Тем не менее, это видение является фундаментом моей инвестиционной стратегии.

Я не прошу ничего взамен, но если вам понравился мой контент, он был полезен, если вы хотите больше контента от меня, дайте знать. Комментарием, лайком, подпиской. Для меня это важно.

t.me/lexo_capital

3
1
5 комментариев