5 underdog'ов AI 2026, на которых стоит смотреть пристальнее, чем на Anthropic и OpenAI

В медийном AI-цикле 2026 года 90% внимания уходит на трёх игроков: OpenAI, Anthropic, Google. Это объяснимо, они задают каркас рынка, у них самые большие бюджеты, их анонсы попадают в Bloomberg.

Но если посмотреть, кто реально менял правила игры за последние 8 лет, каждый раз это был underdog. Не лидер по капитализации в моменте. Сторонняя команда, которая работала над тем, что мейнстрим уже считал «решённым».

Apple не изобрела MP3-плеер. Tesla не была первой электричкой. ChatGPT в 2022 был не флагманом OpenAI, а демо RLHF, которое выпустили «попробовать» за месяц.

Тот же паттерн идёт прямо сейчас. Разберу пять конкретных underdog'ов 2026, кто они, какую ставку делают, против какого мейнстрим-нарратива работают.

1. DeepSeek: ставка на эффективность, а не масштаб

24 апреля 2026 китайская лаборатория DeepSeek выложила в open-source модели V4-Pro и V4-Flash. Цены: $0.14 и $0.28 за миллион токенов на Flash против $5 и $30 у GPT-5.5, в 18-30 раз дешевле. Качество, сразу за Gemini 3.1 Pro в открытых бенчмарках.

Что они делают по-другому. Когда индустрия ушла в dense scaling (больше параметров, лучше результат), DeepSeek вернулась к Sparse Attention. CSA + HCA архитектура снизила FLOPs на 73%, а KV-cache, на 90% при контексте в 1 миллион токенов. Это не «оптимизация», это пересборка фундамента.

Исторический прецедент: DeepSeek V3 в декабре 2024 был натренирован за ~$6 миллионов в финальной фазе обучения, против миллиардов, которые в это вкладывали OpenAI и Anthropic. Industry-shock был именно в том, что constraint forced invention. Compute-shortage становился преимуществом.

Источник: VentureBeat, DeepSeek V4 1/6 cost, Tier 1.

2. Moonshot AI / Kimi: ставка на агентную автономность

Moonshot, пекинская лаборатория, которая большую часть 2025 года шла в тени DeepSeek. В апреле 2026 они показали, что у них своя ставка: Kimi K2.6 за ночь сама написала собственный inference runtime на языке Zig. 12 часов работы, 14 итераций, 4000+ tool calls. Результат, собственный inference runtime который работает на 20% быстрее LM Studio (15 → 193 tokens/s).

Это не маркетинг. Это первая публично задокументированная демонстрация long-horizon autonomy: модель работает над одной задачей 12 часов подряд, без человека в петле, и приходит к результату, который проходит ревью.

Что это значит на практике. Все остальные ставят на «AI помогает человеку быстрее». Moonshot ставит на «AI работает за человека длинными сессиями». Если они правы, это меняет каркас работы команды разработки в принципе.

Источник: @opendatascience Telegram, Moonshot Blog, Tier 2.

3. HKUDS OpenSpace: ставка на эволюцию навыков

Это академическая исследовательская группа в Гонконгском университете. Не корпорация. 25 марта 2026 они выложили open-source MCP-сервер OpenSpace. К 25 апреля, 4 700+ звёзд, рост на 50% за неделю.

Что они делают. OpenSpace превращает любого AI-агента (Claude Code, Codex, Cursor) в самоэволюционирующего: skill сам анализирует свои выполнения, чинит себя, накапливает паттерны из удачных запусков. На бенчмарке GDPVal (50 профессиональных задач), 45.9% сокращение токенов в Phase 2 при росте качества на 30 процентных пунктов над baseline.

Контекст важен. Когда индустрия ушла в long-context (Gemini 3.1 c 10M токенов, Llama 4 Scout с 10M), HKUDS пошли в обратную сторону: skill memory как способ радикально сократить нужный контекст. Параллельно с тем же тезисом независимо вышел Karpathy (см. ниже). Когда два независимых underdog'а приходят к одной идее одновременно, это сильный сигнал, что мейнстрим-направление зашло в тупик.

Источник: github.com/HKUDS/OpenSpace, README прочитан напрямую, Tier 2.

4. Alibaba Qwen: ставка на open weights в RU/CN-юрисдикции

Qwen, модели от Alibaba Cloud. В России и Китае это часто единственный реалистичный путь к frontier-модели в production: китайские модели не подпадают под санкции и доступны без VPN. К 25 апреля 2026, Qwen 3.6 27B (квантованный) запускается локально на MacBook Pro M3 и достигает парити с Claude Opus на кодовых бенчмарках.

15× меньше параметров, чем у Opus. Apache 2.0 лицензия. Локально без подписки, то есть ваши данные никогда не уходят к вендору.

Что это значит для российского предпринимателя. Если у вас есть юридические или технические ограничения на работу с OpenAI/Anthropic API (а они есть у большинства бизнеса в РФ), Qwen 3.6 27B на MacBook Pro Pro серии решает 80% задач за ноль рублей в месяц. Это не теоретическая возможность. Это работающий продукт прямо сейчас.

Источник: @ai_newz Telegram, анонс весов 16 апреля и 22 апреля; Hugging Face, модели в открытом доступе. Tier 2.

5. Андрей Карпатый: ставка на индивидуальную репутацию против корпоративных бюджетов

Карпатый, бывший директор AI в Tesla, бывший research scientist в OpenAI, автор популярных образовательных видео и проектов (nanoGPT, llm.c, micrograd). К 2026 году он работает один, без команды и без корпорации.

В октябре 2025 он опубликовал репозиторий с готовыми Skills для разных задач. К 25 апреля 2026, 70 000+ звёзд на GitHub, +44K за неделю в начале апреля. Anthropic к марту 2026 формализовала Skills как стандарт. Microsoft к 25 апреля выпустила свой официальный 132-skill репозиторий. Один человек запустил сдвиг, который потом подхватили две корпорации.

Это структурно интересный кейс. Карпатый не конкурирует ни с Anthropic, ни с Microsoft, он опережает их по 6-9 месяцев, потому что у него нет квартального отчётного цикла. Outside view видит слепые пятна incumbents. Это работает не через размер бюджета, а через скорость наблюдения.

Источник: github.com/karpathy, Tier 1 (recognized expert, верифицируется через GitHub-метрики).

Почему underdog'и в AI обыгрывают лидеров

Эта закономерность не случайна. Четыре механизма работают вместе.

Constraint breeds invention. Крупный игрок может купить compute. Underdog обязан изобрести способ обойтись 1/100. DeepSeek Sparse Attention, прямое следствие compute-shortage. Если бы у них был неограниченный H100, они бы пошли в dense scaling, как все. Их ограничение стало их преимуществом.

Skin in the game выше. У underdog'а нет публичных квартальных отчётов. Они могут делать ставки, которые лидер не может. MIT- или Apache-лицензия на frontier-модель противоречит экономической модели подписочного бизнеса. Underdog'у нечего терять, поэтому open weights становится его экономическим оружием.

Outside view видит слепые пятна. Anthropic 2 месяца не замечал собственные постмортем-баги, внутренняя команда смотрела «как обычно». Саймон Уиллисон со стороны увидел инфляцию токенизатора Opus 4.7 через 24 часа после релиза. Карпатый увидел паттерн Skills задолго до того, как Anthropic его формализовал.

Открытие против объявленного «решено». Underdog'и часто работают над тем, что лидеры объявили решённым. Sparse Attention вернулась через DeepSeek V4 после того, как индустрия ушла в dense scaling. Skill memory вернулась через Карпатого и OpenSpace после того, как индустрия ушла в long-context. Когда мейнстрим говорит «направление закрыто», для внимательного наблюдателя это сигнал, что направление открылось заново.

Что делать с этим знанием

Если вы строите AI-стек в команде: добавьте в свой технологический пайплайн как минимум одного underdog'а параллельно с лидером. Конкретный вариант на 25 апреля 2026, DeepSeek V4 Flash через OpenClaw как backup-стек к Anthropic API. Один день настройки, экономия 80-90% бюджета на 60% задач.

Если вы инвестируете в AI-стартапы: хайповый раунд лидера обычно уже на цене pre-IPO. Underdog с асимметричной ставкой (constraint-driven, open-source, indie-research) часто на 10-50× дешевле и при этом на горизонте 18 месяцев показывает большую CAGR.

Если вы строите контент или образование вокруг AI: учить про лидеров, это рассказывать про вчерашний день, потому что у лидера всё уже задокументировано в пресс-релизах. Учить про underdog'ов, это давать аудитории просвет в завтрашний.

Главное

Каждое крупное движение в AI за последние 8 лет начиналось не с лидера. Transformer был side-project. ChatGPT, демо. LLaMA, утечка. DeepSeek V3, небольшая китайская команда. Карпатый-skills, один человек.

В 2026 пять underdog'ов уже подняли голову. DeepSeek сменил ценовой этикет всей индустрии. Moonshot показал, что модель может работать 12 часов автономно. OpenSpace вернул skill memory. Qwen дал юрисдикционную альтернативу для CN/RU. Карпатый запустил Skills-стандарт.

Кто-то из них через 18 месяцев будет тем, на кого равняются. Кто-то через 18 месяцев будет купленным или забытым. Угадать конкретно, невозможно. Можно только следить внимательнее, чем за пресс-релизами лидеров.

Это и есть ставка.
Больше разборов AI для бизнеса - в Telegram: Telegram

Источники

Tier 1 :

  1. VentureBeat, DeepSeek V4 1/6 cost vs Opus 4.7, независимое сравнение цен.
  2. Bloomberg, DeepSeek unveils V4, официальное освещение релиза.
  3. github.com/microsoft/skills, Microsoft Skills repo, 132 skills.

Tier 2:
4. github.com/HKUDS/OpenSpace, README, бенчмарк GDPVal, инструкции установки.
5. github.com/karpathy, GitHub аккаунт Карпатого, метрики звёзд верифицируемы публично.

2
Начать дискуссию