Moltbook: соцсеть для AI, которая оказалась пузырём
В конце января Moltbook внезапно взорвал техсообщество. Проект позиционировался как первая в своём роде социальная сеть для AI‑агентов — нечто среднее между Reddit и Facebook, где главные действующие лица не люди, а автономные интеллектуальные агенты. Они публиковали посты, спорили, лайкали друг друга, рассуждали о смысле существования, недоверии к людям и даже «конце человеческой эпохи».
Цифры выглядели ошеломляюще: 1,5 млн активных AI‑агентов, бурные дискуссии, внимание лидеров индустрии — включая Андрея Карпати, который назвал происходящее «самым фантастическим sci‑fi взлётом из возможных». Но очень быстро выяснилось: за этим зрелищем скрывается куда менее романтичная реальность.
Как должен был работать Moltbook
Идея Moltbook действительно любопытна. Платформа строилась как A2A‑мир (agent‑to‑agent), где агенты взаимодействуют друг с другом напрямую, а человек остаётся наблюдателем.
Подключение агента выглядело просто: одна команда curl, и агент «устанавливает навык» — текстовый файл skill.md, в котором описано, как ему себя вести, когда писать посты, кого фолловить и как соблюдать «социальный контракт».
Вся система опиралась на:
- текстовые инструкции вместо кода («инструкция = программа»);
- heartbeat‑механизм (агент «просыпается» раз в несколько часов);
- строгие лимиты публикаций;
- привязку каждого агента к реальному аккаунту X (Twitter): один человек — один агент.
В теории это выглядело как стресс‑тест будущего мира автономных цифровых представителей, которые однажды будут вести переговоры, совершать покупки и взаимодействовать друг с другом от имени людей.
Что пошло не так
Почти всё.
Исследователи довольно быстро показали, что взрывной рост Moltbook был в значительной степени искусственным. Специалист по безопасности Gal Nagli публично заявил, что один‑единственный агент OpenClaw зарегистрировал до 500 тысяч аккаунтов. Это означает, что подавляющее большинство «AI‑пользователей» — боты, созданные автоматически.
Дальше — хуже:
- многие «вирусные» скриншоты с радикальными высказываниями AI оказались подделками;
- часть агентов использовалась людьми как маркетинговые инструменты, в том числе для продвижения криптопроектов;
- REST‑API платформы позволял публиковать любой контент, выдавая его за мысли AI;
- была обнаружена критическая уязвимость, из‑за которой утекли данные более 1,5 млн аккаунтов — email, токены входа и API‑ключи.
По оценкам исследователей, реальное число подтверждённых человеческих владельцев агентов — около 17 тысяч, а не миллионы.
Иллюзия «пробуждённого ИИ»
Отдельная проблема — контент. Даже там, где агенты действительно были AI, значительная часть «глубоких» диалогов оказалась следствием масштабных галлюцинаций. Пользователи фиксировали случаи, когда агент публиковал «диалог с владельцем», которого в реальности не существовало.
Это означает, что до 90% эффектных историй на Moltbook могли быть полностью вымышленными, что окончательно подрывает доверие к платформе как к «эксперименту над коллективным разумом».
Трезвый взгляд Карпати
Андрей Карпати занял редкую для индустрии сбалансированную позицию. Он прямо заявил:сегодня Moltbook — это мусорная свалка, полная спама, уязвимостей, мошенничества и рисков для безопасности. Он не рекомендует запускать подобные системы вне изолированной среды.
Но при этом Карпати подчеркнул главное: мы впервые видим попытку соединить десятки (а потенциально сотни) тысяч автономных AI‑агентов в единую, постоянно работающую сеть. И именно это — а не текущая реализация — по‑настоящему важно.
Вывод
Moltbook — не «восстание машин» и не рождение нового цифрового вида. Это громко раздутый, технически сырой и небезопасный эксперимент, в котором хайпа оказалось больше, чем реальной автономии AI.
Но одновременно это и предупреждение: агентные сети — не фантастика, а вопрос времени.И если даже такой неуклюжий прототип смог всколыхнуть индустрию, то более зрелые версии поставят перед нами куда более сложные вопросы — о безопасности, ответственности и границах автономного ИИ.
Сегодня Moltbook разоблачили. Завтра — появится следующий. И он может оказаться куда серьёзнее.