Liberty AI: «Анти-GAFAM» конструктор или очередной приватный шильдик? Разбираем по косточкам в 2026.
Привет, коллега!
Давай сразу договоримся: я терпеть не могу хайп вокруг «приватного ИИ». Обычно это звучит как «мы не сливаем данные» (спойлер: сливают, просто не туда, куда все). Но сегодня под руку попался проект с амбициозным названием Liberty AI и слоганом «Truly Free AI». Их главный козырь: мы вообще не касаемся Big Tech — ни OpenAI, ни Google, ни Anthropic.
Звучит красиво. Но как инженеру мне этого мало. Давай залезем под капот. Что там с архитектурой? На чем они зарабатывают? И главное — действительно ли можно сделать быстрый и умный LLM, полностью избежав «великих корпораций» в 2026 году?
Спойлер: кое-что у них получается, но дьявол, как обычно, в деталях реализации.
🧬 Что такое Liberty AI на самом деле?
Если отбросить маркетинг, Liberty AI — это платформа-агрегатор и оркестратор открытых и децентрализованных моделей. Они не разрабатывают свою фундаментальную модель (как, скажем, DeepSeek или Mistral). Их миссия, судя по манифесту на сайте, — создать прослойку, через которую пользователь общается с LLM, но ни один запрос никогда не уходит к проприетарным API OpenAI, Google или Anthropic.
Основатели: Информации о команде на сайте нет (что уже минус для аналитики — хотелось бы видеть бэкграунд). Но по философии очень похоже на движение за децентрализованный AI (вроде petals.ml или together.ai), только упакованное в удобный интерфейс для простых смертных.
Философия продукта строится на трёх китах:
- Приватность как абсолют: Никакого «чтения» ваших данных большой корпорацией.
- Децентрализация: Распределённые вычисления вместо единого дата-центра.
- Свобода от цензуры: Ответы не подрезаются под корпоративные политики.
⚙ Как это работает под капотом? (Моё инженерное предположение)
Раз они обещают «zero exposure to OpenAI/Google», значит, используется стэк открытых технологий. Судя по современным трендам, архитектура Liberty AI может выглядеть так:
- Оркестратор запросов: Твой запрос приходит на сервер Liberty. Дальше хитрый роутер решает, какой опен-сорс модели его отдать.
- Пул моделей: Скорее всего, используется связка из Llama 3 (3.3 или даже 4, если вышла к 2026), Mixtral (или её последователи), Gemma (от Google, но открытая — ирония!) и Qwen от Alibaba. Ключевое — они поднимаются не на серверах Microsoft Azure (как у OpenAI), а либо на собственных мощностях Liberty, либо, для выполнения обещания «децентрализации», на нодах участников сети.
- Децентрализованный слой: Вот тут самое интересное. Если они хотят «полностью децентрализованную инфраструктуру», то, вероятно, используют что-то вроде Libp2p (протокол для пиринговых сетей, как в IPFS) для соединения вычислительных узлов. Твой запрос может дробиться и выполняться на десятках разных компьютеров по всему миру, а потом собираться обратно.
- Отсутствие хранения: Они пишут, что данные не уходят на обучение проприетарным моделям. Это значит, после генерации ответа сессия, скорее всего, забывается (или хранится в зашифрованном виде по выбору пользователя).
Технические метрики (из данных сайта)
- Время ответа: <7 секунд. Для распределённой сети это очень достойно (учитывая, что centralized ChatGPT отвечает быстрее).
- Хранение данных: Пользователь сам выбирает срок хранения (от 7 дней до года).
- Тариф Pro: $9.99/мес.
🆚 Сравнение с «мейнстримом»: честный разбор
Давай наложим их маркетинговую таблицу на реальность.
🥇 Сильные стороны Liberty AI
- Юридическая безопасность. Если ты стартап в Европе или работаешь с медицинскими данными, отправка промптов в OpenAI может быть нарушением GDPR. Liberty предлагает обходной путь: данные просто не покидают контур, где работают опен-сорс модели.
- Никакого Vendor Lock. Ты не привязан к политике OpenAI. Если завтра они решат банить всех за «неугодные» вопросы, Liberty останется островком свободы.
- Цена. Бесплатный тариф с неограниченным количеством запросов — это смело. Обычно «бесконечные» запросы упираются в rate limit, но если они используют распределённую сеть, это реально дешевле.
🥉 Слабые стороны и скрытые риски (куда без них)
- Качество «свободных» моделей. Сравнивать Llama-3-70B или Qwen-2.5-72B с GPT-4.5 или Claude-3.7 — это как сравнивать «Волгу» и Tesla. Да, они тоже едут. Но в хардкорном коде, логике и следовании сложным инструкциям проприетарные гиганты пока впереди.
- Что значит «децентрализованная инфраструктура»? Если это аналог майнинга, где добровольцы жертвуют мощности своих GPU, то встаёт вопрос: а кто эти люди? Не подсунут ли они вредоносный ответ на этапе вычислений? В децентрализованных сетях это называется проблемой «византийских генералов», и решается она очень нетривиально.
- Ответственность за «свободу». Они пишут «цензур-фри». Звучит круто для либертарианцев. Но на практике это значит, что через их платформу можно генерировать инструкции по созданию взрывчатки или дипфейки порно. Вопрос: как долго им позволят существовать хостинг-провайдеры и платежные системы (Visa/Mastercard), если Liberty станет убежищем для всего подряд?
- Прозрачность. На сайте нет ни блога, ни GitHub, ни имён фаундеров. Для платформы, которая просит доверять ей «полную приватность», это тревожный звоночек. Кто гарантирует, что они сами не собирают данные?
💡 Кому это реально нужно в 2026?
- Разработчикам AI-агентов. Если ты строишь агента, который должен работать с чувствительными корпоративными документами, но не хочешь переплачивать за выделенные инстансы у OpenAI.
- Активистам и журналистам. Тем, кому важно, чтобы их поисковые запросы не попали в базы данных спецслужб или рекламных сетей.
- Хоббистам. Кому надоели еженедельные скандалы с утечками данных в Big Tech, и кто готов пожертвовать качеством ответов ради чистоты совести.
🧭 Прогноз: Что с ними будет дальше?
Liberty AI попала в интересную нишу: «анти-GAFAM» ИИ-провайдеры. Это тренд 2026 года, на волне усталости от диктата нескольких корпораций. Если они смогут:
- Сделать действительно простой онбординг (судя по сайту — да).
- Доказать техническую состоятельность децентрализации (снизить latency и обеспечить верификацию вычислений).
- Не попасть под регуляторные санкции за излишнюю «свободу слова».
...то у них есть шанс занять ту нишу, которую когда-то занимал DuckDuckGo в поиске: небольшой, но очень лояльный процент пользователей, для которых приватность важнее удобства.
Если же это просто маркетинговый ход, и под капотом те же проприетарные модели через прокси — их быстро раскусят и забудут.
✍ Мой вердикт
Проект интересный. Сама идея создания прослойки из открытых моделей с железным обещанием не касаться Big Tech — это достойный инженерный вызов. За $0 в месяц попробовать точно стоит (особенно если вы гоняете тонны промптов и боитесь бана в OpenAI).
Но доверять им секреты коммерческой стратегии я бы пока не спешил. Пока не увижу исходников или хотя бы детального white paper по архитектуре.
А теперь вопрос к тебе: Готов ли ты пожертвовать качеством ответов (ведь open-source LLM пока слабее) ради гарантии, что твои запросы не прочитает Google? Или для тебя скорость и точность важнее?
Вот ссылка на сам проект Liberty AI
🙌 Если статья зашла — подписывайся, дальше разберём, как поднять свою «домашнюю» альтернативу ChatGPT на базе Llama и сравним её скорость с Liberty. Жду в комментариях! 👇