В 25 раз мощнее H100: NVIDIA выкатила ИИ-модуль для спутников, пока бигтех делит электричество на Земле

В 25 раз мощнее H100: NVIDIA выкатила ИИ-модуль для спутников, пока бигтех делит электричество на Земле

Земной шарик банально закончился. Пока Яндекс и Сбер бьются за мегаватты для своих дата-центров где-нибудь во Владимирской области, Дженсен Хуанг решил, что пора паковать серверы и отправлять их на орбиту. На конференции GTC 2026 NVIDIA выкатила Space-1 Vera Rubin — железяку, которая должна превратить космос в одну гигантскую серверную стойку.

Идея звучит как завязка SCI-FI средней руки, но рынок уже прогрет деньгами инвесторов. Рассказываю, зачем вообще тащить тяжелые ИИ-чипы в вакуум, кто за это платит и почему обычная видеокарта там превратится в тыкву после первой же вспышки на Солнце.

Зачем ИИ-серверу болтаться на орбите?

Если коротко: гонять сырые данные со спутника на Землю и обратно — это долго, дорого и больно. Представьте, что вы пытаетесь загрузить 4K-видео через 3G-модем в переполненной подмосковной электричке. Примерно так же спутники дистанционного зондирования Земли (ДЗЗ) передают терабайты снимков в наземные центры, чтобы нейросети уже тут искали на них пожары, изменения рельефа или корабли конкурентов.

Space-1 решает эту проблему радикально. Модель машинного обучения крутится прямо на борту. Спутник сам фотографирует, сам анализирует данные, делает выводы и скидывает на Землю короткий текстовый или бинарный ответ. Задержки минимальны, экономия трафика колоссальная.

Что под капотом у космической «Веры»

Хуанг заявляет, что новый модуль на архитектуре Vera Rubin в 25 раз превосходит по производительности флагманский H100 в задачах инференса (то есть применения уже готовых моделей). Это тесно интегрированная связка CPU и GPU с высокоскоростным интерконнектом.

Работать на орбите — это вам не в кондиционированном ЦОДе Т-Банка стоять. Космическое железо сталкивается с дикими физическими ограничениями:

  • Радиация. Ионизирующее излучение вызывает «переворот битов» в памяти (Single Event Upsets), из-за чего ИИ начинает жестоко ошибаться. Нужны радиационно-стойкие компоненты.
  • Охлаждение. В вакууме нет воздуха, чтобы сдувать тепло кулерами. Отводить сотни ватт от раскаленного кремния приходится сложными инженерными путями.
  • Лимиты по массе и энергии. Каждый лишний грамм и ватт стоит миллионы рублей при запуске на ракете.

Кто уже в игре и при чем тут Маск с Безосом

Космические ИИ-вычисления — уже работающий бизнес. В ноябре 2025 года стартап Starcloud закинул на орбиту 60-килограммовый спутник с чипом H100 на борту. Они умудрились запустить там гугловскую модель Gemma и даже дообучить нейросеть NanoGPT прямо в космосе. Теперь ребята планируют строить орбитальные станции мощностью 5 гигаватт с солнечными панелями по 4 квадратных километра.

У NVIDIA сейчас в партнерах шесть коммерческих компаний, включая Kepler Communications, которая уже встраивает платформу Jetson Orin в свои спутники для умной маршрутизации данных.

Джефф Безос еще в прошлом году предрекал появление гигаваттных дата-центров в космосе, где всегда светит Солнце. А SpaceX (после слияния с xAI Илона Маска) уже подает заявки регуляторам на запуск миллионов спутников для орбитальных ИИ-вычислений. Google тоже не отстает со своим Project Suncatcher, планируя закинуть TPU-чипы на орбиту к 2027 году.

Земная инфраструктура трещит по швам от аппетитов искусственного интеллекта. Электричество дорожает, энергосети не справляются, а чипы требуют все больше питания. Перенос тяжелых вычислений на орбиту выглядит логичным спасением для бигтеха.

Начать дискуссию