Илон Маск заявил, что xAI обучает модель на 10 трлн параметров на суперкомпьютере Colossus 2

А также нейросеть следующего поколения для генерации видео.

Источник: Southwings
Источник: Southwings
  • Глава Tesla Илон Маск рассказал в посте в X, что мощности дата-центра Colossus 2 используют для обучения одновременно семи моделей xAI. Среди них Imagine V2 для генерации изображений и видео, две модели на 1 трлн параметров, ещё две на 1,5 трлн, а также «крупные» версии на 4,6 трлн и 10 трлн параметров (переменных для настройки, которые есть в распоряжении модели).

  • «Ещё кое-что нужно наверстать», — написал предприниматель. В ноябре 2025 года Маск заявлял, что Grok 5 получит 6 трлн параметров и выйдет в 2026 году.

  • OpenAI, Google и Anthropic не раскрывают точное число параметров своих закрытых моделей, но некоторые исследователи оценивают размер продвинутых версий, в том числе Gemini 3 Pro, в 1 трлн параметров.

  • У модели Claude Mythos от Anthropic, которой нет в общем доступе, по слухам, около 10 трлн параметров. Об этом пишут разработчики, которые читали утекшие черновики с сайта компании. Стартап тогда подтвердил, что разрабатывает свою самую крупную модель, но точных данных не привёл. Доступ к файлам ограничили.

  • В 2024 году xAI запустила первый кластер Colossus в штате Теннесси. Первой моделью, которую на нём обучали, была Grok 3. В 2025 году построили Colossus 2 — более крупный дата-центр площадью 92 тысячи км², который называли первым в мире кластером на 1 ГВт. В нём на июль 2025 года было 550 тысяч чипов.

10
3
1
34 комментария