Китайцы сломали контекст. MiniMax-M1 — новый король Open Source

Мы думали, что DeepSeek R1 — это предел. Но сегодня ночью (10 февраля) китайская лаба MiniMax выкатила монстра — M1.

Это первая в мире Open-Source модель с Гибридным Вниманием (Linear + Attention) и контекстом в **1 Миллион Токенов**.

1. Память слона: 1М токенов — это примерно 10 книг "Война и мир". Вы можете скормить ей весь код вашего проекта, всю документацию, все логи за месяц. И она не "забудет" начало.

2. Архитектура: Это не просто трансформер. Это гибрид (Lightning Attention). Она работает в 2-3 раза быстрее на длинных текстах, чем GPT-4o.

3. Бесплатно: Веса открыты. Вы можете скачать её на свой сервер (привет, RunPod!) и использовать без цензуры и API-лимитов.

Сравнение:

DeepSeek R1: Король логики и кода (Reasoning). MiniMax M1: Король объема и памяти (Long Context).

Эра RAG (когда мы нарезали документы на кусочки) подходит к концу. Зачем искать кусочки, если модель может прочитать **всю книгу целиком**?

Китайцы сломали контекст. MiniMax-M1 — новый король Open Source
2
2 комментария