Китайцы сломали контекст. MiniMax-M1 — новый король Open Source
Мы думали, что DeepSeek R1 — это предел. Но сегодня ночью (10 февраля) китайская лаба MiniMax выкатила монстра — M1.
Это первая в мире Open-Source модель с Гибридным Вниманием (Linear + Attention) и контекстом в **1 Миллион Токенов**.
1. Память слона: 1М токенов — это примерно 10 книг "Война и мир". Вы можете скормить ей весь код вашего проекта, всю документацию, все логи за месяц. И она не "забудет" начало.
2. Архитектура: Это не просто трансформер. Это гибрид (Lightning Attention). Она работает в 2-3 раза быстрее на длинных текстах, чем GPT-4o.
3. Бесплатно: Веса открыты. Вы можете скачать её на свой сервер (привет, RunPod!) и использовать без цензуры и API-лимитов.
Сравнение:
DeepSeek R1: Король логики и кода (Reasoning). MiniMax M1: Король объема и памяти (Long Context).
Эра RAG (когда мы нарезали документы на кусочки) подходит к концу. Зачем искать кусочки, если модель может прочитать **всю книгу целиком**?