SENNA Neuro: пространственная архитектура сетей для нейроморфных вычислений

SENNA Neuro: пространственная архитектура сетей для нейроморфных вычислений

Границы текущих подходов

Глубокое обучение за последнее десятилетие совершило рывок, который мало кто прогнозировал. Трансформеры, диффузионные модели, large language models - всё это работает. Но современные нейросети устроены совсем иначе, чем биологический мозг, и это инженерная проблема.

Классическая нейросеть - граф вычислений. Данные проходят через слои, обучение идёт через обратное распространение ошибки. Между проходами у сети нет внутреннего времени, динамики и состояния. Мозг устроен иначе: нейроны живут в непрерывном времени, обмениваются импульсами, формируют и разрушают связи. Информация кодируется во временных паттернах спайков - когда именно нейрон выстрелил, с какой частотой, в какой последовательности.

Spiking neural networks (SNN) пытаются это моделировать, но большинство фреймворков наследуют архитектуру от deep learning: сеть описывается как последовательность слоёв, пространство игнорируется. SENNA (Spatial-Event Neuromorphic Network Architecture) построена на других принципах.

Пространство, события, фрактальность

В биологическом мозге пространство - физическое ограничение, определяющее всю архитектуру. Нейрон образует синапсы только с теми, до кого дотягивается аксон. Сигнал идёт с конечной скоростью, задержка зависит от расстояния. Кора организована в колонки и слои с разной локальной и дальней связностью. Именно эти ограничения порождают структуру, специализацию и эффективность.

В SENNA каждый нейрон существует в трёхмерном пространстве с конкретными координатами. Связи формируются на основе пространственной близости. Задержка передачи спайка пропорциональна расстоянию между нейронами. Топология возникает из пространственной структуры.

Связность организована фрактально, по аналогии с биологическим коннектомом. Плотные локальные кластеры (кортикальные колонки) объединяются в регионы, регионы - в зоны. На каждом уровне иерархии внутренняя связность значительно выше внешней, но межкластерные связи обеспечивают передачу обобщённой информации. Такая структура автоматически порождает сеть «малого мира» - высокий коэффициент кластеризации при малой средней длине пути. Это свойство обнаружено в коннектоме большинства изученных организмов, от C. elegans до человека.

Вычисления в SENNA событийны. Базовая единица - спайк-событие с точной временной меткой. Вычисления происходят только там, где есть активность. Время - непрерывная величина, и разница в миллисекундах между спайками определяет, усилится связь или ослабнет (STDP). Для разреженно активных сетей такой подход даёт выигрыш на порядки по сравнению с потактовой симуляцией.

Волновая вычислительная физика

Из-за локальности связей и ненулевых задержек информация в SENNA распространяется волновыми фронтами. При стимуляции группы нейронов от них расходится расширяющийся фронт активности со всеми свойствами физической волны: длина волны, амплитуда, фаза, частота.

Когда два волновых фронта встречаются, они интерферируют. Совпадение фаз усиливает сигнал (конструктивная интерференция), противофаза - гасит (деструктивная). Паттерн интерференции в обрабатывающем объёме уникален для каждого входного стимула - подобно тому, как объект создаёт уникальную голографическую картину. Выходной слой обучается распознавать именно эти интерференционные картины.

Области низкой плотности нейронов и тормозные барьеры вызывают дифракцию - волна огибает препятствия, фокусируется или расходится. Структурная пластичность (прунинг и нейрогенез) формирует эти пустоты и барьеры целенаправленно. Сеть выстраивает собственную «оптическую систему» в процессе обучения.

При отражении волн от границ решётки возникают стоячие волны - самоподдерживающиеся паттерны активности. Они служат механизмом рабочей памяти: информация удерживается в резонансных модах определённой области, а несколько элементов хранятся одновременно на разных частотах (мультиплексирование).

Голографический принцип даёт архитектуре устойчивость: каждый фрагмент интерференционной картины содержит информацию о целом с меньшим разрешением. Повреждение части объёма снижает точность, но не уничтожает хранимую информацию. Это проверяемое свойство - удаление 10% нейронов должно снижать точность не более чем на 5%.

Многоуровневая пластичность и глиальная подсистема

Пластичность в SENNA работает на нескольких уровнях. STDP формирует функциональные паттерны. Гомеостаз удерживает каждый нейрон в целевом диапазоне частот. Структурная пластичность перестраивает топологию - ненужные связи отмирают, новые прорастают. Три механизма работают одновременно: сеть обучается, стабилизируется и адаптирует свою архитектуру.

В целевом видении SENNA включает глиальную подсистему - «вторую сеть» с собственной динамикой. Астроциты покрывают домены из нескольких нейронов, модулируют синаптическую эффективность, отслеживают энергетический баланс и распространяют между собой медленные кальциевые волны, координирующие активность на масштабе целых регионов. Олигодендроциты ускоряют проведение по часто используемым путям (адаптивная миелинизация), создавая «скоростные магистрали» - аналог белого вещества мозга, который возникает как результат обучения. Различие скоростей проведения обогащает интерференционные картины и превращает миелинизацию в настройку вычислительного интерферометра.

Архитектура включает цикл бодрствование-сон: в медленноволновой фазе ансамбли реактивируются и консолидируются, в REM-фазе случайно комбинируются для обнаружения новых ассоциаций. Нейрогенез - рождение новых нейронов в специальных нишах - позволяет наращивать вычислительную ёмкость там, где она нужна, и противодействует катастрофическому забыванию.

Практические перспективы

Сочетание пространственности, волновых вычислений и многоуровневой пластичности открывает конкретные направления применения.

Обработка событийных потоков. Аудио, данные с event cameras, нейроинтерфейсы - потоки событий, для которых SNN является естественной вычислительной моделью. SENNA обрабатывает их без искусственной дискретизации.

Мультимодальная интеграция. Разные грани 3D-решётки принимают данные от разных модальностей. Волны встречаются в объёме, конструктивная интерференция усиливает совместимые стимулы. Фрактальная топология обеспечивает интеграцию на нескольких масштабах.

Аномальное детектирование. Аномальный вход создаёт волну, не совпадающую с выученными резонансными модами. Отсутствие резонанса проявляется в нетипичном распределении активности - детектирование происходит как побочный продукт нормальной работы сети.

Генеративный режим. Переключение в состояние, промежуточное между бодрствованием и REM (повышенная хаотичность, умеренная нейромодуляция), позволяет спонтанно комбинировать выученные ансамбли и генерировать новые паттерны.

Continual learning. Гомеостаз, метапластичность и нейрогенез делают непрерывное обучение свойством архитектуры - новые задачи осваиваются без потери старых знаний.

Энергоэффективность и нейроморфное железо. 3D-топология SENNA напрямую отображается на технологии трёхмерных интегральных схем. Фрактальная иерархия реализуется через иерархическую компоновку чипов. На нейроморфных процессорах (Intel Loihi, SpiNNaker) спайковые сети уже показывают на порядки меньшее энергопотребление.

Инженерная позиция

Ядро SENNA написано на C++23 - simulation engine с миллионами событий в секунду требует предсказуемой работы с памятью и контроля над layout данных. Python используется для конфигурации, обучения и анализа. Состояние сети полностью сериализуемо. Метрики экспортируются в Prometheus/Grafana. 3D-визуализатор показывает волновые фронты, интерференционные картины, миелинизированные пути и кальциевые волны астроцитов в реальном времени. Всё необхрдимое по экспериментам в HDF5.

Дорожная карта включает расширение биологической динамики (дендритная обработка, нейромодуляция, R-STDP), мультирегиональные сети, продвинутое кодирование, GPU-ускорение и нейроморфный backend для экспорта на специализированное железо.

Стадия говтовности MVP (текущий фокус):

- оптимизировать механизмы моделирования, обучения и вычисления
- расширить возможности визуализации и наблюдаемости

Что будет дальше:

- более богатые стратегии кодирования/декодирования (временное кодирование, популяционное кодирование)
- новые правила обучения, выходящие за рамки STDP (R-STDP, пластичность, модулируемая вознаграждением)
- более сложная биологическая динамика (разрыв, адаптация, нейромодуляция, дендритные вычисления)
- GPU для крупномасштабных симуляций
- топологии мультирегиональных сетей
- потоковая передача данных, экспорт данных о всплесках для внешнего анализа
- набор для сравнительного анализа с SNN frameworks
- полная документация по API и примеры использования

Ссылка на GitHub:

1 комментарий