Когда спорт снимают как блокбастер: технологии Олимпиады-2026

Олимпиада-2026 в Милане с первых дней смотрелась иначе — трансляции всё больше напоминали кино. Мне стало интересно, что изменилось и какие технологии за этим стоят.

Когда спорт снимают как блокбастер: технологии Олимпиады-2026

За весь видео продакшн на Олимпиаде отвечает OBS (Olympic Broadcasting Services) они продумывают и реализуют весь тех.процесс, что и как снято на аренах (камеры, ракурсы, звук, ИИ-повторы). До 2001 года каждая страна-хозяйка Олимпиады создавала всё с нуля. Это приводило к разному качеству картинки и колоссальным тратам. МОК создал OBS как постоянного вещателя, чтобы накапливать экспертизу и ежегодно обновлять технологический стек, не теряя наработки прошлых Игр.

Когда спорт снимают как блокбастер: технологии Олимпиады-2026

Вот краткий (с техническим уклоном) обзор изменений, которые OBS внедрили в этом цикле:

• Оптика: Large Format в Live-пайплайне

• Computer Vision: Pose estimation и биометрия

• Computer Vision: Volumetric-реплеи

• Телеметрия: RTLS на базе UWB и Sensor Fusion

• Динамика: FPV-экосистема и широкополосный 4K-стриминг

Оптика: Large Format в Live-пайплайне

Исторически спорт снимали на 2/3-дюймовые 3-CMOS сенсоры с B4-оптикой. Это стандарт: зум 100×, огромная глубина резкости, всё в фокусе, но картинка плоская. Большие матрицы (Super 35 / Full Frame) раньше жили только в записи для перебивок, так как они не предназначены для Live-продакшна.

Главный технический челлендж здесь — контроль и синхронизация. Телевизионная камера — это часть системы с удаленным управлением (RCP), общей синхронизацией (Genlock) и мгновенным сведением по цвету. Кинокамеры — это автономные устройства. Инженерам пришлось пересобрать пайплайн так, чтобы кинодевайсы работали по протоколам прямого эфира без задержек. В паре с новыми гибридными объективами это позволило выдать в эфир «киношный» кадр с мягким боке и живым светом прямо во время гонки, не теряя при этом возможности оперативного управления камерой.

Computer Vision: Pose estimation и биометрия

Арена фигурного катания получила одну из самых продвинутых систем видеокамер на Играх. По периметру размещены 14 камер 8K, работающих как калиброванные оптические сенсоры в единой 3D-системе координат. Для каждой вычислены параметры intrinsics (дисторсия, фокусное расстояние) и extrinsics (позиция в пространстве), а синхронизация идет по протоколу PTP с субмиллисекундной точностью. Это позволяет выполнять многовидовую триангуляцию движения.

Поверх геометрии работает CV-конвейер: pose estimation и временное сглаживание траектории (фильтрация Калмана). Система вычисляет высоту прыжка по оси Z относительно плоскости льда, время в воздухе и угловую скорость вращения. Весь цикл от детекции до рендера графики укладывается в 100 мс, что позволяет оверлеям синхронизироваться с фигуристом в реальном времени. То, что кажется дополненной реальностью, на деле является результатом точной фотограмметрии, жёсткой синхронизации и real-time CV-инференса.

Computer Vision: Volumetric-реплеи

В эфире это выглядит так, будто в трансляцию внедрили 3D: время замирает, а камера делает облет вокруг атлета. В сети даже спрашивали: это Gaussian Splatting, NeRF или Photogrammetry? Сама дискуссия в сообществе показательна.

В реальности же для создания такого эффекта на арене разворачивается массив из 60-80 высокоскоростных 4K-камер. Они расставляются по периметру (на 360 градусов) и жестко фиксируются.

В основе пайплайна лежит строгая геометрия: проводится intrinsic/extrinsic калибровка всего парка камер с привязкой к единой 3D-системе координат арены. Синхронизация идет по PTP, иначе при реконструкции неизбежны плывущие артефакты. В реальном времени отрабатывает CV-слой: сегментация спортсмена, multi-view реконструкция объема и рендер виртуальной камеры.

Инфраструктура Alibaba Cloud позволяет уложиться в latency budget 15–20 секунд на весь цикл 3D-реконструкции. Именно такая скорость превращает тяжелый вычислительный процесс в рабочий инструмент прямого эфира, позволяя выдавать объемный повтор почти без задержек.

Телеметрия: RTLS на базе UWB и Sensor Fusion

Трекинг хоккеистов на этих Играх - это полноценная RTLS-система (Real-Time Locating System), интегрированная в инфраструктуру арены. По периметру площадки развёрнута локальная система позиционирования (LPS/RTLS на базе UWB-антенн), а в экипировку игроков интегрированы компактные трекеры. Система вычисляет координаты на льду с сантиметровой точностью (time-of-flight / TDoA-модель, калиброванная геометрия арены), полностью независимо от GPS.

Координаты дополняются инерциальной динамикой: встроенные в модули IMU (акселерометр + гироскоп) фиксируют векторные ускорения. Данные позиционирования и инерциалки объединяются через sensor fusion (на базе расширенного фильтра Калмана). Это гарантирует устойчивость траектории при столкновениях или экранировании сигнала телами игроков. Низкая латентность в десятки миллисекунд позволяет выводить телеметрию тепловые карты и пики скорости в прямой эфир без рассинхрона с видеопотоком.

Динамика: FPV-экосистема и широкополосный 4K-стриминг

Когда спорт снимают как блокбастер: технологии Олимпиады-2026

FPV-дроны на Олимпиаде-2026 — это не экшн-камера в воздухе, а роботизированный узел вещательной системы. Используются сверхлёгкие кастомные платформы (<250 г для безопасности), способные сопровождать спортсмена на скоростях до 100–120 км/ч. Видео разделено на два контура: пилот получает сверхнизкую задержку (аналоговый/low-latency цифровой канал), а в эфир уходит отдельный broadcast-поток (4K, стабилизация, цветокоррекция, интеграция в режиссуру).

Нейродарвинизм — естественный отбор идей в эпоху ИИ.

2
2
1 комментарий