Когда спорт снимают как блокбастер: технологии Олимпиады-2026
Олимпиада-2026 в Милане с первых дней смотрелась иначе — трансляции всё больше напоминали кино. Мне стало интересно, что изменилось и какие технологии за этим стоят.
За весь видео продакшн на Олимпиаде отвечает OBS (Olympic Broadcasting Services) они продумывают и реализуют весь тех.процесс, что и как снято на аренах (камеры, ракурсы, звук, ИИ-повторы). До 2001 года каждая страна-хозяйка Олимпиады создавала всё с нуля. Это приводило к разному качеству картинки и колоссальным тратам. МОК создал OBS как постоянного вещателя, чтобы накапливать экспертизу и ежегодно обновлять технологический стек, не теряя наработки прошлых Игр.
Вот краткий (с техническим уклоном) обзор изменений, которые OBS внедрили в этом цикле:
• Оптика: Large Format в Live-пайплайне
• Computer Vision: Pose estimation и биометрия
• Computer Vision: Volumetric-реплеи
• Телеметрия: RTLS на базе UWB и Sensor Fusion
• Динамика: FPV-экосистема и широкополосный 4K-стриминг
Оптика: Large Format в Live-пайплайне
Исторически спорт снимали на 2/3-дюймовые 3-CMOS сенсоры с B4-оптикой. Это стандарт: зум 100×, огромная глубина резкости, всё в фокусе, но картинка плоская. Большие матрицы (Super 35 / Full Frame) раньше жили только в записи для перебивок, так как они не предназначены для Live-продакшна.
Главный технический челлендж здесь — контроль и синхронизация. Телевизионная камера — это часть системы с удаленным управлением (RCP), общей синхронизацией (Genlock) и мгновенным сведением по цвету. Кинокамеры — это автономные устройства. Инженерам пришлось пересобрать пайплайн так, чтобы кинодевайсы работали по протоколам прямого эфира без задержек. В паре с новыми гибридными объективами это позволило выдать в эфир «киношный» кадр с мягким боке и живым светом прямо во время гонки, не теряя при этом возможности оперативного управления камерой.
Computer Vision: Pose estimation и биометрия
Арена фигурного катания получила одну из самых продвинутых систем видеокамер на Играх. По периметру размещены 14 камер 8K, работающих как калиброванные оптические сенсоры в единой 3D-системе координат. Для каждой вычислены параметры intrinsics (дисторсия, фокусное расстояние) и extrinsics (позиция в пространстве), а синхронизация идет по протоколу PTP с субмиллисекундной точностью. Это позволяет выполнять многовидовую триангуляцию движения.
Поверх геометрии работает CV-конвейер: pose estimation и временное сглаживание траектории (фильтрация Калмана). Система вычисляет высоту прыжка по оси Z относительно плоскости льда, время в воздухе и угловую скорость вращения. Весь цикл от детекции до рендера графики укладывается в 100 мс, что позволяет оверлеям синхронизироваться с фигуристом в реальном времени. То, что кажется дополненной реальностью, на деле является результатом точной фотограмметрии, жёсткой синхронизации и real-time CV-инференса.
Computer Vision: Volumetric-реплеи
В эфире это выглядит так, будто в трансляцию внедрили 3D: время замирает, а камера делает облет вокруг атлета. В сети даже спрашивали: это Gaussian Splatting, NeRF или Photogrammetry? Сама дискуссия в сообществе показательна.
В реальности же для создания такого эффекта на арене разворачивается массив из 60-80 высокоскоростных 4K-камер. Они расставляются по периметру (на 360 градусов) и жестко фиксируются.
В основе пайплайна лежит строгая геометрия: проводится intrinsic/extrinsic калибровка всего парка камер с привязкой к единой 3D-системе координат арены. Синхронизация идет по PTP, иначе при реконструкции неизбежны плывущие артефакты. В реальном времени отрабатывает CV-слой: сегментация спортсмена, multi-view реконструкция объема и рендер виртуальной камеры.
Инфраструктура Alibaba Cloud позволяет уложиться в latency budget 15–20 секунд на весь цикл 3D-реконструкции. Именно такая скорость превращает тяжелый вычислительный процесс в рабочий инструмент прямого эфира, позволяя выдавать объемный повтор почти без задержек.
Телеметрия: RTLS на базе UWB и Sensor Fusion
Трекинг хоккеистов на этих Играх - это полноценная RTLS-система (Real-Time Locating System), интегрированная в инфраструктуру арены. По периметру площадки развёрнута локальная система позиционирования (LPS/RTLS на базе UWB-антенн), а в экипировку игроков интегрированы компактные трекеры. Система вычисляет координаты на льду с сантиметровой точностью (time-of-flight / TDoA-модель, калиброванная геометрия арены), полностью независимо от GPS.
Координаты дополняются инерциальной динамикой: встроенные в модули IMU (акселерометр + гироскоп) фиксируют векторные ускорения. Данные позиционирования и инерциалки объединяются через sensor fusion (на базе расширенного фильтра Калмана). Это гарантирует устойчивость траектории при столкновениях или экранировании сигнала телами игроков. Низкая латентность в десятки миллисекунд позволяет выводить телеметрию тепловые карты и пики скорости в прямой эфир без рассинхрона с видеопотоком.
Динамика: FPV-экосистема и широкополосный 4K-стриминг
FPV-дроны на Олимпиаде-2026 — это не экшн-камера в воздухе, а роботизированный узел вещательной системы. Используются сверхлёгкие кастомные платформы (<250 г для безопасности), способные сопровождать спортсмена на скоростях до 100–120 км/ч. Видео разделено на два контура: пилот получает сверхнизкую задержку (аналоговый/low-latency цифровой канал), а в эфир уходит отдельный broadcast-поток (4K, стабилизация, цветокоррекция, интеграция в режиссуру).
Нейродарвинизм — естественный отбор идей в эпоху ИИ.