Как собрать кинематографичное ai-видео через историю, структуру и контроль

Это видео сделала за пару вечеров перед новым годом больше как новогоднюю мини-историю.

И после публикации в комментариях стали появляться вопросы:

- "расскажите по процессу создания видео подробнее",

- "в какой нейронке делали видео? Очень качественно 🔥"

- "для чего нужен апскейл и как правильно им пользоваться?"

И я поняла, что людям важен не сам ролик, а логика процесса.

маленький кусочек видео

Поэтому в этой статье кратко решила показать, как собирать такие длинные ai-видео:

- где брать идеи и вдохновение,

- как сохранять консистентность персонажа на протяжении всего видео,

- какие нейросети лучше использовать, чтобы не зависнуть с видео на неделю,

- для чего использовать апскейл и где он не нужен.

Все видео собрано в боте Syntx (ссылка на него есть в моем Телеграм-канале). Там же полное видео.

С чего на самом деле начинается такое видео

Большая ошибка - начинать ai-видео с выбора нейросети.

В моём случае всё началось с вопросов: что зритель должен почувствовать от просмотра видео? Что я хочу им сказать?

Где брать идеи и вдохновение?

Дам список из нескольких сервисов, в том числе для профессионалов, где можно ежедневно пополнять запасы вдохновения:

🧠 платформы по визуальным референсам

artstation.com

профессиональные портфолио художников и студий - отличное место для поиска композиции, цвета, настроения и стилистических решений.

behance.net

проекты в разных жанрах - от киношных кадров до motion art. Идеально для вдохновения по атмосфере.

dribbble.com

мини-видео, анимация, концепты - полезно, если нужен современный визуальный язык, а не классический арт.

Pinterest

мощная визуальная база по настроению, цветам, драматургии кадров - особенно для storyboarding и mood-boards.

🎥 профессиональная платформа для развития насмотренности режиссёра

ShotDeck

💡 крупнейшая база кадров кино высокого качества 📌 категоризация по:

  • цвету
  • композиции
  • эмоциям
  • жанру
  • объектам

⚡ нельзя недооценивать - это идеальная база, чтобы учиться кинематографическому кадру как таковому.

👉 например: искать «close-up emotion», «silhouette», «Winter», «Horse» — и понимать как расставлены свет, глубина, композиция.

Вернемся к процессу созданию видео. Сначала появляется внутренняя структура истории, а не кадры.

В моем случае - это:

  • есть дом - тёплый, живой, знакомый.
  • есть пауза - сомнение, остановка, решение.
  • есть путь - не резкий, а осознанный.

Только когда эта логика сложилась, стало понятно:

  • какие сцены нужны,
  • где вообще не стоит показывать лицо персонажа,
  • где лучше оставить статичный кадр, а не движение.

Я изначально закладывала сцены так, чтобы нейросети не могли всё испортить.

Если сцена логична - её проще реализовать.

Только после этого этапа можно думать о инструментах. Не «какая нейросеть лучше», а какая подойдёт под конкретную задачу сцены.

Логика пайплайна выглядит так:

  1. сначала создается исходный образ персонажа - у меня уже он был (я делала в Nano Banana Pro)
  2. затем этот образ фиксируется и добавляются ракурсы для сцен (Nano Banana Pro)
  3. после этого добавляется движение через анимацию изображений в Kling 2,6.
  4. и только в конце усиливается качество и детализация через апскейл (Topaz)
  5. готовые кусочки видео соединяем в CapCut.

Благодаря использованию этих нейросетей, процесс создания полноценного минутного видео занял не неделю, а два вечера по 2-3 часа.

Пройдемся по каждому этапу:

- Создание ракурсов в Nano Banana Pro с помощью фото персонажа. Берем исходные фото персонажа и пишем очень простые промпты для смены ракурсов:

исходное фото
исходное фото

Промпт:

"Сделай ракурс с плеча"

"Сделай ракурс сбоку, камера находится снизу, девушка смотрит в камеру"

Таким образом делаем столько ракурсов, сколько нужно для полной сцены.

Это решает сразу две проблемы:

- консистентность персонажа сохраняется от сцены к сцене.

- можно загружать готовые ракурсы в нейросеть для анимации и таким образом полностью контролировать процесс видео (чем оно начинается и чем оно заканчивается).

- Когда будут готовы хотя бы два ключевых кадра для анимации сцены, можно идти в Kling 2.6 или Veo 3.1 Fast - режим Image to video. Загрузить кадры и написать промпт для анимации.

Как пример: берем два кадра

Пишем промпт:

"кинематографичная съемка. рука девушки медленно поднимается и протягивается к лошади. она еще не решила, гладить ее или нет. как будто пробует сделать это и преодолевает свое сопротивление. рука на миг застывает в воздухе, затем девушка делает шаг вперед , решается и дотрагивается ласково до лошади"

Готовое видео:

готовая сцена до апскейла из двух ключевых кадров

Мы видим, что благодаря ключевым кадрам (keyframes) у нейросети было точное понимание, что должно быть в видео - какое начало и какое завершение.

- Для чего нужен апскейл. Где его точно нужно использовать, а где он уже не нужен.

Я всегда раньше использовала апскейл и для фото и для видео. В Syntx боте есть два хороших апскейла для этих задач (ссылка на Syntx в моем Телеграм канале).

Для фото: 🪁 Clarity Upscaler, который делает фото чётче, детальнее и выразительнее.

Для видео: 💠 Topaz AI. Улучшает качество видео х2, есть профессиональные настройки и настройки по умолчанию.

Сейчас почти все изображения для видео я создаю в Nano Banana Pro. Он выдает качество фото 4К, поэтому апскейлер для фото в этом случае не нужен.

Это хорошо тем, что в нейросеть для анимации мы загружаем уже фото высокого качества, тем самым повышая наши шансы на качественную генерацию.

А вот улучшать качество видео необходимо и с этим отлично справляется Topaz. Потому что - даже если сам контент хороший, идея интересная, а подача грамотная, видео в 720p или с мыльной картинкой подсознательно считывается как что-то дешёвое, второсортное, несерьёзное. Это происходит не потому, что зритель придирается, а потому что за последние годы планка визуального качества в интернете сильно выросла.

- Как еще сохранить консистентность персонажа, кроме того метода, про который я уже сказала?

Этот метод немного сложнее, чем использование ракурсов в Nano Banana Pro.

Использовать ai-сервисы для генерации 3d моделей. Например:

- Worldlabs.ai - генерация фона для видео.

- Rodin 3d V2 - создание ракурсов в 3d пространстве.

Эту тему в данной статье разбирать не буду, потому что это достойно полноценной статьи.

В заключение хотелось бы напомнить, что хорошие сцены получаются не из-за «секретных промптов», а из-за понимания: зачем этот кадр, что он добавляет, и когда лучше ничего не усложнять.

Больше про нейросети - рассказываю в моем Телеграм-канале.

2
Начать дискуссию