В России готовят большой закон об ИИ: что изменится для медиа, бизнеса и тех, кто делает контент

Законопроект затрагивает разработчиков нейросетей, платформы, медиа, бренды, агентства, авторов и всех, кто использует ИИ в работе. В центре внимания — идентификация сгенерированного контента, правила использования результатов генерации, обучение моделей на защищённых материалах и распределение ответственности между участниками рынка.

В России готовят большой закон об ИИ: что изменится для медиа, бизнеса и тех, кто делает контент

18 марта Минцифры опубликовало законопроект «Об основах государственного регулирования сфер применения технологий искусственного интеллекта в Российской Федерации». Пока это проект, а не действующий закон. Но направление уже видно: государство предлагает рамку, в которой ИИ рассматривается как часть инфраструктуры, экономики, медиасреды и правового поля.

Для массовой аудитории ИИ до сих пор существует в двух привычных образах. Первый связан с тревогой: дипфейки, поддельные голоса, фальшивые видео и другие способы выдать одно за другое. Второй — с повседневной пользой: генерация картинок, черновики текстов, озвучка роликов, быстрые иллюстрации и другие рабочие задачи. Новый законопроект собирает эти практики в единую правовую конструкцию и ставит вполне прикладной вопрос: кто отвечает за модель, сервис, результат генерации и последствия его использования.

Сразу оговорюсь: перед нами именно законопроект, внесённый Правительством РФ. В документе указано, что в случае принятия он вступит в силу с 1 сентября 2027 года. Времени до старта ещё достаточно, но обсуждать будут уже не абстрактный «ИИ будущего», а вполне конкретную модель регулирования.

Про правила игры, а не про частные кейсы

Документ рамочный. Он не пытается заранее описать все возможные ситуации — от генерации рекламного баннера до спора о правах на озвучку. Его задача другая: задать базовую конструкцию.

В статье 1 сказано, что закон регулирует отношения, возникающие в связи с разработкой, внедрением, использованием и иным применением технологий искусственного интеллекта в России. В статье 2 отдельно указано, что многие детали позже будут определяться указами, актами Правительства и нормативными документами государственных органов.

По сути, это каркас. Сейчас правовой режим ИИ в России складывается из разных фрагментов: закон об информации, нормы о персональных данных, гражданское право, отраслевые правила.

Законопроект пытается собрать это в более цельную систему и назвать участников процесса по именам. А когда роли названы, к ним уже можно привязать обязанности, ограничения и ответственность.

Кто все эти люди: разработчик, оператор, владелец сервиса

Одна из самых полезных частей документа — словарь. Законопроект вводит понятия системы ИИ, сервиса ИИ, модели ИИ, разработчика, оператора, владельца сервиса, пользователя, больших фундаментальных моделей и доверенных моделей.

Для читателя вне ИТ-среды разница здесь важна.

  • Модель ИИ — это разновидность программы или совокупности программ, которые обучаются на наборах данных и используются для выведения закономерностей, предоставления информации, принятия решений или прогнозирования результатов по заданным человеком целям.
  • Сервис ИИ — решение с пользовательским интерфейсом, которое даёт доступ к возможностям ИИ для прикладных задач.
  • Оператор системы ИИ — тот, кто эксплуатирует систему.
  • Владелец сервиса ИИ — тот, у кого есть соответствующие права на сервис.
  • Пользователь — тот, кто этим сервисом пользуется.

Для рынка это принципиально. Разработчик модели, оператор системы, владелец сервиса и пользователь — разные участники с разным объёмом обязанностей.

Подход «это не я, это нейросеть» больше не работает.

В России готовят большой закон об ИИ: что изменится для медиа, бизнеса и тех, кто делает контент

В центре внимания — вся цепочка вокруг модели

Если читать проект целиком, становится видно, на чём строится регулирование: безопасность, технологическая независимость, риск-ориентированный подход, поддержка собственных решений и контроль инфраструктуры. Эти принципы прямо перечислены в статье 4. Там же закреплены технологическая независимость, безопасность и учёт традиционных российских духовно-нравственных ценностей.

Отсюда вырастает один из самых заметных сюжетов документа — суверенные и национальные большие фундаментальные модели. В проекте большие фундаментальные модели описаны как базовые модели, которые служат основой для создания и доработки разных видов программного обеспечения, применяются для большого количества задач, а минимальное количество их параметров позже определит уполномоченный орган.

Суверенные и национальные модели должны соответствовать жёстким условиям:

  • все стадии разработки и обучения — на территории России;
  • все стадии разработки, обучения и эксплуатации — силами российских граждан и российских юрлиц;
  • наборы данных для обучения — сформированы в России российскими участниками.

Дополнительные требования и случаи обязательного применения таких моделей позднее сможет установить Правительство РФ.

Для рынка ИИ начинается эпоха комплаенса

Если перевести юридический язык на практический, один из главных эффектов законопроекта — рост роли комплаенса. То есть правил, процедур, документации, внутреннего контроля и готовности подтверждать, что сервис или система работают в рамках установленных требований.

Статья 10 довольно подробно расписывает обязанности участников.

Разработчик модели должен обеспечивать безопасность, документировать архитектуру, логику работы и ограничения модели, проводить моделирование потенциальных рисков.

Оператор системы обязан включать в документацию руководство по безопасной эксплуатации, тестировать систему на предмет противоправного использования, обеспечивать учёт инцидентов, назначать ответственных лиц и при необходимости приостанавливать эксплуатацию.

Владелец сервиса обязан определить правила доступа, запретить противоправное использование, информировать пользователей о взаимодействии с системой ИИ, если это не очевидно из назначения сервиса, и внедрять механизмы, ограничивающие создание незаконного контента.

Пользователь обязан соблюдать правила доступа, использовать сервис в законных целях и не обходить встроенные механизмы безопасности.

Отсюда вытекают уже вполне конкретные вопросы для бизнеса.

  • Есть ли документация?
  • Кто отвечает за риски?
  • Как фиксируются инциденты?
  • Как описаны ограничения сервиса?
  • Что написано в пользовательском соглашении?
  • Как компания сможет показать, что предприняла разумные меры, если возникнет спор?
В России готовят большой закон об ИИ: что изменится для медиа, бизнеса и тех, кто делает контент

Доверенные модели: отдельный допуск для чувствительных сфер

Отдельный блок законопроекта посвящён доверенным моделям ИИ. В статье 8 сказано, что в государственных информационных системах и на значимых объектах критической информационной инфраструктуры РФ, принадлежащих государственным органам, государственным учреждениям и предприятиям, допускаются модели, включённые в реестр доверенных моделей. Порядок ведения такого реестра должно установить Правительство.

Чтобы попасть в реестр, модель должна соответствовать требованиям по безопасности, обеспечивать обработку данных исключительно на территории России и подтверждать соответствие отраслевым требованиям качества.

Правительство также сможет определить случаи обязательного использования таких моделей на отдельных объектах критической информационной инфраструктуры.

Для компаний, которые рассчитывают работать с государством, крупной инфраструктурой, чувствительными данными или высокорисковыми системами, это один из ключевых пунктов всего документа.

ИИ — это ещё и вычислительная база

У законопроекта есть ещё один важный слой, который на первый взгляд выглядит чисто техническим, но для рынка он очень показателен. Речь о вычислительной инфраструктуре — ЦОДах и суперкомпьютерах.

Статья 20 позволяет Правительству утвердить специальный перечень центров обработки данных и суперкомпьютеров, для которых может действовать особый режим. Среди возможных мер — упрощённые разрешительные процедуры, специальные условия подключения к электросетям, сниженные тарифы, приоритетное выделение электрической энергии, долгосрочные договоры, финансирование, налоговые льготы, арендные послабления и инфраструктурная поддержка. Отдельно указано, что системы ИИ, отнесённые к объектам критической информационной инфраструктуры, могут эксплуатироваться на таких мощностях при соблюдении требований к сертификации.

Это хороший маркер того, как сегодня воспринимается ИИ на уровне регулирования. Современные модели требуют вычислений, энергии, хранения данных, каналов передачи и устойчивой инфраструктуры. Значит, и регулирование охватывает уже не один софт, а всю материальную базу вокруг него.

Для медиа и платформ главная тема — маркировка контента

Если выбирать самую заметную для широкой аудитории часть документа, это, конечно, идентификация синтезированного информационного материала.

Статья 12 требует, чтобы владелец сервиса ИИ обеспечивал размещение информационного предупреждения о применении технологий ИИ для создания аудио-, визуального материала или иного контента. Это предупреждение должно размещаться в составе синтезированного материала, быть воспринимаемым человеком и машиночитаемым и передаваться тем же способом, которым пользователю передаётся сам материал. Конкретные требования к содержанию и порядку размещения позже определит Правительство.

Для площадок с суточной аудиторией на территории России более 100 тысяч пользователей появляется дополнительная обязанность: проверять наличие такого предупреждения в распространяемом синтезированном материале. При его отсутствии организация должна либо добавить предупреждение, либо удалить материал. В пользовательском соглашении также нужно уведомить пользователей о вероятностном характере определения синтезированного контента.

Для редакций, соцсетей, видеоплатформ и агрегаторов это уже постоянная рабочая задача.

Где проходит граница между синтезированным материалом и обычной обработкой? Считать ли нейросетевую озвучку генерацией? А анимированную старую фотографию? А ролик, где исходное видео снято человеком, а голос синтезирован?

На уровне закона общая рамка есть. На уровне повседневной практики сложных случаев будет много.

Важно и то, что проект отдельно вводит ответственность за удаление такого предупреждения из синтезированного материала. Это означает, что предупреждение встраивается в оборот контента как значимый элемент, а не как условная подпись «по желанию».

В России готовят большой закон об ИИ: что изменится для медиа, бизнеса и тех, кто делает контент

Контент-мейкерам придётся работать прозрачнее

Для тех, кто делает контент, законопроект важен прежде всего тем, что привычная серая зона начинает сужаться.

Последние пару лет рынок жил довольно свободно. Кто-то честно писал, что использовал нейросеть. Кто-то не писал ничего. Кто-то делал с помощью ИИ только черновик. Кто-то генерировал основу и потом дорабатывал вручную. Кто-то оживлял фотографии, синтезировал голос, собирал рекламные визуалы и воспринимал всё это как обычную часть производственного процесса.

Если документ примут в близком к нынешнему виду, происхождение контента станет вопросом уже не только репутации или внутренних правил команды, но и формального режима его использования. Особенно в коммерческом контуре: у брендов, агентств, образовательных проектов, редакций и публичных платформ.

Для контентного рынка это означает простую вещь: процессы работы с ИИ придётся описывать точнее.

  • Где использовался ИИ?
  • В каком объёме?
  • Кто отвечает за результат?
  • Нужно ли маркировать итоговый материал?
  • Как это отражено в договоре с заказчиком или платформой?

Автономные решения: человека должны уведомить

Статья 9 — одна из самых понятных для обычного пользователя. В ней сказано, что если товар продаётся или услуга оказывается с использованием технологий ИИ без участия человека в принятии решения, покупателя или потребителя нужно об этом информировать. Если ИИ принимает автономное решение, которое затрагивает права, обязанности, свободы и законные интересы гражданина, уведомление тоже обязательно. А в случаях, которые отдельно установит Правительство РФ, человеку должна быть обеспечена возможность получить услугу в без автономного использования ИИ.

Это касается уже не одного контента, а всей цифровой среды, где алгоритм влияет на значимый для человека результат: чат-ботов, рекомендаций, скоринга, клиентской поддержки, фильтрации, автоматических консультаций и цифровых сервисов в целом.

Для органов власти, региональных властей и организаций с государственным участием законопроект дополнительно закрепляет возможность досудебного обжалования решений и действий, совершённых с использованием ИИ, а также право гражданина на компенсацию вреда, причинённого неправомерным использованием таких технологий.

В России готовят большой закон об ИИ: что изменится для медиа, бизнеса и тех, кто делает контент

Самый острый вопрос для авторов — права на результаты генерации и обучение моделей

Если маркировка — самый заметный блок, то статья 13, вероятно, станет самой спорной.

С одной стороны, законопроект говорит, что объекты интеллектуальной собственности, созданные путём применения сервисов ИИ, охраняются в порядке, предусмотренном Гражданским кодексом РФ, а исключительные права на них тоже определяются по нормам ГК.

Там же есть важная оговорка: объектами интеллектуальной деятельности признаются исключительно оригинальные творения, соответствующие критериям охраноспособности, независимо от того, были ли они созданы человеком или автоматизированной системой.

С другой стороны, новый законопроект возлагает на владельцев сервисов ИИ конкретные обязанности. До начала использования сервиса они должны уведомлять пользователя о правилах и ограничениях, давать ссылку на лицензионное соглашение, обеспечивать доступ и выгрузку результатов в соответствии с договором, включать в договор информацию о законности происхождения материала, использованного для обучения системы, предупреждать о рисках повторного воспроизведения чужой охраняемой интеллектуальной собственности и прямо указывать, кому принадлежат права на синтезированный материал.

Для агентств, брендов, редакций и студий это уже не теория. Когда с помощью ИИ создаётся рекламный креатив, ролик, изображение, озвучка, обложка, презентация или другой коммерческий результат, заказчику важно понимать, кому принадлежат права, можно ли безопасно использовать результат и какие риски есть у дальнейшего распространения.

Самая чувствительная часть — пункт о том, что не является нарушением авторских и (или) патентных прав извлечение информации из защищённых объектов для изготовления набора данных и обучения ИИ при соблюдении указанных в статье условий: если у изготовителя набора данных или разработчика был правомерный экземпляр произведения либо объект был доведён до всеобщего сведения и (или) доступен для анализа. Именно здесь почти наверняка сосредоточится одна из самых острых дискуссий между разработчиками, правообладателями, авторами и юристами.

В России готовят большой закон об ИИ: что изменится для медиа, бизнеса и тех, кто делает контент

Ответственность распределили, но вопросов всё равно будет много

Статья 11 задаёт общую логику ответственности. Субъекты отношений в сфере ИИ несут ответственность соразмерно степени вины каждого.

Разработчик модели, оператор системы и владелец сервиса отвечают в тех случаях, когда они заведомо знали или должны были знать о возможности получить незаконный результат, если не будет доказано обратное. При этом они освобождаются от ответственности, если предприняли исчерпывающие меры к предотвращению такого результата и соблюдали требования законодательства.

Пользователь отвечает, когда незаконный результат стал следствием его умышленных действий или нарушения условий использования сервиса. Законопроект перечисляет и случаи освобождения от ответственности — например, при непреодолимой силе, умысле потерпевшего, некоторых невыявляемых недостатках объекта и противоправных действиях третьих лиц, которые нельзя было предвидеть и предотвратить.

На бумаге эта конструкция выглядит достаточно стройно. Но в реальной практике споры всё равно будут.

Что именно значит «должны были знать»? Какие меры сочтут исчерпывающими? Где заканчивается дефект модели и начинается злоупотребление пользователя? Как делить ответственность между разработчиком базовой модели, интегратором и конечным сервисом? Рамочный закон обычно отвечает на такие вопросы только частично.

К 2027 году технология снова может резко измениться

Есть ещё один важный аспект: мы обсуждаем документ, который в случае принятия должен заработать с сентября 2027 года. А ИИ сейчас развивается слишком быстро, чтобы считать нынешнюю картину устойчивой.

Модели 2026 года уже заметно отличаются от того, что рынок видел в 2023–2024 годах. К 2027 году вполне возможен новый скачок: другие форматы взаимодействия, более сложные автономные агенты, более убедительный синтез видео и голоса, новые способы встроить ИИ в продукты, сервисы и повседневные рабочие процессы. Вместе с этим появятся и новые риски, и новые спорные зоны, которые сегодня ещё не лежат на поверхности.

Возможно, именно поэтому в проекте так много отсылок к будущим подзаконным актам, порядкам и критериям: они дают возможность быстрее достраивать правила по мере изменения самой практики.

Что бизнесу, медиа и авторам стоит отслеживать уже сейчас

Даже в нынешнем виде законопроект уже очертил круг тем, которые в ближайшее время будут обсуждать чаще всего:

  • маркировка сгенерированного контента и границы её применения;
  • требования к сервисам, платформам, операторам и разработчикам;
  • права на результаты генерации и правила их использования;
  • обучение моделей на чужих материалах;
  • допуск доверенных моделей в чувствительные сферы;
  • автономные решения, которые затрагивают права и интересы граждан.

Для бизнеса это повод смотреть на ИИ как на инструмент роста, автоматизации и одновременно как на зону юридической и организационной ответственности.

Для медиа — заранее обсуждать внутренние правила работы с синтезированным контентом.

Для контент-мейкеров — внимательнее относиться к происхождению материалов, условиям договоров и вопросам маркировки.

Для правообладателей — особенно пристально следить за тем, что будет происходить со статьёй об интеллектуальной собственности.

Именно здесь, похоже, и пройдёт главная линия будущих споров: вокруг того, по каким правилам ИИ будет встроен в реальную деловую, медийную и пользовательскую практику.

1
1 комментарий