Когда ИИ встречает ГОСТ: в России пишут закон о будущем

Добро пожаловать на наш форум!

Спасибо за посещение нашего сообщества. Пожалуйста, зарегистрируйтесь или войдите, чтобы получить доступ ко всем функциям.


Gibby

Автор
Команда проекта

Регистрация
Сообщений
1,971
Репутация
53
Сделок
Как власти планируют контролировать искусственный интеллект?

13.jpg

Рабочая группа, включающая юристов, консультантов и представителей ИИ-компаний, разработала законопроект «О регулировании систем искусственного интеллекта (ИИ) в России». Документ, как сообщает РБК со ссылкой на пять источников, обсуждался на заседаниях в Госдуме, «Деловой России» и на отраслевых площадках. Его подлинность подтвердили два собеседника из IT-сферы.

Законопроект направлен на реализацию Национальной стратегии развития ИИ до 2030 года, утверждённой в феврале 2024 года. Заместитель председателя комитета по информационной политике, член рабочей группы по ИИ в Госдуме Андрей Свинцов сообщил, что по поручению председателя нижней палаты парламента Вячеслава Володина создана рабочая группа «по разработке всего, что связано с законодательством в области ИИ». По его словам, сейчас законодательные инициативы «всерьёз не рассматриваются»: группа создана для того, чтобы «внимательно, детально изучить все запросы от различных отраслей». Он отметил, что в ближайшие месяцы могут появиться несколько инициатив, «которые точечно будут регулировать какие-то отраслевые запросы, вводить какие-то пилотные зоны или пилотные режимы», однако появления законопроекта, который охватит всю сферу деятельности ИИ, в этом году он не ожидает. Среди направлений, которые будут регулироваться в первую очередь, Свинцов назвал маркировку. При этом он подчеркнул, что готового проекта закона в Госдуме пока нет.

В аппарате правительства и Минцифры сообщили, что пока не получали этот проект на рассмотрение, но выразили готовность изучить его в случае поступления.

Законопроект определяет ключевые понятия — искусственный интеллект, технологии и системы ИИ, а также роли разработчика, оператора и пользователя. Особое внимание уделено маркировке: все ИИ-системы, взаимодействующие с пользователями, должны иметь понятное и легко идентифицируемое обозначение.

Законопроект вводит четырехуровневую классификацию по рискам: от минимального до неприемлемого. Последним предлагается запретить разработку и эксплуатацию. Системы с высоким риском — в сфере здравоохранения, транспорта, финансов и правоохранительной деятельности — должны будут пройти обязательную регистрацию и сертификацию. В числе требований — страхование гражданской ответственности операторов таких систем.

Авторы документа также предлагают закрепить ответственность за причинение вреда жизненно важным интересам. Однако в проекте предусмотрены исключения, при которых разработчики и операторы смогут избежать наказания, если докажут соблюдение всех норм и правил.

Один из наиболее чувствительных вопросов касается авторских прав на результат, созданный с применением ИИ. Если творческий вклад человека очевиден, права закрепляются за ним. В остальных случаях — за оператором ИИ-системы на срок до 50 лет.

Если проект будет одобрен, на исполнение его требований разработчикам и операторам ИИ-систем будет отведён один год, а сертификация ранее созданных систем с высоким уровнем риска должна быть завершена за два года.

Источник РБК в одной из ИИ-компаний отмечает, что ранее в правительстве считали регулирование ИИ преждевременным. Вице-премьер Дмитрий Григоренко в феврале 2024 года заявлял, что такое регулирование не планируется как минимум в течение двух лет. По мнению источника, инициативы по саморегулированию со стороны бизнеса уже внедряются, а избыточное регулирование может замедлить развитие отрасли и усилить технологическое отставание. В пример он привёл ЕС, где после принятия закона об ИИ некоторые компании начали сокращать присутствие в регионе.

По словам директора по цифровым технологиям «Ростелекома» Романа Хазеева, мировой опыт пока не сформировал устойчивую практику по определению ответственности в сфере нейросетей и дипфейков. Он подчеркнул, что регулирование должно вводиться после стабилизации процессов и появления устойчивой проблематики.


Международный контекст
В 2024 году Европарламент утвердил Регламент об искусственном интеллекте (EU AI Act). Документ запрещает использование ИИ для подсознательного манипулирования, дистанционной биометрической идентификации в общественных местах и введения «социальных баллов». Системы с высокой степенью риска подлежат обязательной сертификации перед выходом на рынок. Также акт требует маркировки ИИ-контента. За нарушения предусмотрены штрафы до €40 млн или 7% годового оборота.

В США в марте 2024 года обсуждался проект по введению обязательной маркировки ИИ-контента. Китай утвердил аналогичные правила в марте 2025 года: с 1 сентября будет действовать требование сообщать о генерации контента нейросетями, включая контроль со стороны магазинов приложений.

В России обсуждение маркировки ИИ-содержания началось в 2022 году. В 2024 году разрабатывалась концепция закона, предусматривающего использование графических или водяных знаков. В феврале 2025 года Андрей Свинцов вновь предложил ввести обязательную маркировку ИИ-контента.
 
Сверху