Как власти планируют контролировать искусственный интеллект?
Рабочая группа, включающая юристов, консультантов и представителей ИИ-компаний, разработала законопроект «О регулировании систем искусственного интеллекта (ИИ) в России». Документ, как сообщает РБК со ссылкой на пять источников, обсуждался на заседаниях в Госдуме, «Деловой России» и на отраслевых площадках. Его подлинность подтвердили два собеседника из IT-сферы.
Законопроект направлен на реализацию Национальной стратегии развития ИИ до 2030 года, утверждённой в феврале 2024 года. Заместитель председателя комитета по информационной политике, член рабочей группы по ИИ в Госдуме Андрей Свинцов сообщил, что по поручению председателя нижней палаты парламента Вячеслава Володина создана рабочая группа «по разработке всего, что связано с законодательством в области ИИ». По его словам, сейчас законодательные инициативы «всерьёз не рассматриваются»: группа создана для того, чтобы «внимательно, детально изучить все запросы от различных отраслей». Он отметил, что в ближайшие месяцы могут появиться несколько инициатив, «которые точечно будут регулировать какие-то отраслевые запросы, вводить какие-то пилотные зоны или пилотные режимы», однако появления законопроекта, который охватит всю сферу деятельности ИИ, в этом году он не ожидает. Среди направлений, которые будут регулироваться в первую очередь, Свинцов назвал маркировку. При этом он подчеркнул, что готового проекта закона в Госдуме пока нет.
В аппарате правительства и Минцифры сообщили, что пока не получали этот проект на рассмотрение, но выразили готовность изучить его в случае поступления.
Законопроект определяет ключевые понятия — искусственный интеллект, технологии и системы ИИ, а также роли разработчика, оператора и пользователя. Особое внимание уделено маркировке: все ИИ-системы, взаимодействующие с пользователями, должны иметь понятное и легко идентифицируемое обозначение.
Законопроект вводит четырехуровневую классификацию по рискам: от минимального до неприемлемого. Последним предлагается запретить разработку и эксплуатацию. Системы с высоким риском — в сфере здравоохранения, транспорта, финансов и правоохранительной деятельности — должны будут пройти обязательную регистрацию и сертификацию. В числе требований — страхование гражданской ответственности операторов таких систем.
Авторы документа также предлагают закрепить ответственность за причинение вреда жизненно важным интересам. Однако в проекте предусмотрены исключения, при которых разработчики и операторы смогут избежать наказания, если докажут соблюдение всех норм и правил.
Один из наиболее чувствительных вопросов касается авторских прав на результат, созданный с применением ИИ. Если творческий вклад человека очевиден, права закрепляются за ним. В остальных случаях — за оператором ИИ-системы на срок до 50 лет.
Если проект будет одобрен, на исполнение его требований разработчикам и операторам ИИ-систем будет отведён один год, а сертификация ранее созданных систем с высоким уровнем риска должна быть завершена за два года.
Источник РБК в одной из ИИ-компаний отмечает, что ранее в правительстве считали регулирование ИИ преждевременным. Вице-премьер Дмитрий Григоренко в феврале 2024 года заявлял, что такое регулирование не планируется как минимум в течение двух лет. По мнению источника, инициативы по саморегулированию со стороны бизнеса уже внедряются, а избыточное регулирование может замедлить развитие отрасли и усилить технологическое отставание. В пример он привёл ЕС, где после принятия закона об ИИ некоторые компании начали сокращать присутствие в регионе.
По словам директора по цифровым технологиям «Ростелекома» Романа Хазеева, мировой опыт пока не сформировал устойчивую практику по определению ответственности в сфере нейросетей и дипфейков. Он подчеркнул, что регулирование должно вводиться после стабилизации процессов и появления устойчивой проблематики.
Международный контекст
В 2024 году Европарламент утвердил Регламент об искусственном интеллекте (EU AI Act). Документ запрещает использование ИИ для подсознательного манипулирования, дистанционной биометрической идентификации в общественных местах и введения «социальных баллов». Системы с высокой степенью риска подлежат обязательной сертификации перед выходом на рынок. Также акт требует маркировки ИИ-контента. За нарушения предусмотрены штрафы до €40 млн или 7% годового оборота.
В США в марте 2024 года обсуждался проект по введению обязательной маркировки ИИ-контента. Китай утвердил аналогичные правила в марте 2025 года: с 1 сентября будет действовать требование сообщать о генерации контента нейросетями, включая контроль со стороны магазинов приложений.
В России обсуждение маркировки ИИ-содержания началось в 2022 году. В 2024 году разрабатывалась концепция закона, предусматривающего использование графических или водяных знаков. В феврале 2025 года Андрей Свинцов вновь предложил ввести обязательную маркировку ИИ-контента.
Рабочая группа, включающая юристов, консультантов и представителей ИИ-компаний, разработала законопроект «О регулировании систем искусственного интеллекта (ИИ) в России». Документ, как сообщает РБК со ссылкой на пять источников, обсуждался на заседаниях в Госдуме, «Деловой России» и на отраслевых площадках. Его подлинность подтвердили два собеседника из IT-сферы.
Законопроект направлен на реализацию Национальной стратегии развития ИИ до 2030 года, утверждённой в феврале 2024 года. Заместитель председателя комитета по информационной политике, член рабочей группы по ИИ в Госдуме Андрей Свинцов сообщил, что по поручению председателя нижней палаты парламента Вячеслава Володина создана рабочая группа «по разработке всего, что связано с законодательством в области ИИ». По его словам, сейчас законодательные инициативы «всерьёз не рассматриваются»: группа создана для того, чтобы «внимательно, детально изучить все запросы от различных отраслей». Он отметил, что в ближайшие месяцы могут появиться несколько инициатив, «которые точечно будут регулировать какие-то отраслевые запросы, вводить какие-то пилотные зоны или пилотные режимы», однако появления законопроекта, который охватит всю сферу деятельности ИИ, в этом году он не ожидает. Среди направлений, которые будут регулироваться в первую очередь, Свинцов назвал маркировку. При этом он подчеркнул, что готового проекта закона в Госдуме пока нет.
В аппарате правительства и Минцифры сообщили, что пока не получали этот проект на рассмотрение, но выразили готовность изучить его в случае поступления.
Законопроект определяет ключевые понятия — искусственный интеллект, технологии и системы ИИ, а также роли разработчика, оператора и пользователя. Особое внимание уделено маркировке: все ИИ-системы, взаимодействующие с пользователями, должны иметь понятное и легко идентифицируемое обозначение.
Законопроект вводит четырехуровневую классификацию по рискам: от минимального до неприемлемого. Последним предлагается запретить разработку и эксплуатацию. Системы с высоким риском — в сфере здравоохранения, транспорта, финансов и правоохранительной деятельности — должны будут пройти обязательную регистрацию и сертификацию. В числе требований — страхование гражданской ответственности операторов таких систем.
Авторы документа также предлагают закрепить ответственность за причинение вреда жизненно важным интересам. Однако в проекте предусмотрены исключения, при которых разработчики и операторы смогут избежать наказания, если докажут соблюдение всех норм и правил.
Один из наиболее чувствительных вопросов касается авторских прав на результат, созданный с применением ИИ. Если творческий вклад человека очевиден, права закрепляются за ним. В остальных случаях — за оператором ИИ-системы на срок до 50 лет.
Если проект будет одобрен, на исполнение его требований разработчикам и операторам ИИ-систем будет отведён один год, а сертификация ранее созданных систем с высоким уровнем риска должна быть завершена за два года.
Источник РБК в одной из ИИ-компаний отмечает, что ранее в правительстве считали регулирование ИИ преждевременным. Вице-премьер Дмитрий Григоренко в феврале 2024 года заявлял, что такое регулирование не планируется как минимум в течение двух лет. По мнению источника, инициативы по саморегулированию со стороны бизнеса уже внедряются, а избыточное регулирование может замедлить развитие отрасли и усилить технологическое отставание. В пример он привёл ЕС, где после принятия закона об ИИ некоторые компании начали сокращать присутствие в регионе.
По словам директора по цифровым технологиям «Ростелекома» Романа Хазеева, мировой опыт пока не сформировал устойчивую практику по определению ответственности в сфере нейросетей и дипфейков. Он подчеркнул, что регулирование должно вводиться после стабилизации процессов и появления устойчивой проблематики.
Международный контекст
В 2024 году Европарламент утвердил Регламент об искусственном интеллекте (EU AI Act). Документ запрещает использование ИИ для подсознательного манипулирования, дистанционной биометрической идентификации в общественных местах и введения «социальных баллов». Системы с высокой степенью риска подлежат обязательной сертификации перед выходом на рынок. Также акт требует маркировки ИИ-контента. За нарушения предусмотрены штрафы до €40 млн или 7% годового оборота.
В США в марте 2024 года обсуждался проект по введению обязательной маркировки ИИ-контента. Китай утвердил аналогичные правила в марте 2025 года: с 1 сентября будет действовать требование сообщать о генерации контента нейросетями, включая контроль со стороны магазинов приложений.
В России обсуждение маркировки ИИ-содержания началось в 2022 году. В 2024 году разрабатывалась концепция закона, предусматривающего использование графических или водяных знаков. В феврале 2025 года Андрей Свинцов вновь предложил ввести обязательную маркировку ИИ-контента.