Новость
Минцифры опубликовало для общественного обсуждения законопроект «Об основах госрегулирования сфер применения технологий искусственного интеллекта». Документ впервые на законодательном уровне закрепляет правила разработки и использования ИИ в России — от маркировки сгенерированного контента до ответственности за вред, причиненный нейросетями.
Законопроект вводит базовые понятия: под искусственным интеллектом предлагается понимать комплекс технологий, который позволяет имитировать когнитивные функции человека, включая самообучение, и получать результаты, сопоставимые с человеческими или превосходящие их. Вводятся понятия ИИ-системы, ИИ-сервиса, ИИ-модели, а также разработчика, оператора, владельца сервиса и пользователя — все они становятся субъектами отношений со своими правами и обязанностями.
Законопроект разделяет модели искусственного интеллекта на категории в зависимости от их происхождения и уровня доверия:
Суверенные и национальные модели — полностью созданные в России: все стадии разработки и обучения идут на территории страны, выполняют их только граждане России или российские юрлица (более 50% голосов принадлежат гражданам России без второго гражданства или государству). Данные для обучения модели сформированы в России. Для таких моделей предполагается «господдержка внедрения и создание благоприятных условий». В пояснении к документу Минцифры уточняет, что требования к суверенным и национальным моделям устанавливаются для того, чтобы «очертить круг моделей, для разработки и внедрения которых будут предоставлены меры господдержки».
Доверенные модели — те, которые разрешат использовать в госинформсистемах и на значимых объектах критической информационной инфраструктуры (информсистемы и сети связи в госорганах, энергетических, финансовых, транспортных, медицинских, телекоммуникационных и ряде др. компаний). Чтобы получить этот статус, модель должна пройти проверку безопасности у ФСБ и ФСТЭК, обрабатывать данные в России и подтвердить качество по отраслевым стандартам. Такие модели будут включать в специальный реестр — правила определит правительство. Оно же может сделать их обязательными для использования на отдельных объектах. При этом суверенная или национальная модель может стать доверенной, если дополнительно выполнит требования по безопасности и качеству.
Законопроект также прописывает, что должны делать все, кто так или иначе связан с ИИ, — от создателей моделей до обычных пользователей:
Разработчик ИИ-модели обязан исключить из модели функционал, который может привести к дискриминации людей на основе их поведения или личностных характеристик; информировать о том, что модель нельзя использовать в запрещенных целях, проводить моделирование потенциальных рисков.
Оператор ИИ-модели обязан включить в документацию руководство по безопасной эксплуатации, проводить тестирование системы; предоставлять пользователям информацию о функциональном назначении системы и ее ограничениях; приостанавливать работу при выявлении угрозы причинения вреда жизни, здоровью граждан, безопасности государства, имуществу или окружающей среде и др.
Больше всего обязанностей законопроект предполагает для владельцев ИИ-сервисов:
— принимать меры, чтобы сервис не использовался в противоправных целях;
— внедрять механизмы, ограничивающие возможность создания с помощью сервиса материалов, противоречащих российскому законодательству;
— если к сервису в течение суток обращаются больше 500 тыс. пользователей из России, владелец должен выполнять требования «закона Яровой» и хранить данные и содержание сообщений пользователей, предоставлять их по требованию правоохранительных органов;
— маркировать контент, созданный с помощью ИИ (требования к маркировке установит правительство);
— крупные платформы с суточной аудиторией более 100 тыс. человек должны проверять наличие таких предупреждений и при их отсутствии либо предупредить распространителя, либо удалить контент;
— при заключении договоров с разработчиками моделей согласовывать порядок передачи прав на созданные с их использованием результаты интеллектуальной деятельности, соблюдая права авторов оригинальных работ;
— включать в пользовательское соглашение условие о том, кому принадлежат права на сгенерированный контент.
Пользователь сервиса и модели ИИ обязан соблюдать правила доступа, использовать сервис только в целях, не противоречащих законодательству, не пытаться обходить механизмы безопасности и контроля, а также соблюдать права третьих лиц при использовании сгенерированного контента.
Ответственность за нарушающий российское законодательство результат, полученный с использованием ИИ, будут нести разработчик, оператор, владелец сервиса и пользователь «соразмерно степени вины каждого». Например, разработчик, оператор и владелец сервиса будут отвечать, если они заведомо знали или должны были знать о возможности такого результата. Они освобождаются от ответственности, если предприняли исчерпывающие меры для предотвращения вреда, соблюдали все требования закона, либо вред возник из-за непреодолимой силы, умысла потерпевшего или действий третьих лиц, которые невозможно было предвидеть. Конкретные наказания в законопроекте не прописаны — лишь указано, что виновные будут нести административную и уголовную ответственность.
Отдельный блок законопроекта посвящен вычислительной инфраструктуре для ИИ. Правительство сможет утвердить перечень ЦОДов для ИИ, которые получат специальные условия:
— долгосрочные договоры купли-продажи электроэнергии с закрепленным предельным уровнем цены;
— освобождение от платы за технологическое присоединение;
— преимущество при присоединении к электросетям и упрощенный порядок согласования схем внешнего электроснабжения;
— возможность покупать энергию по регулируемым тарифам, сниженным относительно уровня промышленных потребителей;
— бюджетное финансирование, налоговые льготы и другие преференции.
В документе есть раздел о международном сотрудничестве в сфере ИИ (совместные исследования, обмен данными, участие в стандартизации). Основной принцип — «обеспечение равных прав и возможностей наций в области разработки и использования ИИ». Среди задач: формирование «единого пространства» доверенных технологий ИИ при лидирующей роли России, продвижение отечественных технологий за рубежом, использование российских заделов для повышения потенциала государств-партнеров.
Одновременно вводится понятие «трансграничные технологии ИИ» — те, создание или использование которых связано с двумя и более государствами. Их функционирование «может быть запрещено или ограничено» в случаях, которые установит законодательство.
Законопроект носит рамочный характер, его нормы будут распространяться на всех граждан, юрлиц и ИП, находящихся на территории России. При этом проект не будет распространяться на применение ИИ для обороны и безопасности государства, охраны правопорядка, предотвращения ЧС. Особенности применения ИИ в этих областях будут определять президент или другие федеральные законы.
Авторы проекта указали, что из-за рамочного характера на данном этапе нельзя точно оценить размер затрат на исполнение обязательных требований, как и дать оценку рискам и негативным последствиям от внедрения регулирования.
Сейчас отсутствие системного регулирования, неопределенность прав и обязанностей лиц, разрабатывающих, внедряющих и использующих ИИ, а также недостаточность мер поддержки сдерживает развитие технологий в стране, что грозит техническим отставанием, говорится в документе. «Актуализируется риск того, что технологии искусственного интеллекта будут применяться без одновременного принятия мер по безопасности указанных технологий, что может привести к нанесению ущерба, в том числе жизни и здоровью граждан, имуществу, общественной безопасности и т.п.», — указали авторы проекта.
Закон в случае принятия вступит в силу с 1 сентября 2027 года.