Системы искусственного интеллекта будут распределены по уровням риска

В Госдуме создана рабочая группа «по разработке всего, что связано с законодательством в области ИИ». Депутаты, юристы и бизнесмены обсуждают запрет технологий с «угрожающим уровнем риска».
Зампред комитета Госдумы по информационной политике Андрей Свинцов заявил РБК, что в апреле текущего года по поручению председателя нижней палаты парламента Вячеслава Володина создана рабочая группа «по разработке всего, что связано с законодательством в области ИИ».
В ее состав вошли юристы, представители консалтинговых компаний и бизнеса, занимающегося развитием ИИ. Профильная рабочая группа разрабатывает проект законодательного регулирования искусственного интеллекта (ИИ) в России. Документ уже обсуждался на площадках Госдумы, «Деловой России» и на отраслевых форумах. В Минцифры для рассмотрения законопроект пока не поступал.
Как отметил Андрей Свинцов, комплексного закона об ИИ в 2025 г. ждать не стоит. Первые законодательные инициативы будут точечными и могут касаться, к примеру, обязательной маркировки систем ИИ при взаимодействии с пользователями, которую хотят сделать «явной, недвусмысленной и легко идентифицируемой».
Документ должен установить базовые определения, что такое искусственный интеллект, технологии и системы ИИ, а также кто такие разработчики, операторы и пользователи этих систем. Одним из ключевых положений проекта является классификация систем ИИ по уровням риска — от минимального до неприемлемого. Предлагается запретить системы с неприемлемым уровнем риска создания угрозы безопасности личности, общества и государства, а также нарушения основополагающих прав и свобод человека и гражданина. Для систем с высоким уровнем риска в здравоохранении, транспорте, финансах, правоохранительной деятельности и других сферах предлагается ввести обязательную госрегистрацию и сертификацию.
Также законопроект, в частности, предлагает установить ответственность разработчиков и операторов ИИ за причинение вреда жизни, здоровью или имуществу. Для операторов систем с высоким уровнем риска предусмотрено обязательное страхование ответственности.
DK.RU ранее сообщал, что число связанных с ИИ судебных дел в России с 2020 по 2024 гг. выросло на 39%. Правонарушения с использованием нейросетей фиксируются в гражданских, уголовных и административных делах. Рост мог быть гораздо выше, но часто ИИ не указывается как способ совершения преступлений. В топ-5 регионов по количеству рассмотренных дел в прошлом году стали Москва, Московская область, Санкт-Петербург, Свердловская область и Новосибирск.
Новый законопроект, в частности, будет регулировать право собственности на результаты, созданные с использованием ИИ. Он устанавливает исключительное право человека, если человек внес существенный творческий вклад (определял параметры, отбирал и дорабатывал результат). В противном случае права будут передаваться оператору системы ИИ на срок 50 лет.
Ранее DK.RU приводил мнение директора по развитию технологии искусственного интеллекта Яндекса Александра Крайнова — способен ли ИИ выйти из-под контроля, о качестве и безопасности контента, созданного нейросетями, а также о перспективах ИИ для кибермошенников и киберзащитников.
>>> Александр Крайнов: «Нейросети уже пытаются обмануть друг друга»