В России появится кодекс этики в сфере искусственного интеллекта. Он затрагивает и бизнес
Вопросы применения сильного искусственного интеллекта или «сверхразума» (в случае его создания в России) правительство страны оставило под своим контролем.
В России с подачи президента Владимира Путина подпишут национальный кодекс этики в сфере искусственного интеллекта (КЭСИИ). На церемонии будут присутствовать чиновники из администрации президента и федерального правительства, а также представителей организаций — участников альянса в сфере искуственного интеллекта: «Газпром нефть», МТС, Российский фонд прямых инвестиций, Сбербанк, «Яндекс», интернет-холдинга VK (бывшая Mail.ru Group), сообщают Ведомости. В разработке кодекса участвовали компании альянса, представители Аналитического центра при правительстве РФ, Минэкономразвития России, экспертного и академического сообщества.
Согласно кодексу, бизнес будет вести свод наилучших и наихудших практик решения этических вопросов, возникающих в жизненном цикле искусственного интеллекта. Доступ к этому своду будет публичным. Кодекс содержит рекомендацию компаниям сотрудничать между собой по вопросу выявления и проверки информации о способах создания универсальных систем искусственного интеллекта и предотвращения угроз, которые они несут. Такие системы также называют «сильными» ИИ или Artificial General Intelligence (AGI). Вопрос применения технологий сильного ИИ должен находиться под контролем государства, отмечается в кодексе.
«Сильный искусственный интеллект — это концепция, которая условно предполагает создание своего рода сверхразума. Это универсальный искусственный интеллект, который способен решать разнообразные задачи и бесконечно самосовершенствуется без участия человека. Многие считают, что до него еще лет сто, а кто-то вообще не верит в возможность его создания», — пишет газета со ссылкой на источник в правительстве, пожелавший остаться анонимным. Упоминание сильного ИИ было внесено в кодекс на случай его создания в России.
В сентябре текст кодекса прошел обсуждения в Общественной палате и Совете Федерации. В результате этой работы были внесены многочисленные правки. Рекомендации кодекса рассчитаны в первую очередь на системы искусственного интеллекта, применяемые исключительно в гражданских, невоенных целях, указано в тексте. Участниками отношений в сфере искусственного интеллекта являются отечественные и иностранные разработчики, заказчики, поставщики, операторы систем искусственного интеллекта, регуляторы, а также другие лица, которые могут повлиять на искусственный интеллект.
Для реализации положений кодекса будет создана комиссия, в которую войдут представители бизнес-сообщества, науки и госорганов. Кроме того, компании, подписавшие кодекс, должны будут назначить среди своих сотрудников уполномоченных по этике искусственного интеллекта, которые будут контролировать исполнение компанией положений кодекса. А для разбора наиболее спорных вопросов компании должны собирать внутренние комиссии.
Кодекс также рекомендует бизнесу добросовестно информировать своих пользователей об их взаимодействии с системами искусственного интеллекта, когда это затрагивает вопросы прав человека и критических сфер его жизни, и обеспечивать возможность прекратить такое взаимодействие по желанию человека.
Выработка правовых и этических норм для использования ИИ потребовалась для защиты основных прав и свобод человека после того, как в мире появилась перспектива создания супероружия с искусственным интеллектом и возможность мошенничества с применением ИИ. Ответственность за последствия использования систем искусственного интеллекта должна сохраняться за человеком, а не за машиной, подчеркивается в документе.
Обновление (15.00 мск). Церемония подписания кодекса состоялась во вторник, 26 октября, в рамках международного форума «Этика искусственного интеллекта: начало доверия» (г. Москва). Подписание проходило в присутствии первого заместителя главы администрации президента Сергея Кириенко и вице-премьера Дмитрия Чернышенко.
Читайте на DK.RU: Следующий этап роботизации — собственная психика ИИ. И к этому людям нужно быть готовыми