Закон дает возможность инициатору начать тестирование таких технологий в рамках программы экспериментального правового режима. Это могут быть специализированные технологии искусственного интеллекта, блокчейна, больших данных, нейротехнологий.
Сейчас в реестр экспериментальных правовых режимов входит 12 единиц, треть из которых, в том числе, Яндекс и Сбер, применяют искусственный интеллект официально. За три прошедших года неприятных инцидентов и вреда человек зафиксировано не было, однако механизм защиты от негативных последствий необходим.
Минэкономразвития разработало такой механизм защит, предполагающий, в первую очередь, страхование ущерба от использования ИИ. За использование решений, принятых на основе ИИ, будут нести ответственность вполне реальные люди.
Необходимость разработки такого законопроекта становится все более актуальной, когда мы задумываемся о том, кто несет ответственность за деятельность искусственного интеллекта, если последний, например, взял в свой продукт чей-то запатентованный элемент, срисовал авторскую картину без разрешения, допустил утечку информации, ошибку в расчетах траектории движения беспилотного автомобиля или действий медицинского оборудования.
Согласно предложенного механизма, если искусственным интеллектом бы причине ущерб, то созданная в течение 30 дней специальная комиссия определит причины происшествия, обстоятельства, связанные с ним, и выложит в интернет свое заключение.
«Развитие искусственного интеллекта в различных областях и сферах деятельности, безусловно, связано с определенными рисками, которые необходимо предотвращать еще на стадии внедрения. Определение в реестре ЭПР лиц, отвечающих за действия ИИ, например, в медицине или работе беспилотных автомобилей, позволит, с одной стороны, повысить их ответственность за разработку, с другой, даст уверенность пользователю или пострадавшему от технологии, что проблема будет устранена или наказан виновник происшествия», – отмечает Оксана Мухорьянова, эксперт Ставропольского филиала РАНХиГС.