В России профильная рабочая группа из юристов и участников рынка искусственного интеллекта разработала проект законодательного регулирования ИИ, сообщает 11 апреля РБК со ссылкой на источники.
Законопроект предлагает ввести обязательные информационные обозначения, которые будут указывать на использование ИИ, причем маркировка должна быть «явной» и «недвусмысленной». Также рабочая группа настаивает, что нужно определить классификацию систем ИИ по уровню опасности и запретить в стране разработку систем с неприемлемым уровнем риска. К ним относятся системы, создающие угрозу безопасности личности, общества и государства и нарушающие основные права и свободы человека.
К системам с высоким уровнем риска относятся те, что применяются в здравоохранении, транспорте и финансах и потенциально могут создать существенную угрозу.
Также законопроект предлагает ввести ответственность за причинение вреда жизни, здоровью или имуществу для лиц, участвующих в разработке и эксплуатации систем искусственного интеллекта.
Отдельное внимание авторы законопроекта уделили авторским правам: если в работе был существенный творческий вклад человека, то исключительное право на результат принадлежит ему, а если нет — то оператору системы ИИ.
В правительстве и в Минцифры сообщают, что оценят проект, когда он к ним поступит. Зампред комитета по информационной политике, член рабочей группы по ИИ в Госдуме Андрей Свинцов рассказал, что в ближайшие месяцы должны появиться несколько инициатив, которые будут регулировать отдельные вопросы, связанные с ИИ.
Больше новостей в нашем официальном телеграм-канале «Фонтанка SPB online». Подписывайтесь, чтобы первыми узнавать о важном.