Речь идет о том, чтобы системы искусственного интеллекта, размещенные на европейском рынке и используемые в ЕС, «были безопасными и уважали фундаментальные права и ценности ЕС», сообщается в коммюнике совета.
«Основная идея состоит в том, чтобы регулировать ИИ, исходя из его способности причинять вред обществу, используя "риск-ориентированный" подход: чем выше риск, тем строже правила», – говорится в документе.
Основные элементы предварительного соглашения предусматривают правила для высокоэффективных моделей ИИ общего назначения, которые могут вызвать системный риск в будущем, а также для систем ИИ с высоким уровнем риска и пересмотренную систему управления с некоторыми правоприменительными полномочиями на уровне ЕС.
Предполагается расширить список запретов, но с «возможностью использования правоохранительными органами удаленной биометрической идентификации в общественных местах при соблюдении гарантий».
Предусматривается также «лучшая защита прав посредством обязательства для тех, кто развертывает системы искусственного интеллекта высокого риска, проводить фундаментальную оценку воздействия на права перед вводом системы искусственного интеллекта в действие».
«Закон об искусственном интеллекте переносит европейские ценности в новую эпоху. Это обязательство, которое мы взяли на себя в наших политических руководящих принципах для (Европейской) комиссии нынешнего мандата. И мы его выполнили», – говорится в заявлении главы Еврокомиссии (ЕК) Урсулы фон дер Ляйен.
Компании, создающие системы искусственного интеллекта, как ChatGPT, столкнутся с проверками на прозрачность и будут обязаны сообщать о том, что контент был создан искусственным интеллектом. Кроме того, им придется «разрабатывать модели таким образом, чтобы те не могли генерировать незаконный контент».
Проект, который еще должен быть официально одобрен Европарламентом, в частности, разрешает использование функции распознавания лиц в общественных местах, но только для розыска преступников и предотвращения терактов.