Этические вопросы, связанные с развитием технологий искусственного интеллекта, крайне популярных в интернет-компаниях и некоторых государственных структурах, сложнее, чем выглядят на первый взгляд, считает Le Figaro. К примеру, о чьей жизни должен заботиться в первую очередь автомобиль с автономным управлением: своего водителя или людей за пределами машины? Может ли робот, ответственный за отбор лучших кандидатов на вакансию, быть сексистом или расистом?
По словам руководителя исследовательской программы компании IBM Александры Мойсилович, идея состоит в том, чтобы разработать программы, пользующиеся доверием, однако доверие — понятие само по себе сложное. «Я часто сравниваю нашу эпоху с началом автомобильной эры. Раньше мы водили без ремней безопасности и сигнальных панелей. Нужно было произвести настройки, чтобы безопасно пользоваться этой инновацией», — замечает эксперт.
Тем не менее, по словам издания, меры, предпринимаемые правительствами для решения этических вопросов, связанных с развитием искусственного интеллекта, довольно скромны и не всегда скоординированы. Так, Франция и Канада создали Международную группу экспертов в области искусственного интеллекта при поддержке других стран — членов ОЭСР.
Свою группу экспертов, в задачи которой входит размышление об ограничениях, необходимых программам с использованием искусственного интеллекта, создала и Европейская комиссия. В апреле этого года эта организация опубликовала список из семи рекомендаций в адрес правительств и предприятий. Согласно документу, искусственный интеллект должен всегда находиться под контролем человека, быть прозрачным и защищённым от кибератак. Предполагается также, что программы будут защищать персональные данные пользователей и предоставлять услуги, «не дискриминирующие людей на основании возраста, пола или цвета кожи», охранять окружающую среду и будут доступны для аудита.
При этом рекомендательный характер этих требований уже вызвал критику со стороны некоторых общественных организаций, требующих уже сейчас ввести законодательные ограничения по примеру действующего в Европе Общего регламента по защите персональных данных. Однако, как поясняет газета, проблема в том, что сферы, затрагиваемые искусственным интеллектом, слишком обширны. Речь идёт как о вопросах экологии и занятости, так и о частной жизни. «Мы привыкли говорить об искусственном интеллекте как о едином блоке, однако на самом деле речь идёт о концепции, охватывающей множество технологий, применяемых в различных сферах», — подчёркивает Мойсилович.
Что до предприятий, занимающихся разработкой подобных программ, они «переминаются с ноги на ногу» между желанием успокоить общественность и необходимостью защищать свои экономические интересы. Так, Google в апреле этого года распустила консультационный совет по этическому использованию искусственного интеллекта — спустя неделю после его создания.
Такие компании, как Facebook, Microsoft, IBM или Amazon, также подверглись критике за публикацию этических кодексов и финансирование исследований в этой области без создания реальных ограничений, способных изменить существующие модели поведения. Многие, к примеру, выступили против сотрудничества интернет-корпораций с американскими вооружёнными силами. Как передаёт Le Figaro, в ходе дебатов на этот счёт в Кремниевой долине даже родился новый оскорбительный термин — ethics washing, означающий озабоченность вопросами этики исключительно в коммерческих целях.