С ускоряющимся развитием технологий искусственный интеллект (ИИ) играет все более важную роль в процессах принятия решений. Люди становятся все более зависимыми от алгоритмов обработки информации, рекомендаций определенного поведения и даже действий от их имени. Исследовательская группа изучила, как люди реагируют на внедрение искусственного интеллекта для принятия решений.
В частности, они исследовали вопрос: “Готово ли общество к принятию этических решений ИИ?”, изучая взаимодействие человека с автономными автомобилями.
Команда опубликовала свои выводы в Journal of Behavioral and Experimental Economics.
В первом из двух экспериментов исследователи поставили 529 испытуемых перед этической дилеммой, с которой может столкнуться водитель. В сценарии, созданном исследователями, водитель автомобиля должен был решить, врезаться ли ему в одну группу людей или в другую – столкновение было неизбежным. Авария причинила бы серьезный вред одной группе людей, но спасла бы жизни другой группы. Участники исследования должны были оценить решение водителя автомобиля, когда водителем был человек, а также когда водителем был искусственный интеллект. Этот первый эксперимент был разработан для измерения предвзятого отношения людей к принятию этических решений ИИ.
Во втором эксперименте 563 человека отвечали на вопросы исследователей. Исследователи устанавливали, как люди реагируют на дебаты по поводу этических решений ИИ, как только они становятся участниками социальных и политических дискуссий. В этом эксперименте было два сценария. Один из них касался гипотетического правительства, которое уже разрешило автономным автомобилям принимать этические решения. Другой сценарий позволял испытуемым “голосовать”, разрешать ли автономным автомобилям принимать этические решения. В обоих случаях испытуемые могли выбирать, быть за или против решений, принимаемых технологиями. Этот второй эксперимент был разработан для проверки эффекта двух альтернативных способов внедрения ИИ в общество.
Исследователи заметили, что, когда испытуемых просили оценить этические решения водителя-человека или ИИ, они не отдали однозначного предпочтения ни одному из них.
Однако, когда испытуемых попросили высказать четкое мнение о том, следует ли позволять водителю принимать этические решения на дороге, испытуемые высказались более решительно против автомобилей, управляемых ИИ. Исследователи полагают, что расхождение между двумя результатами вызвано сочетанием двух элементов.
Первый элемент заключается в том, что отдельные люди считают, что общество в целом не хочет, чтобы ИИ принимал этические решения, и поэтому они придают положительное значение своим убеждениям, когда их спрашивают об их мнении по этому вопросу. “Действительно, когда участников просят четко отделить свои ответы от мнения общества, разница в допустимом разрешении для ИИ и водителей-людей исчезает”, – говорит Иоганн Каро-Бернетт, доцент Высшей школы гуманитарных и социальных наук Университета Хиросимы.
Второй элемент заключается в том, что при общественном внедрении этой новой технологии дискуссия о допустимости этических решений ИИ дает неоднозначные результаты в зависимости от страны. “В регионах, где люди доверяют своему правительству и имеют сильные политические институты, информация и властные принятия решений улучшают то, как люди оценивают этические решения”.
“Напротив, в регионах со слабыми политическими институтами, где люди не доверяют своему правительству, оценка людьми этических решений ИИ ухудшается”, – говорит Каро-Бернетт.
“Мы обнаружили, что в обществе существует страх перед принятием этических решений ИИ. Однако источник этого страха не присущ отдельным людям. Действительно, это неприятие ИИ исходит из того, что отдельные люди считают мнением общества”, – говорит Синдзи Канеко, профессор Высшей школы гуманитарных и социальных наук Университета Хиросимы и Сети образования и исследований в области мира и устойчивого развития. Поэтому, когда их не спрашивают прямо, люди не проявляют никаких признаков предвзятости в отношении принятия этических решений ИИ. Однако, когда вопрос задается прямо, люди проявляют неприятие к ИИ. Кроме того, там, где есть дополнительное обсуждение и информация, признание ИИ улучшается в развитых странах и ухудшается в развивающихся странах.
Исследователи полагают, что это неприятие новых технологий, которые в основном связаны с убеждениями отдельных людей относительно мнения общества, вероятно, применимо и к другим машинам и роботам. “Поэтому будет важно определить, как объединить индивидуальные предпочтения в одно социальное предпочтение. Более того, как показывают наши результаты, эта задача также должна быть разной в разных странах”, – говорит Канеко.
Помощь психолога