Согласно новому исследованию ученых из Университета Джорджии, несмотря на рост озабоченности по поводу вторжения алгоритмов в повседневную жизнь, люди могут быть более склонны доверять компьютерной программе, чем своим собратьям, особенно если задача становится слишком сложной.
Люди больше полагаются на советы алгоритмов, которые помогают принимать повседневные решения и упорядочивать жизнь, начиная с выбора следующей песни в вашем плейлисте и заканчивая выбором брюк нужного размера.
“Алгоритмы способны выполнять огромное количество задач, и количество таких задач расширяется практически каждый день”, – говорит Эрик Богерт, аспирант кафедры информационных систем управления Колледжа бизнеса Терри.
“Похоже, что существует склонность в большей степени полагаться на алгоритмы по мере усложнения задачи, и этот эффект сильнее, чем склонность полагаться на советы других людей.”
Богерт работал с профессором информационных систем управления Риком Уотсоном и доцентом Аароном Шектером над статьей, опубликованной в журнале Nature Scientific Reports.
В их исследовании по оценке фотографий приняли участие 1500 человек, и оно является частью более масштабной работы, анализирующей как люди работают с алгоритмами обработки информации и принятия решений.
В ходе этого исследования добровольцев попросили подсчитать количество людей в толпе на фотографии и предоставили предположения, которые были сделаны группой других людей и сгенерированы алгоритмом.
“По мере того, как число людей на фотографии становилось все больше, подсчет становился все сложнее, и люди с большей вероятностью следовали предположению алгоритма, а не считали сами и не следовали “мудрости толпы”, – говорит Шектер.
Шектер объясняет, что выбор подсчета в качестве пробного задания был важным, потому что количество людей на фотографии, по мере того, как их становится больше, объективно усложняет задачу. Это также задача, по ожиданию многих, с решением которой компьютеры справятся лучше.
“Люди считают, что это задача, с которой компьютер справится лучше, даже если он может быть в больше степени подвержен возможности ошибки , чем простой подсчет объектов”, – говорит Шектер.
“Одна из распространенных проблем с искусственным интеллектом заключается в том, что он используется для предоставления кредитов или одобрения получения ссуд.”
“Хотя это субъективные решения, там много цифр, связанных с доходом и кредитным рейтингом, поэтому люди считают, что это более подходящая работа для алгоритмов. Но мы знаем, что решение таких задач во многих случаях приводит к дискриминации из-за социальных факторов, которые не принимаются во внимание.”
В последние годы тщательному изучению также подверглись алгоритмы распознавания лиц и найма на работу, поскольку их использование выявило культурные предубеждения в отношении того, как они были созданы, что может привести к ошибкам при идентификации лиц или отборе квалифицированных кандидатов на работу, говорит Шектер.
Этих предубеждений может не быть в такой простой задаче, как подсчет, но их наличие в других проверенных алгоритмах является причиной, по которой важно понимать, как люди полагаются на алгоритмы при принятии решений, добавляет он.
Это исследование было частью более масштабной исследовательской программы Шектера в области взаимодействия человека и машины, которая финансируется за счет гранта в размере 300 000 долларов , выданного Исследовательским управлением армии США.
“Конечная цель заключается в том, чтобы рассмотреть группы людей и машин, принимающих решения, и найти, как мы можем сделать так, чтобы они доверяли друг другу, и как это меняет их поведение. Поскольку в этой области очень мало исследований, мы начинаем с основ”, – говорит Шектер.
Шектер, Уотсон и Богерт в настоящее время изучают, как люди полагаются на алгоритмы при вынесении творческих и моральных суждений – при написании образных текстов и освобождении заключенных под залог.
Помощь психолога