Ученые из Польши и Великобритании провели эксперимент с участием реальных людей и аватаров, управляемых искусственным интеллектом, и пришли к выводу, что первые могут менять свои суждения в области морали под воздействием вторых.
Как правило, люди приспосабливаются к взглядам других по нескольким причинам. Во-первых, потому что поддаются групповому давлению, а во-вторых, хотят получить признание от общества или от конкретного лица, которое нравится. Третья причина заключается в том, что мы воспринимаем группу как источник лучшей интерпретации той или иной ситуации, поэтому склонны полагаться на мнение большинства.
Однако сегодня социальное давление становится все более сильным не только в реальном мире, но и в виртуальном. Поэтому важно понимать, как формируются наши суждения под воздействием последнего, особенно если часть такого взаимодействия происходит не с настоящими людьми, а с искусственно созданными аватарами.
Ученые из университетов Социально-гуманитарного (SWPS) (Польша) и Кентского (Великобритания) решили выяснить это подробнее, а свои выводы представили в журнале PLOS One.
Эксперимент проводили в два этапа. В первом участвовали 103 человека, при помощи которых ученые проверяли то, насколько люди склонны менять моральные суждения под воздействием других.
Поэтому для начала испытуемых независимо друг от друга спрашивали, как они оценивают различное поведение людей. Например, наказание ребенка за плохие оценки в школе или разговор по телефону во время киносеанса. Затем участники оценивали то же самое поведение в группах с тремя другими людьми, которые имели противоположное добровольцу мнение по тем или вопросам.
Выяснилось, что участники скорректировали свое мнение под воздействием других в 43 процентах случаев. Правда, это происходило реже, если в обсуждаемых ситуациях наносился вред другим людям.
Во втором эксперименте участвовали 138 человек. На этот раз мнение добровольцев точно так же оценивали индивидуально, а потом в присутствии трех аватаров с помощью виртуальной гарнитуры. Некоторые из них контролировали люди, другие — искусственный интеллект. В последнем случае участникам сообщили, что Кентский университет хочет протестировать новые алгоритмы, реализованные в виртуальных аватарах.
На этот раз добровольцы изменили свое мнение и привели его в соответствие «мнению» аватаров, управляемых человеком, в 30 процентах случаев и в 28 процентах — когда персонажами дополненной реальности управлял искусственный интеллект. Получается, люди способны подвергаться воздействию виртуальных ботов почти так же сильно, как и реальных лиц.
Правда, исследователи подчеркнули, что для окончательных выводов нужны дальнейшие исследования. В первую очередь это необходимо для того, чтобы точнее определить степень воздействия, которое оказывает на человека виртуальная среда, и оценить социальные последствия такого влияния в эпоху быстрого развития цифровых коммуникаций.