Искусственный интеллект влияет на наши убеждения

В ходе эксперимента, организованного специалистами из Польши и Великобритании, было установлено, что мнения людей о моральных вопросах способны изменяться под влиянием суждений, генерируемых искусственным интеллектом, управляющим виртуальными персонажами.

Обычно люди начинают соответствовать точкам зрения окружающих по ряду факторов. Прежде всего, на них оказывают влияние общественные нормы и ожидания. Кроме того, стремление к одобрению со стороны общества или значимых для них людей также играет важную роль. Наконец, часто люди считают, что мнение группы является наиболее точным и надежным способом понимания происходящего, поэтому они склонны придерживаться позиции большинства.

В настоящее время социальное давление возрастает не только в физической реальности, но и в цифровой среде. Поэтому необходимо понимать, как формируются наши оценки под влиянием виртуального взаимодействия, особенно если часть этого взаимодействия происходит не с реальными людьми, а с созданными искусственно виртуальными персонажами.

Чтобы получить более точные данные, исследователи из университетов SWPS (Польша) и Кентского (Великобритания) провели дополнительное изучение, и их результаты представили в журнале PLOS One.

Исследование состояло из двух этапов. На первом этапе в нем приняли участие 103 человека, с помощью которых исследователи оценивали, как на моральные оценки влияет мнение окружающих.

Сначала испытуемым, не имея друг о друга информации, предлагалось высказать свое мнение о различных проявлениях поведения. В качестве примера можно привести наказание ребенка за неудовлетворительные школьные оценки или использование телефона во время просмотра фильма. После этого участники высказывали свою оценку тех же действий в группах, состоящих из трех человек, чья точка зрения отличалась от их собственной.

Согласно полученным данным, мнение участников было скорректировано под влиянием окружающих в 43% случаев. Однако, такое изменение происходило менее часто, когда обсуждаемые ситуации включали нанесение вреда другим.

Во втором эксперименте приняло участие 138 человек. В этот раз мнение добровольцев также оценивалось индивидуально, а затем в виртуальной среде с использованием гарнитуры виртуальной реальности и в присутствии трех аватаров. Часть аватаров управлялась людьми, другие были под контролем искусственного интеллекта. Участникам сообщили, что Кентский университет планирует протестировать новые алгоритмы, реализованные в виртуальных аватарах.

Во взглядах добровольцев произошел сдвиг, и они стали придерживаться мнения аватаров, которыми управляли люди, в 30% случаев, а также в 28% ситуаций, когда персонажами дополненной реальности руководил искусственный интеллект. Таким образом, люди оказались восприимчивы к влиянию виртуальных ботов примерно в той же степени, как и к воздействию реальных людей.

Ученые отметили, что для получения окончательных результатов требуются дополнительные исследования. В частности, это позволит более точно установить, как виртуальная среда влияет на человека, и оценить социальные последствия этого воздействия в условиях стремительного развития цифровых коммуникаций.