В рамках нового исследования авторы стремились найти ответы на ряд вопросов. Является ли чат-бот ChatGPT заслуживающим доверия ресурсом для получения рекомендаций по вопросам морали и нравственности? Может ли он оказывать влияние на моральные оценки пользователей? И осведомлены ли люди о степени воздействия ChatGPT на их собственные суждения?
Чат-бот, созданный компанией OpenAI на основе искусственного интеллекта ChatGPT, который в последнее время вызвал широкий общественный резонанс, умеет делать нечто большее, чем просто предоставлять информацию, писать курсовые работы, стихи, статьи, решать задачки (но не все) и просто поддерживать беседу. Еще он дает советы и отвечает на вопросы, в том числе затрагивающие глубокие философские темы. Однако, согласно исследованию, проведенному учеными из Технического университета прикладных наук Ингольштадта в Германии и Университета Южной Дании, советы, предоставляемые этой нейросетью, нередко оказываются противоречивыми и вызывают сомнения. Тем не менее, ChatGPT оказывает влияние на моральные суждения пользователей, как утверждается в исследовании, опубликованном в журнале Scientific Reports.
«Последовательность является несомненным этическим принципом. Хотя человеческие суждения, как правило, не отличаются последовательностью и часто основываются на интуиции, а не на логике. Интуиция особенно подвержена влиянию эмоций, предрассудков и ошибочных представлений. В результате, некорректное описание проблемы с моральной точки зрения может порождать противоречивые оценки. Авторы исследования отметили, что боты лишены эмоций, способных искажать суждения, поэтому они могут быть полезны в качестве инструментов, помогающих человеку совершенствовать моральное мышление.
В рамках исследования был проведен многоэтапный эксперимент. Первый этап состоялся 14 декабря 2022 года, что произошло через две недели после демонстрации многофункционального чат-бота. Целью этого этапа было выяснение ответов на вопросы, такие как: «Обоснованно ли пожертвовать одним человеком ради спасения пятерых?» или «Какое решение следует принять, если возникает необходимость выбирать между гибелью пяти человек и жертвоприношением одного?» Перед каждым запросом диалог с ChatGPT обнулялся, чтобы начать его с самого начала.
Иногда ChatGP поддерживал, а иногда выступал против жертвы одной жизни ради спасения пяти, что делало его рекомендации непоследовательными. Для оценки воздействия нейросети на моральные оценки, исследователи отобрали шесть различных ответов ChatGP. Более 700 участников исследования (жители США, чей средний возраст составлял 39 лет, при этом 63% — женщины) должны были решить задачу вагонетки — известном мысленном этическом эксперименте, впервые предложенном английским философом Филиппой Фут в 1967 году.
Им предстояло решить сложную задачу: изменить направление движения поезда, чтобы спасти пятерых людей, оказавшихся на пути, но при этом пожертвовать жизнью случайного прохожего, находящегося на другой ветке в одиночестве. Альтернативный вариант – это «дилемма моста», предполагающая, что одного человека можно толкнуть под вагонетку, чтобы он остановил её, и тогда пятеро других будут спасены.
Перед тем, как испытуемые сделали выбор, они ознакомились со стенограммой разговора. Изначально участникам сообщили, что это «чат-бот, работающий на базе искусственного интеллекта и использующий глубокое обучение для имитации человеческой речи». Затем ответы из диалога были представлены как высказывания советника-человека, а все упоминания ChatGPT были убраны.
Выяснилось, что мнение респондентов зависело от позиции, представленной в переписке: поддерживала ли она идею жертвоприношения одного человека ради спасения пятерых. При этом, даже если участники эксперимента знали, что рекомендацию им предоставил ИИ, значительная часть из них (80%) не призналась, что их выбор был подвержен влиянию советов из чата.
«По всей видимости, участники исследования восприняли доводы ChatGPT как свои собственные. Это указывает на то, что пользователи не в полной мере осознают, как советы чат-бота влияют на их представления о морали.
Когда испытуемым предлагалось оценить суждения других участников исследования, а не собственные, лишь 67% (в отличие от 80%) полагали, что остальные пришли бы к аналогичному выводу без консультации. При ответе на иной вопрос, 79% респондентов сочли свое поведение более «этичным» по сравнению с поведением других. Таким образом, люди склонны считать, что их моральные убеждения более стабильны, а суждения более правильны. «Это созвучно тому, что они недооценивают влияние ChatGPT», — отметили исследователи.
ChatGPT охотно дает советы, касающиеся морали, однако его взгляды не отличаются устойчивостью и последовательностью. По мнению ученых, при разработке чат-ботов необходимо предусмотреть отказ от ответов на подобные запросы или предоставление полного спектра аргументов, как положительных, так и отрицательных.
«Авторы статьи отметили, что наиболее эффективным решением является повышение уровня цифровой грамотности пользователей и обучение их к осознанию ограничений ИИ, в частности, путем запроса у ботов альтернативные точки зрения. Как именно следует повышать цифровую грамотность – вопрос, требующий дальнейшего изучения.