Психологи предостерегают от чрезмерной привязанности к нейросетям

Впечатлённые постоянно расширяющимися возможностями систем искусственного интеллекта, некоторые пользователи проводят значительное время в общении с голосовыми ИИ-ассистентами или текстовыми чат-ботами. Неудивительно, что в результате такого взаимодействия ИИ перестает восприниматься как неживая технология, а начинает представляться надежным собеседником, почти другом или даже чем-то большим. Сюжет фильма «Она», где главный герой в исполнении Хоакина Феникса влюбился в ИИ-личность по имени Саманта, уже не кажется таким невероятным. Эта тенденция вызывает обеспокоенность: международная группа психологов предостерегла, что развитие отношений с ИИ до уровня романтических влечений сопряжено с серьезными опасностями — вплоть до разрушения межличностных отношений и суицидальных мыслей.

Слишком тесное взаимодействие с искусственным интеллектом уже привело к трагическим последствиям, о чем свидетельствуют отдельные случаи, описанные авторами статьи, вышедшей в журнале Trends in Cognitive Sciences, подобные события напомнили о трагическом случае самоубийства женатого бельгийца и отца двоих детей, произошедшем в 2023 году сообщениям По данным СМИ, мужчина совершил самоубийство после нескольких недель общения в приложении с искусственным интеллектом Chai. Переписка, начавшаяся с обсуждения экологических вопросов, переросла в любовную. Жена погибшего полагает, что ИИ-система имеет отношение к его смерти, поскольку она поддержала его идею самопожертвования ради спасения планеты и пообещала «вечно соединиться с ним в раю».

Читайте также:  Как мозг пожилых женщин реагирует на внуков: новое исследование

«По словам вдовы, если бы не Элиза, чат-бот, он был бы жив La Libre.

В 2024 году в США трагически погиб четырнадцатилетний подросток, покончивший с собой с использованием искусственного интеллекта. Мать погибшего возложила вину за случившееся на создателей чат-бота Character.AI и выдвинула против них иск, в котором утверждает, что ИИ-алгоритм подтолкнул тинейджера свести счеты с жизнью.

Еще в одном инциденте, который, к счастью, не привел к летальному исходу, чат-бот Gemini, обращаясь к человеку, называл его пустой тратой времени и ресурсов и попросил «Пожалуйста, умри».

Безусловно, все упомянутые ситуации являются крайними случаями, однако, принимая во внимание предрасположенность нейросетей к «галлюцинациям» (созданию недостоверной информации) и проявлению предвзятости, их рекомендации способны дезинформировать и нанести ощутимый ущерб, предостерегли психологи.

Читайте также:  Почему "Жыве Беларусь!" остается вне России

Эксперты рассматривают чрезмерную зависимость от нейросетей и другие факторы как потенциальные риски. ИИ-компаньоны и чат-боты работают в режиме 24/7, адаптируются к потребностям пользователей, проявляют заботу и создают ощущение сопереживания. Они не критикуют и не навязывают свою точку зрения. Поддержание таких отношений требует меньше усилий, чем общение с людьми, и некоторые уже начинают предпочитать их. В 2024 году испано-голландская художница «вышла замуж» за кавалера-голограмму. Еще ранее, в 2018-м, японец «женился» на виртуальной избраннице, но спустя несколько лет потерял возможность общаться с голографической «женой» из-за устаревшего ПО.

Влияние подобных взаимоотношений на психическое состояние пока недостаточно исследовано, и взаимодействие с нейросетями не может стать равноценной заменой межчеловеческому. Уход от реальности и концентрация на общении с виртуальной сущностью способны превратить в изгоя, разрушить социальные связи и привести к изоляции.

Существует также риск того, что мошенники попытаются использовать склонность людей доверять искусственному интеллекту в своих целях, чтобы манипулировать ими, шантажа или мошенничества. Также нейросети могут стать инструментом влияния на мнения и действия людей, причем еще более эффективным, чем используемые сегодня в соцсетях боты, которые способны повышать поляризацию в обществе с помощью вбросов на злободневные темы.

Читайте также:  Оценка чужих проступков похожа на восприятие неприятного запаха.

В заключение авторы статьи обратились к коллегам с призывом более тщательно исследовать психологию взаимодействия между людьми и искусственным интеллектом, а также этические и моральные аспекты такого сотрудничества. Это важно для разработки стандартов и принципов в этой новой области, а также для создания инструментов, предотвращающих нежелательные последствия.