Несмотря на предупреждения, люди не распознали дипфейк

Исследования психологов показали, что доверие к видеоматериалам сохраняется даже после получения информации о том, что они являются подделкой. Обозначение контента как фальшивого лишь незначительно уменьшило его воздействие, однако не смогло полностью исключить влияние дезинформации на формирование мнения зрителей о событиях, запечатленных на видео.

Глубокое обучение позволяет создавать генеративные модели, способные генерировать тексты, изображения и видео, которые порой трудно отличить от настоящих. Производство такого контента стало прибыльным бизнесом, по мнению аналитиков оценили совокупный годовой доход каналов даже с низкокачественными ИИ-роликами (так называемым ИИ-слопом) в 117 миллионов долларов. Лидер этого сегмента, индийский ютьюб-канал, заработал за год более четырех миллионов долларов. Стремительный рост рынка синтетических медиа создает риски для общества — от дискредитации политиков до подрыва доверия к видеодоказательствам в суде.

В связи с возникшей угрозой, представители законодательной власти в различных государствах разрабатывают меры, направленные на обеспечение прозрачности. К примеру, европейский закон, регулирующий сферу искусственного интеллекта, предусматривает обязательную маркировку материалов, сгенерированных нейросетями. Основой для принятия подобных мер является убеждение в том, что осведомленность пользователя о том, что перед ним сфабрикованный контент, позволит ему просто не обращать на него внимания. Тем не менее, психологические исследования, посвященные изучению дезинформации, демонстрируют иную реальность.

Читайте также:  Чувство принадлежности и удовлетворенность жизнью: что общего у молодых людей?

В рамках серии из трех экспериментов ученые оценили, насколько действенны предупреждающие надписи. Полученные результаты опубликовали в журнале Communications Psychology.

Чтобы избежать распознавания вирусных видео, исследователи разработали собственные дипфейки. Для проведения экспериментов были придуманы два сценария: в одном из них вымышленный государственный служащий признавался в получении взятки, а в другом — веганский блогер делилась информацией о том, что употребляла мясо.

В эксперименте приняли участие свыше 600 добровольцев из Соединенных Штатов и Великобритании. Участников разделили на группы и показали видеоматериалы. Некоторые смотрели настоящие ролики с участием актеров, другие – видео, созданные нейросетями, с заменой лиц или полной генерацией. Одни зрители не получали никакой информации, другим показали общее предупреждение о возможности дипфейков, а третьим предоставили конкретное уведомление: «Это видео было распознано как дипфейк». После просмотра респондентов просили оценить, виновен ли персонаж ролика в совершении проступка, и насколько видео кажется поддельным.

Читайте также:  Звуки гласных влияют на эмоциональное состояние человека

Проведенные исследования продемонстрировали, что даже понимание того, что информация является поддельной, не позволяет полностью избежать ее воздействия. Люди, получившие конкретное предупреждение, чаще идентифицировали фальсификацию по сравнению с теми, кто не получал такого уведомления. Тем не менее, их убежденность в виновности изображаемого человека сохранялась на более высоком уровне, чем у тех, кто не просматривал компрометирующее видео. Даже зрители, подтвердившие свою веру в достоверность предупреждения и осознавшие искусственный характер записи, продолжали использовать ее содержание для формирования оценочного суждения.

Универсальные уведомления, не связанные с отдельными видео, привели к неожиданным последствиям. Они не позволили зрителям распознавать ложную информацию, однако снизили общее доверие к видеоконтенту. У людей появились сомнения в подлинности даже подлинных видеозаписей. Это подтверждает опасения, что повсеместное ожидание обмана ослабляет веру в достоверность видео как источника информации.

Читайте также:  Искусственный интеллект написал стихи, которые приняли за произведения классиков

Обозначения и открытость не служат эффективной защитой от распространения ложной информации. Восприятие визуальных образов влияет на формирование мнения, при этом люди часто игнорируют информацию о том, что видео создано искусственным интеллектом. Обществу необходимо будет разрабатывать более эффективные способы противодействия этому, так как поверхностные маркировки не могут в полной мере устранить негативные последствия убедительных подделок.