Исследования психологов показали, что доверие к видеоматериалам сохраняется даже после получения информации о том, что они являются подделкой. Обозначение контента как фальшивого лишь незначительно уменьшило его воздействие, однако не смогло полностью исключить влияние дезинформации на формирование мнения зрителей о событиях, запечатленных на видео.
Глубокое обучение позволяет создавать генеративные модели, способные генерировать тексты, изображения и видео, которые порой трудно отличить от настоящих. Производство такого контента стало прибыльным бизнесом, по мнению аналитиков оценили совокупный годовой доход каналов даже с низкокачественными ИИ-роликами (так называемым ИИ-слопом) в 117 миллионов долларов. Лидер этого сегмента, индийский ютьюб-канал, заработал за год более четырех миллионов долларов. Стремительный рост рынка синтетических медиа создает риски для общества — от дискредитации политиков до подрыва доверия к видеодоказательствам в суде.
В связи с возникшей угрозой, представители законодательной власти в различных государствах разрабатывают меры, направленные на обеспечение прозрачности. К примеру, европейский закон, регулирующий сферу искусственного интеллекта, предусматривает обязательную маркировку материалов, сгенерированных нейросетями. Основой для принятия подобных мер является убеждение в том, что осведомленность пользователя о том, что перед ним сфабрикованный контент, позволит ему просто не обращать на него внимания. Тем не менее, психологические исследования, посвященные изучению дезинформации, демонстрируют иную реальность.
В рамках серии из трех экспериментов ученые оценили, насколько действенны предупреждающие надписи. Полученные результаты опубликовали в журнале Communications Psychology.
Чтобы избежать распознавания вирусных видео, исследователи разработали собственные дипфейки. Для проведения экспериментов были придуманы два сценария: в одном из них вымышленный государственный служащий признавался в получении взятки, а в другом — веганский блогер делилась информацией о том, что употребляла мясо.
В эксперименте приняли участие свыше 600 добровольцев из Соединенных Штатов и Великобритании. Участников разделили на группы и показали видеоматериалы. Некоторые смотрели настоящие ролики с участием актеров, другие – видео, созданные нейросетями, с заменой лиц или полной генерацией. Одни зрители не получали никакой информации, другим показали общее предупреждение о возможности дипфейков, а третьим предоставили конкретное уведомление: «Это видео было распознано как дипфейк». После просмотра респондентов просили оценить, виновен ли персонаж ролика в совершении проступка, и насколько видео кажется поддельным.
Проведенные исследования продемонстрировали, что даже понимание того, что информация является поддельной, не позволяет полностью избежать ее воздействия. Люди, получившие конкретное предупреждение, чаще идентифицировали фальсификацию по сравнению с теми, кто не получал такого уведомления. Тем не менее, их убежденность в виновности изображаемого человека сохранялась на более высоком уровне, чем у тех, кто не просматривал компрометирующее видео. Даже зрители, подтвердившие свою веру в достоверность предупреждения и осознавшие искусственный характер записи, продолжали использовать ее содержание для формирования оценочного суждения.
Универсальные уведомления, не связанные с отдельными видео, привели к неожиданным последствиям. Они не позволили зрителям распознавать ложную информацию, однако снизили общее доверие к видеоконтенту. У людей появились сомнения в подлинности даже подлинных видеозаписей. Это подтверждает опасения, что повсеместное ожидание обмана ослабляет веру в достоверность видео как источника информации.
Обозначения и открытость не служат эффективной защитой от распространения ложной информации. Восприятие визуальных образов влияет на формирование мнения, при этом люди часто игнорируют информацию о том, что видео создано искусственным интеллектом. Обществу необходимо будет разрабатывать более эффективные способы противодействия этому, так как поверхностные маркировки не могут в полной мере устранить негативные последствия убедительных подделок.