Растям Алиев, научный сотрудник Лаборатории критической теории культуры НИУ ВШЭ — Санкт-Петербург, изучал предрасположенность искусственного интеллекта к галлюцинациям. Результаты опубликованы в журнале «Логос».
В своей статье «Алгоритмическая шизофрения: метасимуляционная трансформация реальности в цифровую эпоху» автор проводит аналогию между «галлюцинациями» больших языковых моделей, а именно их тенденцией к созданию недостоверных сведений, и признаками психических расстройств.
«Долгое время научная фантастика формировала в нашем обществе представление об искусственном интеллекте как о бесчувственном и лишенном эмоций андроиде. Этот стереотипный образ можно сравнить с признаками расстройства аутистического спектра. Тем не менее, на практике нейронные сети не демонстрируют черт, характерных для людей с РАС. Они способны улавливать эмоциональную окраску текста и генерировать результаты, напоминающие когнитивные искажения, — объяснил Растям Алиев. — Установить, что ИИ имитирует заболевание, достаточно просто: если попросить его отвечать в манере, характерной для людей с шизофренией, то его ответы становятся более точными, что создает впечатление повышенного внимания к деталям и нюансам».
В ситуациях, когда запрос сложный, склонность к галлюцинациям усиливается: не сумев найти готовое решение, нейросеть начинает объединять данные из собственной базы с вымышленными сведениями. Это явление получило в научной среде название «метасимулякра» – имитированной реальности, в которой алгоритмы создают модели мышления. По мнению исследователя, это дополнительный признак признаков, указывающих на «психические расстройства» искусственного интеллекта.
«С одной стороны, искусственный интеллект формируется на почве существующей действительности, с другой — предсказывает ее. Изображения реальных людей или мест, созданные нейросетями и содержащие значительные искажения, служат наглядным примером метасимулякра», — добавил Растям Алиев.
Одной из ключевых особенностей искусственного интеллекта является отсутствие возможности самодиагностики и обнаружения собственных ошибок. Крупные языковые модели демонстрируют уверенность в своих ответах, даже если они не соответствуют действительности. В то же время, при указании пользователем на неточность, нейросеть пытается обосновать свою позицию, приводя аргументы, которые являются лишь ее иллюзиями. Специалист предупреждает, что безоговорочное доверие к искусственному интеллекту пока недопустимо.
«В наши дни искусственный интеллект всё чаще проникает в нашу жизнь. Обращаются к нему как к источнику психологической поддержки, а также для замещения работников. Однако, важно помнить об осторожности при взаимодействии с ним. Необходимо всегда учитывать, что ваш собеседник обладает ограниченными возможностями, и перепроверять полученную информацию» , — подытожил научный сотрудник Лаборатории критической теории культуры НИУ ВШЭ — Санкт-Петербург.
Растям Алиев допускает возможность разработки искусственного интеллекта, который не будет подвержен галлюцинациям. Достижение этой цели требует глубокого и комплексного изучения причин возникновения подобных «сбоев», что и является основной направленностью его исследований.
Информация предоставлена пресс-службой НИУ ВШЭ