Петербургский ученый обнаружил признаки «алгоритмической шизофрении» у нейросетей

Растям Алиев, научный сотрудник Лаборатории критической теории культуры НИУ ВШЭ — Санкт-Петербург, изучал предрасположенность искусственного интеллекта к галлюцинациям. Результаты опубликованы в журнале «Логос».

В своей статье «Алгоритмическая шизофрения: метасимуляционная трансформация реальности в цифровую эпоху» автор проводит аналогию между «галлюцинациями» больших языковых моделей, а именно их тенденцией к созданию недостоверных сведений, и признаками психических расстройств.

«Долгое время научная фантастика формировала в нашем обществе представление об искусственном интеллекте как о бесчувственном и лишенном эмоций андроиде. Этот стереотипный образ можно сравнить с признаками расстройства аутистического спектра. Тем не менее, на практике нейронные сети не демонстрируют черт, характерных для людей с РАС. Они способны улавливать эмоциональную окраску текста и генерировать результаты, напоминающие когнитивные искажения, — объяснил Растям Алиев. — Установить, что ИИ имитирует заболевание, достаточно просто: если попросить его отвечать в манере, характерной для людей с шизофренией, то его ответы становятся более точными, что создает впечатление повышенного внимания к деталям и нюансам».

В ситуациях, когда запрос сложный, склонность к галлюцинациям усиливается: не сумев найти готовое решение, нейросеть начинает объединять данные из собственной базы с вымышленными сведениями. Это явление получило в научной среде название «метасимулякра» – имитированной реальности, в которой алгоритмы создают модели мышления. По мнению исследователя, это дополнительный признак признаков, указывающих на «психические расстройства» искусственного интеллекта.

Читайте также:  Российские ученые разработали метод анализа ДНК и уничтожения патогенов с помощью химических реактивов.

«С одной стороны, искусственный интеллект формируется на почве существующей действительности, с другой — предсказывает ее. Изображения реальных людей или мест, созданные нейросетями и содержащие значительные искажения, служат наглядным примером метасимулякра», — добавил Растям Алиев.

Одной из ключевых особенностей искусственного интеллекта является отсутствие возможности самодиагностики и обнаружения собственных ошибок. Крупные языковые модели демонстрируют уверенность в своих ответах, даже если они не соответствуют действительности. В то же время, при указании пользователем на неточность, нейросеть пытается обосновать свою позицию, приводя аргументы, которые являются лишь ее иллюзиями. Специалист предупреждает, что безоговорочное доверие к искусственному интеллекту пока недопустимо.

Читайте также:  Сибирские ученые разработали микрофлюидную систему для репродуктивной медицины

«В наши дни искусственный интеллект всё чаще проникает в нашу жизнь. Обращаются к нему как к источнику психологической поддержки, а также для замещения работников. Однако, важно помнить об осторожности при взаимодействии с ним. Необходимо всегда учитывать, что ваш собеседник обладает ограниченными возможностями, и перепроверять полученную информацию» , — подытожил научный сотрудник Лаборатории критической теории культуры НИУ ВШЭ — Санкт-Петербург.

Растям Алиев допускает возможность разработки искусственного интеллекта, который не будет подвержен галлюцинациям. Достижение этой цели требует глубокого и комплексного изучения причин возникновения подобных «сбоев», что и является основной направленностью его исследований.

Читайте также:  Арктика: взгляд изнутри. Эксперты ИПУ РАН о будущем северных территорий

Информация предоставлена пресс-службой НИУ ВШЭ