Александр Лерхнер, ведущий научный сотрудник Google DeepMind, в своей последней работе сделал категоричный вывод о том, что искусственный интеллект, подобно любой другой вычислительной системе, не способен обрести сознание. Это утверждение выглядит весьма контрастным на фоне активной пропаганды со стороны лидеров технологических компаний о скором развитии искусственного общего интеллекта, который, по их мнению, сможет достичь уровня человеческого сознания.
В последнее время большие языковые модели показали выдающиеся результаты, что вызвало активные обсуждения в научном сообществе и обществе о возможности их развития в направлении некой формы сознания. Увеличение вычислительных мощностей позволяет предположить, что со временем искусственный интеллект может достичь достаточной сложности для проявления поведения, которое обычно рассматривается как уникальная особенность человека. Илья Суцкевер, сооснователь и бывший научный руководитель OpenAI, в 2022 году даже высказывал мнение, что «крупные современные нейронные сети могут обладать слабой формой сознания». Лидеры компаний, разрабатывающих искусственный интеллект, используют эту гипотетическую возможность для привлечения инвестиций в проекты, направленные на создание общего искусственного интеллекта, который, как ожидается, приведет к глобальным социально-экономическим преобразованиям. Более того, сама идея сознательного ИИ вызвала серьезные дебаты о вопросах благополучия и моральной ответственности в отношении таких технологий.
Несмотря на это, гипотеза о наличии сознания у искусственного интеллекта вызывает серьезные сомнения. Уже проведенные исследования показывают, что математические алгоритмы, работающие на графических процессорах, не могут породить сознание, поскольку им не хватает сложной биологической основы. Однако их развитые лингвистические возможности, созданные для точного воспроизведения человеческой речи, могут обманчиво указывать на их истинную сущность. Именно эту точку зрения подкрепляет своей работой Александр Лерхнер, сотрудник Google DeepMind. В своей , в статье, размещенной на внутреннем сервере компании, автор утверждает, что господствующий в современных дискуссиях о сознании ИИ функционализм получает физически аргументированное возражение, способное разрешить существующую неясность в этой области.
Функционализм предполагает, что субъективное восприятие, являющееся основой сознания, может возникать из абстрактной структуры причинно-следственных связей, независимо от конкретной физической реализации. Лерхнер категорически возражает против данной точки зрения, полагая, что любая система искусственного интеллекта изначально зависит от активного когнитивного агента – человека-разработчика, который формирует и упорядочивает последовательности идей и данных. Без такого агента сама по себе система не сможет развить сложное поведение, сопоставимое с сознанием. Таким образом, исследователь подчеркивает, что для возникновения сознания необходим сложный физический организм, живое существо.
По словам профессора когнитивной информатики Лондонского университета Марка Бишопа, он в значительной степени согласен с выводами Лерхнера, хотя и отметил, что подобные аргументы уже озвучивались много лет назад. Биолог и философ Йоханнес Йегер выразил более сдержанное отношение, предположив, что исследователь самостоятельно пришел к этим результатам, «переизобрел колесо» и демонстрирует ограниченное понимание философии и биологии. Йегер объяснил это относительной замкнутостью научного сообщества в области искусственного интеллекта, которое фокусируется на специализированных областях и работает в условиях жестких сроков, не позволяющих уделять достаточно внимания смежным дисциплинам.
Оба эксперта согласились, что публикация подобного исследования сотрудником Google DeepMind является позитивным, хотя и неожиданным событием, учитывая одобрение со стороны его работодателя. Марк Бишоп высказал предположение, что у Google могут быть значительные финансовые и юридические основания для поддержки заключения о невозможности возникновения сознания в результате вычислений. По его мнению, если бы ситуация была обратной, то в Европе уже были бы предприняты шаги по принятию закона, наделяющего компьютерные системы правами, что представляется нелогичным. Таким образом, Google заинтересован в том, чтобы его системы не воспринимались как обладающие сознанием, поскольку это уменьшает вероятность усиления законодательного контроля в США и других государствах. В самом исследовании Лерхнера содержится оговорка о том, что представленные выводы могут не соответствовать официальной позиции, точке зрения или стратегической политике его компании.