Возможно ли появление сознания у искусственного интеллекта? Этот вопрос волнует специалистов и разработчиков во всем мире. Российская компания «Яндекс» инициировала исследование, призванное помочь в поиске ответа на него.
«Компания «Яндекс» инициировала экспериментальную программу, способную прояснить, обладает ли искусственный интеллект признаками сознания?»
Учёные отмечают, что рефлексия – ключевая особенность, отличающая человека. Она воздействует на его восприятие и изменяет понимание происходящего. В отличие от этого, обычный искусственный интеллект при каждом ответе начинает работу заново. Разработчики проекта стремились выяснить, возможно ли создание модели, способной формировать собственные убеждения, опираясь на собственные размышления, подобно тому, как это делает человек.
Ученые стремятся подтвердить или опровергнуть ключевую гипотезу: если модель будет тщательно анализировать каждый вопрос и затем обучаться на основе собственных рассуждений, то у нее могут сформироваться собственные предпочтения. В результате модель начнет выдавать более согласованные ответы и придерживаться определенной позиции. Поскольку проект представляет собой научное исследование, то гипотезы и методология могут быть скорректированы в ходе выполнения работы.
«По мнению Александра Крайнова, руководителя направления развития технологий искусственного интеллекта «Яндекса», существует вероятность того, что обучение нейронной сети на основе собственных размышлений позволит создать модель, обладающую собственной, не имитированной и не навязанной, точкой зрения, то есть внутренними убеждениями.
Целью данного исследования является более глубокое понимание механизмов человеческого мышления. В настоящее время ученые не имеют возможности проводить эксперименты с человеческим сознанием, однако предложенный инструмент предоставит им платформу для изучения работы разума.
«По словам Крайнова, ранее не существовало даже базовой и не завершенной, но функционирующей модели человеческого разума.
По его словам, подобные исследования приносят пользу и нейробиологам. Крайнов также отметил, что в роли научного консультанта в проекте принимал участие нейробиолог, доктор медицинских наук, профессор и академик РАН Константин Анохин.
В эксперименте приняли участие исследователи из Лаборатории искусственного интеллекта «Яндекса», а также студенты и преподаватели Школы анализа данных (ШАД). Работа команды началась в конце лета. На первом этапе участники проверили, способна ли базовая модель демонстрировать устойчивые предпочтения без дополнительного обучения. В результате они установили, что такой возможности у модели не имеется.
В скором времени ученые перейдут к главному этапу эксперимента. Специалисты будут стимулировать модель к логическим выводам и самоанализу, побуждать ее извлекать уроки из собственных размышлений.
«Захватывающее и притягивающее внимание зрелище — то, как в различных сферах, касающихся искусственного интеллекта, например при обучении роботов, данные не просто собираются для дальнейшего использования, а небольшими частями оказывают влияние на их действия», — отметил Алексей Толстиков, руководитель Школы анализа данных «Яндекса».
В процессе научных исследований специалисты проверяют различные открытые модели, включая разработки «Яндекса». Исследователи сделали акцент на решениях с открытым исходным кодом, чтобы гарантировать прозрачность и возможность повторения эксперимента.
Некоторые модели способны к логическим выводам, что и определяет их как так называемые reasoning модели. Одну из гипотез ученые сформулировали конкретно для них. Они предположили, что в процессе логических размышлений такие модели смогут самостоятельно приходить к определенным выводам. Участники проекта не создают никаких ограничений или рамок. Напротив, базовая языковая модель сохраняет естественную способность рассуждений.
«По мнению Толстикова, исследование мышления, логики, процесса приобретения знаний и генерации идей представляет собой увлекательную сферу, которая способна раскрыть новые перспективы как в области искусственного интеллекта, так и в области изучения человеческой природы.
Участники исследования рассчитывают на получение первоначальных данных, которые смогут подтвердить или опровергнуть ключевое предположение, к завершению текущего года.