Технолог рассказал, почему бессмысленно критиковать ошибки нейросетей

Если модель искусственного интеллекта предоставляет неточный ответ на запрос, пользователи часто стремятся понять, что послужило причиной ошибки, обращаясь с вопросом к самому ИИ-помощнику. Историк технологий Бендж Эдвардс разъяснил, почему такой подход неэффективен и как это связано со структурой нейронных сетей.

Искусственный интеллект, или ИИ, прочно вошел в нашу повседневность, позволяя эффективно решать широкий спектр задач. Так, в недавних научных исследованиях создали Искусственный интеллект, переводящий с 100 языков, продемонстрировал точность, превосходящую показатели конкурентов на 23 выяснили, в настоящее время наблюдается тенденция, при которой люди не просто смешивают нейросетевую поэзию с произведениями признанных мастеров, но и выбирают её вместо них.

Рассматривая искусственный интеллект как помощника, люди нередко обращаются к нему за советом, подобно тому, как они делают это с человеческим специалистом, но это, как правило, неэффективный подход. В статье эксперта в области ИИ, Бенджа Эдвардса, рассказывается о принципах работы нейронных сетей и их возможностях самооценки появилась в издании Ars Technica.

В первую очередь автор акцентировал внимание на важном моменте: ChatGPT, Perplexity и подобные генеративные модели не являются «личностями», обладающими конкретным типом мышления, систематизированными знаниями и возможностью анализа собственных действий. Это алгоритмы, которые в течение нескольких месяцев или лет проходили обучение на колоссальных объемах информации и оттачивали навыки в решении одной задачи – генерации определенной последовательности (текста, кода на языке программирования и т.д.), соответствующей выявленным в обучающих данных закономерностям и запросу пользователя.

Нейросеть при обработке запроса не действует подобно человеку. Она разбивает текст на небольшие смысловые фрагменты — токены, после чего кодирует каждый из них, опираясь на сведения о том, как часто он появляется рядом с другими токенами в корпусе обучающих текстов. Слова, относящиеся к одной тематике (например, «компьютер» и «монитор»), встречаются в непосредственной близости чаще, чем слова из разных областей (например, «компьютер» и «помидор»). Следовательно, когда пользователь обращается к модели искусственного интеллекта с вопросом, она анализирует информацию о токенах, из которых состоит этот запрос, сопоставляет ее с имеющимися обучающими данными и создает ответ, располагая рядом те единицы, которые, согласно статистическим данным, наиболее вероятно будут сочетаться.

Генеративные языковые модели не проводят глубокого анализа содержания запроса или используемых источников, а лишь стремятся выстроить смысловые элементы в соответствии с наиболее вероятной структурой, встречающейся в данных, на которых они обучались. Поэтому нейросеть не способна объяснить, почему она выдала информацию, не соответствующую действительности.

Сможет ли искусственный интеллект проанализировать информацию о своей собственной архитектуре и сделать «выводы» о своих возможностях? Вероятнее всего, нет. Если вы зададите вопрос вроде «Почему ты решила уравнение неверно?», то нейросеть, не имея доступа к коду, который определяет её работу, сформулирует ответ, основываясь на данных об известных ограничениях предыдущих моделей ИИ. Если же вы включите в запрос название и версию модели (например, отправите GPT-4o mini следующий текст: «Почему модель GPT-4o mini неправильно решает уравнения?»), то шанс получить содержательный ответ возрастет. Однако он все равно не объяснит ошибку конкретно в вашем уравнении и останется обоснованным предположением, а не результатом саморефлексии.

По словам Бена Эдвардса, даже когда нейросети натренированы для прогнозирования собственного поведения в обычных условиях, например, при ответе на вопрос «Вы умеете писать тексты на русском языке?», их точность падает в более сложных ситуациях. Таким образом, модели искусственного интеллекта могут утверждать о своей неспособности выполнить задачу, которую они способны решить, или, наоборот, заявлять о простоте выполнения задания, которое им не под силу.

Нейросеть при обработке запроса не ограничивается только анализом значения слов. Она также учитывает их стилистические и эмоциональные особенности, используя их в качестве ориентира. Поэтому на вопрос «Ты только что все уничтожила?» модель скорее всего подтвердит опасения – не вследствие анализа ситуации и сообщения о собственных действиях, а из-за генерации текста, соответствующего эмоциональной окраске запроса.

Следует учитывать, что ChatGPT и подобные сервисы, предполагающие взаимодействие пользователя с ИИ-ассистентом, представляют собой не самостоятельные модели, а комплексные системы, состоящие из нескольких нейросетей. Каждая из них в значительной степени не имеет представления о других и их возможностях. К примеру, OpenAI, разработчик ChatGPT, разделяет в этом сервисе функции модерации текста и его создания. Это означает, что модели, генерирующие ответы, не способны предугадать, какие изменения будут внесены в них на этапе модерации и какие инструменты для этого будут применены. Подобная ситуация возникает, когда отдел компании запрашивает информацию о возможностях подразделения, с которым он никогда не сотрудничал.

Хотя ответы, генерируемые нейросетями, могут казаться похожими на человеческие, процесс их создания существенно отличается. Для эффективного использования искусственного интеллекта важно учитывать принципы его функционирования.