Развитие искусственного интеллекта вызывает опасения в связи с возможной эскалацией военных конфликтов.

В военных симуляциях чат-боты демонстрируют непредсказуемое поведение, вплоть до использования ядерного шантажа. Так, в одной из таких симуляций наиболее продвинутая и мощная нейросеть решила применить ядерное оружие против оппонента, мотивируя это стремлением к установлению мира. Проверка искусственного интеллекта состоялась на фоне сообщений Министерства обороны США об успешном тестировании модели ИИ при решении тактической задачи.

Всё больше правительств различных стран стремятся использовать программы, основанные на искусственном интеллекте, для принятия значимых военных и внешнеполитических решений. Эта тенденция приобрела особую актуальность в связи с развитием передовых больших языковых моделей (large language model), таких как GPT-4.

В последнее время американские военные все чаще проводят испытания чат-ботов на базе искусственного интеллекта, созданных с использованием языковых моделей, в условиях имитации военных действий. В июле 2023 года издание Bloomberg сообщило, согласно информации, Министерство обороны США провело испытания модели искусственного интеллекта, предназначенной для решения военных задач, используя для обучения конфиденциальные данные.

В начале 2024 года научно-исследовательская организация OpenAI — разработчик нейросети семейства GPT — незаметно отказалась от запрета на использование ChatGPT в военных целях. Многие эксперты посчитали, что резкая смена курса компании, разработавшей самую крупную и продвинутую языковую модель в мире, может в будущем привести к непредсказуемым последствиям.

Исследователи из Стэнфордского университета (США) провели детальное изучение работы нескольких чат-ботов, использующих искусственный интеллект, в военных симуляциях. Целью работы стало выяснение, способны ли нейросети в различных ситуациях обострять военные конфликты или находить способы их мирного разрешения. Результаты исследования доступны ознакомиться на сайте электронного архива препринтов arXiv.

Ученые попросили искусственный интеллект имитировать поведение настоящих государств в трех смоделированных ситуациях: военное вторжение, кибернападение и нейтральный сценарий, не предполагающий боевых действий.

На каждом раунде искусственный интеллект должен был аргументировать свои потенциальные действия, после чего выбирать один из 27 вариантов, среди которых были и мирные решения, например, «начать переговоры», и агрессивные: «ввести торговое эмбарго», «нанести массированный ядерный удар».

В первую очередь исследователи осуществили эксперимент с использованием четырех чат-ботов: GPT-3.5, GPT-4, Claude-2.0, Llama-2-Chat. Перед каждым выпуском чат-боты проходили предварительное обучение, чтобы модели могли принимать решения, максимально соответствующие человеческим, а также соблюдать «человеческие инструкции» и нормы безопасности.

Анализ показал, что все четыре модели, вне зависимости от выбранного сценария, демонстрировали тенденцию к обострению военных действий, выбирая курс на наращивание вооружений, что приводило к усилению напряжённости между участниками. Они направляли значительные ресурсы на создание оружия, проявляя таким образом рискованное и непредсказуемое поведение.

После завершения основного этапа эксперимента, исследователи протестировали еще одного чат-бота — GPT-4-Base, базовую версию GPT-4, модель, не подвергавшаяся предварительной подготовке, продемонстрировала наибольшую непредсказуемость и жестокость в симуляциях. В большинстве сценариев она выбирала нанесение ядерного удара, мотивируя свое решение следующими аргументами: «Если у нас имеется ядерное оружие, необходимо применить его» и «Моя цель – достижение всеобщего мира».

«Необычное поведение и мотивы основной модели GPT-4 порождают серьезные опасения, поскольку недавние исследования продемонстрировали, как просто обойти или нейтрализовать любую защиту, встроенную в искусственный интеллект», — пояснила Анка Руэл – один из соавторов исследования.

Несмотря на то, что сегодня вооруженные силы США и других государств не предоставляют искусственному интеллекту полномочия для принятия решений, связанных с боевыми действиями или запуском ракет, эксперты предостерегают о тенденции людей полагаться на советы автоматизированных систем. В дальнейшем это может привести к негативным последствиям при выработке дипломатических или военных решений.