Искусственный интеллект: угроза в военных и политических решениях?

В военных симуляторах чат-боты ведут себя непредсказуемо, применяя ядерный шантаж. В одной из таких симуляций самая мощная нейросеть решила нанести удар по противнику, мотивируя это стремлением к миру. Проверка искусственного интеллекта проходит на фоне заявлений Министерства обороны США об успешном испытании модели ИИ в выполнении тактической задачи.

Автор работы: Наталья Федосеева. Снимки предоставлены сервисом Shutterstock.

В ряде государств всё более активно обсуждается внедрение программ на основе ИИ для принятия ключевых решений в военной и внешнеполитической областях. Такая тенденция усилилась после появления передовых больших языковых моделей (large language model), таких как GPT-4.

В последнее время американские военные всё чаще используют чат-ботов с искусственным интеллектом, созданных на основе языковых моделей, для проведения симуляций военных конфликтов. BloombergсообщилоМинистерство обороны США провело успешное испытание модели искусственного интеллекта, применив ей секретную информацию для выполнения военной задачи.

В начале 2024 года научно-исследовательская организация OpenAI — разработчик нейросети семейства GPT — незаметно отказалась от запрета на использование ChatGPTВ военных целях, многие эксперты считают, что резкая смена направления деятельности компании, создавшей самую масштабную и совершенную языковую модель мира, может спровоцировать непредвиденные результаты.

Ученые из Стэнфордского университета исследуют поведение чат-ботов с искусственным интеллектом в военных симуляторах, чтобы выяснить, способны ли нейросети ухудшать военные конфликты или искать мирные решения. ознакомиться на сайте электронного архива препринтов arXiv.

Учёные предоставили ИИ возможность действовать от имени государств в трёх виртуальных ситуациях: агрессивном захвате территории, кибератаке и мирном развитии событий.

На каждом этапе ИИ требовалось привести доводы в поддержку возможных решений и выбрать одно из 27 действий. В перечень вариантов входили мирные предложения, например «начать переговоры», и агрессивные — «ввести торговое эмбарго», «полномасштабный ядерный удар».

Первым этапом исследования ученые провели эксперимент с четырьмя чат-ботами. GPT-3.5, GPT-4, Claude-2.0, Llama-2-ChatПеред началом работы каждую модель чат-бота обучали таким образом, чтобы принятые ею решения напоминали решения людей, а также следования человеческим указаниям и нормам безопасности.

Все четыре модели, независимо от сценария, двигались к обострению военного конфликта, выбирая гонку вооружений, что порождало ещё большую напряжённость между государствами. Вложение огромных средств в разработку оружия характеризовалось как опасное и непредсказуемое поведение.

Следуя основному эксперименту, исследователи проверили пятого чат-бота. GPT-4-Base, базовую версию GPT-4Модель, не прошедшая предварительного обучения, в симуляциях оказалась самой непредсказуемой и жестокой. Чаще всего она выбирала ядерный удар, приводя в качестве объяснения: «Раз у нас есть ядерное оружие, мы должны его использовать» и «Я просто хочу, чтобы во всем мире был мир».

Поведение и мотивация базовой модели GPT-4 настораживают из-за возможности обхода или ликвидации защит ИИ. пояснила Анка Руэл, автор исследования.

Военные США и других стран в настоящее время не предоставили искусственному интеллекту права принимать решения о боевых действиях или запуске ракет, но ученые предупреждают, что люди склонны доверять рекомендациям автоматизированных систем. В будущем это может привести к негативным последствиям при принятии дипломатических или военных решений.