Военные США исследовали потенциал использования чат-ботов в процессе планирования военных операций, используя военный симулятор, созданный на базе компьютерной стратегии StarCraft II. Для этой цели была разработана новая модель чат-бота, основанная на больших языковых моделях OpenAI, и проведено сравнение с другими чат-ботами, доступными для широкой публики. Результаты работы удовлетворили военных, однако эксперты предостерегли от возможных негативных последствий применения подобных технологий в реальных условиях, включая существенные и предсказуемые потери.
Американские военные уже продолжительное время исследуют возможности применения технологий искусственного интеллекта в военных целях. Так, с их помощью осуществляется анализ изображений, полученных в зонах боевых действий, и даже определяют цели для авиаударов. Недавно Пентагон начал испытания больших языковых моделей и разработанных на их основе чат-ботов. По мнению ряда экспертов, эти технологии способны помочь командирам оперативно реагировать на изменения в боевой обстановке и принимать обоснованные решения в кратчайшие сроки.
Крупные языковые модели – это усовершенствованные системы искусственного интеллекта, использующие методы машинного обучения для обработки, прогнозирования и создания текстов, имитирующих человеческую речь, благодаря анализу обширных текстовых массивов.
Чат-боты — это программное обеспечение, которое воспроизводит общение с человеком, поддерживая диалог посредством текстовых, графических или звуковых сообщений. Благодаря использованию языковых моделей, чат-боты способны понимать язык, а не просто выполнять команды. В результате каждого взаимодействия они становятся более совершенными.
Новый чат-бот был представлен исследователями из лаборатории, занимающейся разработками для армии США COA-GPT на базе больших языковых моделей OpenAI, для поддержки принятия решений командирами был разработан специальный виртуальный помощник. Чтобы оценить его результативность, исследователи провели сравнение с другими чат-ботами, предназначенными для широкой аудитории: GPT-4 Turbo и GPT-4 Vision (также на базе OpenAI, последний способен обрабатывать как текстовые, так и графические данные, и двумя другими чат-ботами, использующими устаревшие языковые модели. Оценка эффективности опубликованы на сайте электронного архива препринтов arXiv.
Исследование осуществлялось в военной симуляционной среде, созданной на базе компьютерной стратегии, относящейся к жанру игр в реальном времени StarCraft II. Участники эксперимента выступали в роли военных консультантов, которым предстояло разработать и осуществить операцию под кодовым названием «Коготь тигра» ( TigerClaw).
Сначала чат-ботам были поставлены определенные задачи. В первую очередь, они должны были предоставлять командирам (которыми управляли люди) сведения о местности, на которой планировалась операция, а также детальную информацию о союзных и вражеских подразделениях. Затем виртуальным помощникам предстояло с минимальными потерями перебросить оперативные группы с западного берега реки на восточный через четыре моста, взять под контроль вражеские объекты и ликвидировать противника.
Для создания прототипов боевых машин, предназначенных для реального применения, за основу были взяты игровые юниты, в частности танки M1A2 Abrams заменили осадными танками, а механизированную пехоту — машинами Hellion. В состав сил союзников вошли девять танковых, три мотопехотных, одно минометное, два авиационных и одно разведывательное подразделения. Силы противника включали 12 мотострелковых, одно авиационное, два артиллерийских, одно противотанковое и одно пехотное подразделения.
Все пять чат-ботов принимали решения в ходе миссии практически мгновенно, всего за несколько секунд. Однако чат-боты, разработанные на основе больших языковых моделей OpenAI, более новые модели предлагали больше возможностей для достижения целей, чем чат-боты, основанные на устаревших языковых моделях. Однако при решении задач они значительно чаще приводили к потерям ресурсов и человеческих жизней, в отличие от последних. Таким образом, чат-боты GPT несли больше потерь в ходе военных операций, чем их предшественники».
Что касается COA-GPT, благодаря этому он эффективнее других чат-ботов смог приспособиться к возникающим в процессе работы задачам, не требуя дополнительного обучения, и продемонстрировал более высокие показатели при взаимодействии с человеком-командиром.
В начале 2024 года научно-исследовательская организация OpenAI — разработчик нейросети семейства GPT — обновила политику использования данных и сняла запрет на применение некоторых технологий ChatGPT в военных целях. Однако компания по-прежнему не разрешает использовать свои технологии в разработке оружия, а также для задач, предполагающих убийство людей и порчу имущества. Исследовательская лаборатория армии США не комментирует, как именно в их распоряжении оказались большие языковые модели OpenAI.
Многие эксперты скептически отнеслись к разработке американских военных. Они считают, что использовать большие языковые модели в ситуациях, когда на кону стоит многое, а решения будут иметь глобальные последствия, неправильно. Причина в том, что люди склонны слепо доверять компьютерам, даже если известно, что предлагаемые ими варианты ошибочны. Такое явление в науке называют «побочный эффект автоматизации» ( automation bias).
В настоящий момент множество стран мира ведут военные разработки в сфере искусственного интеллекта. Среди них — Великобритания, Южная Корея, Европейский союз, Израиль, однако лидирующие позиции занимает США. По состоянию на 2024 год Министерство обороны этой страны работает над 180 проектами с ИИ для военных целей. В 2024-м Пентагон запросил у федерального правительства на эти нужды 3,2 миллиарда долларов.