Google разрешила применение ИИ в военных разработках

Компания Alphabet, являющаяся холдингом Google, недавно пересмотрела свою этическую хартию, отказавшись от некоторых обязательств, взятых ранее, включая запрет на применение ИИ-моделей в военных разработках.

В 2018 году более 3000 сотрудников Google выразили протест против участия компании в Project Maven, программе военных исследований беспилотников, проводимой Пентагоном. Их беспокоило, что это взаимодействие может стать началом использования искусственного интеллекта в целях, связанных со смертоносным оружием.

Под воздействием внутреннего давления Google обнародовала принципы, определяющие разработку искусственного интеллекта. Согласно документу, компания берет на себя обязательство не создавать технологии, способные причинить глобальный вред, если потенциальная выгода не компенсирует сопутствующие риски, а также оружие или системы, предназначенные для нанесения вреда людям, и инструменты, использующие данные для слежки.

В версии документа, выпущенной 4 января, этот раздел был удален. Пересмотренный документ теперь фокусируется на проведении тщательных испытаний, чтобы снизить риски, связанные с продукцией компании.

Меняющийся контекст

Для оправдания внесенного изменения Google заявляет, что с 2018 года произошли существенные преобразования в технологической инфраструктуре. В статье, подписанной Джеймсом Маньикой, вице-президентом по исследованиям, и Демисом Хассабисом, генеральным директором DeepMind, руководители отмечают, что ИИ эволюционировал «от узкоспециализированной области лабораторных исследований до технологии, столь же распространенной, как мобильные телефоны и интернет». Они не сообщают напрямую о прекращении действующих ранее обязательств, а ограничиваются указанием на внесение изменений в руководящие принципы.

Группа также объясняет эти изменения необходимостью для демократических государств поддерживать свое технологическое превосходство. « По нашему мнению, демократические государства должны взять на себя роль лидеров в создании искусственного интеллекта, придерживаясь основополагающих принципов, таких как свобода, равенство и уважение прав человека », — заявляют они, добавляя, что «компании, правительства и организации, разделяющие эти ценности, должны работать вместе, чтобы создать ИИ, который защищает людей, способствует глобальному росту и укрепляет национальную безопасность ».

Способ снять ограничения?

Некоторые эксперты считают эту поправку способом преодоления препятствий для выхода на динамично развивающийся рынок. В условиях сложной геополитической обстановки объемы финансирования исследований и разработок в области военного искусственного интеллекта значительно увеличиваются.

В 2023 году Google столкнулась с внутренними противоречиями, связанными с проектом облачных вычислений и искусственного интеллекта, ориентированным на правительства и израильские вооруженные силы. В то время как компания пыталась разрешить возникшие разногласия, ее ключевые конкуренты активно расширяли сотрудничество с армейскими структурами. Microsoft и Amazon, например, заключили контракт с Пентагоном в рамках программы Joint Warfighter Cloud Capability – защищенной облачной платформы для американских вооруженных сил.

Этот поворот событий произошел вскоре после того, как Дональд Трамп вновь занял пост президента США. Немедленно после инаугурации новый президент изменил политику, отменив распоряжение, выпущенное его предшественником и касавшееся безопасности искусственного интеллекта. Теперь крупнейшие технологические компании, чьи лидеры недавно установили более тесные связи с Трампом, не обязаны раскрывать результаты тестирования, если их разработки представляют значительную угрозу национальной безопасности или здоровью граждан.