Google, владелец Alphabet, внес значительные изменения в свою этическую декларацию, отозвав часть предыдущих обязательств, включая запрет на применение моделей искусственного интеллекта в военной сфере.
В 2018 году более трёх тысяч сотрудников Google выступили против участия компании в проекте Maven, программе военных исследований беспилотников, проводимой Пентагоном. Работники опасались, что это сотрудничество станет первым шагом к использованию ИИ для нанесения смертельных повреждений.
Google, подвергнувшись внутреннему давлению, опубликовала принципы, регулирующие разработку искусственного интеллекта. В документе указано, что компания обязуется не разрабатывать технологии, способные причинить глобальный вред, если только выгода не перевешивает риск; оружие или технологии, которые могут нанести вред людям; а также системы, использующие данные в целях слежки.
В измененной версии документа от 4 января данный раздел отсутствует. Пересмотренный документ акцентирует внимание на тщательных испытаниях для снижения рисков, возникающих при использовании продукции фирмы.
Меняющийся контекст
Google обосновывает изменение тем, что технологическая база с 2018 года значительно изменилась. Джеймс Маньик, вице-президент по исследованиям, и Демис Хассабис, генеральный директор DeepMind, в статье объясняют, что ИИ прошел путь от «нишевой темы лабораторных исследований до такой же повсеместной технологии, как мобильные телефоны и сам интернет». Руководители не сообщают о снятии прежних обязательств, а предпочитают говорить об обновлении руководящих принципов.
Группа ссылается на необходимость для демократических стран поддерживать технологическое превосходство, как основание этих изменений. Мы полагаем, что демократические государства должны стать лидерами в разработке искусственного интеллекта, исходя из принципов свободы, равенства и соблюдения прав человека. », — заявляют они, добавляя, что «Компании, органы власти и организации, разделяющие эти ценности, должны сотрудничать для создания искусственного интеллекта, который будет защищать людей, способствовать глобальному развитию и повышать национальную безопасность. ».
Способ снять ограничения?
Некоторые считают данную поправку способом преодоления преград для входа на развивающийся рынок.
В обстановке повышенной геополитической напряжённости финансирование исследований и разработки военной ИИ стремительно увеличивается.
В 2023 году Google столкнулся с разногласиями внутри компании по проекту облачных вычислений и искусственного интеллекта, предназначенного для правительств и израильской армии. Пока компания пыталась разрешить напряжение, конкуренты усилили сотрудничество с армией. Microsoft и Amazon заключили контракт с Пентагоном в рамках проекта Joint Warfighter Cloud Capability — защищенного облака для вооружённых сил США.
Через несколько дней после возвращения Дональд Трамп на пост президента США, он отменил указ о регулировании безопасности ИИ, изданный предыдущим президентом. Теперь крупнейшие технологические компании, руководители которых недавно сблизились с Трампом, не обязаны публиковать результаты тестов, если их продукция представляет высокий риск для национальной безопасности или здоровья населения.