Кейтлин Калиновски, руководитель отдела аппаратного обеспечения OpenAI, сообщила об увольнении, объяснив это разногласиями с недавним партнерством компании и Пентагона. В своем сообщении, размещенном в соцсети X, она отметила, что причиной ее отставки стало ускоренное внедрение моделей искусственного интеллекта OpenAI на защищенных облачных платформах Министерства обороны США. Калиновски считает, что сделка была заключена слишком быстро, без должной подготовки и обсуждения возможных последствий как внутри компании, так и в обществе.
Калиновски отметила, что, несмотря на значимость ИИ для обеспечения национальной безопасности, необходимо более детально проанализировать существующие ограничения. Она назвала спорными вопросы, такие как несанкционированное наблюдение за гражданами США и создание автономных систем вооружений, функционирующих без прямого участия человека. Калиновски считает, что эти аспекты требовали более глубокой проработки до начала реализации партнерства.
Экс-глава аппаратного направления выразила «глубокое уважение» к генеральному директору OpenAI Сэму Альтману и его команде, но подчеркнула, что объявление о сотрудничестве с Пентагоном произошло до разработки конкретных мер безопасности. « В первую очередь это касается вопросов управления. Данные аспекты настолько значимы, что сделки и объявления не должны проводиться торопливо », — отметила Калиновски в своей дальнейшей публикации.
В ответ на появившееся заявление, представители OpenAI акцентировали внимание на том, что уже на следующий день после объявления о сотрудничестве компания сообщила о внедрении дополнительных мер безопасности, направленных на ограничение областей применения технологии. В прошлую субботу OpenAI вновь заявили, что их принципиальные ограничения запрещают использование технологии в целях внутренней слежки или для создания автономных систем вооружений. В комментарии для Reuters в OpenAI отметили, что осознают: работа в данной сфере может вызывать острые чувства и разногласия. Компания пообещала и далее вести обсуждение с сотрудниками, представителями государственных органов, неправительственными организациями и сообществами по всему миру по мере развития дискуссии.
О сотрудничестве с Министерством обороны стало известно немногим более чем неделю назад. Ранее ведомство не смогло договориться с компанией Anthropic, которая настаивала на предоставлении гарантий, исключающих применение ее искусственного интеллекта для масштабного наблюдения или в автономных системах вооружений.
Сэм Альтман, комментируя заключение договора, отметил, что в нем предусмотрены меры предосторожности, схожие с теми, которые ранее препятствовали согласованию условий с Anthropic. Глава OpenAI акцентировал внимание на том, что два основных принципа безопасности компании – отказ от масштабного внутреннего наблюдения и требование человеческого контроля над применением силы, в том числе при использовании автономных систем вооружения, – были включены в соглашение с Министерством обороны. Альтман сообщил, что ведомство согласилось с этими принципами, зафиксировало их в нормативных актах и политике, а контракт служит их практическим применением.
Альтман также заявил о внедрении компанией OpenAI технических мер, обеспечивающих корректное поведение моделей, и о развертывании их исключительно в облачных средах. Он подчеркнул, что OpenAI призывает Министерство финансов США распространить аналогичные требования на все организации, работающие в сфере искусственного интеллекта, полагая, что такие правила должны быть универсальными для всей отрасли. Альтман отметил, что OpenAI отдает предпочтение урегулированию спорных вопросов посредством практических договоренностей, а не через судебные разбирательства или государственное вмешательство. Согласно информации из СМИ, на встрече с сотрудниками Альтман заверил их в том, что правительство позволит компании создать собственную систему безопасности для предотвращения неправомерного использования, и акцентировал внимание на том, что в случае отказа модели ИИ в выполнении задачи правительство не сможет принудить компанию к отмене этого отказа.