В США изучают «Законы робототехники» Азимова при создании норм для беспилотных боевых машин.

Агентство перспективных оборонных исследовательских проектов США (DARPA) запустило новую программу для установления этических стандартов для оружия на основе искусственного интеллекта. Программа попытается выяснить, способны ли автономные системы соответствовать человеческим нормам морали. Однако наблюдатели беспокоятся о согласованности этой цели из-за сложности человеческих этических понятий и того, как автономные системы могут их понимать.

Агентство DARPA Министерства обороны США занимается разработкой новых технологий для военного применения.
Среди созданных агентством технологий – GPS, ранние компьютерные сети и графические пользовательские интерфейсы, имеющие глобальное влияние. DARPA также участвует в разработке технологий шпионажа и проводит конкурсы на создание инновационных военных технологий.

Агентство из Вирджинии, в настоящее время функционирующее как организация по предоставлению грантов, насчитывает около ста сотрудников и занимается управлением программой. Рост автономных технологий вызывает беспокойство о том, смогут ли они следовать человеческим этическим нормам, особенно при применении в вооруженных конфликтах.

Чтобы устранить опасения, агентство запустило программу ASIMOV («Стандарты и идеалы автономии с военно-оперативными ценностями»), цели которой соответствуют целям знаменитого писателя. В частности, программа направлена на разработку контрольных показателей для объективного и количественного измерения этической сложности будущих сценариев использования автономных систем и их способности функционировать в контексте военных оперативных ценностей.

«Рапидное развитие и неизбежное всеобщее распространение технологий автономности и искусственного интеллекта в гражданской и военной сферах нуждаются в надежной количественной базе для измерения и оценки не только технических возможностей, но и, быть может, более существенно, этической способности автономных систем соответствовать ожиданиям человека. », — добавили они.

Программа, созданная под влиянием «Трех Законов робототехники» Айзека Азимова.

Айзек Азимов, автор научно-фантастических и научно-популярных книг, в своих романах поднимал вопросы о потенциальном негативном воздействии высоких технологий. Известен тем, что разработал «Три закона робототехники».

  1. Робот обязан предотвращать вред человеку и не должен своим бездействием допускать причинение вреда.
  2. Робот обязан выполнять команды людей, если те не нарушают первый закон.
  3. Робот обязан оборонять своё существование, но только при условии, что это не нарушает первого или второго закона.

Большая часть его научной фантастики рассматривает границы действия этих законов и их нарушение для человеческой цивилизации. Программа ASIMOV, вдохновляемая этими принципами, нацелена на установление правил, приспособленных к военным технологиям. Семь групп, специализирующихся в этике и оружейных технологиях, изучат теоретические основы и разработают моделирующие среды для исследования вариантов сценариев и потенциальных трудностей. Проект ASIMOV призван сформировать базу для оценки автономных систем. », — поясняет DARPA.

Эталонная система будет строиться на принципах этики ИИ, определённых Министерством обороны США для оценки разрабатываемых технологий по таким критериям, как соответствие, справедливость, отслеживаемость, надёжность и контролируемость. DARPA изначально выделил на программу 5 миллионов долларов и планирует добавить ещё 22 миллиона в текущем году.

DARPA отобрала семь компаний для участия в программе ASIMOV, среди которых Raytheon и Lockheed Martin, занимающиеся оборонными и авиационными технологиями. Агентство подчеркнуло, что программа не преследует цель создания оружия или разработки новых автономных технологий и алгоритмов для него. Она также не ставит задачу установить стандарты для всех автономных систем, ограничиваясь исключительно системами, предназначенными для военного применения.

Проблемы, порождаемые переменчивостью нравственных норм.

Несмотря на старания регулирующих органов, этические принципы людей отличаются множеством вариаций, что затрудняет их применение к автономным технологиям. Стандарты нравственного поведения могут сильно варьироваться от личности к личности и от общества к обществу. Искусственный интеллект можно применять циклически, многократно воспроизводя действия. — говорит Питер Асаро, профессор Новой школы и вице-президент Международного комитета по контролю над вооружениями роботов, в интервью «The New Republic». Этика не является чисто количественной. Человек формирует свою нравственность по ходу жизни, совершая ошибки, извлекающие уроки из которых и делая более правильные выборы в будущем. ».

Этот вопрос ставит перед нами задачу определения стандартов, которые выберет программа ASIMOV, и оценки способности автономных систем их применять в условиях реального развертывания и неожиданностей.
Дополнительно возникает дилемма: как повлияет на их поведение потенциальное присвоение системе сознания? Возможен ли отказ в выполнении приказов?

Ответственные за программу считают установление подобных стандартов очень сложной задачей. Мы признаём трудности этой задачи и понимаем, что не все проблемы разрешатся сразу же. Тем не менее, масштаб вызовов велик для того, чтобы начать работать над их решением. — говорит Ти Джей Клаусутис, один из руководителей. Возможно, цели программы не будут полностью достигнуты, но ASIMOV, безусловно, поможет обществу прийти к согласию и определить главные направления. », — заключает он.