Действительно, может ли искусственный интеллект обладать этикой, учитывая его неживую природу? Сам по себе ИИ не способен отличать хорошее от плохого. Задача человечества заключается не в создании ИИ, похожего на человека, а в обучении его действиям, основанным на принципах справедливости и морали, а не на том, как обычно поступают люди. Naked Science отвечает на распространенные вопросы о том, кто и с какой целью разрабатывает этические нормы для ИИ, и где и как они применяются.
Этика действительно является разделом философии. О чём же конкретно идёт речь?
Изначально этика представляла собой философскую область, изучающую принципы поведения в отношении других людей, общества, религиозных убеждений и прочего, а также внутренние моральные аспекты. Примером этического принципа, сформулированного философом Иммануилом Кантом, является категорический императив: «Действуй так, чтобы ты всегда рассматривал человечество, как в собственном лице, так и в лице других, как цель, а не как средство».
Этику можно трактовать и более простым способом — как совокупность моральных принципов, помогающих каждому человеку отличать добро от зла, понимать, что является правильным, а что — нет. Этика определяет порядок взаимодействия людей, сообществ и государств. Золотое правило этики — «не причиняй другим того, что тебе неприятно пережить самому».
Какова связь между этикой и технологиями?
На протяжении долгого времени человечество разделяло мир на живых существ, чье поведение определялось исключительно инстинктами, и разумных людей, чьи поступки основаны на рациональности и этических нормах. В случае нарушения этих норм, виновного либо осуждали как не достойного существования в обществе, либо признавали сумасшедшим. Однако со временем люди начали передавать часть своих функций машинам, которые выполняют определенные действия, но не обладают ни мышлением, ни моральными установками.
В настоящее время возник новый вид технологий, предназначенных для решения конкретных интеллектуальных задач, которые ранее были доступны исключительно человеку. Это так называемый слабый, узкий или прикладной искусственный интеллект . В зависимости от сценария, он может играть в шахматы или управлять автомобилем. В первом случае влияние искусственного интеллекта на людей и общество минимально, однако во втором ему необходимо разрешать сложные этические вопросы.
Некоторые из них объединяются в рамках мысленного эксперимента под названием «проблема вагонетки» — это различные сценарии выбора, предполагающие необходимость сведения к минимуму число жертв. Например, алгоритм автономного транспортного средства должен в критической ситуации определить оптимальный способ действий: отклониться от маршрута в кювет, подвергая риску жизнь пассажира, или продолжить движение, создавая угрозу для других участников дорожного движения.
Многие моральные дилеммы и принципы можно перефразировать в подобные задачи, после чего их можно будет проверить с помощью эмпирических или экспериментальных данных. Этот процесс получил название операционализация этики.
Правильно ли я понимаю, что наша задача – научить искусственный интеллект имитировать человеческое поведение?
К сожалению, ситуация скорее противоположная. Попробуем вкратце разобраться, из чего формируется любая система искусственного интеллекта. Прежде всего, для обучения решению какой-либо задачи, например, распознаванию и классификации лиц, ИИ нуждается в данных. И требуется их огромное количество. Поэтому их также называют «большими данными».
Изображения лиц людей нередко собираются посредством автоматизированных программ, работающих в сети. Помимо самих изображений, требуются и соответствующие описания, которые обычно из контекста размещения изображения. В итоге модель, при решении задачи классификации, чаще причисляет женщин к категории «домохозяйка», а не, к примеру, «медицинский работник», руководствуясь сексистскими стереотипами, глубоко укоренившимися в традициях определенных стран. Это выражается предвзятость на уровне данных, наследуемая ИИ напрямую от людей.
Дальнейший этап предполагает разработку алгоритма и его обучение. На этом этапе также возможно возникновение предвзятости или искажений. Сложность заключается в том, что работа алгоритма зачастую представляет собой «черный ящик» для исследователя или инженера. Трудно понять, каким образом модель пришла к определенному решению или сделала прогноз. Решить эту проблему на данном этапе позволяет применение технологий «объяснимого искусственного интеллекта» (eXplainable Artificial Intelligence, XAI).
В заключение, предвзятость проявляется и в интерпретации результатов работы алгоритма. Здесь ключевую роль играют люди. Например, если мы обучаем модель на данных одной популяции и получаем определенные прогнозы, а затем применяем ее к другой, совершенно отличной популяции, фактически осуществляя трансфер машинного обучения, то полученные результаты могут существенно варьироваться. Этот аспект требует учета и контроля, что, к сожалению, не всегда происходит.
Крайне важным аспектом является практическое применение искусственного интеллекта и оценка его эффективности. В случае, если алгоритмы нарушают права граждан, требуется их пересмотр или приостановка функционирования системы. Например, в одном из муниципалитетов Нидерландов активисты убедили власти отказаться от использования алгоритма Totta Data Lab, предназначенного для профилирования получателей социальных пособий, доказав искажения в его работе.
Вместо этого, более уместно будет говорить о необходимости обучения искусственного интеллекта действиям, основанным на принципах справедливости и морали, а не на поведении, характерном для большинства людей.
Какова дополнительная необходимость в этике искусственного интеллекта?
Прежде всего, это необходимо для успешного развития технологий искусственного интеллекта. Практически любое нововведение, покидая границы мастерской изобретателя или научной лаборатории, неизбежно вызывает в обществе тревогу и беспокойство. Рассмотрим пример с автомобилями. В период становления автомобилестроения самодвижущиеся, медленные и шумные паромобили вызывали испуг у лошадей, кучеров и прохожих.
В Великобритании и Германии к решению этого вопроса подошли по-разному. В 1865 году в Великобритании был принят «Закон красного флага», который предписывал, чтобы перед каждым паромобилем («безлошадной каретой») следовал человек с красным флагом или зажженным фонарём, в зависимости от времени суток, для предупреждения о приближении новой технологии. Кроме того, для управления таким транспортным средством требовалось не менее двух водителей. Эти ограничения привели к снижению скорости паромобилей, усложнению их эксплуатации и свели на нет, а если быть точным, то полностью уничтожили преимущества, которые были, пусть и небольшие, у этого нового вида транспорта по сравнению с конным.
В Германии был выбран противоположный подход, разрешив паромобилям свободно эксплуатироваться. Это послужило толчком к их активному совершенствованию и стало одним из факторов, определивших известность современного немецкого автомобилестроения. В Англии же развитие передовых автомобильных технологий значительно замедлилось. Понимание необходимости изменений пришло к ним лишь в конце XIX века, когда в 1896 году был упразднён закон, нанёсший ущерб отрасли.
До 1968 года не было разработано единых, зафиксированных на международном уровне правил дорожного движения, несмотря на то, что конвейер по производству автомобилей, созданный Генри Фордом, заработал ещё в 1913 году. По состоянию на 1927 год, на дорогах всего мира насчитывалось приблизительно 15 миллионов автомобилей Ford Model T, не считая всех других автомобилей. Долгое время в городах не было светофоров (в США до 1914, в Европе до 1918 годов), разметки, регулировщиков, можно было водить в алкогольном опьянении и т.д. И лишь в конце 1960-х была заключена Венская конвенция о дорожном движении, стандартизировавшая и закрепившая правила ПДД, а также Венская конвенция о дорожных знаках и сигналах, регулирующая маркировку проезжей части, работу светофоров и т.д.
По сути, правила использования той или иной технологии сначала возникают в обществе, нередко в течение длительного периода, как некие моральные установки, а затем оформляются в институциональные нормы и закрепляются законодательно. Аналогичный процесс наблюдается и в сфере искусственного интеллекта, что, с одной стороны, способствует его успешному развитию, а с другой – предохраняет от потенциального вреда для людей и общества в целом.
Когда и кто впервые начал размышлять об этических аспектах искусственного интеллекта?
Поскольку термин «искусственный интеллект» был введен только в 1956 году, а широкое внимание общественности к этой области возникло еще позже – в 1960-е годы – первыми, кто начал исследовать и пытаться разрешить подобные вопросы, стали писатели-фантасты. Они размышляли о роботах, обладающих человеческим интеллектом, и благодаря этому направление получило свое название робоэтика.
В романе Карела Чапека «R.U.R.» (1920), где впервые он и предложил термин «робот», существовала Лига гуманности. Она заявляла, что роботы не должны испытывать жестокого обращения. Позже появились известные «Три закона робототехники» и «нулевой закон», сформулированные писателем и ученым Айзеком Азимовым в рассказе «Хоровод» (1942) и романе «Роботы и Империя» (1986). Звучат они так:
робот не должен наносить вред людям и не должен допускать, чтобы из-за его бездействия людям был причинён вред.
робот не должен наносить вред человеку и не должен допускать причинения вреда человеку своим бездействием.
робот обязан беспрекословно выполнять все распоряжения человека, за исключением тех, которые нарушают Первую заповедь.
робот обязан следить за собственной безопасностью, если это не нарушает Первого или Второго Законов.
В прикладном плане интерес к теме возродился с начала 2000-х, когда роботы начали активно внедряться не только на производственные линии, но и стали появляться в городской среде, в жилых помещениях и других местах. В 2004 году в Сан-Ремо (Италия) состоялся первый международный симпозиум по робоэтике, а в 2017 году Европарламент одобрил Европейскую хартию робототехники. В настоящее время обсуждения в области робоэтики вновь стали интенсивными в связи с широким распространением боевых автономных роботов и беспилотных летательных аппаратов, а также с появлением роботов, имитирующих человеческую внешность.
Разработка ключевых этических принципов в области искусственного интеллекта – это результат усилий множества специалистов и организаций, а не заслуга одного человека или группы?
По мере окончания периода, который условно называют «второй зимой искусственного интеллекта», и с появлением новых возможностей для нейросетей и моделей глубокого обучения в 2010-х годах, вопросы этики ИИ стали вызывать беспокойство у ведущих IT-компании мира. В 2016 году Microsoft опубликовала «10 законов для искусственного интеллекта». Своё видение этики ИИ сформулировала и IBM. На текущий момент 30 крупных IT-компаний по всему миру разработали собственные руководства, кодексы и наборы этических норм, касающихся искусственного интеллекта. В их число входят и три российские организации: Abbyy, Сбер и Яндекс.
Наибольшее значение приобрел и стал более глубоким подход, который реализуют различные некоммерческие организации (НКО), объединяющие академических исследователей, специалистов из коммерческих компаний, инвесторов и предпринимателей. Ярким примером является сформулированные на Азиломарской конференции в 2017 году «23 принципа искусственного интеллекта». Под ними подписались такие исследователи и мыслители, как Ян Лекун, Илья Суцкевер, Рэй Курцвейл, Стивен Хокинг, Илон Маск, Владимир Оноприенко из России и многие-многие другие. Конкретно этических норм и ценностей касаются 13 принципов.
Не могли бы вы рассказать подробнее об «Азиломарских принципах?
Вот те из них, что посвящены именно этике:
Безопасность: системы ИИ должны быть безопасными и надёжными в течение всего срока эксплуатации, а также по возможности проверяемыми.
Прозрачность отказов: если система ИИ причиняет вред, должна быть возможность выяснить, почему это произошло.
Прозрачность судебного процесса: любое участие автономной системы в принятии судебных решений должно давать удовлетворительное объяснение, проверяемое компетентной комиссией из авторитетных в этой области людей.
Ответственность: разработчики и создатели продвинутых систем ИИ являются заинтересованными сторонами в моральных последствиях их использования, неправильного использования и любых действий, они несут ответственность и имеют возможность формировать эти последствия.
Согласование ценностей: высокоавтономные системы ИИ должны быть спроектированы таким образом, чтобы их цели и поведение могли быть гарантированно согласованы с человеческими ценностями на протяжении всей их работы.
Человеческие ценности: системы ИИ должны разрабатываться и эксплуатироваться таким образом, чтобы быть совместимыми с идеалами человеческого достоинства, прав, свобод и культурного разнообразия.
Приватность личной жизни: люди должны иметь право доступа, управления и контроля над данными, которые они генерируют, учитывая возможности систем ИИ анализировать и использовать эти данные.
Свобода и частная жизнь: Использование искусственного интеллекта в обработке персональных данных не должно приводить к неоправданным ограничениям прав и свобод граждан.
Общее благо: технологии ИИ должны приносить пользу и расширять возможности как можно большего числа людей.
Общее процветание: экономическое процветание, созданное ИИ, должно быть широко распространено на благо всего человечества.
Человеческий контроль: люди должны выбирать, как им делегировать решения системам ИИ (и делать ли это вообще) для достижения целей, также определённых человеком.
Отсутствие злоупотреблений властью: власть, полученная благодаря контролю над высокоразвитыми системами ИИ, должна применяться с уважением, а также улучшать, а не подрывать социальные и гражданские процессы, от которых зависит здоровье общества.
Гонка вооружений ИИ: следует избегать гонки вооружений в области смертоносного автономного оружия.
Уф, действительно, кажется, что существует огромное количество этических принципов. Возможно, существуют более доступные системы моральных установлений, которые легче запомнить?
Подавляющее большинство экспертов в области этики искусственного интеллекта придерживаются единого набора этических принципов:
- приватность
- прозрачность
- надёжность
- подотчетность
- равный доступ
- безопасность
- достоверность
- проверяемость
- контролируемость
Пока что это скорее заявления, и все заявленные принципы кажутся довольно абстрактными. Но как они реализуются в реальных условиях?
Для эффективного функционирования этики требуется разработка стратегий её внедрения и преобразование этических принципов в конкретные задачи, подлежащие решению.
На сегодняшний день государственные и надгосударственные организации, коммерческие предприятия и некоммерческие организации стремятся к согласованию и внедрению единого подхода ethics by design — продумывание и решение разнообразных потенциальных этических дилемм еще на стадии проектирования и разработки систем искусственного интеллекта. Такой подход серьезно усложняет процесс разработки и требует дополнительных компетенций от инженеров и программистов, что вызывает немало трудностей в его имплементации.
Второй подход — AI Localism — его сложно перевести дословно. Подход заключается не в решении абстрактных и универсальных моральных вопросов, а в сборе наиболее эффективных локальных методов работы с этическими проблемами при внедрении искусственного интеллекта на уровне отдельных городов и стран, а также в анализе примеров успешной борьбы с неэтичными системами.
Третий подход предполагает операционализацию этических вопросов не посредством принципов, а через описание конкретных рисков и мер по их предотвращению. Он более доступен и понятен представителям индустрии и государственным структурам. Демонстрация экономической выгоды от оценки рисков и принятия мер по их устранению позволяет задаче реализации этических принципов обрести четкие формы и стать выполнимой.
Важно предоставить возможность высказаться всем, кого это касается, включая пользователей, независимых экспертов, некоммерческие организации, а также представителей групп, сталкивающихся с маргинализацией и дискриминацией. При этом необходимо учитывать мнение не только разработчиков, специалистов и контролирующих органов.
Какова ситуация с этическими аспектами искусственного интеллекта в России?
Россия занимает лидирующие позиции в данном вопросе. В ноябре 2021 года ЮНЕСКО одобрила первую всемирную конвенцию — «Рекомендации по этике искусственного интеллекта ЮНЕСКО», которую поддержали Россия и 190 других стран мира (США, как напоминание, покинули ЮНЕСКО в 2018 году). На Генеральной конференции ЮНЕСКО в Париже только две страны заявили о наличии собственных принципов, определяющих развитие технологий искусственного интеллекта — Китай и Россия.
26 октября 2021 года в Москве, в пресс-центре ТАСС, состоялся первый международный форум «Этика искусственного интеллекта: начало доверия». Форум проходил был принят российский «Кодекс этики в сфере ИИ». К настоящему моменту кодекс подписали более 100 российских организаций.
В его основе лежат следующие принципы: он носит рекомендательный характер, присоединение к нему добровольное, распространяется исключительно на гражданские разработки, а государственное регулирование сбалансировано инструментами мягкого права. Фактически, кодекс не столько устанавливает этические нормы в области искусственного интеллекта, сколько способствует налаживанию взаимодействия между людьми и организациями в процессе развития ИИ.
На каких принципах основан российский «Кодекс этики в сфере искусственного интеллекта» и какую поддержку он оказывает российским компаниям и исследователям?
Основополагающими для российского «Кодекса этики в сфере ИИ» являются шесть основных принципов:
обеспечение защиты прав и интересов людей, отдельных групп населения и каждого человека является первостепенной задачей при развитии технологий искусственного интеллекта;
2. Важно понимать ответственность, возникающую при разработке и применении искусственного интеллекта;
ответственность за последствия использования искусственного интеллекта всегда несет человек;
внедрение технологий должно осуществляться в тех областях, где это принесёт пользу людям;
развитие технологий искусственного интеллекта имеет приоритет над конкуренцией;
не менее значимым является обеспечение максимальной открытости и честности при предоставлении информации об уровне развития технологий искусственного интеллекта, их потенциале и сопутствующих опасностях.
В настоящее время этот кодекс фактически создает в России систему нестрогого регулирования использования технологий искусственного интеллекта и выступает в качестве средства сотрудничества между индустрией, обществом и государственными структурами.
—
*Автор выражает признательность Андрею Незнамову, управляющему директору Центра регулирования ИИ Сбербанка и председателю Национальной комиссии по реализации кодекса этики в сфере ИИ, за помощь и предоставленные данные.