Может ли искусственный интеллект обладать этикой? Ведь он неживой сущностью!
Сам по себе ИИ не способен различать добро и зло. Задача человечества — научить его действовать на основе справедливости и морали, а не по образу и подобию большинства людей. «Naked Science» отвечает на популярные вопросы о том, кто формулирует этические принципы для ИИ, зачем это делается, где и как их применяют.

Что такое этика, и о чем она?
Эта дисциплина изучает нормы поведения по отношению к другим людям, обществу, Богу и т.д., а также внутренние моральные категории.
Этику можно трактовать как систему нравственных норм, помогающую каждому человеку отличать хорошее от плохого, добро от зла. Этика управляет взаимоотношениями людей в обществах и государствах. Не поступай с другими так, как ты не хочешь, чтобы поступали с тобой.
В чём заключается связь этики и технологий?
В течение долгого времени людей разделяли на две категории: животных, руководствующихся инстинктами, и разумных людей, поступки которых основывались на рациональности и этических принципах. Несоблюдение этих принципов считалось либо признаком плохой личности, не достойной общества, либо признаком безумия. Со временем люди стали возлагать часть своих действий на машины. Машины совершали определенные действия, но при этом лишены мышления и моральных норм.
В наше время появилось особое направление технологий, решающее отдельные интеллектуальные задачи, раньше доступные лишь людям. Малое, узкое или прикладное применение искусственного интеллекта. В шахматы или за руль — выбор у искусственного интеллекта есть. В первом случае влияние на людей и общество минимально, а вот во втором – перед ним множество этических вопросов.
Часть из описанных ситуаций отражена в мысленном эксперименте «проблема вагонетки» — различных сценариях выбора, где требуется минимизировать число жертв. Например, алгоритм беспилотного автомобиля в критических ситуациях должен решить, как поступить: съехать с дороги и подвергнуть риску пассажира или продолжить движение, создавая опасность для нарушителей правил дорожного движения.

Большинство нравственных проблем и правил можно представить как задачи и изучать их с помощью наблюдений или экспериментов.
Надо ли обучить искусственный интеллект походить на человека в своих действиях?
К сожалению, скорее наоборот. В двух словах: любая система искусственного интеллекта состоит из данных. Для обучения решению задачи, например, распознаванию лиц, требуется огромное количество информации, которую называют «большими данными».

Аналогичные картинки лиц людей также часто собирают боты в сети. Помимо изображений требуется ещё и текстовое описание к ним, которое как правило копируют с других источников. В результате применение модели для решения… задачи классификацииВ некоторых странах, опираясь на устаревшие представления о женской роли, женщины чаще связываются с понятием «домохозяйки», чем с профессиями, как например «врач». предвзятость на уровне данных, наследуемая ИИ напрямую от людей.
Следующий этап — создание алгоритма и его обучение. И в этой области могут появиться предвзятость или искажения. Сложность состоит в том, что работа любого алгоритма для исследователя или инженера обычно выглядит как «чёрный ящик». Трудно понять, как модель пришла к определённому решению или прогнозу.
Данную проблему можно решить с помощью подхода «объяснимого искусственного интеллекта» (XAI).
Существует предвзятость и на этапе интерпретации результатов работы алгоритма. В этом случае важное значение имеют люди. Например, если модель обучается на данных одной популяции и дает необходимые прогнозы, а затем применяется к другой популяции, то полученный результат может существенно отличаться. Важно учитывать и контролировать подобную ситуацию, что не всегда происходит.
Применение ИИ в реальной жизни и отслеживание его результатов — важный момент. При ущемлении прав людей алгоритмы нуждаются в корректировке или приостановке работы системы. В одном из муниципалитетов Южной Голландии активисты добились прекращения использования алгоритма Totta Data Lab для профилирования получателей социальной помощи. доказав искажения в его работе.
Лучше выразиться так: нам нужно обучить искусственный интеллект действиям, основанным на принципах справедливости и морали, а не по образу большинства людей.
В чем еще проявляется необходимость этики для искусственного интеллекта?
Для эффективного развития технологий искусственного интеллекта важно учитывать общественные опасения.
В Великобритании в 1865 году приняли «Закон красного флага». Перед каждым паромобилем должен был идти человек с поднятым красным флагом днем или зажженным фонарем ночью, предупреждая о появлении новой технологии. Для управления требовалось не менее двух водителей. Такие ограничения понизили скорость паромобилей, затруднили их использование и свели на нет преимущества перед конным транспортом. В Германии к проблеме подошли иначе.

В Германии паромобилям позволили свободно передвигаться, что способствовало их быстрому развитию и формированию нынешней немецкой автомобильной промышленности. В Англии же прогресс автомобильного транспорта развивался медленно, осознание проблемы пришло только к концу XIX века, когда в 1896 году был отменён вредный для индустрии закон.
В 1968 году появились первые универсальные кодифицированные международные правила дорожного движения, хотя первый конвейер по сборке автомобилей Генри Форд запустил ещё в 1913 году. К 1927 году на улицах и дорогах мира ездило только около 15 млн машин марки. Ford Model T, Долгое время в городах не было светофоров (в США до 1914 года, в Европе до 1918), разметки, регулировщиков; разрешалось водить в состоянии алкогольного опьянения и т.д. Лишь в конце 1960-х годов была заключена Венская конвенция о дорожном движении, установившая и закрепившая правила ПДД, а также Венская конвенция о дорожных знаках и сигналах, регулирующая маркировку проезжей части, работу светофоров и т.д.

Этические принципы обращения с новыми технологиями сначала формируются обществом на протяжении длительного времени, а затем превращаются в институциональные нормы и закрепляются законами. С ИИ происходит то же самое: это позволяет ему развиваться эффективно, но также защищает людей и общество от потенциального вреда.
С кем и когда возник вопрос о нравственности искусственного разума?
Поскольку само понятие «искусственный интеллект» появилось только в 1956 году, а общественный интерес к нему возник ещё позже — в 1960-е годы, первыми, кто поставил и попытался решить подобные проблемы, стали писатели-фантасты. робоэтика.

В романе Карела Чапека «R.U.R.В 1920 году, где впервые был предложен термин «робот», существовала Лига гуманности, которая заявляла о том, что роботы не должны подвергаться бесчеловечному обращению. Затем появились знаменитые «Три закона робототехники» плюс «нулевой закон», сформулированные учёным и писателем Айзеком Азимовым в рассказе «Хоровод» (1942) и романе «Роботы и Империя» (1986).
Робот призван защищать человечество от вреда, и его бездействие не должно приводить к нанесению ему вреда.
Робот обязан предотвращать вред человеку, как прямым действием, так и бездействием.
Робот обязан выполнять все указания человека, за исключением тех, что нарушают Первый Закон.
Робот обязан охранять свою безопасность, но только при условии, что это не нарушает Первый или Второй Закон.
Актуальность темы нашла отклик с начала 2000-х годов, когда роботы стали частью не только производственных линий, но и жизни людей в городах, домах и др. Первый международный симпозиум по робоэтике состоялся в 2004 году в Сан-Ремо (Италия), а Европарламент принял Европейскую хартию робототехники в 2017 году. В настоящее время дискуссии по робоэтике обострились из-за появления боевых автономных роботов и дронов, а также человекоподобных сексоботов.
Какие нравственные основы в области искусственного интеллекта были определены, и кто это сделал?
С окончанием «второй зимы искусственного интеллекта» и возрождением нейросетей и моделей глубокого обучения в 2010-х годах этике искусственного интеллекта уделили внимание крупнейшие. IT-компании мира.В 2016 году MicrosoftПредставила «10 законов для искусственного интеллекта». Сформулировала своё представление о этике ИИ. сформулировала и IBM. Тридцать ведущих мировых IT-компаний разработали свои своды правил, кодексы и наборы этических принципов для работы с искусственным интеллектом. В их числе — три российские компании. Abbyy, Сбер и Яндекс.
Более значительным и фундаментальным стал подход разных общественных организаций, собирающих учёных, инженеров из промышленных фирм, инвесторов и предпринимателей. сформулированные на Азиломарской конференцииВ 2017 году было подписано «23 принципа искусственного интеллекта» ведущими исследователями и мыслителями, включая Яна Лекуна, Илью Суцкевера, Рэя Курцвеила, Стивена Хокинга, Илона Маска и Владимира Оноприенко из России. 13 принципов посвящено конкретным этическим нормам и ценностям.
Можно ли получить более подробную информацию об «Азиломарских принципах»?
Вот те из них, что посвящены именно этике:
Безопасность:Разработки систем искусственного интеллекта должны гарантировать безопасность и надежность во время всего срока службы и допускать, при желании, верификацию их работы.
Прозрачность отказов:Нужно понимать причины вреда, который может нанести искусственный интеллект.
Прозрачность судебного процесса:Любое вмешательство автономной системы в судебно-правовые решения должно быть обосновано и подлежать проверке независимой комиссии экспертов.
Ответственность:Разработчики и создатели передовых систем искусственного интеллекта заинтересованы в нравственных последствиях их применения, злоупотреблений и действиям, за которые несут ответственность и могут оказывать влияние на эти последствия.
Согласование ценностей:Проектирование высокоавтономных систем искусственного интеллекта должно предусматривать гарантию соответствия их целей и действий человеческим ценностям в течение всего срока службы.
Человеческие ценности:Разработка и эксплуатация систем искусственного интеллекта должны соответствовать идеалам человеческого достоинства, прав, свобод и культурного разнообразия.
Приватность личной жизни:Доступ к данным, управление ими и контроль за использованием должны быть предоставлены людям, особенно с учётом возможностей систем ИИ для анализа и применения этих данных.
Свобода и частная жизнь:Использование искусственного интеллекта для обработки персональных данных не должно беспричинно препятствовать настоящей или потенциальной свободе граждан.
Общее благо:Технологии искусственного интеллекта следует направлять на благополучие и расширение возможностей максимального количества людей.
Общее процветание:Равномерное распределение благ, полученных благодаря прогрессу в сфере искусственного интеллекта, должно служить главной целью для всех людей.
Человеческий контроль:Человеку нужно решать, каким образом передавать системы ИИ право принимать решения и целесообразно ли это для достижения поставленных человеком задач.

Отсутствие злоупотреблений властью:Власти, добытой путём управления продвинутыми ИИ-системами, следует использовать с благоговением, способствуя развитию, а не разрушению социальных и гражданских процессов, которые определяют благополучие общества.
Гонка вооружений ИИ:Нужно воздерживаться от соревнования в создании смертоносного автономного оружия.
Не кажется ли тебе, что слишком много принципов? Возможно, существуют более простые этические нормы, запоминание которых не составит труда?
Большинство специалистов по этике искусственного интеллекта разделяют набор этических принципов.
- приватность
- прозрачность
- надёжность
- подотчетность
- равный доступ
- безопасность
- достоверность
- проверяемость
- контролируемость
Кажется, что пока это лишь декларации, а принципы кажутся весьма абстрактными. Как же практикуется их реализация?
Для эффективной работы этики нужны стратегии её внедрения и превращение этических принципов в практические задачи.
В настоящей ситуации государственные и межгосударственные структуры, коммерческие организации и неправительственные фонды стремятся договориться и реализовать определенный подход. ethics by design — Продумывание и разрешение многообразных этических проблем на стадии проектирования и создания систем искусственного интеллекта затрудняет разработку и предъявляет повышенные требования к квалификации разработчиков.
Второй подход — AI LocalismПеревести его напрямую трудно. Лучше всего изучать практику решения этических проблем при использовании ИИ в конкретных городах или странах, а также примеры борьбы с неэтичными системами.
Третий способ заключается в операционализации этических проблем не через принципы, а через описание конкретных рисков и путей их предотвращения. Такой подход более доступен для промышленности и государственных структур. Если продемонстрировать экономическую выгоду расчета рисков и работы по устранению угроз, то задача реализации этических принципов приобретет практичную форму и станет осуществимой.
Четвёртый способ — это предоставление возможности высказаться всем заинтересованным сторонам: пользователям, независимым исследователям, негосударственным организациям, группам маргинализированным и дискриминируемым, а не только разработчикам, экспертам и регуляторным органам.
Какова ситуация с этикой искусственного интеллекта в России?
Россия является одной из лидирующих стран в данном вопросе. В ноябре 2021 года ЮНЕСКО приняла первую всемирную конвенцию — «Рекомендации по этике искусственного интеллекта ЮНЕСКО», которую поддержала Россия вместе с ещё 190 странами мира (США, напомним, покинули ЮНЕСКО в 2018 году). Только две страны на Генеральной конференции ЮНЕСКО в Париже заявили о наличии собственных рамок для развития искусственного интеллекта — Китай и Россия.
26 октября 2021 года в Москве в пресс-центре ТАСС состоялся первый международный форум «Этика искусственного интеллекта: начало доверия». был принятБолее ста российских организаций подписали российский «Кодекс этики в сфере ИИ».

Документ носит рекомендательный характер и действует на добровольной основе для гражданских разработок. Государственное регулирование дополняется инструментами мягкого права. Кодекс способствует установлению взаимодействий между людьми и компаниями при развитии ИИ, а не определяет его этику.
Какие принципы легли в основу российского «Кодекса этики в сфере ИИ», и как этот кодекс содействует российским компаниям и исследователям?
Основа российского «Кодекса этики в сфере искусственного интеллекта» состоит из шести главных принципов.
Главное в развитии искусственного интеллекта — это безопасность людей, групп и каждого отдельного человека.
Важно понимать свою ответственность при разработке и применении искусственного интеллекта.
За применение искусственного интеллекта человек несет ответственность за все последующие результаты.
Внедрять технологии там, где это будет полезно людям.
Развитие искусственного интеллекта должно быть важнее, чем стремление к выигрышу у соперников.
Необходимо обеспечивать максимально открытую и честную информацию о прогрессе в развитии технологий искусственного интеллекта, его потенциале и угрозах.
В настоящий момент этот кодекс создает в России систему регулирования использования искусственного интеллекта с применением мягких мер и выступает средством общения между промышленностью, обществом и государственными органами.
—
*Автор выражает благодарность Андрею Незнамову, управляющему директору Центра регулирования ИИ Сбербанка и председателю Национальной комиссии по реализации кодекса этики в сфере ИИ, за предоставленные материалы и консультации.