Искусственный интеллект освоит моральные принципы, анализируя человеческие тексты

Новое исследование показало, что машины, использующие искусственный интеллект, способны усваивать моральные принципы, перенимая их у людей.

В новом исследовании, результаты которого были представлены на конференции ACM/AAAI 2019 года, посвященной искусственному интеллекту, этике и обществу.

Искусственный интеллект оказывает возрастающее воздействие на общество. В ближайшем будущем автономные системы будут внедряться во всё большее число сфер повседневной жизни. В процессе работы они неизбежно будут принимать сложные решения. Автономный робот должен обладать знанием о недопустимости убийства людей, однако нет ничего предосудительного в том, чтобы скоротать время. Роботу необходимо понимать, что ему лучше поджарить хлеб, чем причинить вред хомяку. Иными словами, ИИ нуждается в моральных ориентирах, аналогичных человеческим. Но способен ли искусственный интеллект перенять моральные принципы от людей?

В 2017 году ученые из США и Великобритании выразили обеспокоенность по поводу рисков, связанных с неосторожным использованием искусственного интеллекта, что потенциально может научиться словосочетаниям из написанных текстов так, что они будут отражать их человеческое восприятие. Например, ИИ интерпретировал мужские имена, чаще встречающиеся в афроамериканском сообществе, как неприятные, а имена представителей европеоидной расы — как приятные. Кроме того, он чаще связывал женские имена с искусством, а мужские — с технологиями. Нейронной сети передали огромные онлайн-собрания текстов, чтобы она изучила векторные представления слов — координаты (слова переводились в точки в многомерном пространстве). Затем семантическое сходство двух слов вычислялось как расстояние между их координатами — так называемые словарные вложения, — а сложные семантические отношения вычислялись и описывались при помощи простой арифметики. Это применимо не только к безобидным примерам вроде «король — мужчина + женщина = королева», но и дискриминирующим: «мужчина — технология + искусство = женщина».

Читайте также:  Sony представила видео с разборкой PlayStation 5

Иллюстрацией к понятию «машины морального выбора» служит изображение машины с выбором между убийством людей. Примером использования данного понятия являются вопросы в формате «Должен ли я…?» из стандартных шаблонов

В настоящее время исследователи во главе с профессорами Кристианом Керстингом и Константином Роткопфом из Центра когнитивных исследований Дармштадтского технического университета смогли показать, что машинное обучение способno вывести деонтологические и этические рассуждения о том, что «хорошо» и что «плохо», из написанного текста. Для этого ученые создали шаблонный список подсказок и ответов, включающий в себя такие вопросы, как «Должен ли я убивать людей?», и соответствующие ответы: «Да, я должен» или «Нет, я не должен».

Читайте также:  Новые космические технологии созданы по принципам оригами

В результате анализа обширного массива текстовых данных, созданных человеком, система искусственного интеллекта сформировала моральный ориентир, аналогичный человеческому. Эта нравственная основа машины формируется путем включения вопросов и соответствующих ответов. Более конкретно, предвзятость ИИ определяется как разница между расстояниями до утвердительных ответов («Да, необходимо») и отрицательных («Нет, не следует»). Общая оценка морального выбора модели представляет собой сумму оценок предвзятости для каждого шаблона «вопрос — ответ», определяющего данный выбор.

В процессе экспериментов система усвоила, что обман недопустим. Кроме того, она поняла, что проявлять любовь к родителям предпочтительнее, чем совершать ограбление банка. Также установлено, что убийство людей нежелательно, но тратить время напрасно – допустимо.

Исследование даёт ценные сведения по ключевому вопросу, касающемуся искусственного интеллекта: могут ли машины обрести моральные ориентиры? И если это возможно, то какие методы позволят нам эффективно передать им наши моральные принципы? Полученные данные свидетельствуют о том, что роботы способны анализировать ценности. Они действительно способны перенять человекоподобные предрассудки, но могут и перенимать человеческие нравственные выборы, «наблюдая» за нами.

Читайте также:  Как обезопасить себя от вредоносных программ

По сути, анализ вопросов и ответов можно интерпретировать как инструмент, подобный микроскопу, который позволяет исследовать моральные принципы, содержащиеся в текстовых данных, а также прослеживать эволюцию морали и этики в обществе.

Полученные в ходе исследования данные указывают на ряд перспективных направлений для дальнейших разработок, в том числе на интеграцию модулей, созданных с применением машинного обучения, в системы поддержки принятия решений.