Согласно статье, недавно опубликованной в одном из ведущих научных журналов, некоторые эксперты опасаются, что искусственный интеллект (ИИ) однажды может быть использован для создания нового смертельного для человечества вируса.
ИИ — невольные сообщники в создании нового смертельного вируса
Искусственный интеллект может внушать некоторым людям страх и недоверие, будь то военная угроза или просто замена человека на рабочем месте. Однако статья, опубликованная в журнале
В статье приводятся слова Кевина Эсвельта, эксперта по биобезопасности из Массачусетского технологического института (MIT) в США. Он предложил своим студентам создать опасный вирус с помощью ChatGPT или других разговорных инструментов, доступных в Сети. Всего за час студенты получили внушительный список вирусов, а также названия компаний, которые могли бы помочь синтезировать их генетический код. ИИ также посоветовал использовать определенные компании, которые могли бы собрать все элементы, необходимые для разработки вирусов.
Целью этого эксперимента было доказать, что любой (или почти любой) человек может с помощью ИИ разработать биологическое оружие, столь же опасное, как и ядерное. Однако, как правило, такой вид биотерроризма требует большого мастерства. Злоумышленник должен сначала определить вирус-кандидат в качестве основы, прежде чем синтезировать вирусный генетический материал, собрать геном и затем смешать его с другими реагентами в надежде достичь своих целей.
Что можно сделать, чтобы ограничить риск злоупотреблений?
Благодаря новым технологиям все шаги, необходимые для создания таких вирусов, становятся все более доступными. Хотя некоторые чат-боты отказываются отвечать на определенные запросы, считающиеся неэтичными, студенты обнаружили, что некоторые из этих барьеров можно довольно легко обойти. Достаточно сообщить ИИ определенные формулы, чтобы сделать его более «послушным». Например, пользователь может обосновать свою просьбу, объяснив, что он работает над вакциной для предотвращения определенной болезни.
Для Кевина Эсвельта предложения ИИ не должны представлять реальной угрозы пандемии. Однако он считает, что этот опыт должен насторожить власти в отношении развития возможностей ИИ. Например, следует ограничить их доступ к определенной информации, которая может стать секретной в случае неправильного использования. Среди информации, доступной в Интернете, есть ряд статей, объясняющих, как создавать и совершенствовать патогенные агенты.
Однако эта мера может иметь и обратный эффект. Ограничение доступа ИИ к такого рода информации может также помешать им помочь в развитии биологии, хотя такая мера может значительно ограничить злоупотребления и, прежде всего, биотерроризм, что кажется достаточным основанием для ее возможного применения.