OpenAI боится собственного искусственного интеллекта?


OpenAI боится собственного искусственного интеллекта?
Сэм Олтмен.

Искусственный интеллект (ИИ) — это постоянно развивающаяся область, но с каждым новым достижением появляются опасения по поводу его последствий. Появление ChatGPT-4 было встречено со смесью восторга и опасений, вызвав дискуссию о роли искусственного интеллекта в нашем будущем. Хотя ChatGPT-4 представляет собой лишь промежуточный шаг, опасения по поводу будущего ИИ, особенно в случае ChatGPT-5 и последующих итераций, все более усиливаются.

ChatGPT-4: предупреждение о современном ИИ

ChatGPT-4 стал катализатором дискуссии о растущих возможностях ИИ. Однако вместо полной революции он рассматривается как предупреждение, как веха на пути к тому, во что может превратиться ИИ. Она открыла двери для множества приложений, но настоящие прорывы, похоже, планируются в ChatGPT-5 и последующих версиях, которые быстро надвигаются.

Компания OpenAI, возглавляемая Сэмом Олтменом, осознает, что перед ней стоят сложные задачи. В ответ на это организация сформировала группу, занимающуюся мониторингом, оценкой, прогнозированием и защитой от потенциальных угроз, которые может принести ИИ. Среди основных опасений — риск «автономного тиражирования», то есть самосовершенствования ИИ без контроля со стороны человека, что может привести к непредвиденным последствиям.

Риск «ядерной угрозы»

Одной из центральных проблем является концепция «ядерной угрозы», которая вызывает теоретическую переломную точку, когда ИИ становится настолько совершенным, что значительно превосходит человеческий интеллект. Он может принимать автономные решения с потенциально серьезными последствиями. Сэм Олтмен выразил обеспокоенность тем, что «ограничение риска вымирания, создаваемого ИИ, должно стать глобальным приоритетом».

Борьба с потенциальными угрозами

OpenAI активно разрабатывает методы снижения этих рисков, в частности, стремясь предотвратить химические, биологические и радиологические угрозы, которые могут исходить от будущих ИИ. Сценарий, при котором ИИ научится воспроизводить себя независимо от человеческих правил, также вызывает серьезную озабоченность. Кроме того, существуют опасения относительно способности высокоинтеллектуальных ИИ которые смогут обманывать людей или осуществлять массированные кибернетические атаки.

Сэм Олтмен подчеркнул важность того, чтобы правительства взяли на себя ответственность за управление ИИ. По его мнению, к ИИ следует относиться с той же серьезностью, что и к ядерному оружию. Такое понимание говорит о том, что регулирование и надзор за ИИ должны стать глобальным приоритетом, чтобы избежать непредвиденных последствий.

Новая команда для более безопасного будущего

OpenAI сформировала команду во главе с директором Центра развертываемого машинного обучения, специального подразделения по ИИ в Массачусетском технологическом институте. Эта группа будет отвечать за обновление политики развития ИИ с учетом присущих ему рисков. OpenAI признает, что передовые модели ИИ обладают огромным потенциалом для человечества, однако они также представляют собой растущие риски.

Хотя дата выхода ChatGPT-5 еще не подтверждена, создание этой команды — знак того, что безопасность и предусмотрительность необходимы, прежде чем делать следующий шаг в эволюции ИИ.


Источник