29 января специалисты по кибербезопасности из Wiz Research сообщили об утечке данных, совершенной DeepSeek, китайской компанией, специализирующейся на анализе данных с использованием искусственного интеллекта. В результате инцидента были раскрыты более миллиона конфиденциальных записей. Этот случай вызывает обеспокоенность по поводу безопасности и конфиденциальности данных, особенно учитывая, что компании, работающие в сфере искусственного интеллекта, продолжают собирать и обрабатывать большие объемы информации, как указано в отчете CSO Online.
Масштабы утечки данных DeepSeek
DeepSeek, компания, специализирующаяся на разработке решений для обработки данных с использованием искусственного интеллекта и машинного обучения, вероятно, допустила утечку информации, оставив крупную базу данных без необходимой защиты. Согласно исследованию Wiz Research, в базе данных хранились конфиденциальные сведения, включая записи чатов, системные данные, операционные метаданные, ключи API и логи.
Открытый доступ к базе данных, насчитывающей, по предварительным данным, более миллиона записей, был предоставлен всем пользователям сети Интернет, что породило обеспокоенность по поводу подходов DeepSeek к управлению информацией и соответствия требованиям законодательства о защите персональных данных.
Как произошла утечка данных DeekSeek?
Согласно исследованию Wiz Research, причиной утечки стало некорректная конфигурация облачного хранилища, в котором не были предусмотрены необходимые механизмы контроля доступа. Подобные ошибки часто встречаются в облачных системах. Специалисты Wiz Research немедленно сообщили DeepSeek об обнаруженной проблеме, и компания оперативно предприняла шаги для защиты базы данных, сумев остановить утечку менее чем за час после получения уведомления.
Несмотря на оперативные действия DeepSeek по защите базы данных, произошедшая утечка стала сигналом для разработчиков искусственного интеллекта, которые должны повысить уровень защиты данных и соблюдать международные стандарты конфиденциальности. Инцидент также указывает на растущую опасность, связанную с неправильным использованием конфиденциальной информации при обучении ИИ.