Специалисты из Калифорнийского университета в Беркли подготовили обширную коллекцию из нескольких десятков тысяч изображений, которые оказались не под силу для распознавания современными нейронными сетями.
Практически каждый проект, связанный с созданием искусственного интеллекта для анализа изображений и машинного зрения, нуждается в большой базе данных с изображениями, которые уже были идентифицированы и аннотированы людьми. Именно на этих данных нейронные сети проходят обучение и улучшают свои показатели. Самая крупная из доступных общественности библиотек ImageNet включает более 14 миллионов аннотированных изображений, разделенных по более чем 20 тысячам категорий.
В последнее время этот перечень расширился за счет группы ImageNet-A, включающей изображения, в которых ошибаются даже самые продвинутые алгоритмы искусственного интеллекта. Исследователи из Калифорнийского университета в Беркли обнародовали новый набор данных в статье, опубликованной в онлайн-библиотеке препринтов ArXiv.Org. Согласно информации, предоставленной разработчиками, в состав набора вошли примерно 7500 стандартных изображений, при обработке которых нейронные сети допускают ошибки в 98 случаях из ста.
Действительно, с расширением использования систем машинного зрения возрастает угроза технологий, направленных на их дестабилизацию. Исследования демонстрируют, что даже незначительные изменения изображения, незаметные для человеческого глаза, способны ввести в заблуждение даже самые продвинутые алгоритмы ИИ, что позволяет осуществить так называемую «состязательную атаку.
Анализ набора ImageNet-A демонстрирует, что изображения, похожие на них, могут возникать и без намеренного воздействия, спонтанно. Таким образом, системы машинного зрения, которым мы собираемся доверить безопасность людей, должны уметь распознавать такие изображения. Для решения этой задачи был создан новый набор данных.