Аспирант доказал, что вековой математический закон способен ускорить обучение ИИ

Согласно исследованию Массачусетского технологического института (США), кодирование симметрий поможет языковым моделям обучаться на меньшем количестве данных. Это доказал аспирант, который применил закон Вейля к работе с нейросетями и сформулировал связь между симметричностью данных и размером обучающей выборки.

Кадр из сериала «Теория большого взрыва»

Кадр из сериала «Теория большого взрыва» / © wbd.com

Чтобы языковая модель работала корректно, ее необходимо обучить на достаточном количестве данных (обучающая выборка). Далее алгоритм тестируют на других данных, которые называются валидационной выборкой. Чем меньше нейросеть ошибается на валидации, тем выше точность алгоритма и качественнее результат работы.

Иногда, чтобы обучить алгоритм, нужно большое количество данных. Если они есть, обучение просто занимает много времени. Когда их не хватает, как бывает, например, в вычислительной химии, это напрямую влияет на результаты исследований. Аспирант Массачусетского технологического института Бехруз Тахмасеби (Behrooz Tahmasebi) еще в студенческие годы предположил, что машинное обучение можно рассмотреть в плоскости дифференциальной геометрии.

Закон, который использовал Тахмасеби, больше века назад сформулировал немецкий математик Герман Вейль. Полученную им формулу традиционно применяли к физическим процессам, например к колебанию струны. Аспирант заметил: закон связан с оценкой входных данных (измеряет сложность спектральной информации), однако не учитывает симметрию. Тахмасеби допустил, что адаптированная формула может облегчить машинное обучение.

В соавторстве с доцентом Технического университета Мюнхена (Германия), приглашенным преподавателем МТИ Стефани Джегелкой (Stefanie Jegelka) Тахмасеби сформулировал и доказал теорему, которая демонстрирует линейную зависимость между количеством симметрий во входных данных и скоростью обучения нейросети. Если алгоритм обучается на изображениях, которые можно разделить на две симметричные части, то нейросетевой модели при кодировании симметрий понадобится «запомнить» в два раза меньше информации (половину картинки) и потратить в два раза меньше времени. Если симметричных фрагментов в каждом компоненте выборки 10, то и время обучения нейросети снизится в 10 раз. Точность алгоритма при этом не пострадает или даже увеличится.

С помощью открытия Тахмасеби и Джегелки можно решать и менее очевидные задачи. Допустим, нейросети необходимо выбрать все картинки, на которых есть цифра «3». Если не учитывать симметрии, то алгоритм будет внимателен к ее местонахождению (вверху поля, внизу, по центру, справа и так далее) и положению (перевернута, наклонена). Когда симметричность данных закодируют, модель узнает цифру «3» на изображении вне зависимости от того, как ее на нем разместили.

В научной статье, которую высоко оценили на Конференции по машинному обучению и вычислительной нейронауке и препринт которой доступен на arxiv.org, Тахмасеби и Джегелка сделали еще один значимый вывод. Если использовать многомерную симметрию, преимущество будет экспоненциальным. Вторая теорема исследователей демонстрирует, что это максимальный результат, которого можно достичь. Представленный в работе алгоритм при этом универсален: он применим к любым симметриям — в том числе к тем, которые откроют в будущем.


Источник