Вузы попали в нейросети. Интервью с ректором МГПУ Игорем Реморенко

Московский городской педагогический университет первым в России установил правила использования систем искусственного интеллекта при подготовке курсовых и дипломных работ. Эта тема стала особенно популярна в начале 2023 г., после того как студент одного из российских вузов признался в том, что защищенный им диплом был написан с использованием чат-бота ChatGPT. В интервью с ректором МГПУ членом-корреспондентом РАО Игорем Михайловичем Реморенко корреспондент портала «Научная Россия» обсудил принятое решение и правила, введенные для использования систем ИИ при подготовке студенческих работ.

Насколько широко университеты используют системы искусственного интеллекта в образовательном процессе? Можно ли создать эффективную образовательную программу, основанную на технологиях ИИ?

Игорь Михайлович РеморенкоФото: Елена Либрик / «Научная Россия»

Игорь Михайлович Реморенко

Фото: Елена Либрик / «Научная Россия»

Справка: 

Игорь Михайлович Реморенко ― ректор Московского городского педагогического университета, доктор педагогических наук, член-корреспондент Российской академии образования, действительный государственный советник Российской Федерации 2 класса. В 2009 – 2011 гг. работал директором Департамента государственной политики и нормативно-правового регулирования в сфере образования, департамента государственной политики в образовании, департамента стратегического развития Минобрнауки России. В 2011 – 2013 гг. занимал должность заместителя министра образования и науки РФ.

― На что вы опирались, когда принимали решение о том, чтобы разрешить использовать нейросетевые инструменты генерации текста для подготовки курсовых и дипломных работ? Вы рассматриваете их как вспомогательный инструмент, который не дает студентам значительных преимуществ?

― На самом деле информация в СМИ о том, что мы стали первым российским университетом, разрешившим использовать нейросети для подготовки работ, — это отчасти медийная трансформация наших замыслов.

Мы обсуждали эту тему весной 2023 г. на одном из ученых советов. Дело в том, что отдельные студенты действительно активно используют нейросети при написании ВКР. Эта тема стала особенно популярна после того, как студент РГГУ признался, что защитил диплом, написанный с использованием нейросети. Ученый совет принял решение о создании рабочей группы, которая должна была предложить, как дальше действовать в сложившейся ситуации.

Есть три варианта. Первый ― оставить все как есть и делать вид, что мы ничего не замечаем. Второй ― категорически запретить использование нейросетевых инструментов при подготовке студенческих работ и использовать средства выявления GPT, которые уже существуют, в том числе среди сервисов антиплагиата. Третий вариант ― разработать правила, следуя которым, можно использовать нейросети. Мы остановились на этом варианте.

В августе ученый совет рассмотрел правила, подготовленные коллегами. При использовании нейросетей студент обязан указать в работе, какую систему генерации текста он использовал при цитировании. Дать дополнительное обоснование, почему используемая цитата релевантна: то есть не просто сослаться на конкретный инструмент, а обосновать, что подобная позиция подтверждена в других источниках, и привести примеры, в которых приводится аналогичная аргументация. Это могут быть не только сторонние источники, но и результаты собственных исследований студента. И самое главное ― студент, использовавший нейросети при подготовке работы, должен быть готов к устной защите. Подробные правила размещены на сайте МГПУ.

Кроме того, в прошлом году мы начали использовать систему генерации текстов непосредственно на занятиях. Несколько лет мы проводим конференцию «Цифровая дидактика», на которой обсуждаем, как меняется образование, технологии и методы преподавания с использованием цифровых технологий. Недавно, готовя очередную конференцию, мы анализировали прошлые тезисы и заметили, что никто из спикеров не предвосхищал такое массовое использование систем генерации текстов и изображений, которое наблюдается в последние годы.

400 лет назад чешский педагог Ян Амос Коменский сформулировал четыре принципа обучения: принцип сознательности и активности, принцип наглядности, принцип постепенности и систематичности знаний и принцип упражнений и прочного овладения знания и навыками. Сегодня мы видим, что некоторые из этих принципов начинают пошатываться. Принцип осознанности, то есть необходимость понимать, а не заучивать знания, остается. А, например, в принципе системности начинаем сомневаться, потому что в каждой теории и каждой дисциплине есть разные способы вхождения в эту область знания. Например, в инженерных вузах дифференциальные уравнения или интегральные исчисления подаются одним способом, в классических вузах ― другим.

Нам ближе гуманитарная сфера. Я веду курс для магистров, на котором мы анализируем все, что происходит в образовательной политике, сравнивая аргументы и контраргументы по разным решениям. Вот, например, уже надоевший всем вопрос: «Нужен ли ЕГЭ?». Часть студентов выступают за определенное решение, а часть ― против, и у нас есть возможность оценить все аргументы. В такой ситуации мы можем обратиться к системе генерации текста и оценить полноту высказанного: это очень эффективное использование ИИ. При этом система генерации текстов не может сгенерировать какой-то новый аргумент, который еще никогда не высказывался, но оценить, насколько все ранее сформулированные аргументы учтены, помогает.

― Разрешая использовать искусственный интеллект при подготовке работ, пусть и придерживаясь определенных правил, вы подталкиваете студентов к тому, чтобы они учились пользоваться этим инструментом. Ведь для генерации адекватного текста нужно грамотно составить запрос для системы. Студентам и педагогам гуманитарного профиля сегодня нужны знания о том, как применять такие системы ИИ?

― То, как стать правильным пользователем таких систем, ― частый предмет споров. Многие преподаватели обсуждают, с какой позиции надо было задать вопрос системе генерации текста, правильно ли была сформулирована задача. Вокруг этого выстраивается дискуссия. 

Например, филологи говорят, что вопросы информационного толка не работают. Если спросить систему, кто главный герой произведения Льва Толстого «После бала», она ответит, что это Наташа Ростова, которая не имеет к рассказу никакого отношения. В то же время, если спросить о том, какое отношение к рассказу имеет Варенька, GPT расскажет, что это главная героиня, несмотря на то что предыдущий ответ был абсолютно иным.

Навыки использования таких систем ― это отдельная большая тема, которая пока полностью не изучена, и мои коллеги выступают сторонниками разных версий и решений. В документе, который принял ученый совет, мы перечислили консенсусные подходы, которые следовало бы использовать.

Московский городской педагогический университетФото: Елена Либрик / «Научная Россия»

Московский городской педагогический университет

Фото: Елена Либрик / «Научная Россия»

Московский городской педагогический университетФото: Елена Либрик / «Научная Россия»

Московский городской педагогический университет

Фото: Елена Либрик / «Научная Россия»

Московский городской педагогический университетФото: Елена Либрик / «Научная Россия»

Московский городской педагогический университет

Фото: Елена Либрик / «Научная Россия»

― В других интервью вы рассказывали о применении систем искусственного интеллекта в университете для оценки реакции студентов на происходящее на лекции. Расскажите подробнее о таком внедрении ИИ в образовательный процесс. 

― Еще в период до пандемии COVID-19 департаменты информационных технологий и образования и науки Москвы помогли нам с приобретением комплексных подписок на различное программное обеспечение. Среди этих пакетов были и системы обучения нейросети для работы с видео. Несколько лет коллеги вместе с психологами размечали видео, показывали системе различные эмоции, и она постепенно научилась их распознавать, вплоть до коллективного обзора. Камеры охватывают аудиторию в целом, рассматривают разные лица и составляют эмоциональную карту.

Основная задача такой системы ― оценка модельных учебных занятий. В нашем университете учатся будущие педагоги, которые готовят свои пробные учебные занятия и нуждаются в обратной связи. Используя систему, студент может оценить, например, что всем скучно или что 40% слушателей вообще не замечают преподавателя. В первую очередь это инструмент для тренировки, система, которая помогает перестраивать подходы к проводимым занятиям.

Занятия с оценкой эмоционального фона нам кажутся интересными и с точки зрения понимания использованной дидактики. Есть камеры, которые улавливают определенные параметры физиогномики и поведенческие характеристики. Они могут рассказать об эмоциональном фоне вовлеченности аудитории: в занятиях с высокими показателями положительных эмоций часто вначале заметны напряжение, удивление, ожидание, бывает злость. Здесь все не так ровно, как могло бы показаться на первый взгляд.

Вторая область применения подобных технологий связана с конференциями через интернет. В этой области мы работаем со многими партнерами, в том числе с компанией «Максимум», помогающей школьникам подготовиться к ЕГЭ и закрепить фрагменты учебной программы, которые трудно освоить с учителями. Технологии ИИ дают в этой области хорошие результаты за счет понимания правильной дидактики. Имея записанные дистанционные занятия, мы можем анализировать влияние различных поведенческих характеристик на результат. Например, то, насколько активно преподаватель жестикулирует во время занятия, никак не сказывается на результате. То, насколько он сильно приблизил или отдалил камеру, тоже ни на что не влияет. Важным фактором оказалось то, насколько много на занятии говорят студенты: если у них формируется диалог с преподавателем, то появляется фактор вовлечения, влияющий на качество усвоенного материала. Это доказанный факт.

Мы не заставляем студентов работать по заданным алгоритмам и использовать, например, исключительно систему развивающего обучения Л.В. Занкова. Студенты могут выбирать разные технологии и подходы, оценивать, к чему больше лежит душа, и по косвенным показателям понимать, работает это на результат или нет. Для такой тренировки и нужны системы обратной связи от ИИ.

― Насколько системы искусственного интеллекта распространены в российском образовании? Это опыт только вашего университета или другие вузы тоже используют подобные технологии?

― В МГПУ работает центр оценки компетенций, где студенты тренируются преподавать. Там используются тренажеры общения, помогающие будущему педагогу развить навыки коммуникации, например, с проблемными учениками или родителями. Сегодня в таких системах появляются актеры, с участием которых создаются учебные ветвистые алгоритмы. То есть студент выбирает ход сюжета, в котором будет общаться, например, с родителем, который пришел жаловаться на что-то в школу или детский сад. Студенты тренируются на разных проблемных ситуациях, разрабатывают оптимальные стратегии общения и задумываются о проблемах, с которыми действительно столкнутся в будущем. Кстати, это серьезный дефицит в современных педвузах: мало кто думает о том, что, помимо непосредственно учебного процесса, на будущего учителя ляжет бюрократия с заполнением журналов, возможны сложности с пониманием своей роли в коллективе, иногда определенным троллингом со стороны старших коллег, будут и беседы с родителями, которые кажутся очень непростыми. Но сегодня можно помочь студенту найти свою стратегию поведения в конфликтных ситуациях.

Эти технологии мы показывали многим вузам. На семинары в центр оценки компетенций приезжали коллеги с Дальнего Востока, из Северо-Кавказского федерального округа и других регионов. Я знаю, что похожие попытки существуют и вузы создают центры оценки, в том числе с использованием автоматизированных систем.

― В сентябре 2023 г. президент РФ В.В. Путин поручил разработать механизмы внедрения систем искусственного интеллекта в образовательный процесс, в том числе в высшую школу. Что думаете об этой инициативе?

― Пока это достаточно общее поручение. О широком внедрении систем ИИ в образование разговор идет давно. Я знаю, что ряд IT-вузов задумывались о легализации системы записи и анализа всей учебной активности. Это требует большой заботы о безопасности персональных данных, необходимо разработать нормативную базу и скорректировать законодательство.

― Сегодня популярной становится тема персонализации различных процессов, например, медицины. Есть ли такой тренд в образовании и как системы искусственного интеллекта могут помочь?

― Да, использование ИИ в медицине ― это прорыв, фактически появляется второе мнение. Врач, описав болезнь, может загрузить данные в систему, которая проанализирует симптоматику и поможет выбрать стратегию лечения или препараты, которые стоит назначить. Например, врач не всегда может помнить, в каких условиях эффект препарата может обнулиться за счет взаимодействия с другими препаратами, а машина легко это напомнит. 

― А педагог сегодня может получить подобный совет от машины?

― В медицине, если назначены лекарства, то надо строго следовать рецептуре, по-другому нельзя. А у образования есть ключевое отличие. Как говорил философ образования С.В. Ермаков, всегда найдется какой-нибудь условный Вовочка, который постоянно будет делать все наоборот. Это не плохо. Это данность, и учитель должен быть готов к тому, что класс или отдельные ученики попытаются проблематизировать что-то или опровергнуть мнение учителя. У нас «материал сильно сопротивляется».

Понимание многих процессов появилось в ходе научных дискуссий и борьбы идей. Раз так, то, разбирая какую-то тему, например, пытаясь понять причины народных волнений в России, мы должны провоцировать систему не на поиск правильного ответа, а на обогащение дискуссии, в которой возникнут определенная договоренность и общее представление о проблеме. И на занятиях в школе такие дискуссии гораздо ценнее, чем трактовки в учебниках. Это вдохновляет учиться, по-своему интерпретировать проблемы, понимать их личностно и глубоко.

― Сегодня популярно опасение, что ИИ заменит людей в ряде профессий. Что касается педагогики, возможно ли создать адекватную и эффективную образовательную систему без участия человека, объединив существующие нейросетевые механизмы?

― Мне нравится пример, который привел декан экономического факультета МГУ А.А. Аузан. Почему ИИ никогда не заменит человека? Потому что лисы никогда не поймают всех зайцев. Лиса может хорошо предугадать поведение зайца, но не совершенно точно, потому что заяц сам не всегда знает, куда побежит, такое это чудесное существо. А человек еще чудеснее и предугадать его поведение еще сложнее.

Возможно только создать различных помощников, которые, например, сократят рутину с проверкой и оценкой работ, подберут материалы или найдут неучтенные аргументы в обсуждении. В частности, уже сейчас некоторые преподаватели берут большой текст и просят систему сгенерировать три характеристики: точно соответствующую тексту, противоположную и нечто среднее. После этого студенты должны определить, какая из характеристик лучше всего отражает смысл написанного. Это еще один способ разнообразить учебный процесс, и такой подход гораздо интереснее, чем сказать студенту: «Повтори то, что прочитал».

Различные помощники, основанные на ИИ, уже создаются, и их продолжат развивать если не в России, то в других странах точно. Масштабную программу по развитию искусственного интеллекта в образовании запустил Китай. Однако полностью машина не заменит человеческое любопытство, настроенность людей на познание и жажду открытий.

Интервью проведено при поддержке Министерства науки и высшего образования РФ и Российской академии наук


Источник