Нейросети уже пишут сочинения вместо школьников и генерируют вполне читаемые и грамотные тексты для студенческих работ. Не заменят ли они человека и не отучат ли нас думать? Или же наоборот: станут частью образовательного процесса? Об этом рассуждают преподаватель Новосибирского государственного университета Иван Бондаренко и преподаватель СУНЦ НГУ Евгений Павловский.
Накануне итоговых экзаменов в НГУ обратились журналисты газеты «Комсомольская правда» с просьбой найти эксперта, который смог бы прояснить довольно необычную ситуацию. Новосибирские учителя были всерьез обеспокоены и рассказали, что школьники буквально завалили их странными сочинениями. И странности эти не только в несочетаемости слов в предложениях, отсутствии грамматических связей в предложении и элементарной логики. В некоторых текстах Тарас Бульба вдруг становится Тараской Картофелем, а купец Калашников из человека трансформируется в автомат. А словосочетание «инвестировать в душу» чего стоит! Ведь даже ребенок знает, что душу в какое-либо дело не инвестируют, а вкладывают. Откуда берутся такие глупые с точки зрения человека ошибки? И кто пишет предложения в виде бессмысленного набора слов? Подозрение педагогов вызвал искусственный интеллект. И специалисты НГУ это подтвердили.
— Скорее всего, эти тексты написаны программой ChatGPT, но, вероятнее всего, ее менее совершенными открытыми аналогами. Сама ChatGPT не является полностью открытой моделью – ее архитектура и веса не публиковались, а доступ к беседе (чату) с ней ограничен. В частности, для организации доступа требуется регистрация по номеру телефона, а телефонные номера из России не поддерживаются. Откуда берутся нелепые ошибки? На качество работы нейросети наибольшее влияние оказывают два фактора: подготовка обучающей выборки с вопросами и ответами на естественном языке (например, английском или русском), а также размер самой нейросети, то есть количество ее синаптических весов. Подготовка обучающей выборки требует больших усилий и автоматизирована лишь частично. Самая трудоемкая часть работы – составление вопросов или оценка ответов нейросети в режиме обучения с подкреплением, – выполняется людьми вручную, — объяснил старший преподаватель кафедры фундаментальной и прикладной лингвистики Гуманитарного института Новосибирского государственного университета, научный сотрудник Лаборатории прикладных цифровых технологий Математического центра в Академгородке Иван Бондаренко.
Запуск алгоритма обучения нейросети очень большого размера сложен, но не в части привлечения и организации человеческих ресурсов, а вычислительно. Поэтому обучать такую нейросеть на по-настоящему большой выборке данных могут позволить себе только крупные компании или научные институты, обладающие мощными вычислительными системами. Соответственно, упрощенные аналоги ChatGPT обычно настраиваются концептуально так же, как настраивалась сама ChatGPT, но на выборках данных меньшего объема с использованием более простых нейросетевых моделей, что не самым лучшим образом сказывается на качестве их работы.
Заведующий лабораторией аналитики потоковых данных и машинного обучения Механико-математического факультета НГУ, доцент кафедры дискретной математики и информатики СУНЦ НГУ Евгений Павловский считает, что вопрос использования нейросетей проблемный не с точки зрения того, что дети упрощают себе жизнь, а с точки зрения этики. По его мнению, ученик должен осознавать, что пользоваться какими-то средствами автоматизации при выполнении заданий – неэтично.
— Проблема в том, что школьники не всегда способны сами определить, где проходит грань между этичным и неэтичным. Поэтому преподавателям информатики и других предметов важно отслеживать этот момент воспитательно, — объяснил Павловский.
Так почему же Тарас Бульба превращается в Тараску Картофель, а купец Калашников – в автомат? По мнению Ивана Бондаренко, скорее всего, проблема не самой диалоговой нейросети, а в методиках ее использования.
— Как правило, подобные большие нейросетевые модели для диалога обучались в три этапа. На первом нейросеть обучалась на огромном количестве текстов на разных языках сразу, но как авторегрессионная модель, то есть просто училась предсказывать следующее слово в тексте, а за ним следующее и так далее. На втором этапе она дообучалась на специальной обучающей выборке инструкций, или, точнее, вопросов (заданий) и ответов, с дополнительными параметрами. И, наконец, нейросеть совершенствовалась на основе обучения с подкреплением на основе обратной связи с людьми – операторами машинного обучения, — разъяснил Иван Бондаренко.
На первом этапе встречаются тексты на десятках языков, но на втором и третьем, как правило, преобладают тексты только на английском. Поэтому модель лучше учится вести диалоги на английском языке, и пользователи такой системы задают ей вопросы не на своем родном языке (например, русском), а на английском, но с помощью машинного переводчика. Автозамену и перевод имен собственных можно объяснить влиянием именно машинного переводчика.
Несогласованность слов в предложении и тому подобные ошибки, как поясняет Иван Бондаренко, связаны с недообучением нейросети. Такие тексты, скорее всего, были сгенерированы моделью более слабой, чем нейросетевая модель GPT4 в системе ChatGPT. Он говорит, что наблюдал подобные эффекты, в том числе и зацикливание, и даже «галлюцинирование», у недостаточно обученных генеративных нейросетей трансформерного типа. При дальнейшем обучении количество таких эффектов на тестовых данных снижалось.
Преподаватели в СУНЦ НГУ просят школьников выполнять задания самостоятельно и контролируют это, потому что только так ученики приобретают те навыки, которые учителя хотят и могут им дать.
— Чтобы понять, сам ли ученик сделал работу или за него поработала нейросеть, надо, во-первых, прямо его об этом спросить, тем самым актуализируя его нравственные качества. Во-вторых, нужно исключить саму возможность использования этих «интеллектуальных протезов». Еще один признак – подозрительная грамотность текста. Сейчас ChatGPT пишет исключительно грамотно, правильно расставляя запятые и точки. Но это ненадежный признак, ведь можно попросить нейросеть написать текст не очень грамотно или косметически отредактировать текст, добавив туда ошибок сознательно, — пояснил Евгений Павловский.
Сервисы по выявлению использования нейросетей при написании текстов Павловский считает еще менее надежной системой, потому что она изначально ставит под сомнение, что работа написана человеком. И это означает, что ученик, который писал текст самостоятельно, почему-то обязан проходить такую проверку.
— Почему мы должны подвергать сомнению добросовестность наших учеников, которые выполняют задания самостоятельно, не обращаясь к помощи искусственного интеллекта? Если это явление примет массовый масштаб, то мы будем вынуждены распрощаться с моральными нормами и признать, что они уже не работают, и теперь будем опираться не на эти нормы, а на технологию. Причем больше не открытую и общедоступную, а на ту, которой кто-то владеет персонально, — отметил Евгений Павловский.
Эксперт не исключает, что кто-то из его учеников мог использовать нейросеть при написании работ, но признается, что отследить это очень сложно в виду недостатка времени на подробные проверки. Тем более, что применить нейросети технически возможно как при написании текстовых заданий, так и при написании программного кода. Но отследить такое действие сейчас можно, только если преподаватель присутствует при выполнении задания школьником или студентом. Если задание выполняются на дому, то контроль за этим должен оставаться на совести самого ученика.
К студентам подход более строгий. Иван Бондаренко говорит, что процедура автоматической проверки на плагиат является обязательной для любой выпускной квалификационной работы студента, а вот проверок на предмет того, сам студент это написал или же нейросеть типа ChatGPT, в НГУ пока что нет.
— Мы задумываемся над исследовательской работой по созданию системы автоматической классификации «искусственных» текстов, но в настоящий момент данная проблема решается организационно, а не технологически. А именно: для уровня выпускной квалификационной работы обязательна целая серия устных выступлений на многочисленных предзащитах, а затем и на защите. Соответственно, неспособность студента устно изложить тот материал, что описан у него в работе, является прекрасным признаком того, что этот он делал работу не сам. А вот кто ему помогал – искусственный интеллект ChatGPT или же естественный интеллект другого человека – уже не так важно для образовательного процесса, — сказал Иван Бондаренко.
Эксперт считает перспективным путем детекции сгенерированного текста применение другой нейросети-классификатора «искусственных» текстов. Работы по исследованию и разработке таких классификаторов ведутся сейчас рядом исследовательских коллективов как в России, так и в мире. Существует же «Антиплагиат» – автоматическая система поиска плагиата в тексте. Так и будут созданы системы автоматической классификации текстов, сгенерированных нейросетью. Что-то вроде «Антинейросети».
— Если школьник использовал нейросеть из «слабых» аналогов ChatGPT, то искусственно сгенерированный текст видно сразу. Если же применялась сама ChatGPT, то вручную распознать его гораздо сложнее. Скорее всего, в таком тексте может «страдать» фактология, но с точки зрения морфологии и синтаксиса он будет безукоризненным. Можно применить еще и стилистический анализ: если стиль сочинения школьника достаточно отличается от того, в котором он обычно пишет, то возможно, здесь не обошлось без ChatGPT. Но это не точно. Может быть, текст ему написали родители или друзья-отличники. В самых сложных и ответственных случаях придется применять полноценную автороведческую экспертизу. В НГУ на кафедре фундаментальной и прикладной лингвистики есть целое направление исследований в области автороведческой экспертизы, и с появлением больших нейросетевых моделей диалога это направление может стать актуальнее, — сказал Иван Бондаренко.
Евгений Павловский предполагает, что тревога и страх перед нейросетями преувеличены.
— Как и любая технология, может быть как положительное, так и отрицательное влияние. Поначалу, вероятно, даже больше отрицательное, пока мы не поймем, каким образом это использовать во благо. Я думаю, что тревога в данном случае есть часть маркетинговой акции по привлечению внимания к разработке технологии авторизации и доказательства, что именно этот человек делал ту или иную работу. Идти на поводу у такого маркетинга не стоит. Нас преувеличенно запугивают, что будет очень сложно отличить то, что сделал человек от того, что он сделал с помощью искусственного интеллекта. Однако я думаю, что эта технология полностью свернет дистант в части контроля знаний. Я считаю, что мы должны использовать эту тревогу для актуализации вопросов нравственного поведения и фиксировать эту норму в обществе, — объяснил эксперт.
Евгений предлагает модифицировать эту тревогу в сторону привлечения внимания к вопросам этики и нравственного поведения. Этично ли списывать выполняемые задания?
— Логика школьников и студентов примерно похожа. Рассуждение студента такое: «Мне этот предмет не очень нужен, поэтому я позволил себе списать». Альтернативно: «Мне этот предмет важен – я постараюсь честно выполнить все задания». Рассуждение школьника проще – пойти по пути наименьшего сопротивления: «Кто заметит, что я не сам выполнил задание?» Все это происходит, когда знания оторваны от контекста их применения. Когда ученики и студенты не понимают, зачем это усваивать, если можно всегда подсмотреть. Опять же, в этом случае ситуация актуализирует вопрос к преподавательской методике: как показать, что преподанное знание может быть использовано при выполнении практической задачи? — рассуждает Павловский.
Евгений Павловский уверен, как и любую технологию нейросети, можно использовать в образовательном процессе, если это помогает росту квалификации, знаний, умений, навыков ученика и преподавателя. Если же она используется как интеллектуальный протез, который позволяет избегать усилий, то такой инструмент должен быть регламентирован.
— Подобная ситуация была в свое время с Интернетом. Зачем запоминать какую-либо информацию, если ее в любой момент можно найти в сети? И это отразилось не только на школьниках, но повлияло на всех нас. Мы стали меньше запоминать информации. Зачем прилагать какие-либо усилия, если всегда нужные факты можно отыскать в Интернете. Поэтому и объяснить детям, зачем им нужно заучивать формулы, определения, даты и прочее становится все сложнее.
Что произойдет, когда нейросети получат широкое распространение? Скорее всего, многие начнут спрашивать сами себя: «зачем правильно строить предложения и формулировать свою мысль, если это легко может сделать нейросеть?». Причем в любом стиле – хоть научном, хоть публицистическом. Сложно сказать, к чему это приведет. Но пока нам – преподавателям и школьникам, – необходимо воспитывать свое мышление, тренировать его.
В принципе, нейросети могут использоваться как тренажер. Например, посмотреть, сможет ли человек также корректно сформулировать все тезисы в определенном порядке, как это делает нейросеть, или задать несколько вопросов на понимание материала? Как бы это сейчас ни звучало, последние нейросети, основанные на больших лингвистических моделях языка зачастую пишут более грамотно, чем средний человек. И рассуждают тоже вполне неплохо. Поэтому человеку есть, чему у них и поучиться, — подытожил Евгений Павловский.