Диплом от нейросети


Доцент кафедры права и философии ИИГСО НГПУ Андрей Васильевич Харламов
08 апреля 2025

Приближается время защиты студентами курсовых и выпускных квалификационных работ. Будем честны, среди студентов во все века были те, кто старается идти в этом процессе по пути наименьшего приложения усилий – а теперь им на «помощь» пришли и возможности искусственного интеллекта. Но не окажутся ли услуги ИИ в конечном счёте «медвежьими»? Мы задали несколько вопросов об остроте этой и других проблем, связанных с развитием искусственного интеллекта, доценту кафедры права и философии ИИГСО НГПУ Андрею Васильевичу Харламову. 

13 марта Андрей Васильевич в качестве эксперта по правовому регулированию использования ИИ принял участие в работе XIII дискуссионной онлайн-площадки по актуальным проблемам школьного исторического и обществоведческого образования, организованной ИИГСО НГПУ совместно с редакцией научно-методического журнала «Преподавание истории в школе» (Москва) и институтом непрерывного образования Бурятского государственного университета имени Доржи Банзарова (Улан-Удэ).

– Андрей Васильевич, самый насущный вопрос в связи с приближением сроков защиты курсовых и выпуск Доцент кафедры права и философии ИИГСО НГПУ Андрей Васильевич Харламов ных квалификационных работ – с какими рисками могут столкнуться студенты при использовании в работе над ними возможностей ИИ и стоит ли вообще применять нейросети в этом случае?

– Конечно, риски для студентов есть, они очевидны. В НГПУ, например, внутренними правилами (СМК) установлены запреты на такое использование, если его обнаруживает antiplagiat.ru. Сама эта система несовершенна, студенты часто жалуются, что писали работу сами, а интернет-сервис подозревает их в нечистоплотности. С другой стороны, и нейросети развиваются. Недалек тот день, когда обнаружить факт использования AI будет невозможно или очень сложно. Как быть тогда? Вопрос, скорее, риторический. И тут полезно сообщить о «плюсах». При написании ВКР нейросети могут помочь, если ими правильно пользоваться, найти научную литературу, оформить библиографию, обработать статистические данные, визуализировать результат исследования и многое-многое другое. Поэтому, если подойти к работе с AI с умом, не просто «тупо» копируя и вставляя текст, то можно сэкономить время, потратив его на что-то более творческое

– Понятно, что ИИ вошёл в нашу жизнь совсем недавно и правовые вопросы его использования только начинают формироваться. Как сейчас обстоят дела в этой сфере?

– Хочу отметить: я сторонник подхода, что ИИ – это благо, и его применению надо учить и детей, и взрослых. Он не уменьшает наши способности, а наоборот, усиливает – как любой инструмент, будь то молоток или ткацкий станок. ИИ позволяет учителю сделать очень много полезного, экономя при этом время и материальные ресурсы – сгенерировать картину, быстро организовать квиз. Но при использовании произведений, которые создаёт ИИ, уже возникают юридические риски. Многие считают так: «Если я что-то сгенерировал с помощью ИИ, то права на этот результат принадлежат мне». Приходится в ответ объяснять азы: произведением признаётся только результат творческой деятельности человека. ИИ для нас пока как чёрный ящик: он не отчитывается перед нами о том, как он создаёт картину, книгу или что-то ещё.

Мировая судебная практика в отношении ИИ до сих пор находится в подвешенном состоянии. Европейские страны принимают свои нормативно-правовые акты, Россия – свои, но все они носят скорее декларативный характер, представляют собой скорее стратегию, в каком направлении двигаться, но не реальное регулирование правовых коллизий. А ведь есть ещё и философские вопросы, связанные с этикой в контексте использования ИИ. Ведь если дать возможность несовершеннолетнему использовать ИИ, он может начать генерировать, например, запрещённый для его возраста контент. Какие ограничения здесь надо накладывать и как это сделать?

– А ведь сейчас к возможностям ИИ всё чаще прибегают, например, журналисты – и в результате появляются, как вариант, сгенерированные ИИ исторические справки по тому или иному поводу с очень искажённой информацией, которую читатель может принять за реальную и тиражировать её дальше со ссылкой на источник. Как этому противостоять?

– Прежде чем начать работать с нейросетью, её тоже надо научить. И если сеть недообучена, она станет создавать такие фейки. Но если фейковую картину мы ещё сможем распознать визуально, то с подобного рода «научной» информацией становится сложнее. Если поставить перед тем же ChatGPT конкретную задачу – «напиши статью, опираясь на такие-то источники, ничего не добавляя от себя», он попробует с этим справиться более-менее добросовестно. Но чаще всего люди делают запросы общего характера – и нейросеть в ответ выдаёт мешанину из всех фактов, которые «знает» по этой теме.

Нейросеть также может начать фантазировать, если по заданной теме вообще нет материалов на русском языке. Например, вы можете протестировать бот в Телеграме, задавая ему разные вопросы – так вот, с задачей пересказать учение Карла Маркса в трёх абзацах он справится, а при просьбе сравнить учения Маркса и современного швейцарского философа Рахель Джегги начнёт фантазировать. То же самое, если спросить о десяти выдающихся учёных, занимающихся какой-то узкой проблемой: бот назовёт пару реальных имён, а дальше пойдут имена людей, которых никогда не существовало.

Это вопрос прежде всего к разработчикам, как они запрограммировали обучение алгоритма. У разных ИИ заложены разные материалы для обучения, поэтому одна нейросеть другой рознь. И на самом деле среди них есть такие, которые справляются с задачами лучше поисковиков, того же Google, так как в них заложена только проверенная информация. Я бы сказал, что продукту, который проверен на аутентичность, пользователи могли бы доверять больше, чем продукту, который создан коммерческой структурой, преследующей собственные задачи, не связанные с распространением гуманитарных знаний.

– А теперь давайте представим, что вот в такой произвольно составленный список людей, который вы упомянули раньше, нейросеть включит и вас тоже, по собственной фантазии включив вас, таким образом, например, в список опасных преступников. Кто в этом случае должен быть привлечён к ответственности за работу ИИ?

– Подобная новость уже была: некий англичанин подал в суд на компанию-разработчика нейросети, которая сгенерировала новость о том, что он якобы убил двух своих детей и планировал убийство третьего ребенка. Тут всё зависит от публичности информации. Одно дело, если вы спрашиваете у ИИ, кто вы, и она говорит мне, что вы убийца. И другое, когда информация, созданная ИИ, будет публиковаться как аутентичная в открытом источнике – отвечать за неё должен публикатор. По большому счёту, нейросети – это только техническое продолжение наших, человеческих, способностей. И только человек решает, какую информацию должна создать нейросеть и где она потом будет выложена.

Беседовал Виталий Соловов