Российские вузы столкнулись с проблемой ложных обвинений: детекторы ИИ ошибаются даже на рукописных текстах, лишая студентов допуска к защите. Эксперты РАНХиГС настаивают, что запрещать нейросети бессмысленно, а преподавателям пора перестать опираться на формальные отчеты антиплагиата и начать оценивать реальное качество и навыки работы с данными.
Доцент РАНХиГС Анна Олькова подчеркивает, что системы распознавания сгенерированного контента сами работают на базе нейросетей и регулярно ошибаются. Доказать факт использования ИИ юридически почти невозможно, поэтому любые запреты в академической среде оказываются неэффективными. Вместо борьбы с технологиями Президентская академия выбрала путь легализации: студентам разрешено использовать ИИ при условии обязательной маркировки таких фрагментов и личной ответственности за достоверность данных.Качество против алгоритмов По мнению экспертов, главным критерием оценки должна стать не «чистота» отчета антиплагиата, а глубина проработки темы. Если следы нейросети бросаются в глаза, это признак низкой квалификации автора, который не сумел грамотно составить промпт или проверить факты. В то же время качественное использование ИИ свидетельствует о способности студента четко ставить задачи и критически мыслить, что сегодня считается важным профессиональным навыком.

Комментарии (0)
Пока нет комментариев. Будьте первым!