Алгоритм против студентов: ИИ обвинил 6 000 человек — и никто не понял, за что

@newsinfo
экзамен

экзамен

© Designed by Freepik is licensed under Public domain

В Австралийском католическом университете (ACU) разгорелся один из самых громких академических скандалов последних лет. Почти 6 000 студентов оказались под подозрением в использовании искусственного интеллекта при выполнении домашних заданий. Проверку проводил алгоритм, встроенный в систему Turnitin - популярную платформу для выявления плагиата и сгенерированных текстов.

"Отчеты Turnitin не должны использоваться как единственное доказательство", — предупреждают в компании Turnitin.

Однако в ACU это правило фактически проигнорировали. Алгоритм автоматически помечал подозрительные работы, и этого нередко хватало, чтобы запустить дисциплинарное расследование.

Как всё началось

История получила огласку после расследования ABC News. В 2024 году университет зарегистрировал около 6 000 дел, связанных с нарушением академической честности, и примерно 90% из них касались подозрений на использование ИИ.

Многие студенты столкнулись с тем, что доказать свою невиновность оказалось крайне сложно. Университет требовал подтвердить авторство работы — предоставлением черновиков, истории правок или поисковых запросов. Некоторые ждали решения комиссии месяцами.

Одна выпускница не смогла вовремя подать документы в аспирантуру из-за статуса "результаты удерживаются", а часть студентов рисковала не получить диплом вовсе.

Что представляет собой Turnitin

Turnitin — международная система проверки академических текстов, которую используют тысячи университетов по всему миру. Первоначально она предназначалась для выявления плагиата, но в последние годы в неё добавили модуль для определения текстов, созданных с помощью ИИ.

Алгоритм анализирует стиль, структуру, повторяемость фраз и другие признаки, которые, по мнению разработчиков, характерны для машинного письма. Но в отличие от классической проверки на заимствование, результаты AI-детектора не имеют точной статистической уверенности. Это делает инструмент скорее индикатором, чем доказательством.

Как работает AI-детектор Turnitin

  1. Система сканирует текст и выделяет фрагменты, "похожие" на машинно сгенерированные.

  2. Алгоритм оценивает долю "искусственного содержания" в процентах.

  3. Если показатель превышает внутренний порог университета (часто 20-30%), запускается проверка.

  4. В случае подозрения комиссия решает, считать ли работу нарушением.

Проблема в том, что алгоритм может ошибаться: он не всегда отличает правленный человеком текст от текста, полностью написанного нейросетью.

Ошибка → Последствие → Альтернатива

  1. Ошибка: автоматическое доверие результатам алгоритма.
    Последствие: ложные обвинения и потеря репутации студентов.
    Альтернатива: использовать детектор только как вспомогательный инструмент, не как доказательство.

  2. Ошибка: отсутствие процедуры обжалования.
    Последствие: месяцы ожидания и невозможность подать документы на учёбу или работу.
    Альтернатива: вводить независимую апелляционную комиссию и прозрачные сроки рассмотрения.

  3. Ошибка: неопределённые критерии "использования ИИ".
    Последствие: наказания даже за использование грамматических корректоров и подсказок.
    Альтернатива: уточнить правила, разделив корректирующие и генеративные инструменты.

Почему университет отказался от детектора

После волны жалоб и критики со стороны студентов и преподавателей ACU признал, что расследования длились слишком долго и что отчёты Turnitin нередко становились основным доказательством без достаточных оснований.

Весной 2025 года администрация официально отказалась от использования AI-детектора и пообещала пересмотреть политику академической проверки. Университет заявил, что будет фокусироваться на профилактике нарушений — обучении студентов этичному использованию ИИ и улучшению системы наставничества.

"Расследования велись слишком долго, и мы пересмотрим правила", — сообщили представители ACU.

Проблема глобальная

Случай ACU не уникален. Похожие инциденты произошли в университетах США, Канады и Великобритании. В некоторых вузах до 15% студентов жаловались на ложные обвинения, вызванные ИИ-детекторами.

Причина — отсутствие единых стандартов. Каждый университет сам определяет, какой процент "AI-сходства" считать нарушением.

Кроме того, многие студенты действительно используют ИИ не для обмана, а как инструмент для проверки грамматики, сокращения текста или подбора формулировок. Но детекторы пока не способны различать эти сценарии.

Плюсы и минусы использования AI-детекторов

ПлюсыМинусы
Помогают выявлять случаи откровенного обманаЧасто ошибаются и выдают ложные срабатывания
Повышают внимание к академической честностиУгрожают презумпции невиновности
Упрощают работу преподавателейМогут подорвать доверие между студентом и университетом
Формируют культуру этичного использования технологийТребуют чётких правил и независимого контроля

Как вузам действовать корректно

  1. Ввести комбинированную проверку - использовать детектор ИИ только вместе с экспертной оценкой преподавателя.

  2. Фиксировать процесс написания работы - черновики, временные метки и версии документов.

  3. Обеспечить право на защиту - давать студентам возможность объяснить использование ИИ.

  4. Обучать преподавателей - как отличать машинный стиль от человеческого.

  5. Создать кодекс применения ИИ в обучении - с чётким разделением "помощи" и "подмены авторства".

А что если… полностью запретить ИИ в обучении?

Полный запрет не решает проблему — студенты всё равно будут использовать технологии, но скрытно. Гораздо эффективнее научить пользоваться ими правильно. Современные образовательные платформы уже разрабатывают специальные версии ChatGPT и Copilot, адаптированные под учебные цели с ограничением функций генерации.

Мифы и правда

Миф: AI-детекторы безошибочны.
Правда: по данным OpenAI и Turnitin, уровень ложных срабатываний может превышать 20%.

Миф: использование ИИ — это всегда мошенничество.
Правда: корректоры, переводчики и подсказки — допустимые инструменты при правильном применении.

Миф: автоматическая проверка экономит время.
Правда: апелляции и расследования часто занимают месяцы.

Исторический контекст

Первые попытки использовать ИИ-детекторы в образовании начались в 2023 году, после взлёта ChatGPT. Университеты стремились сохранить академическую честность, но быстро столкнулись с этическими и юридическими дилеммами. Случай ACU стал поворотным — он показал, что слепое доверие алгоритмам может нанести ущерб репутации вузов не меньше, чем плагиат.

3 интересных факта

  1. В некоторых университетах Австралии уже внедряют "доверительные экзамены" — студенты записывают процесс написания работы на видео.

  2. В 2025 году Европейская комиссия предложила ввести стандарты проверки ИИ в образовании.

  3. После скандала ACU студенческие союзы Австралии потребовали признать отчёты ИИ-детекторов недопустимым доказательством в дисциплинарных делах.

Данные о правообладателе фото и видеоматериалов взяты с сайта «NewsInfo», подробнее в Условиях использования