- 6.000 de studenți ai ACU au fost investigați în 2024 pentru trișare cu AI, deși o parte semnificativă erau nevinovați
- Detectorul AI al Turnitin a fost folosit ca dovadă principală, deși chiar compania avertizase că poate greși
- Universitatea a renunțat la instrument în martie 2025 și a cerut scuze studenților afectați
- TEQSA a declarat că detectarea sigură a AI-ului este aproape imposibilă și cere evaluări autentice
- University of Sydney testează un model inovator, „two-lane”, care integrează AI-ul în procesul educațional, nu îl demonizează
Ce se întâmplă când o universitate pune un algoritm să decidă cine a trișat?
În 2024, Australian Catholic University (ACU) a descoperit răspunsul: aproape 6.000 de studenți au fost acuzați de „folosire neautorizată a inteligenței artificiale”, iar o parte considerabilă dintre ei erau complet nevinovați.
Un email cu titlul sec “Academic Integrity Concern” a devenit începutul unei perioade de coșmar pentru sute de tineri aflați în plin examen, stagiu sau interviu de angajare.
Printre ei, Madeleine, studentă la asistență medicală:
„Era deja o perioadă stresantă, iar apoi am primit mesajul că am trișat. Mi-au reținut rezultatele luni de zile și am pierdut o ofertă de muncă.”
Cazul ei nu e unic. În încercarea de a opri valul de „AI-cheating”, universitatea a ajuns să-și pedepsească propriii studenți.
Un software menit să depisteze fraude – dar a produs victime
Totul a pornit de la Turnitin, un program folosit de universități din întreaga lume pentru detectarea plagiatului.
În 2023, Turnitin a introdus o nouă funcție: AI Detector, capabilă – teoretic – să identifice texte generate de ChatGPT și alte modele similare.
Problema? Chiar compania a avertizat că rezultatele pot fi inexacte.
„Rapoartele pot confunda scrisul uman cu cel generat de AI și nu ar trebui folosite ca unice dovezi”, precizează Turnitin în documentația sa.
Cu toate acestea, ACU a folosit rapoartele ca bază principală pentru acuzațiile de abatere academică.
În unele cazuri, studenții au fost chemați să-și demonstreze nevinovăția cu note scrise de mână, istoricul căutărilor Google și capturi de ecran.
Un student la paramedicină a spus pentru ABC că 84% din lucrarea sa fusese marcată drept „scrisă de AI”:
„Era absurd. Mi-au cerut să le arăt cum gândesc. Nu știam dacă să râd sau să plâng.”
Universitatea recunoaște greșelile, dar prea târziu
După luni de presiune publică, ACU a recunoscut în martie 2025 că sistemul nu funcționa corect și a renunțat complet la Turnitin AI Detector.
Vicecancelara adjunctă Tania Broadley a spus pentru ABC:
„Investigațiile nu au fost întotdeauna corecte sau rapide. Regretăm impactul asupra studenților și am făcut schimbări majore.”
Dar pentru mulți dintre cei acuzați pe nedrept, scuzele au venit prea târziu.
Un semestru pierdut înseamnă bani, oportunități și reputație – lucruri pe care un simplu „ne pare rău” nu le mai repară.
Academia, în criză de adaptare
Cazul ACU a devenit un semnal de alarmă pentru întregul sistem universitar australian.
De la Melbourne la Sydney, profesorii se confruntă cu aceeași dilemă: cum gestionezi o tehnologie care poate fi și aliat, și amenințare?
„Profesorii sunt transformați în polițiști digitali, dar nu au uneltele potrivite”, spune Leah Kaufmann, vicepreședinte al National Tertiary Education Union.
„AI-ul evoluează lunar, iar universitățile nu pot ține pasul. În unele facultăți, regulile se schimbă de la un semestru la altul.”
De la „interzicem tot” la „învățăm să-l folosim”
Nu toate universitățile au ales calea fricii.
La University of Sydney, profesorul Danny Liu a lansat un model alternativ: sistemul „two-lane”.
Acesta împarte examenele în două tipuri:
- o „bandă” unde AI-ul este interzis și se testează cunoștințele reale;
- o alta unde AI-ul este permis, dar utilizarea trebuie explicată și justificată.
„Scopul nu e să prindem studenții care trișează, ci să vedem dacă învață cu adevărat”, spune Liu.
„Interzicerea completă a AI-ului este o iluzie. Educația trebuie să-l includă, nu să-l vâneze.”
Regulatorul: „detectarea sigură e aproape imposibilă”
Agenția federală TEQSA, care monitorizează calitatea universitară în Australia, confirmă că nu există o metodă sigură de a detecta AI-ul.
Într-un raport recent, instituția recomandă „evaluări autentice” – proiecte, examene orale, lucrări practice – care reduc tentația și posibilitatea de a trișa digital.
„Universitățile trebuie să schimbe designul evaluărilor, nu doar să instaleze programe de vânătoare de algoritmi”, se arată în raport.
O generație prinsă între roboți și birocrați
Pentru studenții de la ACU, experiența a fost mai mult decât o eroare administrativă – a fost o lecție despre cât de fragilă poate fi reputația în era digitală.
„Am simțit că m-a acuzat o mașină, nu un om”, spune Madeleine.
„Și tot o mașină a decis că am fost nevinovată.”
Cazul ACU ridică o întrebare mai mare decât orice eseu: poate o instituție care nu înțelege AI-ul să evalueze corect oamenii care îl folosesc?