Când discutăm despre inteligența artificială în domeniul educației, dezbaterea e la fel de veche ca și promisiunile tehnologice: ajută sau dăunează? Un raport provincial destinat reformării învățământului a ajuns în centrul atenției după ce mai mulți evaluatori au identificat citări care par inventate. E vorba de recomandări concepute pentru a-i instrui pe elevi și profesori în privința eticii și confidențialității digitale, elaborate pentru o instituție publică dintr-o provincie canadiană, dar care acum sunt contestate din cauza referințelor dubioase.
Modelele de limbaj din spatele ChatGPT, Gemini sau Claude funcționează pe baze statistice: ele selectează combinații de cuvinte care par coerente în baza datelor folosite la antrenament, fără a verifica faptele independent, ca un cercetător uman. Din această cauză, pot apărea formulări convingătoare, dar inexacte. Iar dacă documentul recomandă tocmai instruirea în responsabilitatea digitală, ironia este evidentă.
Josh Lepawsky, fost președinte al asociației cadrelor universitare de la Memorial University, a părăsit consiliul consultativ al raportului și a afirmat că problema nu e doar o eroare banală: citările fabricate subminează complet încrederea în material. El a descris procesul ca fiind profund deficitar și a explicat că aceeași încredere pe care raportul o cere pentru folosirea AI a fost, în practică, compromisă.
O altă persoană care a verificat documentul, profesoara de științe politice Sarah Martin, a descoperit mai multe referințe inexistente și a spus că nu vede altă explicație plauzibilă decât fabricarea lor. Pentru cei din domeniul educației, o referință care pare autentică, dar nu există, este exact tipul de problemă pe care raportul ar trebui să o semnaleze: informații ce par solide, dar nu pot fi verificate.
Co-președinta comisiei, Karen Goodnough, a refuzat un interviu și a transmis că se efectuează verificări ale referințelor. Departamentul de Educație și Dezvoltare a Copilului a recunoscut un număr mic de posibile erori în citări și a anunțat că versiunea online a raportului va fi actualizată în zilele următoare pentru a corecta aceste greșeli. Comunicarea oficială vorbește despre remediere, dar nu oferă detalii despre cum au apărut problemele și cine le-a provocat.
Această situație evidențiază două aspecte importante. Primul: limitările tehnologiei, modelele de limbaj pot genera text convingător, dar nu garantează veridicitatea. Al doilea: importanța verificării umane în proiectele publice, chiar și documentele oficiale trebuie supuse unui control riguros al surselor, în special când recomandările privesc educația și formarea în competențe digitale. Cazul actual amintește și responsabilitatea instituțiilor de a menține standarde transparente când apelează la asistență tehnologică sau consultanță externă.
Raportul includea 110 recomandări, printre care una care solicită explicit dezvoltarea cunoștințelor esențiale despre AI la elevi și cadre didactice. Acest apel devine acum mai mult decât o directivă curriculară: reprezintă o provocare practică pentru cei care l-au elaborat și pentru factorii de decizie. Dacă autorii unui document menit să educe despre etică și responsabilitate nu pot garanta acuratețea referințelor, mesajul își pierde din credibilitate.
Actualizarea publicată urmează să corecteze erorile de citare, dar rămâne întrebarea asupra cauzelor: a fost un ritm de lucru grăbit, o dependență excesivă de instrumente automate sau o verificare incompletă? Oricare ar fi motivul, exemplul rămâne util ca lecție: tehnologia poate oferi sprijin semnificativ, dar validarea umană rămâne indispensabilă. Pentru școli și instituții, asta înseamnă proceduri clare de verificare a surselor, competențe în evaluarea critică a materialelor și transparență în privința modului în care sunt produse documentele oficiale.
Raportul subliniază educația despre etică și confidențialitate digitală, iar identificarea referințelor problematice transformă acea recomandare într-un test practic. Modelul de limbaj folosit pentru generarea conținutului poate crea fraze convingătoare, dar verificarea manuală a citărilor rămâne sarcina oamenilor. Acest episod indică că orice instituție care integrează AI în procesele decizionale sau educaționale ar trebui să prevadă și mecanisme clare de audit și responsabilitate.
Verificările referitoare la referințe și raportul însuși sunt relevante pentru oricine se ocupă de educație sau politici publice, iar cifra de 110 recomandări oferă un detaliu concret care conferă greutate demersului. Actualizarea promisă de Departament este un pas necesar, dar semnalează și o nevoie mai largă: instruire practică în utilizarea AI, nu doar teorie, și consolidarea procedurilor interne de asigurare a calității.
Departamentul afirmă că va corecta erorile online în zilele următoare, iar investigațiile interne continuă. Este esențial ca procesul de revizuire să fie transparent și bine documentat, astfel încât recomandările să recâștige încrederea publică. O abordare prudentă și evaluări independente pot transforma recomandările despre etică și responsabilitate din simple principii în practici verificabile.
110 recomandări și o listă de referințe suspecte subliniază necesitatea competențelor digitale și importanța verificării surselor. Sunteți de părere că raportul ar trebui revizuit public și transparent pentru a restabili încrederea?
Fii primul care comentează