EBU și BBC: cercetare care arată în ce fel asistenții AI atribuie greșit sursele și erodează încrederea în știri

De la Roma la BBC, modul în care primim știri s-a transformat: acum roboții povestesc despre realitate, dar uneori se încurcă în nume, date și surse. Un studiu comun realizat de Uniunea Europeană de Radiodifuziune (EBU) și BBC a evaluat versiunile gratuite ale asistenților AI, ChatGPT, Copilot, Gemini și Perplexity, testând răspunsurile la întrebări despre știri în 14 limbi, pornind de la conținutul a 22 de instituții media publice din 18 state.

Cercetarea a examinat 2.709 răspunsuri principale și câteva exemple calitative din întrebări adaptate local. Concluzia nu e simplă: 45% dintre răspunsuri aveau cel puțin o problemă majoră, iar 81% conțineau cel puțin o eroare de orice fel. Cea mai frecventă zonă cu deficiențe a fost citarea surselor: în 31% dintre cazuri problema era semnificativă. Asta înseamnă fie că lipsea sursa, fie era atribuită greșit sau lipsea contextul necesar pentru a înțelege proveniența informațiilor.

Performanța a variat mult între platforme. Google Gemini a înregistrat cele mai multe probleme serioase: 76% dintre răspunsuri conțineau erori semnificative; dificultățile sale țineau în special de citarea surselor, 72% dintre răspunsuri aveau astfel de lacune. Celelalte asistențe evaluate au fost sub pragul de 37% pentru probleme majore și sub 25% în privința surselor, ceea ce nu înseamnă că erau impecabile, doar mai puțin problematice în comparație.

Exemplele concrete ilustrează natura greșelilor: unele răspunsuri erau depășite sau inexacte. Mai mulți asistenți au identificat greșit starea Papei, prezentându-l pe Francis ca aflat în funcție la sfârșitul lunii mai, deși acesta a trecut printr-un eveniment major în aprilie, iar Gemini a descris eronat modificări legislative privind dispozitivele de vapat de unică folosință. Astfel de erori pot părea minore, dar pot modifica percepții, cronologii sau concluzii pe subiecte relevante pentru public.

Metodologia studiului a acoperit perioada 24 mai–10 iunie, folosind un set comun de 30 de întrebări principale și întrebări opționale locale. Evaluarea s-a concentrat pe versiunile gratuite, pentru a reflecta cum interacționează majoritatea utilizatorilor cu aceste instrumente. Multe organizații media participante au ridicat temporar blocaje tehnice care, în mod normal, limitează accesul asistenților la conținutul lor, doar pentru perioada în care s-au generat răspunsurile; blocajele au fost restabilite ulterior.

Implicările sunt practice și clare: dacă folosești asistenți AI pentru documentare sau planificare editorială, rezultatele arată că orice afirmație trebuie verificată în sursele originale înainte de utilizare. Pentru instituțiile media există riscul ca propriile materiale să fie citate greșit sau folosite fără context, ceea ce subminează încrederea cititorilor și poate răspândi informații inexacte.

Ca urmare a raportului, EBU și BBC au lansat un Toolkit intitulat News Integrity in AI Assistants, adresat companiilor tehnologice, instituțiilor media și cercetătorilor, cu recomandări practice pentru reducerea erorilor și îmbunătățirea transparenței. Reuters notează că EBU vede o legătură între dependența crescândă de astfel de asistenți și erodarea încrederii publice în informație. Jean Philip De Tender, director media la EBU, avertizează că atunci când oamenii nu mai știu în ce să aibă încredere, riscă să nu mai aibă încredere în nimic, ceea ce poate reduce participarea democratică.

Raportul precizează cifrele: 2.709 răspunsuri evaluate, 45% cu cel puțin o problemă majoră, 81% cu orice tip de problemă, 31% cu deficiențe semnificative de sourcing, iar Gemini a înregistrat 76% erori majore și 72% erori legate de surse. Toolkit-ul News Integrity in AI Assistants este disponibil pentru actorii interesați de îmbunătățirea calității răspunsurilor generate de AI. Pe scurt, studiul nu susține că tehnologia nu e utilă; confirmă însă că trebuie utilizată cu prudență și supravegheată.

Studiul EBU-BBC și datele sale ridică problema responsabilității editoriale în era AI. Un exemplu din raport este prezentarea incorectă a situației Papei în mai, demonstrând cum o simplă eroare se poate răspândi rapid fără verificare. În același timp, toolkit-ul publicat oferă instrumente practice pentru a diminua asemenea probleme: standarde de citare, proceduri de verificare și recomandări tehnice pentru companii. Nu e doar o listă de critici; e, în esență, un ghid pentru menținerea calității jurnalismului și protejarea încrederii publicului.

Studiul evidențiază necesitatea unei verificări atente atunci când informațiile provin de la asistenți AI, în special pentru instituțiile media care pot fi citate greșit. Creșterea dependenței de asistenți impune politici clare de acces la conținut, standarde comune de citare și mecanisme prin care erorile pot fi detectate rapid. Care crezi că ar fi cea mai eficientă măsură pentru reducerea erorilor asistenților AI: restricționarea accesului la conținut fără autorizare, impunerea unor standarde de citare mai stricte sau audituri periodice independente?

Fii primul care comentează

Lasă un răspuns

Adresa ta de email nu va fi publicată.


*