Raportul MAHA și pericolul citărilor false: felul în care AI creează dovezi fantomă în domeniul sănătății

Când auzim de Mullah Nasreddin, ne așteptăm la o poveste cu tâlc despre adevăr și absurditate. La fel ca anecdotele sale, disputa recentă privind raportul Make America Healthy Again ilustrează cât de ușor pot conviețui aparențe convingătoare și lipsa de fond, și cât de dificil devine să le deosebim, mai ales când intervine inteligența artificială.

Raportul MAHA publicat la Casa Albă la sfârșitul lunii mai a atras atenția dintr-un motiv neașteptat: include referințe la studii care, în realitate, nu există. Jurnaliștii au găsit surse fabricate, titluri credibile la prima vedere, autori neverificați sau date inventate, iar răspunsul inițial al administrației a fost negarea, urmată de recunoașterea unor „erori minore de citare”. Ironia este clară: documentul propune, între altele, soluții pentru criza de replicare din știință, situația în care rezultatele publicate nu mai pot fi reproduse de alte echipe, dar se bazează tocmai pe dovezi fantomă pentru a-și susține concluziile.

Fenomenul nu este singular. Modelele lingvistice mari, sau LLM, generează frecvent surse aparent credibile sau date inventate, ceea ce specialiștii numesc hallucinations. Aceste erori au apărut în contexte sensibile: The Washington Post a documentat cazuri în care informații false generate de AI au fost folosite în instanțe, cu citări și hotărâri inexistente pe care avocații au trebuit să le explice magistraților. Asta transformă „eroarea tehnică” într-un pericol real pentru procese, pentru știință și pentru politici publice.

Totodată, administrația americană încurajează accelerarea cercetării în AI aplicată sănătății. Direcția este clară: Department of Health and Human Services are misiunea de a prioritiza proiecte care promit diagnostic mai rapid, terapii personalizate, monitorizare în timp real și intervenții predictive. Sună promițător. Problema e că multe modele produc erori sistematice care nu dispar pur și simplu printr-un update. Chiar industria admite că unele dintre aceste „fantome” ar putea fi greu de eliminat complet.

O consecință gravă privește cercetarea științifică: dacă lucrări bazate pe rezultate false sau pe citări inventate sunt publicate, ele pot fi incluse în seturi de date folosite ulterior la antrenarea altor sisteme AI. Se creează astfel un cerc vicios: AI produce informații eronate, acele informații sunt considerate date valide și, la rândul lor, alimentează noile versiuni de AI, consolidând greșelile inițiale. În plus, un studiu recent semnalează apariția unei industrii a fraudelor științifice care poate utiliza AI pentru a cosmetiza sau a fabrica dovezi, făcând detectarea lor mai dificilă.

Pentru profesioniștii din sănătate și pentru decidenți, consecințele practice sunt evidente: un instrument care sugerează diagnostice sau planuri terapeutice pe baza unor rezultate incorecte nu e doar o eroare tehnică, ci un risc pentru pacienți. De aceea mulți cercetători cer transparență completă: surse verificabile, protocoale deschise, validare independentă și mecanisme de audit capabile să identifice date create artificial. Fără astfel de garanții, riscul ca greșelile generate de LLM să pătrundă în literatura de specialitate, în ghidurile clinice sau în politicile publice rămâne ridicat.

Raportul MAHA și cazurile judiciare arată că problema nu este numai tehnologică, ci și instituțională. Implementarea AI în sănătate sau în procese decizionale publice necesită nu doar entuziasm pentru inovație, ci și standarde stricte de calitate, responsabilitate și verificare independentă. Altfel, politicile publice riscă să se bazeze pe ceea ce pare plauzibil, nu pe ceea ce este demonstrat. Soluția nu este respingerea automată a tehnologiei, ci construirea unor procese prin care aceasta să fie testată, validată și supravegheată permanent.

MAHA recomandă investiții substanțiale în AI pentru sănătate, dar fenomenul hallucination și fragilitatea dinamicii publicării științifice scot în evidență riscuri care trebuie gestionate imediat. Exemplele concrete din articol, raportul administrației, investigațiile din presă și studiile despre fraude științifice, ne reamintesc că instrumentele care pot sprijini diagnosticarea sau tratamentul trebuie însoțite de verificări la fel de riguroase ca cele din cercetarea convențională.

Raportul MAHA, acuzațiile privind citările false și cazurile din instanțe ilustrează cât de vulnerabil devine un ecosistem atunci când metodele de verificare nu țin pasul cu ritmul tehnologiei. Dacă nu stabilim standarde clare pentru utilizarea AI în știință și sănătate, riscăm să transformăm erori temporare în surse permanente de dezinformare științifică. Care crezi că ar fi primul pas practic pe care l-ar putea face o instituție de sănătate pentru a preveni pătrunderea informațiilor generate eronat de AI în lucrările științifice?

Fii primul care comentează

Lasă un răspuns

Adresa ta de email nu va fi publicată.


*