Când inteligența artificială generativă începe să discute despre persoane, apar probleme serioase legate de reputația online, iar fenomenul reflectă atât vechea jurisprudență privind defăimarea, cât și realitatea actuală în care asistenții virtuali răspund la miliarde de întrebări. AI care inventează sau reproduc afirmații false despre oameni a devenit subiectul unor procese și al dezbaterilor despre responsabilitate, acuratețe și gestionarea reputației în mediul online.
Am întâlnit deja exemple concrete în care modele AI au produs afirmații defăimătoare. Un client mi-a spus că Llama de la Meta a generat declarații false și denigratoare despre o persoană publică; deși acea persoană fusese implicată în procese anterioare pe care le câștigase și despre care existau articole, modelul a reluat acuzații infirmate, le-a amplificat și a adăugat insinuări de fraudă. Într-un alt caz, aproape orice interogare despre o persoană producea aceleași calomnii în ChatGPT, iar problema ridicată era clară: dacă instanța reușește să obțină delistarea sau ștergerea postărilor inițiale, pentru cât timp vor continua acele afirmații să apară în răspunsurile AI?
Sunt și situații în care AI a inventat în întregime fapte dăunătoare. În 2023, un profesor a fost raportat fals ca fiind acuzat de hărțuire sexuală într-un loc unde nu lucrase, iar ChatGPT a citat ca sursă un articol inexistent. În alt exemplu, fostul agent FBI James Keene a dat în judecată Google după ce AI l-a descris greșit ca fiind condamnat pe viață și autor al unor crime; reclamația susține că zeci de milioane de utilizatori ar fi putut vedea acele afirmații. Aceste cazuri ne amintesc că componenta „generativă” a modelelor le permite să construiască narațiuni plauzibile, dar posibil complet false.
Totuși, modelele progresează în tratarea informațiilor biografice. Principalii furnizori au lucrat pentru a diminua „halucinațiile” despre persoane și au introdus avertismente sau mențiuni privind incertitudinea datelor, lipsa verificării independente sau limitările informațiilor. Nu este clar cât protejează aceste avertismente împotriva afirmațiilor dăunătoare, dar sunt preferabile lipsei oricărui semnal de prudență. Într-un caz, Meta a reacționat destul de rapid la o sesizare și ar fi oferit scuze, lucru mai rar întâlnit în disputele corporative.
Principalele probleme de reputație nu provin doar din invenții totale, ci din trei surse comune: interpretări eronate ale materialelor sursă care conduc la concluzii greșite, reluarea repetată a afirmațiilor defăimătoare existente și exagerarea ori denaturarea înșelătoare a unor fapte reale. O complicație juridică suplimentară vine din ambiguitatea protecției conferite de Section 230 din Communications Decency Act. Unii susțin că aceasta ar putea acoperi companiile AI similar platformelor care găzduiesc conținut terț, dar generațiile de texte „derivate” creează adesea conținut original, iar dezbaterile legislative recente, inclusiv un moratoriu propus și apoi eliminat dintr-un proiect de lege din 2025, arată că nu este clar dacă legislația actuală răspunde acestor situații.
Pe măsură ce AI devine tot mai prezent în rezultatele de căutare, Google AI Overviews, Gemini, Copilot și altele, trecutul online al unei persoane devine mai vizibil și mai influent. Unele servicii folosesc AI pentru verificări de background; Checkr, de pildă, are un model care scoate la iveală informații potențial negative despre candidați, ceea ce poate influența oportunitățile de angajare. Iar unele instrumente specializate pot să nu includă avertismente sau rezerve, ceea ce înseamnă că informațiile dăunătoare pot ajunge direct la decidenți fără niciun semnal de alarmă.
Ce se poate face când AI produce afirmații defăimătoare? Primul pas este solicitarea de corectare sau eliminare direct la furnizorii de AI. Meta, OpenAI, Google, Microsoft, Perplexity, xAI și alții dispun de proceduri de raportare sau formulare pentru feedback; uneori implicarea unui avocat accelerează procesul, alteori platformele reacționează la sesizări venite de la persoane fizice. Google, de exemplu, poate reduce vizibilitatea printr-o formă de suprimare modestă după ce primește feedback, dar eliminarea completă a conținutului cere adesea hotărâri judecătorești. Microsoft are formulare similare, iar xAI și Grok oferă modalități de solicitare a corectării, deși, conform politicilor lor, nu pot garanta remedierea tuturor inexactităților.
Dacă sesizările directe nu sunt suficiente, există și strategii clasice de management al reputației adaptate erei AI: eliminarea sau corectarea surselor originale care alimentează modelele, publicarea de materiale corecte și de calitate pentru a „inunda” internetul cu informații neutre sau pozitive, iar tehnicile SEO rămân esențiale pentru a împinge rezultatele negative mai jos în paginile de căutare. Totodată, AI poate analiza rezultate mult mai în profunzime decât înainte, ceea ce înseamnă că reducerea impactului necesită suprimarea informațiilor pe o arie mai largă de pagini și interogări. O tactică mai puțin convențională, folosită rar ca soluție extremă, este crearea unor persoane online care împart același nume pentru a genera ambiguitate, astfel încât modelele AI să ezite să atribuie afirmații unei singure persoane. Această metodă atrage însă riscul de confuzie și expunere neintenționată.
Perspectivele juridice rămân complexe. Litigiile sunt costisitoare și îndelungate, iar anumite profesii au reguli care fac acțiunile în justiție dificile. Este posibil ca instanțele să decidă că un răspuns generat de AI constituie o republicare a afirmațiilor defăimătoare, ceea ce ar putea reactiva termene de prescripție, dar acest lucru va necesita un corpus nou de hotărâri. O altă opțiune ar fi introducerea unei legislații specifice care să ofere protecții persoanelor afectate de informații false răspândite de AI; în Europa anumite mecanisme, cum ar fi dreptul de a fi uitat, oferă modele de protecție, dar în Statele Unite schimbări majore par puțin probabile în contextul puterii continue a Section 230.
Textul de față subliniază o problemă evidentă: AI-urile, de la Llama la ChatGPT, Gemini și Copilot, pot genera conținut fals sau pot amplifica informații dăunătoare deja existente. Date concrete, nume și incidente, precum cazul Jonathan Turley, reclamația lui James Keene și rapoartele legate de Llama, demonstrează că riscul este real și larg răspândit. Ca măsuri practice, contactarea directă a furnizorilor, acțiunile legale acolo unde sunt posibile, corectarea și eliminarea surselor inițiale, împreună cu strategii SEO pentru a disloca rezultatele negative, rămân instrumente utile. În același timp, provocarea rămâne una legală și tehnică: cine răspunde atunci când o mașină generează o minciună care afectează viața reală?
Crezi că legea actuală este suficientă pentru a proteja reputația oamenilor în fața erorilor AI sau sunt necesare reguli noi și clare?

Fii primul care comentează