De la ziarele care răspândeau bârfe până la feed-urile algoritmice de azi, modul de circulație a povestirilor s-a transformat, dar un principiu rămâne: forma contează. Ahrefs a realizat un experiment online creând un brand fictiv numit Xarumei, i-a pus un site oficial, a publicat articole contradictorii pe Medium, Reddit și pe un blog denumit Weighty Thoughts și a testat cum răspund diverse platforme AI la întrebări despre acel brand. Testul s-a desfășurat pe web, iar scopul declarat a fost să verifice dacă sistemele generative reproduc informații false atunci când acestea sunt detaliate și răspândite.
Proiectul a scos rapid în evidență un aspect clar: narațiunile false, dar bogate în detalii, au fost preluate mai ușor de multe modele decât informațiile de pe site-ul „oficial”. Problema principală, observă analiza critică a experimentului, este că Xarumei nu era un brand real: nu avea istoric, linkuri, citări sau intrare în Knowledge Graph. Asta înseamnă că nu exista un „adevăr” de referință pe internet pentru a compara celelalte surse. Într-un astfel de vid de semnale, toate resursele create pentru test au fost tratate ca fiind la fel.
Din această lipsă de bază au rezultat mai multe efecte notabile. În primul rând, nu se poate afirma că unele texte sunt minciuni în opoziție cu un adevăr oficial, pentru că nu exista un adevăr stabil. Apoi, experimentul nu poate fi extrapolat ca studiu despre comportamentul AI față de un brand real, deoarece „brandul” era doar un nume fără urme online anterioare. Un alt efect interesant a venit din scorurile raportate de anumite sisteme: Claude a obținut un punctaj de 100% pentru scepticism privind existența Xarumei, dar acel scor a venit din faptul că modelul fie a refuzat, fie nu a putut accesa site-ul Xarumei, adică nu neapărat dintr-o capacitate superioară de verificare. În schimb, reacția Perplexity, descrisă de autorii testului ca o eroare, poate fi considerată un răspuns rezonabil: lipsa semnalelor a determinat modelul să interpreteze numele ca o greșeală de tastare pentru Xiaomi, o deducție plauzibilă.
Tipologia conținutului a contat, de asemenea. Postările de pe Medium, AMA-ul de pe Reddit și articolul de pe Weighty Thoughts au oferit răspunsuri afirmative și specifice, locație, număr de angajați, modul de producție, cifre, cronologii și posibile motive pentru zvonuri. Site-ul oficial al Xarumei a procedat invers: un FAQ care refuza să divulge detalii despre locație, personal, volum de producție, venituri sau furnizori. Această asimetrie a fost esențială pentru rezultat. Modelele generative sunt concepute să ofere răspunsuri, astfel că vor favoriza sursele care furnizează informații clare. Când o sursă spune „nu dezvăluim”, iar celelalte oferă detalii, varianta „bogată în informații” va prevala de multe ori.
Un alt factor decisiv a fost formularea prompturilor folosite pentru a interoga modelele. Majoritatea întrebărilor din test erau leading questions, adică includeau premize care presupuneau existența faptelor ce urmau să fie confirmate. Exemplele de întrebări non-leading cereau verificări precise: dacă Xarumei fusese cumpărată de LVMH, dacă era implicată într-un proces, dacă producea paperweights sau instrumente de scris, dacă un vânzător de pe Etsy era oficial, dacă Xarumei era același lucru cu Xarumi, dacă folosea materiale reciclate sau dacă a existat un litigiu de marcă în 2024. În schimb, multe dintre celelalte 49 de întrebări includeau presupuneri care au facilitat răspunsuri afirmative din partea surselor terțe. Asta arată că nu doar ce informații sunt pe web contează, ci și cum sunt formulate întrebările adresate AI.
Ahrefs a susținut că experimentul demonstrează că detaliile înving, chiar dacă sunt false. Observația este parțial corectă, dar nu pentru că modelele „își aleg minciuna”. Ele preferă sursele care se aliniază formei întrebării și care oferă material ușor de folosit pentru a construi un răspuns. Când site-ul „oficial” este structurat ca o serie de negări și nu ca un set de răspunsuri organizate, motoarele sau modelele nu primesc semnale clare că acel conținut este autoritar. Prin urmare, testul a scos la iveală două lecții practice: conținutul care răspunde direct la întrebări influențează puternic rezultatele, iar formularea prompturilor are un impact major asupra răspunsurilor AI.
Pe scurt, ceea ce demonstrează experimentul ține mai mult de arhitectura informației decât de moralitate: conținutul detaliat, plasat vizibil, modelează frecvent răspunsurile sistemelor generative; întrebările care conțin presupuneri pot amplifica aceste efecte; iar platformele gestionează diferit contradicțiile și incertitudinile. Ahrefs a încercat să testeze „adevărul versus minciuna” despre un brand, dar a ajuns să evidențieze cât de important este să oferi modelelor conținut structurat sub formă de răspunsuri și să formulezi întrebări clare pentru a obține răspunsuri curate.
Ahrefs a publicat studiul despre Xarumei. Ideea principală este că semnalele digitale și forma răspunsurilor contează mai mult decât simpla existență a unei negări pe un site. Un brand real are nevoie de semnale cumulative: citări, linkuri, intrări în Knowledge Graph și conținut care oferă răspunsuri clare la întrebările pe care le pot avea oamenii sau modelele. Crearea de FAQ-uri explicite, pagini care documentează evenimente și o prezență citabilă pot reduce riscul ca informații neoficiale, dar detaliate, să preia conducerea. Crezi că firmele ar trebui să rescrie paginile oficiale pentru a oferi răspunsuri directe la întrebările frecvente, ca să limiteze propagarea informațiilor eronate de către AI?

Fii primul care comentează