Când informațiile private devin publice din greșeală, rămân întrebări care nu se risipesc ușor. Subiectul de față este OpenAI și modul în care solicitările (prompts) introduse în ChatGPT au ajuns indexate în Google Search, iar discuția pornește de la utilizatori care au găsit conversații personale afișate în rezultatele căutărilor. Istoria tehnologică ne arată că erorile de design sau deciziile luate în grabă pot avea consecințe pe termen lung asupra confidențialității, de la scurgeri de date la setări implicite neclare, și acum aceleași îngrijorări reintră în centrul atenției.
Problema a apărut după ce, în august, anumite prompturi au devenit vizibile în indexul Google. OpenAI a afirmat inițial că utilizatorii ar fi bifat o opțiune care făcea acele conversații publice, susținând că acea alegere era suficient de clară. Pe măsură ce reacțiile au crescut, OpenAI a început însă să elimine acele înregistrări din rezultatele căutărilor, după ce a devenit clar că mulți utilizatori s-au simțit induși în eroare și nu voiau ca discuțiile lor să fie accesibile oricui.
O distincție semnificativă între acest incident și scurgerea anterioară a unor chat-uri este că, atunci, utilizatorii afectați, într-o anumită măsură, trecuseră printr-un pas activ care făcuse conținutul public. În cazul recent, experți precum Packer semnalează că nimeni nu a apăsat pe share și că utilizatorii nu au avut o cale rezonabilă de a preveni expunerea conversațiilor. Aceasta ridică întrebarea dacă OpenAI a acționat prea repede fără a evalua cu atenție implicațiile pentru confidențialitate sau pur și simplu nu a acordat importanța cuvenită acestei laturi.
O altă nemulțumire este absența unui mecanism clar pentru eliminarea completă a conversațiilor din instrumentele Google Search Console, lucru care părea posibil în scandalul anterior. Această lipsă lasă utilizatorii nedumeriți și cu impresia că remediile aplicate pot fi incomplete. Packer și Manić (cercetători și critici ai fenomenului) rămân cu întrebări fără răspunsuri satisfăcătoare despre amploarea și natura problemei.
Manić a încercat să verifice dacă prompturile introduse pe adresa chatgpt.com, care declanșează apariția în rezultatele Google, au fost și ele afectate, dar OpenAI nu a răspuns concret la această întrebare, nici la una mai largă referitoare la dimensiunea scurgerii. Manić suspectează, de asemenea, că modul în care OpenAI a colectat datele poate alimenta fenomenul denumit de cercetătorii SEO „crocodile mouth” în Google Search Console, care generează creșteri ale impresiilor urmate de scăderi ale click-urilor, un artefact neplăcut pentru cei care urmăresc performanța conținutului în căutări.
Cea mai mare întrebare a lui Packer rămâne însă fără răspuns: remediul OpenAI a oprit doar trimiterea directă a prompturilor către Google Search, astfel încât textul brut să nu mai fie transmis, sau compania a încetat complet să mai extragă informații din rezultatele Google? Nu știm dacă problema este limitată la o singură pagină afectată de un bug sau dacă este mult mai răspândită. În ambele cazuri, situația subliniază riscurile unei abordări care pare grăbită când vine vorba de protejarea vieții private.
OpenAI a luat măsuri vizibile, a scos intrările din SERP, dar omisiunile de comunicare și lipsa de claritate tehnică lasă utilizatorii și analiștii sceptici cu privire la eficiența soluției. Când o companie gestionează date sensibile, transparența despre ce s-a întâmplat, cât de extins a fost impactul asupra sistemelor și ce pași tehnici au fost făcuți pentru a remedia problema nu sunt doar detalii, sunt cruciale pentru restabilirea încrederii.
OpenAI, Google Search Console, numele cercetătorilor menționați și termenul „crocodile mouth” rămân elemente centrale ale poveștii și merită urmărite, deoarece modul în care se rezolvă aceste probleme va influența felul în care platformele AI și motoarele de căutare gestionează confidențialitatea în viitor. Ce crezi că ar trebui să facă companiile tech pentru a preveni astfel de expuneri accidentale?

Fii primul care comentează