Gmail: precizări despre utilizarea mesajelor în antrenarea modelului Gemini

Gmail a venit cu precizări după valul de postări de pe rețelele sociale care susțineau că mesajele din conturile Gmail ar fi fost folosite pentru antrenarea modelului AI Gemini, iar reacția companiei a fost comunicată prin contul Gmail de pe Twitter la 21 noiembrie 2025. Istoria ne-a învățat să fim circumspecți, de la scandaluri precum Cambridge Analytica până la lanțurile virale din anii 2010 care promiteau oprirea unor schimbări imaginare, astfel că reacția publicului nu a fost neașteptată.

Să le desfacem pe rând: postările virale afirmau că Google ar fi înscris automat utilizatorii Gmail în procesul de antrenare a modelelor AI prin funcțiile „smart” din Workspace. Câteva publicații tech au preluat aceste mesaje; printre ele s-a numărat Malwarebytes, care ulterior a publicat o corectură. Google a răspuns clar și punctual, susținând că nu a modificat setările utilizatorilor, că funcțiile inteligente din Gmail există de ani de zile și că nu folosește conținutul mesajelor Gmail pentru a antrena modelul Gemini. Compania a adăugat că, în cazul unei schimbări a politicilor sau a termenilor, va informa în mod transparent utilizatorii.

Ce înseamnă, în practică, „funcții smart”? De regulă sunt instrumente precum Smart Compose sau Smart Reply care accelerează redactarea, oferă sugestii și organizează automat inboxul. Google a subliniat că aceste funcții nu reprezintă noutăţi și nu echivalează cu o modificare discretă a termenilor de utilizare. Mesajul lor urmărea să oprească speculațiile care se răspândeau rapid pe platformele sociale.

Rămân însă motive reale de îngrijorare: există situaţii în care datele personale sunt folosite pentru antrenarea unor sisteme AI, iar utilizatorii au tot dreptul la transparență și control. Pe de altă parte, multe dintre postările virale seamănă cu obişnuitele mesaje din anii 2010, gen share ca să oprești o schimbare imaginară. Diferența acum este că platforme precum Twitter permit monetizarea conținutului, ceea ce introduce un stimulent financiar pentru distribuirea rapidă a informațiilor, reale sau false. Astfel apare combinația periculoasă între teamă autentică și oportunitatea de îmbogățire pentru cei care viralizează.

Amintirea ultimului deceniu de practici opace din partea unor mari companii tech a creat un climat de neîncredere justificat. Totuși, e util să nu uităm că un utilizator anonim pe social media poate dezinforma la fel de ușor ca o publicație grăbită. Verificarea faptelor rămâne esențială: consultați declarațiile oficiale ale companiilor, urmăriți corecturile articolelor preluate pe internet și folosiți canale oficiale pentru actualizări.

Tweetul contului Gmail din 21 noiembrie 2025 afirmă că Gmail nu folosește conținutul mesajelor pentru antrenarea modelului Gemini. Această afirmație readuce în prim-plan tema transparenței în tehnologie, responsabilitatea companiilor și rolul platformelor sociale în amplificarea dezinformării. Exemplele din text, Gmail, Gemini, Malwarebytes, Twitter și lanțurile de mesaje din anii 2010, ilustrează cum se împletesc preocupările legitime cu panica virală. Credeți că explicațiile oficiale sunt suficiente pentru a restabili încrederea publicului sau e nevoie de reguli mai stricte privind utilizarea datelor pentru antrenarea modelelor AI?

Fii primul care comentează

Lasă un răspuns

Adresa ta de email nu va fi publicată.


*