OpenAI a anunțat implementarea unor limite noi privind apropierea emoțională față de ChatGPT, subliniind că dependența sentimentală față de un asistent AI poate constitui un risc pentru siguranță. De la dialogurile socratice cu mașinăriile până la chatboți care oferă sfaturi personale, conceptul că un program ar putea deveni „tovarăș” nu este nou, însă în ultimele luni a devenit o preocupare practică pe măsură ce modelele devin tot mai convingătoare.
Compania afirmă că a inclus „dependența emoțională de AI” în lista riscurilor pe care le monitorizează și a antrenat sistemul pentru a descuraja atașamentele exclusive față de ChatGPT. Practic, dacă un utilizator începe să manifeste semne de apropiere disproporționată sau înlocuire a relațiilor umane prin interacțiuni repetate și intense cu modelul, răspunsurile vor fi calibrate pentru a-l încuraja să ia legătura cu oameni reali sau pentru a propune alternative mai sănătoase. Clinicieni și specialiști în sănătate mintală au ajutat la definirea ce înseamnă „atașament nesănătos” și la modul în care ar trebui să reacționeze asistentul virtual în astfel de cazuri.
Măsura marchează o schimbare practică: nu mai e vorba doar de prevenirea dezinformării sau a generării de conținut dăunător, ci și de felul în care interacțiunea repetată cu o inteligență artificială poate influența dinamica socială și emoțională a unei persoane. Prin ajustările făcute, ChatGPT ar putea, de pildă, să sugereze utilizatorului să discute cu prieteni, familie sau un profesionist când conversațiile devin prea intense sau dependente. Acest tip de intervenție nu critică tehnologia în sine, ci semnalează că instrumentele digitale, oricât de utile ar fi, nu ar trebui să înlocuiască complet sprijinul uman.
Implicarea clinicianilor în conturarea acestor limite arată seriozitatea intenției: este vorba despre identificarea unor tipare comportamentale, cum ar fi cererea constantă de reasigurări, izolarea socială în favoarea dialogului cu AI sau atribuirea unor calități umane exagerate asistentului, și despre stabilirea unor răspunsuri automate care să nu agraveze problema. Totodată, este esențial că abordarea vizează atât protejarea utilizatorilor vulnerabili, cât și responsabilizarea dezvoltatorilor de modele privind efectele psihologice pe termen lung.
Noile bariere fac parte dintr-o tendință mai largă în industria AI de a integra perspective psihologice și etice în proiectarea produselor. Pe lângă corectarea erorilor factuale și controlul conținutului dăunător, companiile încep să trateze relația om-mașină ca pe un spațiu social care poate necesita limite și intervenții preventive. Asta înseamnă că viitoarele actualizări ale modelelor vor include nu numai filtre tehnice, ci și reguli de interacțiune menite să minimizeze riscul ca utilizatorii să dezvolte dependențe emoționale.
OpenAI nu a publicat un manual detaliat despre toate situațiile în care ChatGPT va interveni, dar mesajul este clar: există o conștientizare sporită a impactului social al acestor tehnologii și o dorință de a implementa măsuri care să protejeze utilizatorii. În practică, utilizatorii pot remarca modificări în tonul sau conținutul răspunsurilor atunci când interacțiunile devin repetitive sau când modelul identifică riscuri de atașament nesănătos.
OpenAI a desemnat „dependența emoțională” drept element de risc. Clinicienii au avut un rol în definirea semnelor de atașament nesănătos și în stabilirea modului în care ChatGPT ar trebui să răspundă. Aceste ajustări generează dezbateri despre limitele tehnologice și responsabilitatea celor care construiesc astfel de sisteme. Creșterea integrării perspectivelor clinice în dezvoltarea AI amintește că instrumentele digitale nu sunt neutre social și că proiectarea lor trebuie să ia în considerare sănătatea emoțională a utilizatorilor. Ce părere ai despre ideea ca un asistent virtual să te îndrume spre oameni reali atunci când observă un atașament prea mare?

Fii primul care comentează