De ceva vreme, discuțiile de la intersecția dintre tehnologie și sănătate mintală au captat atenția publică, pornind de la experimentele timpurii cu chatboți până la dezbateri recente despre responsabilitate și protecția minorilor. Acum subiectul este OpenAI, care anunță modificări concrete la ChatGPT pentru a gestiona mai bine crizele psihologice și pentru a introduce controale parentale, ca răspuns la mai multe cazuri îngrijorătoare în care asistentul virtual nu a intervenit cum era de așteptat.
OpenAI afirmă că în următoarele 120 de zile va implementa o serie de îmbunătățiri și că munca va continua și după această perioadă. Printre noutăți se află controlul parental: părinții vor putea conecta conturile lor cu cele ale adolescenților (vârsta minimă 13 ani) prin invitații pe e-mail, vor putea stabili reguli de comportament ale modelului potrivite pentru vârstă, vor avea opțiuni de dezactivare a unor funcții precum memoria sau istoricul conversațiilor și vor primi notificări când sistemul detectează semne de suferință acută la adolescent. Aceste funcții vor avea, implicit, setări adecvate pentru vârstă. Noile funcționalități completează opțiuni deja disponibile, precum mementourile din aplicație care recomandă pauze după sesiuni lungi de chat și care au fost lansate pentru toți utilizatorii în august.
Anunțul vine după mai multe incidente foarte mediatizate care au pus presiune pe companie. Familiile și mass-media au relatat situații în care utilizatori aflați în suferință au avut conversații cu ChatGPT în care asistentul nu a oferit intervenții adecvate. Un caz intens mediatizat este procesul intentat de Matt și Maria Raine, părinții unui adolescent de 16 ani, Adam, care a murit prin sinucidere după schimburi extinse de mesaje cu ChatGPT; documentele de la proces arată că în conversații ChatGPT a făcut referire la sinucidere de 1.275 de ori, comparativ cu 377 de mesaje etichetate ca auto-vătămare. Un alt material a relatat un incident în care un bărbat de 56 de ani și-a ucis mama și apoi s-a sinucis, situație în care ChatGPT ar fi consolidat idei paranoide în loc să le contrazică. Astfel de cazuri au generat reacții publice și cereri de îmbunătățire a modului în care modelele răspund la semne de suferință mentală.
Pentru a orienta aceste schimbări, OpenAI colaborează cu un Consiliu de Experți pentru Bunăstare și AI, creat pentru a oferi o perspectivă bazată pe dovezi despre cum poate susține inteligența artificială starea de bine a oamenilor. Consiliul are misiunea de a defini și măsura bunăstarea, de a prioritiza intervențiile și de a contribui la proiectarea unor măsuri de siguranță viitoare, inclusiv controalele parentale. Compania mai spune că va redirecționa conversațiile sensibile legate de sănătatea mintală către modele de „simulare a raționamentului”, o soluție tehnică menită să îmbunătățească calitatea răspunsurilor în situații delicate.
Anunțul scoate în evidență o tentație pe care tehnologia a avut-o de la început: să ofere remedii rapide pentru probleme complexe. Implementarea controalelor parentale și a ghidurilor de intervenție reflectă recunoașterea faptului că asistenții virtuali nu sunt neutri în fața vulnerabilităților umane și că este nevoie de mecanisme explicite pentru protecție, responsabilitate și supraveghere. Măsurile propuse, conectarea conturilor părinte-adolescent, setările implicite în funcție de vârstă, posibilitatea de a opri funcții precum memoria și notificările la detectarea suferinței acute, sunt instrumente practice care pot diminua riscurile, dar eficiența lor depinde mult de implementare, testare independentă și monitorizare continuă. Cazurile semnalate, precum cel al familiei Raine și relatările din presă despre alte incidente, ilustrează ce se poate întâmpla când tehnologia nu dispune de salvări adecvate sau când interacțiunile umane complexe sunt externalizate către un algoritm.
Consiliul de experți anunțat de OpenAI ar putea propune cadre metodologice utile: definirea bunăstării, stabilirea unor standarde măsurabile și prioritizarea intervențiilor validate științific. Totuși, persistă întrebări practice: cum vor funcționa detectoarele de suferință acută, ce praguri vor declanșa notificările, cine va avea acces la datele sensibile și cum va fi protejată confidențialitatea adolescenților. Există, de asemenea, provocări legale și etice legate de vârste minime, consimțământ parental și riscul unei supravegheri excesive. Multe dintre aceste detalii vor fi esențiale pentru eficacitatea noilor funcții și pentru încrederea publică.
Anunțul OpenAI marchează o schimbare de direcție: de la actualizări simple de funcționalitate către o abordare mai deliberată a siguranței utilizatorilor vulnerabili. Rămâne de văzut cum vor funcționa în practică controalele parentale, ce transparență va oferi compania asupra mecanismelor automate de detectare și în ce măsură experții externi vor valida soluțiile. Acceptarea socială a acestor tehnologii depinde de rezultate concrete, nu doar de promisiuni. Cei interesați de detalii vor urmări următoarele lansări și documentația tehnică pe care OpenAI spune că o va publica în perioada comunicată.
OpenAI menționează Consiliul de Experți și controalele parentale ca puncte centrale ale planului pentru protejarea utilizatorilor. Cum credeți că ar trebui implementate notificările pentru părinți și ce limite ar trebui impuse pentru funcțiile de memorie și istoric în cazul conturilor adolescenților?
notificări rapide pt părinți, dar rare; memorie off implicit