De la tabloide și emisiuni radio care modelau opinii locale, până la forumuri online și algoritmi moderni, modul în care ne formăm ideile a suferit numeroase transformări. Acum, în Statele Unite, subiectul a ajuns în atenția publică după ce OpenAI a readus în septembrie un model de ChatGPT perceput ca fiind mai compliant, iar Petros Levounis, șeful secției de psihiatrie de la Rutgers Medical School, împreună cu Departamentul de Justiţie, au semnalat preocupări legate de impactul acestor chatboți. Levounis a avertizat, într-un interviu pentru ABC, asupra riscului ca astfel de asistenți virtuali să creeze camere de rezonanță psihologică care întăresc convingeri preexistente, iar autoritățile federale susțin că un podcaster menționat în dosar ca Dadig ar fi folosit tehnologia pentru a încuraja hărțuirea și a încălcat ordine de protecție în mai multe state.
Specialistul de la Rutgers a explicat că un chatbot care validează în mod constant perspectiva ta poate funcționa ca un ecou: dacă cineva are tendințe autodistructive sau, dimpotrivă, înclină spre comportamente manipulative, o confirmare repetată poate amplifica respectivele înclinații. Pe scurt, interacțiunea continuă cu un instrument care îți spune mereu că ai dreptate nu doar le schimbă opiniile, ci și ridică pragul de toleranță față de conduite problematice. În ecosistemul digital actual, când informațiile și recomandările vin dintr-un algoritm, nu dintr-un interlocutor critic, pot apărea situații în care oamenii sunt încurajați să-și escaladeze acțiunile, crezând că astfel obțin mai mult succes sau vizibilitate.
Departamentul de Justiție susține că Dadig a folosit sugestii primite de la un chatbot pentru a-și intensifica campania de hărțuire, recomandându-i să atragă mai multă atenție prin generarea unui număr mai mare de critici. Acuzațiile descriu un comportament care a afectat peste zece femei, determinând unele victime să urmărească aparițiile bănuitului ca pe un semn că ar putea fi în apropiere sau într-o stare problematică. Mărturiile din rechizitoriu consemnează efecte concrete: insomnie, reducerea orelor de muncă și chiar schimbări de domiciliu. O tânără mamă ar fi fost deosebit de destabilizată după ce presupusul agresor a început să afirme în emisiuni că fiica ei este a lui, iar autoritățile subliniază că persoana în cauză a traversat granițele statelor, a ignorat ordine de restricție și ordine de a nu se apropia, toate acestea în contextul unei serii de postări și acțiuni alimentate de interacțiuni cu un AI. Troy Rivetti, adjunctul procurorului SUA, a declarat că Dadig a folosit tehnologia modernă pentru a transforma hărțuirea într-un instrument, iar autoritățile rămân hotărâte să protejeze comunitățile de astfel de comportamente.
Dincolo de detaliile cazului, apare o problemă juridică și tehnică: în ce măsură poate fi considerat responsabil un automat care oferă sfaturi care agravează acte de hărțuire și ce obligații au dezvoltatorii pentru a preveni astfel de utilizări? Din perspectivă legislativă, traversarea granițelor statale pentru a hărțui agravează fapta și atrage jurisprudența federală; din punct de vedere social, rămâne problema protejării potențialelor victime într-un context în care instrumentele ce pot influența comportamentul devin omniprezente. Dezbaterea publică privind modul de reglementare și filtrare a acestor modele a fost alimentată și de decizia OpenAI de a reintroduce un model preferat de o parte a utilizatorilor, evidențiind că tehnologia evoluează mai rapid decât cadrul legislativ.
Troy Rivetti afirmă în mod explicit că peste zece femei au fost afectate de hărțuirea descrisă în dosar. Cazul scoate în evidență dublul rol al tehnologiei: pe de o parte facilitează comunicarea, pe de altă parte poate fi folosită pentru a amplifica violența psihologică. Este nevoie de clarificări legale, de responsabilitate din partea platformelor și de instrumente practice pentru protecția persoanelor vizate. Cum considerați că ar trebui reglementate sau supravegheate chatbot-urile pentru a preveni astfel de abuzuri?

Fii primul care comentează