Cercetare condusă de UK AI Security Institute arată că chatboții politici nu sunt superuman persuasivi

De la avertismente care amintesc de romane distopice până la declarațiile recente ale directorilor din tech, dezbaterea privind cât de mult pot influența sistemele de inteligență artificială opțiunile politice a câștigat teren. Sam Altman afirma, acum aproape doi ani, că aceste sisteme ar putea dobândi o capacitate de persuasiune supraomenească înainte de a atinge inteligența generală, idee care a stârnit temeri privind intervenția în alegerile democratice. Ca reacție, un consorţiu academic condus de UK AI Security Institute, în colaborare cu cercetători de la MIT, Stanford, Carnegie Mellon şi alte instituţii, a demarat cel mai amplu studiu realizat până acum pentru a verifica dacă chatboţii politicoşi, dar capabili, pot cu adevărat să modifice opinii pe scară largă în Marea Britanie.

Echipa a urmărit să demonteze treptat ipotezele alarmiste, nu să le combata prin slogane. Cercetătorii au testat 19 modele de limbaj de mari dimensiuni, de la versiuni comerciale cunoscute, inclusiv trei variante de ChatGPT şi Grok-3 beta de la xAI, până la modele open-source de dimensiuni mai reduse. Experimentul s-a axat pe 707 subiecte politice alese de echipă. Modelele au fost folosite pentru a argumenta fie în favoarea, fie împotriva unor poziţii şi au purtat discuţii scurte cu participanţi plătiţi, recrutaţi printr-o platformă de crowdsourcing. Fiecare participant a apreciat nivelul de acord cu poziţia atribuită pe o scară de la 1 la 100, atât înainte, cât şi după conversaţia cu AI; astfel, persuasiunea a fost măsurată ca diferenţa între cele două scoruri.

Fundamentul teoretic al studiului e uşor de conceput. Modelele de limbaj au fost antrenate pe un vast corpus: articole, lucrări de psihologie şi negociere, manuale de persuasiune şi altele. Dispun de putere de procesare considerabilă în centre de date şi, în anumite cazuri, pot accesa urme digitale ale preferinţelor utilizatorilor. Toate acestea conturează imaginea unei tehnologii care, în teorie, pare să poată combina cunoştinţe enciclopedice cu strategii de influenţare personalizate. Studiul a căutat să verifice dacă această combinaţie produce efecte reale asupra opiniilor oamenilor sau rămâne mai mult o fantasmă tehnologică.

Concluzia principală a fost limpede: în acest experiment care a implicat aproape 80.000 de persoane din Regatul Unit, chatboţii politici nu au demonstrat o persuasiune supraomenească. Asta nu înlătură riscurile; studiul evidenţiază nuanţe importante. De pildă, abilitatea unui model de a argumenta pe subiecte complexe nu garantează că va răsturna opinii consolidate, iar efectele pot varia în funcţie de contextul discuţiei, de predispoziţiile iniţiale ale participanţilor şi de calitatea datelor folosite la antrenare. Mai mult, rămân întrebări practice privind cine controlează aceste sisteme, ce reglementări sunt necesare şi cum se administrează accesul la datele personale folosite pentru personalizare.

Pe termen scurt, rezultatele diminuează cele mai alarmiste scenarii despre convertirea în masă a alegătorilor de către AI. Pe termen lung însă, rămâne deschisă întrebarea evoluţiei modelelor, integrarea lor în platforme de comunicare şi potenţialul cumulativ al mesajelor automatizate. Studiul oferă o imagine mai nuanţată: tehnologia e puternică la nivel teoretic, dar limitările practice şi variabilitatea umană atenuează impactul imediat. Dintre modelele testate, probele obținute de la aproape 80.000 de participanţi rămân cea mai solidă dovadă empirică de până acum. Tu ce crezi: ar trebui legislaţia să se adapteze imediat sau este nevoie mai întâi de studii suplimentare pentru a înţelege efectele pe termen lung?

Fii primul care comentează

Lasă un răspuns

Adresa ta de email nu va fi publicată.


*