Cine supraveghează inteligența artificială și cum este reglementată: studiul Cybernews și nexos.ai

De la prima mașinărie care a revoluționat producția în secolul XIX până la algoritmii care generează texte în prezent, progresul tehnologic a stârnit constant întrebări despre cine deține controlul. Un studiu realizat de Cybernews și nexos.ai, care a urmărit interesul în căutările americanilor pe parcursul lui 2025, indică faptul că oamenii caută mult mai des informații despre cine controlează inteligența artificială și despre reglementările acesteia, decât despre riscul de a-și pierde locul de muncă. Cercetarea, care acoperă perioada ianuarie—octombrie 2025, a comparat cinci tipuri de preocupări legate de AI și oferă o hartă a anxietăților publice într-o perioadă de intensă dezvoltare tehnologică.

Concluziile sunt evidente: controlul și reglementarea au obținut cel mai ridicat scor mediu, urmate aproape de temerile legate de date și intimitate. Teama de pierdere a locului de muncă a rămas pe ultimul loc, contrazicând astfel multe titluri alarmiste din presă. Žilvinas Girėnas, responsabil de produs la nexos.ai, remarcă același fenomen și în companii: liderii nu se tem în mod necesar de AI în sine, ci de pierderea vizibilității asupra modului în care sunt folosite sistemele. Atunci când echipele adoptă instrumente AI neaprobate intern, organizațiile nu mai știu ce date sunt utilizate și unde ajung acestea; fără vizibilitate, gestionarea riscului și a conformității devine dificilă.

Complexitatea arhitecturilor contribuie la această îngrijorare. Multe modele oferă rezultate fără a detalia pașii care au condus la respectivele răspunsuri, iar lipsa de transparență creează impresia că AI este greu de supravegheat. Problemele legate de intimitate sunt aproape la fel de stringente: instrumentele AI folosesc frecvent date personale culese din navigare, aplicații sau dispozitive inteligente, iar riscul scurgerii acestor informații amplifică temerile privind furtul de identitate și pierderea controlului asupra vieții digitale. La acestea se adaugă generarea de conținut care pare real, dar nu este, ceea ce erodează încrederea publicului, și prejudecățile istorice care pot influența decizii precum angajările sau acordarea de credite.

Companiile resimt presiuni similare. Girėnas afirmă că temerile publice sunt o reacție rațională la opacitatea multor sisteme AI și că, dacă echipele nu înțeleg funcționarea instrumentelor, încrederea în tehnologie scade, iar adoptarea poate fi blocată. Studii complementare, inclusiv rapoarte McKinsey, confirmă că organizațiile se confruntă deja cu probleme de acuratețe, riscuri cibernetice și preocupări legate de proprietatea intelectuală care se pot regăsi în modele publice. În contextul legislațiilor existente, precum GDPR, și al propunerilor noi, cum este EU AI Act, companiile au motive concrete să caute soluții pentru conformitate.

Printre măsurile propuse pentru reducerea anxietății se numără centralizarea guvernanței AI, implicarea oamenilor în revizuirea muncii generate de AI, asumarea clară a responsabilității de către lideri pentru supraveghere și inventarierea instrumentelor pe care angajații le utilizează deja. Sunt pași concreți, nu remedii magice; și chiar dacă procesul poate părea uneori birocratic, esențial este stabilirea unor reguli clare acolo unde tehnologia a depășit standardele administrative.

Cybernews și nexos.ai arată că preocuparea principală în 2025 este cine controlează și cum este reglementată AI. Aceasta reflectă un decalaj între ritmul dezvoltării tehnologice și viteza cu care apar regulile, ilustrat de discuțiile despre GDPR și EU AI Act și de constatările McKinsey privind riscurile practice. Dacă firmele nu știu ce instrumente folosesc angajații și nu centralizează guvernanța, problemele de conformitate, scurgerile de date și disputele privind proprietatea intelectuală pot crește. Ai observații despre cine ar trebui să răspundă pentru supravegherea AI: companiile, statul sau utilizatorii?

Fii primul care comentează

Lasă un răspuns

Adresa ta de email nu va fi publicată.


*