EY: ancheta Responsible AI Pulse arată în ce mod AI responsabil stimulează inovația și creșterea veniturilor companiilor

Știri despre modul în care companiile adoptă inteligența artificială responsabilă și consecințele acestei alegeri, cine: organizații globale din sectoare variate; ce: rezultate ale celui de-al doilea sondaj Responsible AI Pulse realizat de EY; unde: date colectate în august–septembrie 2025, prezentate la World Summit AI din Amsterdam. Istoric, dezbaterile privind reglementarea și etica în tehnologie nu sunt noi, de la codurile deontologice din IT-ul tradițional până la recentele norme pentru modele generative, însă viteza schimbării și impactul economic sunt acum mult mai evidente.

Companiile care au implementat măsuri concrete de AI responsabilă observă efecte tangibile: mai multă inovație, productivitate sporită și creșteri ale rezultatelor financiare. Sondajul EY, realizat în vară pe 975 de directori executivi din 21 de țări, arată că aproape patru din cinci respondenți raportează o îmbunătățire a inovației (81%) și creșteri ale eficienței și productivității (79%). Aproximativ jumătate dintre firme au remarcat o creștere a veniturilor (54%), economii de costuri (48%) și o majorare a satisfacției angajaților (56%). Nu sunt doar sloganuri: organizațiile care monitorizează activitatea AI în timp real au cu 34% mai multe șanse să înregistreze creștere a veniturilor și cu 65% mai mari șanse să obțină economii de costuri. Astfel, supravegherea continuă nu este doar o precauție managerială, ci și o sursă de performanță măsurabilă.

Tranziția de la principii la practică este clar structurată: mai întâi se stabilesc și comunică principii de responsabilitate, apoi se introduc controale și guvernanță care să le susțină operațional. În medie, companiile au implementat deja șapte din cele zece măsuri recomandate de RAI, iar majoritatea celor care nu au ajuns încă acolo intenționează să o facă. Mai puțin de 2% afirmă că nu planifică nicio implementare, dovadă că subiectul figurează pe agenda aproape tuturor.

Totuși, riscurile neacoperite au costuri semnificative. Aproape toate organizațiile au raportat pierderi financiare legate de riscuri AI: 99% au înregistrat pierderi, iar 64% dintre acestea au avut pierderi de peste 1 milion de dolari. Media pagubelor estimate pentru cei care au suferit incidente este de circa 4, 4 milioane USD, o sumă care ar determina orice CFO să-și reconsidere strategiile. Cele mai frecvente riscuri semnalate sunt neconformitatea cu reglementările privind AI (57%), impacturi negative asupra obiectivelor de sustenabilitate (55%) și rezultate părtinitoare sau bias generate de modele (53%).

Disputele interne și lacunele din rândul c-suite se reflectă în capacitatea redusă de a selecta controale adecvate. Când liderilor li s-a cerut să aleagă măsuri pentru a atenua cinci riscuri legate de AI, doar 12% din top management au răspuns corect. Chief risk officers au avut performanțe ușor mai slabe, cu 11% răspunsuri corecte. Pe măsură ce agenții inteligenți devin mai comuni la locul de muncă și angajații experimentează cu dezvoltări interne, necesitatea unor controale adecvate devine tot mai stringență.

Un punct sensibil provine din activitatea „citizen developers”, angajați care creează sau lansează agenți AI fără implicarea exclusivă a departamentelor IT. Două treimi dintre firme permit această activitate într-o formă sau alta, însă doar 60% dintre acestea au politici și cadre organizatorice formale pentru a asigura conformitatea cu principiile AI responsabilă. Jumătate dintre companii spun că nu au vizibilitate ridicată asupra modului în care angajații utilizează agenți AI. Mai mult, organizațiile care încurajează dezvoltarea internă sunt mai predispuse să considere că modelele de competențe trebuie adaptate pentru a susține o forță de muncă hibrid om-AI; 31% dintre ele văd lipsa talentului viitor drept principala îngrijorare, comparativ cu 21% în rest. Aceste companii sunt și mai avansate în elaborarea unor strategii pentru gestionarea forței de muncă hibride (50% vs 26%), evidențiind un decalaj semnificativ în pregătire.

Reprezentanți EY subliniază legătura dintre gestionarea responsabilă a AI și valoarea de business. Punerea în practică a principiilor nu este doar un exercițiu de conformitate; poate genera încredere, inovație și diferențiere pe piață. Când libertatea de experimentare se desfășoară într-un cadru etic bine definit, inovația capătă sens și, potrivit lor, produce valoare durabilă.

Sondajul a fost prezentat la World Summit AI 2025 din Amsterdam, reuniunea globală dedicată AI și tehnologiilor emergente, unde lideri și experți au discutat atât oportunități, cât și riscuri. Cercetarea s-a bazat pe un sondaj anonim online în iulie–august 2025, cu 975 de lideri din poziții de top, toți responsabili de AI, reprezentând companii cu peste 1 miliard USD venit anual, din principale regiuni ale lumii.

Datele conturează o realitate dublă: adoptarea responsabilă aduce beneficii palpabile, dar eșecurile în guvernanță și lipsa vizibilității produc pierderi considerabile. Date concrete din studiu, 81% raportând îmbunătățiri în inovație, 99% raportând pierderi financiare legate de AI și media pierderilor de 4, 4 milioane USD, pun în relief miza. Dacă o companie dispune de monitorizare în timp real, are cu 34% mai multe șanse de creștere a veniturilor și cu 65% mai multe șanse de a realiza economii, argument în favoarea investițiilor în controale operaționale. Cum poate arăta practic această pregătire? Exemple includ implementarea monitorizării continue a modelelor, politici clare pentru citizen developers, programe de instruire pentru C-suite și dezvoltarea cadrelor pentru forța de muncă hibridă. Adoptarea RAI este deja în creștere; provocarea rămâne transformarea intențiilor în mecanisme robuste și transparente.

Ce părere ai: compania ta ar fi pregătită să implementeze monitorizare în timp real și politici formale pentru citizen developers?

Fii primul care comentează

Lasă un răspuns

Adresa ta de email nu va fi publicată.


*