BlackFog a realizat un sondaj la 2.000 de respondenți care evidențiază extinderea folosirii instrumentelor AI la serviciu și pericolele pe care le implică pentru firme. Studiul arată frecvența utilizării, preferința pentru versiuni gratuite și atitudinea angajaților, inclusiv a conducătorilor, față de securitatea și supravegherea IT.
Adopția e deja răspândită: 86% dintre cei chestionați folosesc instrumente AI cel puțin o dată pe săptămână pentru activități legate de muncă. Problema apare când apar versiuni gratuite sau nevalidate de departamentele IT: 34% recunosc că utilizează versiuni gratuite ale unor instrumente aprobate de companie, iar dintre cei care se folosesc de shadow AI, 58% se bazează pe variante gratuite. Aceste versiuni pot lipsi de protecții specifice mediului enterprise, cum ar fi criptarea, guvernanța datelor și politici clare de confidențialitate.
Angajații manifestează o toleranță destul de mare față de risc. 63% consideră acceptabil să folosească un instrument AI fără supraveghere IT dacă nu există o alternativă aprobată, iar 60% cred că merită să riște securitatea dacă astfel lucrează mai repede sau respectă un termen limită. Un procent de 21% estimează că angajatorul ar observa doar rezultatul muncii, ceea ce reflectă presiunile de performanță, și limitele controlului intern.
Este semnificativ, sau îngrijorător, în funcție de perspectivă, că nivelurile superioare de conducere sunt mai dispuse să sacrifice securitatea în favoarea vitezei. 69% dintre respondenții de nivel președinte sau C-level și 66% dintre directorii sau senior vicepreședinții chestionați împărtășesc această atitudine. În contrast, doar 37% dintre angajații administrativi și 38% dintre executivii junior adoptă aceeași viziune. Aici reiese o contradicție clară între deciziile strategice și practicile zilnice.
Tipologia informațiilor partajate cu aceste instrumente neautorizate ridică riscuri concrete. 33% dintre angajați au încărcat cercetări sau seturi de date, 27% au trimis date despre angajați, nume, pontaj, salarii sau evaluări de performanță, iar 23% au furnizat situații financiare sau date despre vânzări. În plus, 51% admit că au conectat sau integrat instrumente AI cu alte sisteme sau aplicații de lucru fără aprobarea departamentului IT, expunând astfel ecosistemul digital al companiei la posibile scurgeri sau configurări neautorizate.
Darren Williams, CEO și fondator al BlackFog, atrage atenția că rezultatele nu reflectă doar răspândirea soluțiilor neaprobate, ci și toleranța la risc în rândul angajaților și liderilor. El subliniază că aceste lipsuri de vizibilitate ar trebui să alarmeze echipele de securitate și evidențiază necesitatea unor politici și a unei supravegheri mai clare privind datele folosite pentru antrenarea modelelor AI. Pe site-ul BlackFog se găsesc detalii suplimentare despre metodologie și rezultate.
Studiul BlackFog pe 2.000 de respondenți confirmă amploarea utilizării AI neautorizate la locul de muncă. Această realitate scoate în evidență tensiunea dintre productivitate și protecția datelor: cifrele, 86%, 58%, 51%, arată că problema a devenit nu doar tehnologică, ci și organizațională. Măsurile practice includ inventarierea instrumentelor, elaborarea unor politici clare de guvernanță a datelor și instruirea rapidă a personalului, de la nivel administrativ până la C-level, pentru a diminua riscurile fără a împiedica fluxul de lucru. Cum crezi că ar trebui companiile să echilibreze libertatea angajaților de a folosi AI cu necesitatea de a proteja datele sensibile?

Fii primul care comentează