De la rețelele locale și primele aplicații automate până la chatboți și creatoare de text, adoptarea noilor tehnologii a avut mereu o latură ascunsă: utilizarea neautorizată. Un raport Cato Networks, pe baza unui sondaj aplicat la 600 de lideri IT din America de Nord, EMEA și APJ, relevă că multe organizații nu sunt pregătite pentru riscurile legate de shadow AI, instrumente de inteligență artificială folosite în afara controlului și vizibilității departamentelor IT.
Studiul oferă date clare: 61% dintre respondenți au descoperit instrumente AI neautorizate în mediile lor, însă doar 26% dispun de soluții pentru monitorizarea utilizării AI. Aproximativ jumătate, 49%, nu urmăresc deloc folosirea AI sau intervine doar după ce apare o problemă. Principalul motiv pentru adoptare rămâne creșterea productivității și eficienței, indicată de 71% dintre participanți, iar în mod paradoxal 69% declară că nu au un sistem de monitorizare. Doar 13% consideră că organizațiile lor administrează eficient riscurile de shadow AI, iar mai puțin de unul din zece, 9%, cred că au o apărare adecvată împotriva amenințărilor cauzate de AI, precum deepfake-uri, halucinații sau atacuri de tip prompt injection.
Fenomenul seamănă puternic cu shadow IT: instrumente adoptate pentru a satisface o nevoie imediată, dar care aduc riscuri privind procesarea datelor, antrenarea modelelor și absența unui cadru clar pentru decizii automatizate. Liderii IT conștientizează gravitatea situației: 53% sunt foarte sau extrem de îngrijorați de riscurile de securitate asociate AI. Etay Maor, chief security strategist la Cato Networks, afirmă că adoptarea AI se realizează adesea de jos în sus; angajații aleg soluțiile care le par mai comode și care promit câștiguri de productivitate, iar fără vizibilitate și reguli clare organizațiile își măresc suprafața de atac fără să observe. Pe scurt, problema nu este doar apariția unor noi tool-uri, ci capacitatea companiilor de a le detecta, guverna și securiza înainte de a apărea un incident. Rezultatele integrale sunt disponibile pe blogul Cato Networks.
Raportul Cato Networks reitera datele: 61% au găsit instrumente AI neautorizate, iar 26% au soluții de monitorizare. Nucleul problemei este tensiunea dintre dorința de productivitate și necesitatea guvernanței; soluțiile eficiente cer vizibilitate, politici bine definite și instruire. Organizațiile care întârzie riscă extinderea suprafeței de atac și creșterea vulnerabilităților în protecția datelor și în procesele decizionale.
Ce consideri că ar trebui să întreprindă organizațiile pentru a limita utilizarea neautorizată a AI în propriile medii?

Fii primul care comentează