Cycode: adoptarea pe scară largă a asistenților AI în software, dar guvernanța și vizibilitatea sunt insuficiente

Mai mulți responsabili din sectorul software confirmă că asistenții de codare bazati pe inteligență artificială au devenit parte integrantă a fluxurilor lor de lucru, însă guvernanța și capacitatea de monitorizare nu au ținut pasul cu adoptarea. Raportul Cycode indică faptul că 97% dintre organizații folosesc sau testează astfel de asistenți, iar toate recunosc existența codului generat de AI în bazele lor de cod. În ciuda acestei penetrații aproape totale, 81% afirmă că nu au o vizibilitate clară asupra utilizării AI, iar 65% semnalează riscuri sporite de securitate legate de aceste instrumente.

Datele sunt revelatoare: 30% dintre respondenți susțin că majoritatea codului din organizațiile lor este acum produs de AI. Totuși, percepțiile legate de avantajele oferite sunt puternice, 78% consideră că AI crește productivitatea, 79% că îmbunătățește calitatea codului, iar 72% că reduce timpul de lansare pe piață. Aceste efecte explică răspândirea rapidă a instrumentelor AI; este mai simplu să generezi o bucată de cod cu ajutorul unui asistent decât să o creezi de la zero. Dar această ușurință vine la pachet cu pierderea controlului.

Raportul evidențiază o problemă structurală: 52% dintre organizații nu dispun de un cadru formal de guvernanță pentru AI. Lipsa acestui cadru a facilitat apariția a ceea ce autorii numesc Shadow AI, o proliferare necontrolată a instrumentelor, modelelor și asistenților AI în afara supravegherii oficiale. Pe scurt, dacă fiecare dezvoltator descarcă propriul model și îl folosește independent, lanțul de aprovizionare software devine expus; iar specialiștii avertizează că această dispersie necontrolată poate deschide calea pentru breșe serioase de securitate.

Lior Levy, CEO și co-fondator Cycode, rezumă miza: adoptarea AI nu mai este un trend de viitor, ci o realitate imediată, iar securitatea nu mai poate reacționa doar prin identificarea vulnerabilităților din codul generat de AI. Este necesară o vizibilitate completă și politici care să acopere întregul lanț al uneltelor AI, de la prompturi până la producție. Asta presupune instrumente și procese care să detecteze, să guverneze și să controleze utilizarea AI în ciclul de dezvoltare.

Privind înainte, aproape toate organizațiile intervievate (97%) intenționează să unifice stiva de securitate aplicațională în următoarele 12 luni, iar 100% investesc în inițiative legate de AI. Această schimbare de direcție este o reacție la complexitatea introdusă de AI: liderii urmăresc eliminarea „tool sprawl” și trecerea la platforme integrate care oferă vizibilitate, reduc zgomotul operațional și permit gestionarea riscurilor cauzate de AI în lanțul de aprovizionare software.

Raportul complet este disponibil pe site-ul Cycode. Imaginea folosită în materialul original este creditată meshcube/depositphotos.com.

Raportul Cycode prezintă procente clare: 97% folosesc sau pilotează asistenți AI, 100% alocă resurse pentru inițiative AI, 81% au vizibilitate insuficientă, 65% raportează riscuri de securitate și 52% nu au guvernanță formală. Aceste cifre reflectă tensiunea dintre avantajele evidente, productivitate, calitate, viteză, și pericolele operaționale și de securitate asociate adopției necontrolate. Ce instrumente sau politici ar trebui prioritizate în organizația ta pentru a obține vizibilitate și control real asupra lanțului AI?

Fii primul care comentează

Lasă un răspuns

Adresa ta de email nu va fi publicată.


*