Un studiu recent indică faptul că organizațiile din Marea Britanie și Statele Unite devin tot mai frecvent ținte ale manipulării datelor folosite pentru antrenarea sistemelor AI, ceea ce le afectează în mod concret securitatea și reputația. De la backdoor-uri ascunse în seturile de antrenament până la deepfake-uri care păcălesc colegii sau clienții, studiul arată cum noile tehnologii pot servi atât apărării, cât și atacului.
Raportul provine de la platforma de securitate informațională IO (fostă ISMS.online) și se bazează pe răspunsurile a peste 3.000 de manageri de securitate din Marea Britanie și SUA. Potrivit datelor, 26% dintre organizații au fost, în ultimele 12 luni, victime ale atacurilor de tip data poisoning, adică date de antrenament compromise intenționat pentru a diminua sau manipula performanța modelelor AI. În același interval, 20% au raportat incidente legate de deepfake sau clonare, iar riscurile generate de informațiile false produse de AI sunt considerate principala amenințare emergentă pentru următoarele 12 luni de către 42% dintre profesioniștii în securitate.
Alte preocupări majore includ phishing-ul generat de modele generative (38%) și fenomenul numit shadow AI, adică utilizarea neautorizată a instrumentelor AI de către angajați. Peste o treime dintre respondenți (37%) afirmă că angajații utilizează astfel de instrumente fără permisiune sau ghidaj, expunând organizațiile la scurgeri de date, probleme de conformitate și daune reputaționale. Shadow IT rămâne o problemă pentru 40% dintre organizații, iar generative AI agravează această situație, în special când rezultatele nu sunt verificate de oameni: 40% dintre organizațiile care întâmpină dificultăți în securitatea informațiilor menționează executarea sarcinilor de către AI fără controale umane ca o provocare esențială.
CEO-ul IO, Chris Newton-Smith, rezumă dilema astfel: inteligența artificială oferă oportunități semnificative, dar și riscuri care progresează la fel de rapid ca tehnologia însăși. Multe organizații au adoptat AI în grabă și acum suportă consecințele, iar atacurile de tip data poisoning nu afectează doar sistemele tehnice, ci și încrederea în serviciile folosite zilnic. Shadow AI crește necesitatea unei guvernanțe mai solide pentru protejarea afacerilor și a publicului.
Rezultatele arată, de asemenea, că 54% dintre respondenți recunosc că au implementat tehnologia prea rapid și acum le este greu să încetinească adoptarea sau să o gestioneze responsabil. Semnificativ, 39% consideră securizarea AI și a tehnologiilor de machine learning o provocare majoră în prezent, comparativ cu doar 9% anul trecut. În plus, 52% cred că AI și machine learning complică eforturile lor de securitate.
Pe partea de apărare, adoptarea AI crește rapid: 79% dintre organizațiile din UK și SUA folosesc deja AI, machine learning sau blockchain pentru securitate, o creștere substanțială față de 27% în 2024. Planurile pentru următoarele 12 luni sunt ambițioase: 96% intenționează să investească în detectare și apărare bazate pe GenAI, 94% vor implementa instrumente de detectare și validare a deepfake-urilor, iar 95% se angajează la guvernanță și aplicare a politicilor AI.
Newton-Smith mai amintește avertismentul Centrului Național de Securitate Cibernetică din Regatul Unit, care estimează că AI va face atacurile cibernetice aproape sigur mai eficiente în următorii doi ani. Concluzia practică a studiului este că organizațiile trebuie să acționeze imediat: consolidarea rezilienței, adoptarea unor cadre precum ISO 42001 și comunicarea clară a măsurilor de apărare pot susține inovația responsabilă, protejarea clienților și o recuperare mai rapidă după un incident. Raportul complet este disponibil pe site-ul IO.
Raportul IO evidențiază date concrete: 26% data poisoning, 20% deepfake-uri, 42% îngrijorare legată de dezinformare, 38% pentru phishing generat de AI și 79% adopție AI pentru securitate. Aceste procente ilustrează cât de rapid s-a transformat peisajul securității cibernetice în doar un an. Dacă organizațiile folosesc deja instrumente GenAI pentru apărare sau detectare, este esențial să combine tehnologia cu politici clare, controale umane și standarde recunoscute. Cum crezi că ar trebui companiile să prioritizeze investițiile în instrumente de detectare versus politici și instruire internă?
Fii primul care comentează