De la primele tentative de phishing prin email, oamenii au identificat mesajele periculoase după semne evidente, greșeli gramaticale, exprimări stranii, linkuri dubioase. Dar odată cu evoluția generațiilor de inteligență artificială, acest filtru nu mai e suficient: atacurile devin extrem de personalizate, contextualizate și greu de sesizat. Am discutat cu Alan Lefort, cofondator și CEO al StrongestLayer, pentru a afla cum schimbă AI regulile jocului și ce pot face organizațiile ca să nu rămână vulnerabile.
Generative AI a schimbat definitiv peisajul amenințărilor cibernetice. Atacatorii utilizează modele lingvistice ajustate pentru a genera mii de emailuri personalizate, care țin cont de ierarhiile interne, stilurile de comunicare și procesele de business, totul în câteva secunde. Nu mai este vorba de spam obișnuit, ci de mesaje care par credibile pentru destinatarii vizați. Ca urmare, filtrele tradiționale, bazate pe detectarea unor tipare tehnice sau semne statistice evidente, devin insuficiente: atacurile nu repetă același conținut, nu urmează structuri previzibile și seamănă izbitor cu comunicările legitime.
Un exemplu oferit de Lefort ilustrează ingeniozitatea acestor atacuri: o campanie de tip impersonare HR folosea manipularea bidirecțională a textului Unicode pentru a afișa un titlu precum Official Notification: Performance Evaluation Access, în timp ce textul real era inversat, evitând astfel modelele regex care caută anumite tipare. Atacul combina domenii cu typo-squatting, mesaje care exploatau teama angajaților de concediere și o imitare aproape perfectă a comunicărilor interne ale departamentului de resurse umane. Detectarea unor astfel de tehnici pune echipele de securitate în dilemă: fie generează multe alarme false (de exemplu pentru corespondența legitimă în limbi cu scriere de la dreapta la stânga), fie scapă atacuri sofisticate.
Organizațiile mijlocii sunt într-o poziție sensibilă: se confruntă cu tehnici și complexitate la nivel de corporație, dar de regulă nu au aceleași resurse de securitate. Echipe mici de SOC, lipsa unui flux solid de threat intelligence intern și uzura cauzată de alarme frecvente le expun în fața schemelor BEC (Business Email Compromise), fraudei prin furnizori și deepfake-urilor pe care instrumentele clasice le pot rata. Industriile cu relații și procese de aprobare complexe, servicii financiare, sănătate, avocatură, sunt vizate în mod special, pentru că emailul rămâne locul unde zilnic se iau decizii de încredere: plăți, aprobări, comenzi. Atacatorii profită de încrederea în comunicări provenite de la parteneri cunoscuți sau furnizori aparent legitimi.
Regulile tradiționale pentru securitatea emailului au fost gândite pentru a găsi tipare cunoscute. Lefort afirmă însă că modelul clasic, detectează, analizează, reacționează, nu mai face față amenințărilor polymorfice generate în timp real. Răspunsul eficient trece prin identificarea intenției malițioase, nu doar prin potrivirea cu semnături. StrongestLayer a proiectat ceea ce numește o arhitectură LLM-as-master, care nu suprapune un model lingvistic peste un sistem de pattern-matching existent, ci schimbă paradigma: colectare dublă de dovezi și un proces intern în care mesajele sunt evaluate atât din perspectiva acuzatorului, cât și a apărătorului, iar un LLM imparțial evaluează probele. Scopul este de a oferi fiecărui email „o zi în instanță”, reducând presupunerea de vinovăție prezentă în multe soluții legacy.
Inițiativa urmărește stabilitate în indicatori utili pe termen lung: în loc să se bazeze pe elemente ușor ajustabile de atacatori (corectitudinea gramaticală, ora trimiterii, o urgență simțită), se caută tipare de legitimitate în procesele de business și semne de intenție malițioasă care rămân constante chiar dacă metodele tehnice se modifică. Practic, deși AI poate imita tonul sau forma comunicării, îi este mai greu să reproducă fluxurile decizionale interne, ciclurile de aprobare sau dinamica relațiilor contractuale specifice fiecărei organizații.
Comparând soluțiile bazate pe semnături cu modelele fundamentate pe raționament, diferențele sunt notabile: Lefort afirmă că sistemele tradiționale ating o precizie de 5–30%, în timp ce soluțiile care folosesc raționament ajung la 95% precizie și reduc considerabil numărul de false positive. Detectarea pe bază de semnături adesea identifică incidentul după producerea lui, pe când sistemele de raționament acționează în timp real și prioritizează riscurile. Un punct esențial: AI face generarea atacurilor infinit scalabilă, dar nu rezolvă pentru atacatori problema logicii de business. Mesajele AI sofisticate tind să ceară lucruri nerezonabile operațional: introduc urgență artificială, ocolesc proceduri sau solicită acțiuni care nu sunt aliniate cu relațiile sau contractele existente.
Pe termen de doi-trei ani, Lefort anticipează că tehnicile AI vor deveni omniprezente, nu doar apanajul unor grupuri avansate. Instrumentele se vor commoditiza, crescând numărul actorilor capabili să lanseze campanii complexe. Atacurile se vor extinde dincolo de email către toate canalele de comunicare folosite în business, Teams, Slack, mesagerie mobilă, și vor fi orchestrate multi-channel. În paralel, platforme majore precum Microsoft Entra Internet Access introduc deja controale inline pre-submission pentru traficul AI, iar așteptarea este ca detectarea conștientă de AI să devină o componentă standard de securitate, însoțind managementul identității și răspunsul la endpoint-uri. Un risc emergent este exploatarea instrumentelor AI adoptate intern: pe măsură ce companiile integrează AI în procese, atacatorii vor urmări aceste integrații și fluxuri de date.
Securitatea emailului se transformă, prin urmare, dintr-o abordare reactivă și bazată pe semnături într-una proactivă, capabilă să judece intenția și să înțeleagă logica de business. Protecția devine parte integrantă a modului de comunicare, nu un filtru aplicat după apariția problemei.
StrongestLayer recomandă trecerea la arhitecturi care combină dovezi și raționament automatizat pentru a reduce semnificativ riscurile pentru organizații de toate dimensiunile, în special pentru cele mijlocii, aflate pe muchie: motive suficiente pentru a reevalua politicile de securitate, fluxurile de aprobare și investițiile în soluții capabile să înțeleagă contextul organizațional. În viitorul apropiat, protecția comunicărilor va trebui să fie nativ AI-aware pentru a evita tensiunea dintre productivitate și securitate.
Exemplu practic: mesajele de tip impersonare HR cu Unicode manipulat, domenii typo-squatted și tactici psihologice legate de evaluări sau încetări de contract au arătat că filtrele tradiționale pot fi păcălite. Indicatorii utili rămân procesele interne, cine aprobă plăți, pașii normali pentru achiziții, relațiile contractuale existente, și monitorizarea abaterilor de la aceste reguli operaționale. Cum ar funcționa în practică? Implementarea unor sisteme care evaluează simultan legitimitatea comercială și intenția, integrarea controalelor AI pe canalele principale și prioritizarea alertelor cu impact financiar real.
Vrei să afli ce măsuri practice poți solicita echipei de securitate pentru a reduce riscul acestor atacuri în compania ta?
Fii primul care comentează