Informații despre amenințări Google: cum LLM‑uri precum Gemini alimentează malware metamorf și riscuri cibernetice

Când instrumentele de inteligență artificială ajung pe mâini nepotrivite, amenințările cibernetice evoluează rapid, asta remarcă experții Google, care au observat că atacatorii încep să utilizeze modele lingvistice mari pentru a construi malware flexibil, capabil să-și schimbe comportamentul în timpul execuției. Fenomenul amintește atât de tradiția codului metamorf, cât și de noutatea adusă de LLM-uri: de la scripturi simple obfuscate la programe care solicită online instrucțiuni noi pentru a eluda detectarea, iar probele recente analizate de Google ilustrează exact această tranziție.

Google Threat Intelligence Group descrie tehnica ca o auto-modificare „just-in-time”, în care malware-ul cere din mers cod sau instrucțiuni noi de la un model AI. Un exemplu experimental, denumit PromptFlux, folosește VBScript și, în cea mai recentă versiune, interacționează cu modelul Gemini pentru a genera variante obfuscate ale aceluiași script. PromptFlux caută persistență prin intrări în folderul Startup și se răspândește lateral pe unități externe și share-uri de rețea mapate. Ce i-a atras atenția cercetătorilor este modulul „Thinking Robot”, proiectat să interogheze periodic Gemini pentru a obține cod menit să ocolească soluțiile antivirus; prompturile sunt suficient de structurate încât rezultatul să poată fi procesat automat, semnalând intenția creatorilor de a menține un script metamorf continuu. Deși PromptFlux se afla într-un stadiu incipient și nu reprezenta o amenințare imediată pentru victime, Google a blocat accesul proiectului la API-ul Gemini și a șters activele asociate.

Pe lângă experimente precum PromptFlux, cercetătorii au identificat amenințări funcționale care integrează AI sau includ prompturi prestabilite pentru a submina analizele bazate pe LLM. FruitShell este un exemplu: un reverse shell în PowerShell, public disponibil, care stabilește un canal C2 și conține prompturi hardcodate menite să eludeze analizatorii bazați pe LLM. QuietVault este un furtor de acreditări scris în JavaScript, orientat spre tokenuri GitHub și NPM; folosește unelte AI la gazdă și prompturi pentru a căuta și exfiltra alte secrete, creând depozite GitHub publice dinamice pentru a trimite datele furate. Există și PromptLock, un ransomware experimental care folosește scripturi Lua pentru a fura și cripta date pe Windows, macOS și Linux.

Raportul Google documentează și abuzuri ale modelului Gemini pe întregul ciclu de atac. Un actor afiliat Chinei s-a prefăcut participant la un concurs capture-the-flag pentru a ocoli filtrele de siguranță și a obține informații despre exploit-uri. Grupuri iraniene, precum MuddyCoast (UNC3313), au folosit Gemini sub pretextul unor studenți pentru dezvoltare și depanare de malware, expunând accidental domenii C2 și chei. APT42 a folosit modelul pentru phishing și analiză de date, dezvoltând un agent care transformă limbajul natural în interogări SQL pentru extragere de date personale. APT41 a apelat la Gemini pentru asistență la scrierea de cod și pentru a îmbunătăți cadrul C2 OSSTUN, adăugând biblioteci de obfuscare. Grupuri nord-coreene precum Masan (UNC1069) au utilizat modelul pentru furt de criptomonede, phishing multilingv și generare de lures deepfake, iar Pukchong (UNC4899) l-a folosit pentru cod destinat perifericelor și browserelor. Pentru fiecare cont compromis, Google a dezactivat accesul și a consolidat măsurile de protecție ale modelului, încercând să îngreuneze ocolirea limitărilor.

Pe piața subterană, interesul pentru unelte AI malițioase crește în forumuri atât în engleză, cât și în rusă. Anunțurile seamănă tot mai mult cu marketingul unor modele legitime, promițând eficiență și automatizare pentru diverse etape ale atacului: generare de deepfake-uri, dezvoltare malware, phishing, cercetare și exploatare de vulnerabilități. Unele pachete oferă acces API sau canale Discord contra cost, iar altele oferă anumite funcții gratuit pentru a atrage cumpărători. Tranzacțiile indică o maturizare a pieței: în locul uneltelor specializate apar platforme multifuncționale care acoperă etape multiple ale unei operațiuni malițioase.

Google subliniază că dezvoltarea AI trebuie făcută atât curajos, cât și responsabil; modelele trebuie proiectate cu garduri de siguranță solide care să descurajeze și să împiedice abuzul. Compania investighează semne de utilizare abuzivă a serviciilor sale, cooperează cu autoritățile când este cazul și folosește experiența acumulată în contracararea actorilor malițioși pentru a întări securitatea modelelor.

Impactul practic al acestor descoperiri arată că LLM-urile nu sunt doar instrumente de productivitate sau divertisment; ele modifică și felul în care se concep atacurile cibernetice. Exemplele concrete, PromptFlux, FruitShell, QuietVault, PromptLock și abuzurile Gemini de către grupuri precum APT41, APT42, MuddyCoast, Masan sau Pukchong, ilustrează atât ingeniozitatea atacatorilor, cât și necesitatea unor răspunsuri tehnice și juridice adecvate. Pe măsură ce piața subterană începe să comercializeze capabilități AI, apărarea trebuie să se adapteze, de la consolidarea măsurilor de detecție la cooperarea cu furnizorii de modele pentru blocarea abuzurilor.

Reportajul Google declanșează o discuție importantă despre echilibrul între inovație și securitate. PromptFlux și alte instrumente menționate în raport arată tendința spre soluții care evoluează dinamic și spre piețe care promovează astfel de capacități. Ce poate face o organizație: monitorizare proactivă a accesului la API-uri, limitări de rată și de capabilități pentru conturile noi, parteneriate cu furnizorii de modele și proceduri clare de răspuns în caz de compromitere. Pe plan legislativ, rămâne nevoie de clarificări privind responsabilitatea dezvoltatorilor de modele și mecanisme de cooperare internațională pentru a contracara actori sponsorizati sau organizați.

Google a invocat protecția modelului Gemini în multiple incidente și a dezactivat conturi implicate în abuzuri, dar realitatea e că, pe măsură ce instrumentele AI devin tot mai accesibile, riscurile se diversifică. Exemplele din raport oferă indicații despre tehnici și grupuri: APT41 utilizând Gemini pentru obfuscare, APT42 transformând limbajul natural în SQL sau Masan orientat spre furt de criptomonede. Aceste detalii pot ajuta echipele de securitate să-și rafineze semnăturile și regulile de detecție. Ce ar însemna un set eficient de măsuri? Limitări de context pentru prompturi, monitorizare a anomaliilor la accesul API, verificări stricte ale identității pentru conturile cu volum mare de cereri și colaborare public-privat pentru a bloca piețele subterane.

PromptFlux, FruitShell, QuietVault și PromptLock sunt exemple clare care ilustrează direcția amenințărilor. Identificarea abuzurilor Gemini de către grupuri precum APT41, APT42 și Masan evidențiază necesitatea unor guardrails tehnice și a unei supravegheri active a utilizării modelelor. Ce măsuri practice poate lua o organizație în următoarele luni pentru a diminua riscul și a detecta astfel de atacuri la timp?

Care este opinia ta despre modul în care ar trebui reglementată utilizarea modelelor AI pentru a preveni astfel de abuzuri, fără a bloca inovația?

Fii primul care comentează

Lasă un răspuns

Adresa ta de email nu va fi publicată.


*