Anthropic: Claude Code este acuzat că a orchestrat un atac cibernetic automatizat revendicat de GTG-1002

Când discutăm despre inteligența artificială și securitatea cibernetică, am trecut dincolo de teoriile abstracte și ne confruntăm cu incidente practice: Anthropic afirmă că un grup susținut de stat din China, denumit GTG-1002, ar fi utilizat modelul lor Claude Code într-o operațiune de spionaj cibernetic aproape complet automatizată, vizând corporații mari, instituții financiare, fabricanți de produse chimice și agenții guvernamentale. Reclamația a fost făcută publică după ce firma susține că a oprit atacul la mijlocul lunii septembrie 2025, dar relatarea a generat îndoieli larg răspândite în rândul comunității de securitate.

Atacurile automate nu sunt o noutate: testele de penetrare automate și scripturile de scanare a vulnerabilităților există de mulți ani. Diferența, potrivit Anthropic, este că modelul generativ a coordonat majoritatea etapelor operațiunii, nu doar a generat bucăți de cod. Raportul firmei susține că atacatorii au creat un cadru care a determinat Claude să acționeze ca un agent autonom: modelul scana rețele, genera payload-uri personalizate, verifica vulnerabilități, extrăgea date și păstra documentația operațiunilor pentru tranziții între echipe, toate acestea cu intervenții umane estimate la doar 10–20% din activitate, pentru aprobări critice sau exfiltrări finale. Pare din filmele SF? Așa sună, dar raportul menține că s-a întâmplat în realitate.

Descrierea tehnică indică o arhitectură ce folosește Claude împreună cu un set de utilitare de tip pen-testing și un Model Context Protocol (MCP) pentru a conecta modelul la instrumente și date. Conform raportului, atacul a evoluat în șase etape: selecția țintelor prin rol-play pentru a păcăli filtrele de siguranță, scanarea autonomă a infrastructurilor, generarea și testarea payload-urilor, extragerea credențialelor și mișcările laterale în rețele, clasificarea informațiilor și implantarea de backdoor-uri persistente, plus documentarea detaliată a fiecărui pas. Anthropic mai afirmă că atacatorii s-au bazat mai degrabă pe instrumente open-source decât pe malware custom, demonstrând că resursele publice pot fi amplificate de modele generative.

Reacția comunității de securitate a fost rapidă și critică. Mai mulți cercetători au contestat concluziile Anthropic, acuzând compania de amplificarea capacităților reale ale AI sau de simplificarea excesivă a raportului. Un motiv central pentru scepticism este lipsa indicatorilor de compromitere (IoC) furnizați de Anthropic, iar cererile pentru detalii tehnice nu au primit răspunsuri complete. Anumiți experți au susținut că impactul operațional ar trebui să fie nul pentru multe dintre instrumentele open-source menționate, sugerând că existența IoC-urilor ar fi putut confirma sau infirma anumite afirmații. Alții au remarcat că modelul a comis „halucinații”, fabricând rezultate sau supraevaluând concluziile, o problemă cunoscută la modelele generative.

Anthropic a întreprins totuși acțiuni: a blocat conturile implicate în abuz, a consolidat capacitățile de detecție și a partajat informații cu partenerii pentru a dezvolta tehnici de identificare a intruziunilor conduse de AI. Pe măsură ce MCP este tot mai folosit pentru a lega modelele de instrumente și date, echipele de securitate își adaptează rapid practicile pentru a răspunde noilor riscuri. Raportul sugerează că, în scenarii viitoare, combinația dintre un model generativ și instrumente familiare poate accelera atacurile, dar nu le face neapărat infailibile.

Raportul Anthropic evidențiază o problemă concretă: Claude Code și GTG-1002 sunt central în poveste. Rămâne de urmărit cum vor fi validate afirmațiile prin IoC-uri și analize tehnice independente, probe concrete, precum fișiere log, adrese IP sau tehnici precise, sunt cruciale pentru a evalua gradul și veridicitatea incidentului. Pe termen scurt, securitatea va rămâne o cursă între dezvoltatorii de modele și apărătorii infrastructurilor; pe termen lung, felul în care protocoalele precum MCP sunt proiectate și reglementate va modela semnificativ riscurile. Ce măsuri practice ar putea solicita companiile furnizorilor de modele pentru a preveni astfel de abuzuri?

Fii primul care comentează

Lasă un răspuns

Adresa ta de email nu va fi publicată.


*