Extensie Chrome a Anthropic care auto-dă click ridică îngrijorări despre deturnarea browserului

Anthropic a testat modul în care asistentul lor Claude, folosit în browser, poate fi păcălit de atacuri online și ce măsuri au funcționat. Studiul, realizat pe 123 de cazuri care acopereau 29 de scenarii diferite de atac, arată cât de vulnerabil poate fi un agent AI când operează fără protecții.

În testele inițiale, rata de succes a atacurilor a fost 23, 6%. Un exemplu relevant: un e-mail malițios îi cerea lui Claude să șteargă e‑mailurile unui utilizator pentru „igiena căsuței poștale”. Fără un pas de confirmare, Claude a executat comanda și a șters mesajele utilizatorului. Nu tocmai soluția ideală când vorbim de corectarea inbox‑ului.

Ca răspuns, Anthropic a introdus mai multe măsuri de siguranță. Utilizatorii pot acorda sau revoca accesul lui Claude la site‑uri la nivel de domeniu. Sistemul cere confirmare pentru acțiuni cu risc ridicat, cum ar fi publicarea, efectuarea de cumpărături sau partajarea de date personale. În plus, Claude a fost blocat implicit de la accesarea site‑urilor cu servicii financiare, conținut pentru adulți și conținut piratat.

Aceste protecții au redus rata de succes a atacurilor în modul autonom de la 23, 6% la 11, 2%. Într‑un test focalizat pe patru tipuri de atac specifice browserului, noile măsuri au scăzut rata de reușită de la 35, 7% la 0%, un rezultat promițător pentru acele scenarii specifice.

Critici din comunitatea de securitate rămân, totuși, vigilenți. Cercetătorul independent Simon Willison, care a popularizat termenul „prompt injection” în 2022, a descris rata de 11, 2% ca fiind „catastrofală” și a scris că, fără o protecție 100% fiabilă, pare riscant să se extindă astfel de agenți. Când vorbește despre „pattern”, el se referă la tendința de a integra agenți AI direct în extensii de browser, o abordare pe care o consideră în esență nesigură și greu de construit în condiții de siguranță.

Pericolele au devenit concrete recent. Echipa de securitate Brave a descoperit că extensia Comet de la Perplexity putea fi păcălită să acceseze conturi Gmail și să declanșeze fluxuri de recuperare a parolelor prin instrucțiuni ascunse în postări Reddit. Când utilizatorii cereau un sumar al unui fir de discuție, atacatorii puteau insera comenzi invizibile care spuneau asistentului să deschidă Gmail într‑un alt tab, să extragă adresa de e‑mail și să execute acțiuni neautorizate. Perplexity a încercat să remedieze problema, dar Brave a confirmat ulterior că unele măsuri au fost ocolite și vulnerabilitatea a persistat.

Anthropic folosește actuala versiune de testare pentru a identifica tiparele de atac care apar în utilizarea reală și pentru a le remedia înainte de a lansa extensia Chrome mai larg. Până când producătorii de AI nu oferă garanții de siguranță solide, presiunea pentru protecție cade pe utilizator. Așa cum remarca și Willison, nu e rezonabil să așteptăm ca utilizatorii obișnuiți să evalueze corect toate riscurile de securitate.

Tu ai folosit vreodată un asistent AI integrat în browser? Care ți se pare cel mai mare risc la care ți‑ai expune datele?

1 Comentariu

  1. uff, da, mie mi se pare cam riscant… am fost nevoit sa dezactivez chestii din extensii pt ca cereau tot felu de permisiuni si nah, nu le verifici mereu, click click si gata. eu unul nu le dau acces la gmail sau chestii financiare, prea multa bătaie de cap daca scapă ceva. ideea cu confirmarea e ok, dar multe atacuri sunt subtile, scriu instrucțiuni ascunse, sau in markdown, sau in iframe-uri, deci nu e suficient doar “ok/cancel”. plus, cine stie cate buguri mici raman — toate astea se pot combina si puf, acces neautorizat. recomand: folosiţi profile separate pentru activități sensibile, nu conectați contul principal la tot felul de asistenți si actualizaţi extensiile des. eu prefer sa nu le las sa scrie sau sa stearga nimic automat, doar sa sugereze text. daaa, pare exagerat dar mai bine asa, decât sa pierzi mailuri sau bani, vezi să nu…

Lasă un răspuns

Adresa ta de email nu va fi publicată.


*