Microsoft lansează agenți experimentali în Windows 11: ce impact are Copilot Actions asupra securității

Microsoft a reaprins discuția despre AI în Windows 11 după ce a actualizat documentația care explică cum vor funcționa agenții inteligenți în sistemul de operare. Istoria Microsoft cu asistenții virtuali e lungă, de la Cortana la diverse prototipuri de AI care nu au mers mereu bine, iar acum atenția se concentrează pe ce înseamnă, concret, agenții din Windows 11 și cât de siguri sunt aceștia pentru utilizatorii obișnuiți.

Documentul actualizat, denumit Experimental Agentic Features și publicat inițial în octombrie 2025, a revenit în prim-plan când Microsoft a activat opțiunile pentru aceste funcții experimentale în buildul de previzualizare 26220.7262 din canalele Dev și Beta. Primele încercări includ Copilot Actions, un agent capabil să interacționeze cu fișierele tale pentru a organiza colecții de fotografii sau a elimina duplicate, o funcționalitate utilă, dar care ridică imediat întrebări despre accesul la date. Windows Latest, preluat de PC Gamer, a semnalat actualizarea documentației, iar TechRadar a comentat în contextul discuțiilor tot mai aprinse despre siguranța AI integrat în sistemul de operare.

Pe hârtie, Microsoft pare să fi implementat multiple măsuri de securitate. Agenții rulează într-un agent workspace, practic un utilizator local separat, cu un cont distinct izolat față de contul principal al utilizatorului și cu acces la fișiere limitat în funcție de permisiuni, doar câteva foldere fiind implicite. Simplu spus: ideea e să ții agenții într-o „cameră” separată, cu ușa încuiată, astfel încât, în caz de probleme, pagubele să rămână limitate. Rămâne însă ca testele din viața reală să confirme eficiența acestui model, mai ales după episodul cu Recall, când o funcție similară nu a funcționat conform planului și a crescut scepticismul utilizatorilor.

Risc nu dispare complet nici dacă arhitectura pare robustă. Studii publicate în ultimul an au semnalat posibili vectori de atac care ar putea exploata sistemele AI, iar dacă există o vulnerabilitate în separarea conturilor sau în autorizări, consecințele pot fi serioase pentru datele personale și pentru încrederea în platformă. Microsoft afirmă că a proiectat sistemul având în vedere astfel de amenințări, dar istoricul erorilor și al actualizărilor care uneori perturbează funcționalități de bază din Windows 11 alimentează neîncrederea unei părți a utilizatorilor. Momentan eticheta e clară: funcțiile sunt experimentale, deci folosește-le pe propriul risc, un avertisment rezonabil, dar insuficient pentru a liniști pe toată lumea.

Pe măsură ce agenții devin mai capabili, problema nu mai e doar tehnică, ci și legată de politica permisiunilor, transparență și responsabilitate. Utilizatorii vor avea nevoie de controale simple și clare pentru a decide ce poate face un agent cu fișierele lor, plus posibilitatea de a revoca rapid accesul. Presiunea e dublă: Microsoft trebuie să ofere valoare reală, precum organizarea automată a fotografiilor prin Copilot Actions, fără a compromite securitatea și confidențialitatea. Jurnaliștii și comunitatea tech, reprezentată de publicații precum Windows Latest, PC Gamer și TechRadar, vor monitoriza îndeaproape implementările, deoarece orice incident ar putea afecta reputația companiei pe termen lung.

Copilot Actions este primul agent testat în buildul 26220.7262. Modelul de izolare prin agent workspace și conturi locale separate e clar conturat, dar eficiența practică va fi demonstrată doar prin teste reale și audituri independente; partea bună e că astfel de verificări sunt deja cerute de comunitate. Dacă Microsoft reușește să mențină funcționalitățile utile fără breșe vizibile, încrederea poate fi recuperată; în caz contrar, pagubele la nivel de date și de imagine pot fi serioase. Tu ai activa funcțiile experimentale cu Copilot Actions pe laptopul tău?

Fii primul care comentează

Lasă un răspuns

Adresa ta de email nu va fi publicată.


*