Cine, ce și unde: victimele și companiile din mediul online sunt vizate de escrocherii care folosesc AI pentru a copia voci și fețe, iar atacurile se întâmplă prin apeluri telefonice, întâlniri video, mesaje și emailuri.
Imaginează-ți că primești un apel agitat de la un prieten apropiat. Vocea lui tremură și cere bani urgent după un presupus accident. Sună autentic, până când afli că vocea a fost clonată cu ajutorul inteligenței artificiale. Anul 2025 aduce o creștere a acestor tipuri de escrocherii: instrumentele de clonare vocală și deepfake-urile video sunt mai bune, mai ieftine și mai accesibile, iar infractorii le folosesc ca să păcălească atât persoane fizice, cât și companii.
Date recente arată o creștere semnificativă a acestor fraude: unele organizații raportează salturi de ordinul sutelor la sută în numărul de atacuri. Chiar și clipuri scurte dintr-un podcast sau dintr-o lecție online pot fi suficiente pentru a antrena un model să reproducă vocea cuiva. Atacatorii nu se opresc la apeluri telefonice; există cazuri în care s-au folosit deepfake-uri în întâlniri video pentru a se da drept directori sau responsabili, convingând angajați să autorizeze transferuri importante de bani. Un exemplu notoriu din 2024 a implicat o companie de inginerie, unde escrocii au obținut transferuri de aproximativ 25 de milioane de dolari, după ce s-au dat drept director financiar.
Metoda este simplă la suprafață: infractorii strâng imagini și videoclipuri publice de pe LinkedIn, site-uri corporate sau rețele sociale, le folosesc pentru a crea o identitate falsă credibilă și apoi cer informații sensibile sau plăți urgente. Tehnologia avansează rapid: aproape jumătate din tentativele de phishing generate de AI, incluzând clone vocale și video, pot ocoli sistemele curente de detecție pentru emailuri și apeluri.
Cine poate fi afectat? Oricine: angajați, manageri, persoane care comunică frecvent prin telefon sau video, dar și publicul larg care primește mesaje oficiale aparent autentice. Un exemplu de impact asupra spațiului public: au existat apeluri generate de AI care s-au dat drept politicieni pentru a distribui dezinformare sau a provoca reacții publice.
Cum te poți proteja? Specialiștii recomandă mai multe măsuri practice și simple. Mai întâi, încetinește ritmul: fraudele profită de senzația de urgență ca să te facă să reacționezi pe loc. O pauză de câteva secunde înainte de a acționa poate face diferența. Dacă primești un apel sau un video suspect de la cineva cunoscut, închide și sună înapoi la numărul pe care îl ai deja; sunatul înapoi taie din această presiune imediată pe care se bazează escrocii. Observă semne subtile de fals: mișcări nenaturale ale gurii în video, fundal care pâlpâie sau privirea care nu pare naturală; în cazul vocii, pauze ciudate sau zgomot de fundal inconsistent pot fi indicii că AI a generat apelul.
Adaugă straturi de securitate: autentificarea multifactor (MFA) reduce riscul ca cineva să acceseze conturile tale chiar dacă i-a reușit să obțină parolele. În perioade cu risc ridicat, de exemplu sezonul declarațiilor fiscale, verificările directe combinate cu MFA sunt o protecție bună. Și, dacă ceva pare prea urgent sau neobișnuit, cere confirmări suplimentare prin canale alternative: email oficial, mesaj intern securizat sau chiar o întâlnire față în față când este posibil.
Tehnologia AI aduce posibilități impresionante, dar și instrumente noi pentru înșelătorie. Rămânerea vigilentă, verificarea identităților și discuțiile deschise despre aceste tipuri de amenințări reduc riscul de a fi prins pe nepregătite, oricât de convingător ar părea un deepfake. Ce pași ți se par cei mai utili pentru a te proteja în fața unor astfel de escrocherii?
Am primit un astfel de apel, am închis și am sunat la numărul vechi — direct verificare simplă, salvează mult.
da, fiți atenți la apeluri ciudate; vezi să nu dai date, ms.
Ai avut vreodată un apel ciudat de la cineva apropiat și ai verificat imediat cu un alt număr ca să te asiguri că nu e deepfake, sau încă te bazezi pe „voce cunoscută” când cineva cere bani urgent?