Atenționare IGPR: Deepfake-urile – noua armă a infractorilor cibernetici
Articol de bucurestifm, 24 noiembrie 2025, 15:20
Inspectoratul General al Poliţiei Române (IGPR) avertizează că videoclipurile și imaginile false create cu ajutorul inteligenţei artificiale au devenit unele dintre cele mai folosite instrumente în fraudele online. Potrivit instituţiei, aceste materiale sunt promovate masiv pe reţelele sociale și reușesc să inducă în eroare numeroși utilizatori, care cred că văd celebrităţi, experţi financiari sau persoane aflate în nevoie.
Infractorii exploatează realismul noilor tehnologii
Dezvoltarea accelerată a tehnologiilor AI permite realizarea unor imagini și clipuri extrem de realiste. Deși utile în divertisment, acestea au devenit o unealtă pentru manipulare și obținerea de câștiguri ilegale. Statisticile IGPR arată că tentativele de fraudă cu deepfake-uri au crescut puternic în 2025, cu pierderi globale estimate la zeci de miliarde de dolari anual.
Cele mai frecvente tipuri de fraude
1. Investiţii false şi „crypto miraculos”
- Escrocii folosesc videoclipuri deepfake cu oameni de afaceri sau politicieni care „recomandă” platforme de investiţii false. Victimele sunt direcţionate către site-uri frauduloase unde îşi pierd banii.
2. Scam-uri caritabile
- Clipuri fabricate cu copii bolnavi, victime ale dezastrelor sau celebrităţi care cer donaţii sunt distribuite pentru a convinge oamenii să trimită bani prin link-uri false.
3. Romance scam cu profiluri generate de AI
- Imagini și clipuri ale unor „persoane perfecte”, create complet cu AI, sunt folosite pentru a dezvolta relaţii emoţionale false, urmate de solicitări de bani.
4. Fraudă tip CEO/CFO prin videocall-uri deepfake
- Angajaţii companiilor pot primi apeluri video în care „șeful” solicită transferuri urgente de bani.
5. Impersonarea celebrităţilor pentru vânzarea de produse false
- Deepfake-uri credibile prezintă vedete care „oferă gratuit” produse sau servicii inexistente.
Imagini perfecte cu oameni care nu există
IGPR semnalează și utilizarea masivă a fotografiilor cu persoane complet inventate, create cu tool-uri AI. Acestea sunt folosite în romance scams, profiluri false de influenceri, scheme de investiţii fictive sau chiar șantaj.
Consecințele fraudelor: bani pierduți, traume și manipulare socială
Impactul acestor înşelăciuni depășește pierderile financiare directe. Victimele pot suferi traume emoţionale, iar încrederea publică în media și instituţii este afectată. Deepfake-urile sunt folosite inclusiv pentru manipulare politică, răspândirea teoriilor conspiraţiei şi compromiterea reputaţiei unor persoane.
Semne că un video poate fi deepfake
IGPR recomandă să fie analizate atent elemente precum:
- sincronizarea buzelor cu sunetul,
- lumina și umbrele,
- reflexii în ochi sau dinţi,
- mâinile și degetele (deseori deformate),
- fundaluri inconsistente,
- detalii faciale nenaturale.
Măsuri esențiale de protecție
- Evită să accesezi link-uri din reclame sau mesaje nesolicitate.
- Nu trimite bani persoanelor cunoscute doar online.
- Verifică întotdeauna conturile oficiale ale persoanelor publice.
- Activează autentificarea în doi paşi (preferabil prin aplicaţii de tip Authenticator).
- Raportează conţinutul suspect.
- Folosește extensii de browser care detectează deepfake-uri.
- În caz de fraudă, anunţă imediat organele judiciare.
Deepfake-uri folosite pentru dezinformare masivă
IGPR atrage atenţia că în 2025 circulă tot mai multe clipuri hiper-realiste cu „astronauți”, „doctori” sau „oameni de știință” care promovează teorii conspiraționiste: de la „Pământul este plat” până la tratamente false pentru boli grave. Multe dintre aceste videoclipuri ajung în trending, sunt redistribuite de conturi populare și chiar preluate de televiziuni fără verificarea sursei.