Pericolele deepfake-urilor promovate masiv pe rețelele de socializare. Cum poți recunoaște un videoclip făcut cu inteligența artificială
Galerie foto(3) Galerie foto (3 fotografii): Pericolele deepfake-urilor promovate masiv pe rețelele de socializare. Cum poți recunoaște un videoclip făcut cu inteligența artificială
Redactia | Publicat: 24.11.2025 15:25 | Actualizat: 24.11.2025 15:56
Poliția Română atrage atenția că videoclipuri false create cu AI și imaginile generate artificial au devenit instrumentele preferate ale autorilor infracțiunilor din domeniul criminalității informatice, care le promovează masiv pe rețelele de socializare. Așa ajung să fie prezentate ca reale deepfake-uri cu afaceriști sau cu politicieni care „recomandă” platforme de investiții crypto, cu celebrități care cer donații urgente pentru copii bolnavi sau cu personalități care „oferă gratuit” produse.
În contextul în care inteligența artificială (AI) a avansat în ultimii ani și a permis crearea de videoclipuri și imagini extrem de realiste, deepfake-urile (videoclipuri false create cu AI) au ajuns să fie folosite și ca instrumente de inducere în eroare a oamenilor pentru obținerea unor câștiguri financiare nelegale.
Cetățenii de bună-credință sunt induși în eroare de aceste „capcane” crezând că văd celebrități, experți financiari sau persoane aflate la nevoie.
Deepfake-urile sunt tot mai greu de detectat
Datele din 2025 arată o creștere alarmantă a tentativelor de fraudă cu deepfake, pe fondul avansării tehnologiei bazate pe inteligență artificială. Pierderile financiare globale produse în urma folosirii deepfake-urilor au ajuns la nivel global la zeci de miliarde de dolari anual.
Poliția Română face o sinteză a celor mai frecvente moduri de operare întâlnite în 2025:
- Trading scam și investment fraud
Videoclipuri deepfake cu oameni de afaceri, de notorietate sau cu politicieni care „recomandă” platforme de investiții crypto, forex sau „inteligență artificială miraculoasă” care promit multiplicarea banilor peste noapte. Victimele sunt direcționate către site-uri false unde depun bani spre a fi investiți și care, în realitate, ajung la autori prin diferite scheme de transfer de monede (virtuale sau fiat).
- Scam-uri caritabile
Deepfake-uri cu copii bolnavi, victime ale dezastrelor sau celebrități care cer donații urgente. Oamenii donează, prin intermediul unor link-uri false, iar sumele de bani ajung direct la infractori.
- Romance scam îmbunătățit cu ajutorul AI
Utilizarea de către infractori a unor profiluri false cu poze și videoclipuri generate de AI cu persoane atractive din punct de vedere al aspectului și caracterului, prin intermediul cărora dezvoltă relații emoționale, apoi cer bani pentru „urgențe medicale” sau „bilete de avion”.
- CEO/CFO fraud (Business E-mail Compromise evoluat)
Utilizarea de către infractori de video-call-uri deepfake în care „șeful” cere transferuri urgente de bani.
- Impersonare celebrități pentru produse false - prin deepfake-uri cu diverse personalități care „oferă gratuit” produse.
În ultima perioadă a crescut și numărul situațiilor în care imagini cu persoane fictive, generate de tool-uri, care descriu persoane frumoase, zâmbitoare și par 100% reale, sunt folosite în ”capcane” de tip romance scams și catfishing sau poze false cu persoane în situații compromițătoare ajung să fie mijloace de șantaj sau hărțuire.
Prin aceleași căi sunt create și multe profiluri false de influenceri care promovează produse sau diverse tipuri de înșelătorii sau investiții. Tot așa sunt create și deepfake-urile în care se folosesc povești false de investiții și persoane fictive care povestesc despre ”oamenii care s-au îmbogățit”.
Urmările acestor deepfake-uri pot fi de la pierderi financiare până la traume emoționale, în situațiile în care oamenii donează ultimii bani pentru „copii bolnavi” inexistenți sau se îndrăgostesc de persoane false.
Deepfake-urile cu candidați care spun lucruri pe care în realitate nu le-au spus niciodată sau cu lideri politici care declară război sunt căi de manipulare politică și electorală și chiar amenințări la securitatea națională.
Poliția Română atrage atenția și asupra distrugerii reputației personale prin revenge porn deepfake, folosit în special împotriva femeilor.
Cum poți recunoaște deepfake-urile
Poliția Română explică și cum pot fi recunoscute videoclipurile sau fotografiile făcută cu inteligența artificială:
Pentru videoclipuri deepfake:
- verificarea clipitului ochilor; în multe deepfake-uri vechi, clipitul era anormal, însă, în anul 2025, acest aspect a fost îmbunătățit considerabil, dar încă apar inconsistențe;
- mișcările buzelor și sincronizarea cu sunetul nu sunt, adesea, perfecte, mai ales în alte limbi decât limba engleză;
- la iluminare și umbre, trebuie verificat dacă lumina de pe față se potrivește cu fundalul;
- reflexiile în ochi și dinți lipsesc adesea sau sunt nenaturale;
- mâinile și degetele sunt încă o slăbiciune majoră a multor modele AI, aspectul degetelor fiind anormal; sunt și situații în care în imagini apar prea multe sau prea puține; mâini și degete deformate apar încă frecvent la deepfake-urile prezente în anul 2025;
- trebuie căutate și artefacte, precum pete ciudate, blur în jurul feței, tranziții nenaturale;
- în imagini este fundal inconsistent sau apar obiecte topite;
- ochii asimetrici, pupilele anormale, părul anormal sau îmbrăcăminte care nu are sens fizic sunt alte semne de urmărit;
- sunt de urmărit și aspecte ale unor obiecte sau bunuri din videoclip, precum și imagine care par deformate.
O imagine poate fi verificată și prin folosirea reverse image search (Google Lens, TinEye), dacă imaginea nu apare nicăieri altundeva înainte de data postării, este suspectă.
”Regula care se aplică pentru toate măsurile de protecție împotriva oricărei tentative de înșelăciune: Dacă pare prea frumos ca să fie adevărat (îmbogățire rapidă, cadouri de la celebrități, iubire perfectă în două săptămâni etc.), ESTE FALS”, potrivit Poliției Române.
”Nu transfera bani niciodată cuiva pe care l-ai cunoscut doar online”
Poliția ne recomandă pentru protecția de deepfake-uri să nu dăm click pe link-uri din reclame sau mesaje nesolicitate și să nu transferăm bani niciodată cuiva pe care l-am cunoscut doar online.
Orice informație care ridică suspiciuni trebuie verificată întotdeauna la sursa oficială. ”Dacă un om de afaceri, o persoană de notorietate sau orice altă personalitate promovează ceva, caută pe contul acesteia oficial de pe rețelele de socializare verificat și vezi dacă a postat acolo”, a precizat sursa citată.
O altă măsură de protecție este autentificarea în doi pași (2FA) în aplicațiile și conturile importante, folosind o aplicație de tip „Authenticator” (nu doar SMS). De asemenea, se pot folosi extensii browser care detectează automat deepfake-urile.
”În cazurile în care ați fost victima unei înșelăciuni în mediul online, sesizați cât mai rapid organele judiciare, întrucât o reacție promptă poate sprijini în mod semnificativ desfășurarea investigațiilor”, subliniază Poliția Română.
De la „îmbogățire rapidă” la negarea științei demonstrate
Pe lângă scam-urile financiare și caritabile deja cunoscute, infractorii și grupările de dezinformare folosesc videoclipuri AI hiper-realiste pentru a induce în eroare în privința adevărurilor științifice fundamentale. Printre astfel de cazuri sunt:
- videoclipuri în care „astronauți NASA” mărturisesc în lacrimi că „aselenizarea a fost filmată în studio” și că „Pământul este plat”;
- ”oameni de știință renumiți” (de fapt deepfake-uri perfecte) care declară că „vaccinurile conțin cipuri 5G” sau că „încălzirea globală este o minciună”;
- „medici celebri” care recomandă tratamente minune împotriva cancerului cu bicarbonat și lămâie;
- ”martori oculari” din Ucraina sau Orientul Mijlociu care povestesc atrocități inventate, cu fețe și voci perfect copiate.
”Acestea nu mai sunt doar postări izolate pe grupuri conspirative. În anul 2025, astfel de clipuri ajung în trend pe rețelele de socializare, sunt distribuite de conturi cu sute de mii de followeri și sunt preluate chiar și de televiziuni locale care nu verifică sursele”, atenționează Poliția Română.
Exemple de videoclipuri false create cu inteligența artificială sunt și cele în care apare un ofițer de poliție sau sunt prezentate persoane care se recomandă a fi consultanți financiari și propun investiții fictive sau cer date financiare, care ulterior pot fi folosite la tranzacții neautorizate.
”În acest sens, pe lângă recomandările sus-menționate, facem precizarea că niciodată polițiștii nu vor apela cetățenii cu video, prin intermediul anumitor aplicații și cu atât mai mult nu vor face recomandări de investiții. Totodată, polițiștii colaborează doar instituțional cu unitățile bancare, în vederea recuperării prejudiciilor sau în cadrul activităților desfășurate și nu vor face recomandări sau îndrumări cetățenilor în niciun fel, de genul «urmează să fiți sunați de banca X sau de vreo altă instituție financiară»”, arată Poliția Română.
De altfel, în fotografiile cu cele două persoane care se recomandă a fi din cadrul Poliției Române, se poate vedea că hainele pe care le poartă una dintre acestea nu este o uniformă de poliție, pentru că gradele de pe umeri nu există în cadrul Poliției Române, cele reale fiind reprezentate de stele.
Adaugă comentariu
Pentru a comenta, trebuie să fii logat. Dacă ai deja un cont, intră în cont aici. Daca nu ai cont, click aici pentru a crea un cont nou.






Cele mai citite






