Numărul tentativelor de escrocherie realizate cu ajutorul videoclipurilor generate de inteligența artificială a crescut cu 3.000% în doar doi ani. milioane de oameni cad în capcana acestor înșelăciuni digitale, într-o perioadă în care fraudele din spațiul online ating nivele fără precedent, relatează MEDIAFAX.
Potrivit unei companii de securitate cibernetică, numărul de videoclipuri deepfake a crescut de la aproximativ jumăt de milion în 2023 la peste opt milioane în prezent. Specialiștii avertizează că lumea intră într-o nouă perioadă în care conținutul video online devine tot mai periculos, fiind rapid răspândit pe rețelele sociale și afectând milioane de utilizatori.
Un expert în tehnologie a atras atenția asupra unor instrumente video ultra-realiste, bazate pe inteligența artificială, precum cele disponibile pe platforme ca Sora 2, pe care escrocii le exploatează pentru a intensifica fraudele online folosind deepfake-uri.
Experții spun că devine tot mai dificil să distingem între real și fictiune, deoarece detectarea deepfake-urilor de înaltă calitate are o rată de success de doar o pătrime. Astfel, milioane de oameni pot fi înșelați fără să-și dea seama.
Inițial, aceste videoclipuri create cu ajutorul inteligenței artificiale au fost doar o distracție pe internet, însă în scurt timp s-au transformat într-o industrie criminală de miliarde de dolari. Escrocii folosesc această tehnologie pentru clonarea vocilor, fețelor și emoțiilor, furând bani și răspândind știri false.
De asemenea, specialiștii avertizează că apelurile video deepfake în timp real vor deveni tot mai frecvente. Escrocii pot să se deghizeze în persoane apropiate sau în superiori, utilizând voci și gesturi copiate, grație unor instrumente precum Sora, o aplicație care poate genera videoclipuri realiste în mai puțin de un minut.
Experți în domeniul tehnologiei de la compania Outplayed au prezentat câteva indicii esențiale pentru a identifica un video realizat cu ajutorul inteligenței artificiale, precum faptul că în prezent, videoclipurile produse de cele mai noi instrumente, precum Sora 2, sunt aproape imposibil de deosebit de cele reale, ceea ce reprezintă o problemă gravă, mai ales dacă sunt folosite în scopuri malițioase.
