Hackerii utilizează inteligența artificială în toate fazele unui atac cibernetic

Inteligența artificială a devenit o componentă integrată a infrastructurii digitale globale, dar nu totul în utilizarea sa arată beneficii. În timp ce anterior accentul se punea pe inovație, productivitate și automatizare, acum imaginea se complică. Recent, un raport dezvăluie modul în care modele de AI precum Gemini sunt exploatate de actori statali și grupări criminiale pentru a susține aproape întregul ciclu al unui atac cibernetic, de la recunoaștere până la exfiltrare. Aceasta arată că AI nu a inventat noi tipare de amenințare, ci a accelerat și scalat cele deja existente, făcând atacurile mai rapide, mai eficiente și mai sofisticate.

### AI ca „copilot” pentru infractori în recunoaștere și atacuri de uz general

Grupările de crima cibernetică, dar și agențiile de spionaj ale unor state, utilizează modelul Gemini pentru a acoperi aproape toate etapele unui atac: de la profilarea țintei și colectarea de informații publice, până la crearea și testarea de mesaje de phishing sau chiar explotarea vulnerabilităților. În unele scenarii, AI devine un adevărat partener tehnic pentru atacatori, oferindu-le recomandări pentru identificarea vulnerabilităților, traducerea conținutului, dezvoltarea de malware sau crearea de mesaje frauduloase tot mai credibile. Chiar și atunci când solicitările par să fie doar exerciții teoretice, intenția operativă a rămâne clară, iar analiza umană poate descoperi rapid scopul real.

Un exemplu notabil îl reprezintă actorii iranieni APT42, ale căror campanii se bazează pe social engineering și pe dezvoltarea rapidă de unelte personalizate. Mesajele frauduloase sunt redactate în mod mai convingător și pot fi ajustate fin la specificul victimei, ceea ce face campaniile mai greu de identificat și de filtrat. Automatizarea acestor procese a crescut semnificativ eficiența atacurilor, mai ales în organizațiile unde disciplina de securitate nu este egală în toate departamentele.

### Malware „augmentat” și kituri AI precum HonestCue și CoinBait

Dar AI nu se limitează doar la fazele preliminare ale atacurilor. Potențialul său este utilizat și în dezvoltarea efectivă a malware-ului. Două exemple demonstrează această direcție: HonestCue și CoinBait. HonestCue, încă la stadiul de prototip la finalul anului trecut, folosește API-uri AI pentru a genera și compila automat cod C# pentru componente secundare de malware, reducând timpul necesar de la idee la execuție. Acest framework nu necesită ca atacatorul să fie expert în programare, ci doar să orchestreze fluxul, accelerând procesul de dezvoltare.

CoinBait reprezintă un kit de phishing sofisticat, construit sub forma unei aplicații web care imită o platformă crypto, cu intenția de a fura credențiale. Indicatorii tehnici arată că și acest tool a fost dezvoltat cu ajutorul unor unelte de generare de cod, ceea ce le permite infractorilor să lanseze campanii de amploare cu un efort tehnic redus. Prezența unor mesaje de log specifice poate deveni un artefact util pentru autorități în identificarea infrastructurilor implicate sau în corelarea de incidente.

### Înșelăciunea prin AI: de la ClickFix la campanii de tip social engineering

Un alt domeniu în care AI produce schimbări radicale este cel al campaniilor de tip ClickFix, folosite pentru distribuirea de malware, inclusiv pentru macOS. Prin utilizarea de conținut generat de modele AI, infractorii pot crea anunțuri și mesaje de phishing extrem de credibile și adaptate contextului victimei. Textul devine mai fluid, traducerile mai naturale, iar explicațiile tehnice mai convingătoare, reducând astfel suspiciunea utilizatorului.

Această evoluție impune o reevaluare a măsurilor de securitate: verificarea minutioasă a sursei, a domeniului, a reputației și o atitudine mai vigilentă față de soluțiile de urgență recomandate de tehnologie devin esențiale. Așadar, atacurile nu sunt neapărat mai „magice”, ci mai bine „îmbrăcate”, ceea ce face ca discernământul utilizatorului să fie mai important ca oricând.

### Riscurile invizibile ale extragerii și distilării de modele AI

Pe lângă atacurile directe, o altă amenințare mai subtilă o constituie încercările de a extrage comportamentul modelelor AI și de a le distila în alte sisteme, mai ieftine și mai ușor de controlat. La nivel strategic, acest lucru are consecințe grave: furt de proprietate intelectuală, reducerea avantajului competitiv și chiar riscul de a submina economic sistemele AI comerciale. Un număr tot mai mare de echipe de cercetare și de infractori încearcă să interogheze intens aceste modele, pentru a obține o copie fidelă a raționamentelor și a funcțiilor lor.

Reacția industriei în această direcție a fost deja începută, prin suspendarea de conturi abuzive și implementarea unor filtre mai rafinate pentru identificarea patternurilor suspecte. În același timp, eforturile de a proteja proprietatea intelectuală și de a preveni copierea de comportamente reprezintă o luptă complexă și în continuă evoluție.

### Viitorul AI în ochii specialiștilor și al utilizatorilor

Pe termen scurt, cele două tendințe principale vor fi continuarea integrării AI în toolset-urile infractorilor, dar și întărirea controalelor din partea celor care dezvoltă și controlează aceste tehnologii. Pentru organizații și utilizatori, acest peisaj impune o maturizare operațională: politici stricte, audituri regulate, monitorizare atentă a comportamentului și simulări de incidente pentru a crește reziliența.

În esență, AI rămâne un instrument dublu, un accelerator al inovației și al progresului sau un catalizator al atacurilor și vulnerabilităților. Rămâne la latitudinea celor din stânga sau din dreapta de a-i gestiona potențialul, înțelept și preventiv, pentru a evita scufundarea în noua eră a războiului cibernetic invizibil.

Diana Gheorghiu

Autor

Lasa un comentariu