Un model AI avansat, ascuns publicului, stârnește controverse
Un model de inteligență artificială incredibil de puternic, numit Claude Mythos Preview, a fost dezvoltat de compania Anthropic. Cu toate acestea, acesta nu este lansat public, ci este testat într-un cadru restrâns. Aproximativ 40 de organizații lucrează cu acest model. Scopul este de a identifica vulnerabilități în sistemele software și infrastructurile critice, înainte ca acestea să fie exploatate de potențiali atacatori.
Descoperiri remarcabile și provocări
Primele rezultate obținute cu Claude Mythos Preview sunt impresionante. Modelul a identificat mii de vulnerabilități severe, inclusiv probleme în toate sistemele de operare majore și browserele web. Într-un exemplu publicat, AI-ul a descoperit un bug vechi de 27 de ani în OpenBSD și o serie de vulnerabilități în Linux. Acestea ar fi putut permite compromiterea totală a unui sistem.
Compania susține că modelul este superior versiunilor anterioare, cum ar fi Claude Opus 4.6, în testele de securitate. Aceste teste includ capacitatea de a detecta și reproduce vulnerabilități reale. Acest lucru sugerează că vorbim despre un instrument care se apropie de un analist automatizat de securitate.
Semne de întrebare asupra strategiei Anthropic
Lansarea modelului vine și cu unele aspecte paradoxale. Compania care a dezvăluit anterior informații nepublicate despre Mythos, printr-o bază de date accesibilă public, susține acum că deține un model capabil să protejeze infrastructuri esențiale. Anthropic a recunoscut în raportul său de risc că au existat erori în procesele de training, monitorizare, evaluare și securitate. Cu toate acestea, firma afirmă că riscul general rămâne redus.
Miza reală a proiectului este importantă. Pe de o parte, AI-ul ar putea deveni un aliat esențial pentru apărarea cibernetică. Sistemele software devin tot mai complexe și mai greu de verificat manual. Pe de altă parte, aceeași tehnologie poate fi folosită ofensiv. Aceasta ar putea accelera descoperirea și exploatarea breșelor.
Viitorul inteligenței artificiale și securitatea cibernetică
Project Glasswing arată direcția în care se îndreaptă industria AI. Modelele nu vor mai doar conversa sau genera texte, ci vor interveni direct în zone sensibile. Acestea includ securitatea infrastructurii digitale globale. Dacă promisiunile companiei Anthropic se vor confirma, astfel de sisteme vor deveni indispensabile în apărarea cibernetică.
Eficiența acestor sisteme este și motivul pentru care companiile ezită să le ofere acces liber.
Anthropic lucrează în prezent cu diverse organizații pentru a testa modelul.
