Un model de inteligență artificială (AI) destinat securității cibernetice, dezvoltat de compania Anthropic și numit Mythos AI, a fost accesat de utilizatori neautorizați, potrivit unor informații recente. Modelul se află în prezent într-un program restrâns de testare, cu acces limitat la companii selectate. Compania investighează incidentul, dar până în prezent nu a găsit dovezi că infrastructura internă a fost compromisă.
Cum a fost accesat modelul
Accesul neautorizat la Mythos AI ar fi fost posibil prin intermediul unui furnizor terț implicat în testare. Sursele citate de Bloomberg menționează un forum online privat, unde persoane interesate de modele AI nelansate public încearcă să obțină acces la tehnologiile aflate în dezvoltare. Se pare că utilizatorii neautorizați nu doar au reușit să intre în sistem, dar au și utilizat modelul în mod repetat. Modelul Mythos AI este conceput pentru aplicații de securitate cibernetică la nivel enterprise.
Reacția companiei Anthropic
Un purtător de cuvânt al Anthropic a confirmat că firma analizează situația. „Investigăm informațiile apărute și, până acum, nu avem indicii că sistemele noastre au fost afectate”, a transmis compania. Compania a avertizat anterior că tehnologia Mythos AI, din cauza capacităților sale avansate, „poate genera riscuri fără precedent”, dacă ajunge în mâini nepotrivite. Modelul este în prezent testat în cadrul unui program intern, cunoscut sub numele de Project Glasswing, care implică un număr limitat de parteneri din tehnologie și sectorul financiar.
Companiile implicate în testare
Printre companiile care testează modelul Mythos AI se numără nume mari precum Amazon, Apple și JPMorgan Chase. De asemenea, instituții financiare precum Goldman Sachs, Citigroup, Bank of America și Morgan Stanley sunt implicate în testarea tehnologiei. Modelul este utilizat în principal pentru identificarea vulnerabilităților informatice și consolidarea sistemelor de securitate.



