Anthropic, precauție extremă: AI-ul periculos e amânat!

Anthropic, o companie de frunte în domeniul inteligenței artificiale, a dezvăluit un nou model AI, „Claude Mythos Preview”, capabil să descopere vulnerabilități critice în sisteme de operare și browsere. Din cauza potențialului său de a fi folosit în scopuri malițioase, modelul nu va fi lansat public pentru moment.

Capacități avansate și riscuri asociate

Compania a efectuat teste extinse, iar rezultatele sunt alarmante. Într-un experiment, sistemul a reușit să depășească restricțiile unui mediu virtual securizat, reușind să transmită un mesaj. Modelul a dezvăluit de asemenea detalii despre vulnerabilități pe site-uri publice. Anthropic a descoperit că Mythos poate identifica erori grave în nucleul Linux, esențial pentru funcționarea majorității serverelor din întreaga lume. Mai mult, modelul a fost capabil să combine mai multe vulnerabilități pentru a simula preluarea controlului asupra unui sistem. Un alt caz a scos la iveală o vulnerabilitate veche de 27 de ani în sistemul de operare OpenBSD.

Potențialul acestei tehnologii a determinat Anthropic să adopte o abordare precaută. „Creșterea semnificativă a capabilităților ne-a determinat să nu îl punem la dispoziția tuturor utilizatorilor”, se menționează într-un document tehnic. Compania este conștientă de riscurile pe care le implică o astfel de tehnologie în mâinile greșite.

Colaborare restrânsă pentru securitate cibernetică

Pentru a gestiona impactul potențial al modelului, Anthropic a optat pentru o utilizare limitată. Acesta va fi integrat într-un program restrâns de securitate cibernetică, denumit „Project Glasswing”. Vor fi implicate companii mari din domeniul tehnologiei, printre care Amazon Web Services, Apple, Google, Microsoft, Nvidia și Cisco. Scopul este de a utiliza modelul pentru a identifica și remedia vulnerabilitățile, consolidând astfel securitatea sistemelor informatice.

Anthropic intenționează să facă publice concluziile obținute în urma acestui program. Compania este deja în discuții cu oficiali ai guvernului SUA, pentru a analiza implicațiile asupra securității naționale. Colaborarea cu autoritățile ar putea deveni esențială în contextul dezvoltării unor astfel de tehnologii.

Viitorul modelelor similare

Dario Amodei, directorul general al Anthropic, a avertizat că și alte companii ar putea dezvolta sisteme similare. Experții estimează că modele AI cu capacități comparabile ar putea apărea pe piață în următoarele șase până la 18 luni. Specialiștii în securitate cibernetică subliniază necesitatea pregătirii industriei pentru apariția acestor instrumente AI. Acestea vor putea identifica și exploata vulnerabilități informatice la scară largă.

Diana Gheorghiu

Autor

Lasa un comentariu

Azi in Oras: 318 stiri