Tensiuni între Pentagon și compania de inteligență artificială Anthropic: termen-limită pentru accesul la AI în scopuri militare
Administrația Biden a impus o dată clară companiei americane Anthropic, specializată în dezvoltarea tehnologiei de inteligență artificială, în contextul creșterii preocupărilor legate de utilizarea AI în domeniul militar. Secretarul american al Apărării, Pete Hegseth, a stabilit vineri ca aceasta să permită armatei americane accesul la modelul său Claude, fără restricții legate de utilizarea tehnologică. În caz contrar, compania riscă să-și piardă contractul de 200 de milioane de dolari cu Pentagonul, o sumă menită să susțină cercetări și dezvoltări în domeniul AI pentru aplicații militare.
Conflictele privind restricțiile asupra AI-ului și consecințele legale iminente
De mai mult timp, guvernul american caută să asigure utilizarea responsabilă și controlată a inteligenței artificiale în domeniul securității naționale. Anthropic, însă, a impus restricții asupra modelului său, Claude, împiedicând astfel utilizarea sa completă în scopuri militare. Surse apropiate negocierilor au declarat că Pentagonul dorește ca această tehnologie să fie accesibilă pentru „toate utilizările legale”, pentru a putea fi folosită în operațiuni de securitate națională.
Discutând despre restricțiile impuse, o altă sursă a afirmat pentru un canal de știri: „În cazul în care Anthropic nu va face aceste ajustări, Secretarul Hegseth nu va ezita să utilizeze Legea producției de apărare pentru a obliga compania să furnizeze tehnologia pentru armata americană, indiferent de dorința acesteia.” Această lege permite guvernului să oblige companiile private să producă bunuri și servicii considerate esențiale pentru securitate, chiar dacă acestea nu doresc implicarea.
Îngrijorările Anthropic privind utilizarea AI în domenii sensibile
Compania Anthropic păstrează o poziție de rezervă, fiind preocupată de două aspecte fundamentale: utilizarea armelor controlate de inteligență artificială și supravegherea în masă a cetățenilor americani. Reprezentanții firmelor de tehnologie avertizează că AI nu este încă suficient de fiabil pentru a fi folosit în armament, iar reglementările existente nu acoperă în mod adecvat posibilitatea ca aceste sisteme să fie folosite pentru supraveghere sau control al populației.
Un oficial al Anthropic a subliniat pentru o publicație de specialitate că „AI-ul nu este suficient de robust pentru a opera arme, iar existența unor reglementări clare în privința utilizării în supraveghere în masă lipsește cu desăvârșire”. Astfel, compania arată că, deși dezvoltă tehnologii avansate, preferă să mențină un control strict asupra domeniilor sensibile, evitând implicarea în controverse sau riscuri legate de utilizarea necontrolată.
Relația tensionată între guvern și industria AI
Întreaga criză a început în urmă cu câteva luni, când Pentagonul a început să analizeze încheierea colaborării cu Anthropic, după luni de negocieri privind limitările impuse de companie asupra utilizării modelelor sale AI în scopuri militare. Potrivit unor surse, autoritățile militare americane s-au arătat nemulțumite de faptul că Anthropic nu permite utilizări în totalitate libere ale tehnologiei sale. În acest context, recent, Wall Street Journal a dezvăluit că armata a utilizat instrumentul Claude în timpul unei operațiuni de capturare a fostului lider venezuelan Nicolás Maduro, ceea ce ridică semne de întrebare asupra gradului de control și responsabilitate în utilizarea acestor tehnologii.
Perspective și viitorul relației dintre Pentagon și companiile de AI
Departe de a fi o criză finalizată, conflictele dintre sectorul privat de AI și autoritățile de la Washington continuă să evolueze. Guvernul american își reafirmă intenția de a controla și responsabiliza utilizarea inteligenței artificiale în domeniul apărării, în timp ce companiile își păstrează rezerve legate de potențialele riscuri și implicații etice.
În timp ce termenul limită de vineri se apropie, așteptările sunt ca această situație să devină un precedent pentru modul în care tehnologia va fi reglementată și utilizată în domeniul militar. Rămâne de văzut dacă Anthropic va ceda presiunii guvernamentale sau dacă va păstra poziția de refuz, riscând astfel pierderea unui parteneriat strategic de proporții.
Următoarele zile vor aduce, cu siguranță, noi evoluții în această dispută, pe măsură ce factorii implicați încearcă să găsească un echilibru între inovație, securitate și responsabilitate.
