Anthropic acuză companii chineze, printre care DeepSeek, de folosirea Claude pentru antrenarea AI-urilor

Un nou val de tensiune se răspândește în industria tehnologică, după acuzațiile grave aduse asupra companiilor chineze care utilizează intens inteligența artificială în moduri contestate. Conform unui raport recent, mai multe firme din China, printre care se numără DeepSeek, sunt acuzate că au folosit fără acord modelul Claude, dezvoltat de compania americană Anthropic, pentru a îmbunătăți propriile sisteme AI în mod ilegal. În esență, aceste activități vizau practic o tehnică numită „distilare”, despre care acum se discută aprins în industria inteligenței artificiale, fiind suspectată de a fi transformată într-un instrument de furt intelectual și de manipulare.

Practica de „distilare” și limitele ei etice

De câțiva ani, distilarea reprezintă o metodă extrem de utilă în dezvoltarea AI, fiind utilizată pentru a crea versiuni mai mici, mai rapide și mai eficiente ale modelelor complexe, păstrând în același timp performanțe notabile. În mod legal, tehnica presupune antrenarea unui model mai mic pe rezultatele generate de unul mai mare, permițând astfel dezvoltarea unor sisteme eficiente pentru aplicații cu resurse limitate. Totuși, compania Anthropic susține că această metodă poate fi utilizată și în alt mod, dând naștere unor practici neetice sau chiar ilegale.

Potrivit afirmațiilor lor, companiile chineze precum DeepSeek, MiniMax și Moonshot, ar fi crea­t peste 24.000 de conturi frauduloase pentru a interacționa cu Claude în număr de peste 150.000 de ori. În total, aceste conversații au generat peste 16 milioane de interacțiuni, toate destinate extragerii mecanismelor de raționament ale modelului. Scopul acestora era acoperirea extinsă a sistemului de învățare al lui Claude, pentru a transfera cunoștințele către propriile sisteme AI, accelerând astfel procesul de dezvoltare, fără a investi în cercetare și inovație proprie. În plus, Anthropic afirmă că aceste modele au fost manipulate pentru a produce versiuni „sigure din punct de vedere al cenzurii” pentru întrebările sensibile politic, inclusiv teme precum disidența, liderii de partid sau regimurile autoritare.

Riscurile geopolitice și apelurile la restricții

Controversa devine și mai alarmantă dacă ne gândim la implicațiile geopolitice. Modelle „distilate” în mod ilicit ar putea fi utilizate în domenii extrem de sensibile, precum infrastructuri militare, sisteme de supraveghere sau cyber-activități ofensive. Unele voci din industrie avertizează că aceste practici ar putea slăbi măsurile de securitate ale sistemelor AI, mai ales dacă modelele obținute nu respectă aceleași standarde de siguranță ca originalele.

De altfel, recent, OpenAI a trimis o scrisoare către legislatorii americani, în care acuză compania chineză DeepSeek că încearcă să „beneficieze gratuit” de cercetarea realizată de laboratoarele americane de AI, ceea ce accentuează tensiunea geopolitică în domeniul tehnologiei avansate. Unii experți consideră că această situație evidențiază necesitatea unor măsuri coordonate la nivel internațional pentru a preveni utilizarea abuzivă a tehnologiei AI, mai ales atunci când aceasta poate fi exploatată în scopuri malițioase sau pentru a submina securitatea globală.

Soluții și perspective viitoare

Într-un context de astfel de tensiuni, Anthropic cere o reacție coordonată din partea industriei, a autorităților și a furnizorilor de cloud computing. Una dintre soluții avansate este restricționarea accesului la cipuri avansate, precum și monitorizarea strictă a utilizării resurselor de calcul pentru a limita posibilitatea de a face distilare ilegală a modelelor AI. Acest apel subliniază și necesitatea de a dezvolta cadre legislative clare, menite să reglementeze utilizarea tehnologiilor de ultimă generație, și de a promova transparența în cercetare și dezvoltare.

Pe măsură ce tehnologia AI evoluează și capătă un rol tot mai central în societate, întrebarea rămâne: cine va fi responsabil pentru opțiunile făcute acum, când liniile dintre inovare și abuz devin tot mai subțiri? Industria, guvernele și cercetătorii trebuie să colaboreze pentru a reda echilibrul între progres și siguranță, într-un domeniu unde fiecare greșeală poate avea răspândiri ample, cu consecințe neașteptate. În timp ce tensiunile din domeniu se intensifică, totodată apar și semnele că lumea tehnologică trebuie să regândească rapid modul în care gestionează începutul unei noi ere, a AI-ului, unde limitele etice și de securitate trebuie impuse cu fermitate.

Diana Gheorghiu

Autor

Lasa un comentariu