De ce AI-ul nu poate funcționa autonom pe scară largă, conform unui studiu

Un studiu recent aduce în lumină o realitate dificil de acceptat pentru industria tehnologică: promisiunile privind agenții AI autonomi, capabili să funcționeze fără supraveghere umană, sunt mai mult o iluzie decât o posibilitate practică. În timp ce companiile din domeniu au făcut din astfel de tehnologii un punct central al strategiei de dezvoltare, cercetarea indică limite fundamentale, greu de depășit, în ceea ce privește capacitatea modelelor lingvistice de a funcționa independent în condiții complexe.

### Limitele fundamentale ale modelelor lingvistice

Studiul, realizat de Vishal Sikka, fost director tehnologic al SAP, alături de fiul său, Varin Sikka, readuce în discuție un argument de bază: modelele lingvistice mari, folosite în dezvoltarea agenților AI, au o limită matematică clară, pe care nu o pot depăși. În opinia autorilor, aceste sisteme sunt create pentru a prezice următoarea secvență de text pe baza probabilităților, nu pentru a înțelege în profunzime contextul, consecințele sau pentru a asigura o logica internă coerentă.

Vishal Sikka afirmă că “din această cauză, modelele AI nu pot atinge niciodată un nivel de fiabilitate care să le permită să funcționeze independent în domenii critice”. În plus, el susține că ideea agenților autonomi care să gestioneze infrastructuri sensibile, cum ar fi centrale nucleare sau sisteme de transport, este pur și simplu nerealistă, având în vedere limitările tehnice ale acestor modele.

Această poziție nu este exclusivă, ci sprijinită și de alți cercetători din domeniu. În 2025, specialiști de la OpenAI au recunoscut public că halucinațiile AI, adică situațiile în care modelele inventează informații și le prezintă cu certitudine, rămân o problemă structurată. În acest context, afirmațiile privind un agent AI complet autonom, capabil să decidă corect în orice situație, sunt considerate, din perspectivă tehnică, iluzorii.

### De la promisiune la realitatea din teren

Chiar dacă industria a investit masiv în agenții AI, considerându-i „următorul mare pas” în automatizare, rezultatele din teren au fost anticipate cu greu. Mulți întreprinzători au descoperit cu dezamăgire că acești nuovi „asistenți digitali” nu reușesc să ducă la bun sfârșit sarcini simple, comit frecvent erori și necesită intervenție constantă pentru corectare. În practică, conceptul de a înlocui complet activitatea umană pare, momentan, mai mult un vis decât o realitate.

Liderii în domeniu susțin că astfel de probleme pot fi minimalizate prin sisteme externe de control, reguli stricte și filtre de siguranță. Însă, pentru tot ecosistemul AI, limitările fundamentale ale modelelor lingvistice rămân valabile. Sikka admite chiar că, prin combinarea modelelor lingvistice cu componente software suplimentare, unele limitări pot fi ameliorate. Dar, subliniază el, un model „pur” nu va putea vreodată să depășească aceste obstacole.

Ce relevanță are această observație pentru peisajul tehnologic? În esență, studiul infirmă una dintre cele mai îndrăznețe promisiuni ale industriei: agenții inteligenți, capabili să funcționeze autonom, eficient și sigur în medii complexe, sunt greu, dacă nu imposibil, de realizat pe termen scurt sau mediu.

Într-un context în care companiile tehnologice continuă să promoveze agenți AI drept soluții pentru automatizarea completă a proceselor, această revelație aduce o perspectivă mai realistă, dar și mai prudentă asupra limitărilor actuale. Promisiunea unei autonome totale pare, cel puțin pentru moment, mai aproape de mit decât de realitate, accentuând nevoie de o reevaluare a așteptărilor și a strategiei de dezvoltare în domeniu. În timp ce cercetările avansează, industria trebuie să navigheze cu realism printre promisiuni și limite tehnice, pentru a nu pierde încrederea utilizatorilor și integritatea sistemelor critice pe care se bazează.

Diana Gheorghiu

Autor

Lasa un comentariu