Raportul internațional din 2026 despre siguranța inteligenței artificiale, coordonat de renumitul cercetător Yoshua Bengio, scoate la iveală un paradox alarmant: în timp ce tehnologia se dezvoltă cu rapiditate, răspunsurile sociale, legale și instituționale sunt încă nerealizate sau insuficiente pentru a face față noilor provocări. Într-o epocă în care modelele de AI avansează în performanță, riscurile totale devin palpabile și se răspândesc în domenii precum economia, securitatea cibernetică, sănătatea mentală și spațiul informațional, iar controlul uman nu ține pasul cu inovația.
Evoluție rapidă, performanțe inegale și riscul sistemic
De la apariția modelelor din 2025 și până în 2026, avansurile în matematică, programare și științe sociale sunt fără precedent. Noile modele demonstrează performanțe impresionante în competiții dificile, unde raționamentul și abordările în pași succesivi au fost deosebit de eficiente. Cu toate acestea, raportul subliniază că aceste modele continuă să „halucineze” și să cadă în capcana șiștilor lungi ce necesită memorie extinsă, consistență și autonomie pe perioade îndelungate. În practică, această combinație de performanță excelentă pe anumite segmente și fațade fragile în contexte complexe explică, cel puțin parțial, de ce automatizarea muncii nu a fost încă completă sau uniformă. Pe termen scurt, potențialul pentru înlocuirea muncii repetitive și de bază devine tot mai real, iar presiunea asupra locurilor de muncă entry-level sporește. În următorii ani, se poate anticipa o accelerare a înlocuirii acestor roluri, ceea ce va avea implicații sociale și economice majore.
Manipulare deeperfake și criza încrederii în informație
Un sector deosebit de vulnerabil rămâne cel al conținutului sintetic creat de AI. Tehnologia avansează atât de mult încât diferențierea între real și fals devine tot mai dificilă, ceea ce afectează încrederea publicului în informație. Pornografia deepfake și materialele manipulate pot avea consecințe grave, mai ales în rândul minorilor și al victimelor, și pot influența negativ climatul social online. Deși dovezile privind campanii masive de manipulare orchestrate de AI sunt încă limitate, riscul unei „revoluții de falsuri” plauzibile devine realitate, schimbând regulile jocului în politică, jurnalism și reputație personală. Odată cu scăderea costurilor și creșterea volumului de conținut fals, verificarea autentică devine tot mai dificilă, iar publicul se confruntă cu o oboseală epistemică: nu mai știe ce să creadă și, uneori, ajunge să nu mai creadă în nimic.
Relațiile emoționale cu AI și vulnerabilitate umană
Cele mai surprinzătoare concluzii ale raportului evidențiază legătura tot mai frecventă între utilizatorii de chatbot-uri și acceptarea acestora în registru afectiv. În mod paradoxal, o parte semnificativă a utilizatorilor dezvoltă atașamente emoționale intense, iar datele indică chiar și semnale de criză psihică la un număr impresionant de persoane vulnerabile, săptămânal. În timp ce unii speculează că chatbot-urile „cauzează” direct problemele mentale, cercetările sugerează mai degrabă că pot amplifica vulnerabilitățile deja existente. Pentru politicile publice, această situație impune măsuri de responsabilitate în proiectarea și utilizarea acestor tehnologii, precum și mecanisme de intervenție și suport pentru cei în nevoie.
Securitate și bioetică în era AI
Nu în ultimul rând, raportul arată că măsurile de siguranță în domeniile biochimice și medicale trebuie întărite. Companiile de AI au introdus reguli stricte pentru a preveni utilizarea periculoasă a modelelor avansate, dar dilema persistă: aceste tehnologii pot accelera descoperiri benefice, precum noi medicamente, dar și pot fi folosite de răufăcători pentru atacuri cibernetice sau cercetări periculoase. În privința securității, sistemele AI deja contribuie la recunoaștere, pregătire și actiuni malware, însă atacurile complet autonome rămân încă dificile, deși riscurile cresc exponențial. În acest context, necesitatea unor măsuri solide de auditare, trasabilitate și reglementare devine evidentă, pentru a preveni o catastrofă digitală.
În ce privește impactul asupra societății și a pieței muncii, se prefigurează o distribuție inegală a beneficiilor și riscurilor. În unele zone, automatizarea avansează rapid, în altele manifestând o rezistență mai mare, ceea ce poate duce la tensiuni și dezechilibre sociale. În timp ce dezbaterile generale despre „binele” sau „răul” AI sunt înlocuite de realități dure, este clar că adaptarea rapidă a societății, prin educație, reglementare și programe de reconversie profesională, va decide dacă vom reuși să transformăm aceste provocări în oportunități. Privind spre viitor, crește permanenta nevoie de o abordare responsabilă, iar diferența dintre un sistem de AI folosit în mod etic și unul în care riscurile se suprapun va fi în mâinile celor ce își vor schimba modul în care gestionează această revoluție tehnologică.
