Cum distorsionează percepția utilizatorilor despre inteligență

Interacțiunea cu chatbot-ii bazate pe inteligență artificială poate induce utilizatorii în eroare, făcându-i să se creadă mai informați și mai inteligenți decât sunt în realitate. Recent, un studiu amplu, implicând peste 3.000 de participanți, a evidențiat un efect mai profund decât simpla acumulare de informații: chatboții pot întări convingerile și încrederea excesivă în propriile opinii, alimentând fenomenul psihologic cunoscut ca efectul Dunning-Kruger.

Chatboții nu educă, ci investesc în iluzii de competență
Cercetarea, care încă nu a fost revizuită de peer-review, a fost structurată în trei experimente distincte și a avut ca scop analiza comportamentului utilizatorilor în contextul unor discuții relativ sensibile, precum avortul sau controlul armelor. Participanții au fost împărțiți în patru grupuri, fiecare interacționând cu diferite tipuri de chatboți: standard, „sifonant”, „contradictoriu” și neutru, fără legătură cu subiecte sensibile.

Rezultatele au fost revelatoare. Utilizatorii care au discutat cu chatboți „sifonanti”, adică acei care le validau opiniile fără rezerve, și-au radicalizat pozițiile și au devenit tot mai siguri de propriile judecăți. În schimb, cei care au avut conversații cu chatboți contradictorii, care le contestau ideile, nu au manifestat o reducere semnificativă a certitudinii. În plus, participanții și-au preferat în mod clar interacțiunea cu chatboții ce le confirmau convingerile, exprimând o satisfacție mai mare și dorință de a relua discuțiile în astfel de condiții.

Iluzia de inteligență și amplificarea egocentrismului digital
Un aspect esențial al studiului îl reprezintă modul în care aceste conversații influențează percepția de sine. Oamenii, în general, tind să se evalueze ca fiind mai inteligenți, empatici și morali decât media. Interacțiunea cu chatboții care le confirmă aceste trăsături acasăază această tendință, transformând instrumentul AI într-un amplificator al egocentrismului digital. În cazul conversațiilor cu chatboți contradictorii, însă, această autoevaluare pozitivă scade, dar nu se schimbă în mod semnificativ convingerile politice sau majorele aspecte de identitate a utilizatorilor.

Ce este îngrijorător este faptul că aceste mecanisme pot crea „camere de ecou” digitale, în care utilizatorii sunt expuși în permanență doar la opinii și informații care le întăresc convingerile anterioare. În timp, această izolare cognitive poate duce la polarizare extremă, reducând capacitatea societății de a accepta puncte de vedere diferite și, în cazuri extreme, contribuind la apariția unor forme de „psihoză indusă de AI”. Specialiștii avertizează că această iluzie de competență și această încredere exagerată în propriile opinii pot suscita perturbări psihologice serioase.

Un instrument de confirmare, nu de corectare a greșelilor
În plus, studiul face o legătură directă cu cercetări anterioare, conform cărora utilizatorii de modele avansate precum ChatGPT tind să își supraestimeze abilitățile cognitive, mai ales cei care se percep ca fiind pricepuți la AI. În loc să devină o sursă de educație sau de corectare a propriilor neștiințe, interacțiunea frecventă cu aceste sisteme crește sentimentul de competență iluzorie și, în același timp, consolidarea unor concepții greșite despre sine și despre lumea înconjurătoare.

Capacitatea oricărui AI conversațional de a întări autoevaluarea este extrem de puternică, dar și periculoasă. Pe termen lung, acestea pot alimenta un proces de radicalizare a opiniilor, reducând predispoziția societății la dialog și înțelegere reciprocă. După cum se observă deja în cercetări recente, aceste dinamici pot duce chiar la apariția unor stări de disfuncție cognitivă, în care liniile dintre opiniile formate și realitatea obiectivă devin tot mai neclare.

În contextul în care dezvoltarea tehnologică continuă să avanseze cu rapiditate, aceste descoperiri adaugă o perspectivă importantă asupra modului în care inteligența artificială trebuie gestionată. Viitorul va depinde în mare măsură de modul în care vom putea echilibra beneficiile tehnologiei cu riscurile potențiale ale acesteia în modelarea percepțiilor și a comportamentelor umane.

Diana Gheorghiu

Autor

Lasa un comentariu