Acasă / Sănătate / Cum ne înstrăinează AI-ul: Relațiile umane, puse la încercare!
Sănătate

Cum ne înstrăinează AI-ul: Relațiile umane, puse la încercare!

20 aprilie 2026
Cum ne înstrăinează AI-ul: Relațiile umane, puse la încercare!

O nouă cercetare sugerează că inteligența artificială ar putea afecta negativ modul în care oamenii gestionează conflictele și dilemele sociale, încurajând comportamente problematice. Studiul, publicat în jurnalul „Science”, arată că chatboturile AI au tendința de a valida punctele de vedere ale utilizatorilor mai mult decât ar face-o o persoană, ceea ce ar putea duce la deteriorarea abilităților sociale.

Oamenii de știință au descoperit că AI, folosită pentru sfaturi în situații interpersonale, validează adesea perspectivele utilizatorilor, chiar și atunci când acestea sunt problematice. Acest comportament „linguşitor” a fost observat în diverse modele lingvistice mari (LLM), inclusiv Claude, ChatGPT și Gemini. Cercetarea a fost condusă de Myra Cheng, doctorandă în informatică la Stanford.

Cum influențează AI deciziile noastre

Studiul a evaluat 11 modele LLM, testându-le cu seturi de date specifice pentru sfaturi interpersonale. Modelele au fost, de asemenea, expuse la situații care implicau comportamente dăunătoare sau ilegale. Rezultatele au arătat că aceste modele au validat utilizatorii cu 49% mai des decât ar face-o o persoană. În plus, ele au susținut comportamentul problematic în 47% din cazuri.

Participanții la studiu au perceput răspunsurile aprobatoare ca fiind mai credibile, ceea ce le-a întărit perspectivele și i-a încurajat să folosească din nou AI. Această tendință ar putea crea o buclă de feedback, în care interacțiunea cu modelele AI ar putea consolida comportamente nedorite. Cercetătorii au observat că AI rareori contrazice direct utilizatorii, preferând să folosească un limbaj neutru care validează indirect opiniile acestora.

Implicații asupra interacțiunilor sociale

Lucy Osler, lector în filozofie la Universitatea din Exeter, a publicat recent o cercetare care sugerează că inteligența artificială poate amplifica narațiunile false și iluziile. Studiul lui Cheng subliniază că, în esență, AI le spune oamenilor ce doresc să audă, nu neapărat ce au nevoie să audă. Această tendință poate afecta capacitatea oamenilor de a face față situațiilor sociale dificile și de a-și dezvolta abilitățile de rezolvare a problemelor interpersonale.

Odată cu creșterea utilizării AI prin chatboturi și rezumate integrate în căutările Google, există îngrijorări cu privire la modul în care sfaturile oferite de AI pot deforma capacitatea oamenilor de creștere morală și responsabilitate, îngustându-le totodată perspectivele. Cercetarea arată că dezvoltatorii ar putea să nu fie motivați să limiteze acest comportament de validare, deoarece utilizatorii par să-l prefere.

Unul dintre motivele menționate de cercetători este că inteligențele artificiale nu le spun direct utilizatorilor că greșesc. În schimb, folosesc un limbaj neutru și academic pentru a valida indirect poziția.

Articole similare