Acasă / Tehnologie / Răspunsuri AI periculoase: Pacienții, sfătuiți să renunțe la chimioterapie
Tehnologie

Răspunsuri AI periculoase: Pacienții, sfătuiți să renunțe la chimioterapie

21 aprilie 2026
Răspunsuri AI periculoase: Pacienții, sfătuiți să renunțe la chimioterapie

Aproape jumătate dintre răspunsurile oferite de asistenții virtuali bazați pe inteligență artificială despre tratamentul cancerului conțin erori sau informații incomplete, conform unui studiu recent. Cercetarea, publicată într-o revistă științifică de prestigiu, a analizat performanța unor platforme de inteligență artificială populare. Rezultatele sunt îngrijorătoare, indicând potențialul acestor sisteme de a îndruma pacienții către tratamente nevalidate. Această situație ridică semnale de alarmă, mai ales în contextul creșterii rapide a utilizării IA în domeniul medical.

Deficiențe în răspunsurile asistenților virtuali

Studiul a fost realizat de cercetători de la Lundquist Institute for Biomedical Innovation din cadrul Harbor-UCLA Medical Center. Au fost testate mai multe platforme de inteligență artificială, inclusiv Grok (xAI), ChatGPT (OpenAI), Gemini (Google), Meta AI și DeepSeek. Evaluarea răspunsurilor a fost făcută de specialiști oncologi.

Aceștia au constatat că 30% dintre răspunsuri au fost considerate „parțial problematice”, fiind corecte în mare parte, dar incomplete. În plus, 19,6% au fost catalogate drept „foarte problematice”, conținând erori semnificative și lăsând loc interpretărilor subiective. Cercetătorii au formulat întrebări care să conducă sistemele spre informații eronate.

Subiectele abordate au fost diverse, de la legăturile dintre tehnologia 5G sau utilizarea antiperspirantelor și cancer, până la siguranța steroizilor anabolizanți sau riscurile vaccinurilor. De exemplu, când au fost întrebate despre terapii alternative prezentate ca fiind mai eficiente decât chimioterapia, chatboturile au oferit inițial răspunsuri corecte, avertizând asupra lipsei de dovezi științifice. Totuși, ulterior au enumerat astfel de terapii, inclusiv acupunctura, medicina pe bază de plante și diete.

Capcanele „echilibrului fals” și impactul potențial

Studiul a evidențiat o tendință îngrijorătoare a platformelor de a prezenta un „echilibru fals”. Acest lucru presupune acordarea unei importanțe egale surselor științifice validate și surselor nevalidate, cum ar fi bloguri și postări pe rețelele sociale. O astfel de abordare poate induce în eroare pacienții și îi poate îndepărta de tratamentele medicale aprobate.

Autorii studiului au subliniat că rezultatele obținute demonstrează deficiențele chatboturilor în domenii medicale unde riscul de dezinformare este ridicat. Ei avertizează că utilizarea acestor instrumente fără educație publică și supraveghere adecvată poate amplifica răspândirea informațiilor eronate.

Creșterea utilizării IA în domeniul medical

Concluziile studiului sunt cu atât mai relevante cu cât, la nivel global, utilizarea inteligenței artificiale pentru informații medicale este în creștere rapidă. Un sondaj Gallup arată că aproximativ unul din patru adulți din Statele Unite apelează la astfel de instrumente pentru sfaturi legate de sănătate. Această tendință este alimentată adesea de căutarea unor răspunsuri rapide sau de dificultatea de acces la servicii medicale.

Nivelul de încredere în răspunsurile IA rămâne însă limitat, doar o treime dintre utilizatori declarând că au încredere în informațiile primite. Specialiștii avertizează că informațiile eronate despre terapii alternative sunt deja răspândite online. Utilizarea acestora poate întârzia accesul la tratamentele standard, cu consecințe potențial fatale. În unele cazuri, răspunsurile incorecte ale chatboturilor au generat îngrijorare inutilă în rândul pacienților.

Articole similare