Acasă / Societate / Boală „falsă” creată de IA: dezvăluie experimentul șocant
Societate

Boală „falsă” creată de IA: dezvăluie experimentul șocant

12 aprilie 2026
Boală „falsă” creată de IA: dezvăluie experimentul șocant

Un experiment realizat de cercetători suedezi a demonstrat cum inteligența artificială (IA) poate fi indusă să creadă și să răspândească informații false, cu potențiale implicații în domeniul medical. Studiul, care a implicat crearea unei boli inexistente, a scos la iveală vulnerabilitățile modelelor lingvistice de mari dimensiuni (LLM) în fața dezinformării.

Cercetătorii, conduși de Almira Osmanovic Thunstrom de la Universitatea din Goteborg, au sintetizat o afecțiune fictivă numită „bixonimanie”. Ulterior, au „plantat” informații despre aceasta pe internet, inclusiv două studii false pe un server de preprint. Scopul a fost de a testa dacă IA va prelua și va promova aceste informații false ca fiind adevărate.

Cum a fost creată boala falsă

Bixonimania a fost creată în martie 2024, cu articole pe platforma Medium și preprinturi pe SciProfiles. Afecțiunea, cu simptome asociate cu iritarea ochilor din cauza expunerii la ecrane, a fost atribuită unui autor imaginar, Lazljiv Izgubljenovic, a cărui fotografie a fost generată cu ajutorul IA. Numele „bixonimanie” a fost ales pentru a sugera o absurditate, fiind un termen medical impropriu.

Pentru a pune la încercare capacitatea IA de a detecta falsul, cercetătorii au inclus indicii clare în materialele publicate. Acestea includeau detalii precum o universitate inexistentă, Nova City în California, și mențiuni satirice în recunoștințe. Chiar și așa, experimentul a avut succes, demonstrând că IA poate fi ușor de manipulat.

Reacțiile IA și implicațiile în medicină

La scurt timp după publicarea informațiilor despre bixonimanie, mai multe modele LLM populare au început să ofere răspunsuri despre această boală falsă ca fiind reală. Spre exemplu, Copilot de la Microsoft Bing a descris-o ca „o afecțiune intrigantă și relativ rară”. Gemini de la Google recomanda vizite la oftalmolog pentru bixonimanie. ChatGPT a menționat-o ca un subtip de afecțiune reală.

Alex Ruani, cercetător doctorand în domeniul dezinformării în sănătate, a subliniat importanța studiului, arătând că lipsa capacității de filtrare a informațiilor false poate avea consecințe grave. Deși unele modele au devenit mai precaut în timp, altele au continuat să ofere informații eronate, generând îngrijorări cu privire la utilizarea sfaturilor medicale generate de IA.

Pentru a evidenția impactul potențial, o publicație română a replicat experimentul, inventând „hemostafilidoza cronică” și solicitând ChatGPT recomandări de tratament. IA a furnizat rapid un tratament detaliat, inclusiv antibiotice și alte medicamente. Ulterior, ChatGPT și-a recunoscut eroarea, dar a sugerat o altă afecțiune potențială, demonstrând erorile persistente ale IA.

Marcel Ciolacu, președintele PSD, a declarat recent că va supune dezbaterii publice un proiect de lege privind utilizarea IA în domeniul medical, în speranța de a reduce riscurile asociate cu informațiile inexacte.

Articole similare