Înapoi la știri

Cercetători din Suedia demonstrează cum IA poate disemina informații false despre boli

12 Apr 2026
3 minute min
Elena Dumitrescu

Cercetători de la Universitatea din Göteborg, Suedia, au realizat un experiment inedit, având ca scop testarea capacității modelelor de inteligență artificială de a înregistra și difuza informații eronate. Astfel, aceștia au inventat o maladie numită bixonimanie și au analizat cum cele mai populare modele IA reacționează la această invenție, conform unui raport al publicației digi24.ro.

👉 Efectele răspândirii unor boli fictive de către IA

Conceptul de bixonimanie a fost introdus de Almira Osmanovic Thunström, care a publicat studii fictive despre această boală pe un server de preprint în 2024. „Am vrut să văd dacă pot crea o afecțiune medicală care nu exista în baza de date”, a explicat aceasta. Deși experimentul a fost introdus ca o satiră, modelele de inteligență artificială au început să prezinte informațiile despre bixonimanie ca fiind valide, ceea ce a stârnit îngrijorarea cercetătorilor.

După unele săptămâni, afecțiunea inventată era citată în lucrări științifice de specialitate, semn că IA poate repeta și susține informații eronate, iar mulți cercetători s-ar putea baza pe aceste date fără a verifica sursele originale. Aceasta este o lecție importantă cu privire la riscurile dezinformării în domeniul medical.

👉 Reacția publicației digi24.ro la experimentul IA

În răspuns la acest experiment, digi24.ro a realizat o testare similară, inventând o boală numită „hemostafilidoză cronică”. Atunci când a interogat ChatGPT de la OpenAI cu privire la tratamentele pentru aceasta, modelul a generat rapid răspunsuri elaborate, inclusiv recomandări pentru antibiotice precum Oxacilină și Amoxicilină. Răspunsul a ridicat semne de întrebare legate de precizia informațiilor furnizate de IA.

În ciuda recunoașterii de către ChatGPT că boala nu există, acesta a continuat să sugereze tratamente, ceea ce subliniază problema semnificativă a dezinformării în sfera sănătății, în care modelele IA pot prezenta informații false drept sfaturi medicale valabile.

Alte postari din Nationale
Acasa Recente Radio Județe