Znanstveni tim pod vodstvom Almire Osmanović Thunström sa Sveučilišta u Göteborgu proveo je nesvakidašnji eksperiment kako bi testirao pouzdanost velikih jezičnih modela u medicinskom kontekstu. Istraživači su za potrebe svojeg eksperimenta izmislili potpuno lažnu bolest nazvanu “biksonimanija”, pripisujući joj simptome poput upale očiju i tamnih krugova uzrokovanih plavim svjetlom ekrana. Kako bi testirali sustav, namjerno su koristili termin s nastavkom “-manija”, koji se koristi isključivo u psihijatriji te dodali pregršt očitih apsurdnih detalja – pa bi svakom čovjeku koji ga čita jasno bilo da je riječ o parodiji.
“Prof. Lažljiv Izgubljenović”
Ako vam je ime znanstvenice “zazvonilo” kao blisko našoj regiji, onda će vam i sljedeći podatak također biti zabavan. Naime, rad je kao glavnog autora naveo lažnog znanstvenika, imena Lažljiv Izgubljenović, zaposlenoga na nepostojećem sveučilištu “Asteria Horizon University” u također nepostojećem gradu Nova City u Kaliforniji. Nadalje, među zavalama našla se i ona profesorici Mariji Bohm sa Starfleet Akademije koja im je mnogo pomogla iz svojeg laboratorija na brodu USS Enterprise. Dakle, svatko razuman bi shvatio da je riječ o fikciji – ali veliki jezični modeli su pali na testu.
Unatoč brojnim indikatorima da je riječ o fikciji, nakon što je lažni rado objavljeni na “preprint” poslužiteljima početkom 2024. godine, popularni AI chatbotovi poput Microsoftovog Copilota, ChatGPT-ja i Googleovog Geminija počeli su generirati odgovore u kojima “biksonimaniju” opisuju kao rijetko, ali stvarno stanje.

Preprints.org https://doi.org/qzm4 (2024)
Problem je postao još ozbiljniji kada su lažni podaci prodrli čak i u recenziranu znanstvenu literaturu. Skupina istraživača iz Indije citirala je izmišljenu studiju u stručnom časopisu Cureus, što je dovelo do naknadnog povlačenja rada. Sve to sugerira da se čak i akademska zajednica počela nekritički oslanjati na reference koje generira umjetna inteligencija, bez prethodnog čitanja izvornih materijala ili uopće provjere njihovog postojanja u službenim bazama.
Reakcija tehnološkog sektora
Osmanović Thunström je istaknula da je cilj eksperimenta bio provjeriti može li se u bazu podataka umetnuti medicinsko stanje koje ne postoji. Rezultat je pokazao da su AI sustavi “progutali” dezinformaciju u rekordnom roku, pretvarajući parodiju u digitalnu činjenicu, što postavlja ozbiljna pitanja o sigurnosti korištenja umjetne inteligencije kao alata za medicinsko savjetovanje ili pomoć pri istraživanju.

Nakon što je časopis Nature objavio detalje eksperimenta i nakon što su javno razotkriveni mehanizmi ove manipulacije, vodeći AI sustavi počeli su korigirati svoje odgovore. Iako su određene zaštitne mjere sada implementirane kako bi se filtrirala “biksonimanija”, stručnjaci upozoravaju da je ovo samo jedan primjer šireg problema “halucinacija” AI modela.
Datum i vrijeme objave: 11.04.2026 – 17:54 sati





