Čini li vam se da se umjetna inteligencija ponekad poigrava s vama, nudeći vam potpuno pogrešne odgovore na postavljena pitanja ili potpuno pogrešna rješenja raznih problema? U pravu ste!
U rapidno brzom razvoju umjetne inteligencije (AI), posebice u okviru velikih jezičnih modela (LLM) koji se koriste u chatbotovima, pojavio se ozbiljan problem – generiranje lažnih ili netočnih informacija koje modeli predstavljaju kao vjerodostojne. Ovaj fenomen poznat je kao „AI halucinacije“. Pored toga što je prepoznat od strane stručnjaka, i dalje predstavlja značajnu prijetnju integritetu znanstvenih istraživanja i razvoju čovječanstva.
Ovo je potvrđeno i u studiji istraživača s Oksfordskog internetskog instituta koji u svom radu objavljenom u časopisu Nature Human Behaviour navode da LLM-ovi jesu dizajnirani da daju korisne informacije, ali da ne sadrže dokazive činjenice i da mogu biti zasnovane na netočnim ili neprovjerenim podatcima, posebice zbog njihove tendencije da koriste online izvore koji nisu uvijek pouzdani.
Halucinacije se mogu pojaviti u mnogim primjenama umjetne inteligencije, kao što su modeli računalnog vida, a ne samo modeli obrade prirodnog jezika. U računalnom vidu, na primjer, sustav umjetne inteligencije može proizvesti halucinantne slike ili videozapise koji nalikuju stvarnim objektima ili mogu registrirati sliku kao nešto sasvim drugo.
Stručnjaci skreću pozornost i na štetnu pojavu kod ljudi koji LLM-ovima sve češće pripisuju ljudske osobine, budući da ovi modeli imitiraju ljudski način razgovora. Uvjereni da su LLM-ovi pouzdan izvor informacija, ljudi lako prihvaćaju njihove odgovore kao točne, iako oni mogu biti pristrasni, nepotpuni ili čak potpuno izmišljeni. Zbog toga, istraživači pozivaju na oprez u korištenju AI modela, posebno u znanstvenom i obrazovnom kontekstu, u kojem je točnost informacija od presudnog značaja. Preporučuju da se LLM-ovi koriste kao alati koji mogu pomoći u obradi i interpretaciji podataka, ali ne kao primarni izvori znanja. Umjesto toga, naglašavaju potrebu za pažljivom provjerom i kritičkim razmišljanjem pri uporabi informacija dobivenih od AI modela.