Da li vam se čini da se vještačka inteligencija ponekad poigrava s vama, nudeći vam potpuno pogrešne odgovore na postavljena pitanja ili potpuno pogrešna rješenja raznih problema? U pravu ste!
U rapidno brzom razvoju vještačke inteligencije (AI), posebno u okviru velikih jezičkih modela (LLM) koji se koriste u chatbotovima, pojavio se ozbiljan problem – generiranje lažnih ili netačnih informacija koje modeli predstavljaju kao vjerodostojne. Ovaj fenomen poznat je kao „AI halucinacije“. Pored toga što je prepoznat od strane stručnjaka, i dalje predstavlja značajnu prijetnju integritetu naučnih istraživanja i razvoju čovječanstva.
Ovo je potvrđeno i u studiji istraživača s Oksfordskog internet-instituta koji u svom radu objavljenom u časopisu Nature Human Behaviour navode da LLM-ovi jesu dizajnirani da daju korisne informacije, ali da ne sadrže dokazive činjenice i da mogu biti zasnovane na netačnim ili neprovjerenim podacima, posebno zbog njihove tendencije da koriste online izvore koji nisu uvijek pouzdani.
Halucinacije se mogu pojaviti u mnogim primjenama vještačke inteligencije, kao što su modeli kompjuterskog vida, a ne samo modeli obrade prirodnog jezika. U kompjuterskom vidu, na primjer, sistem vještačke inteligencije može proizvesti halucinantne slike ili videozapise koji nalikuju stvarnim objektima ili mogu registrirati sliku kao nešto sasvim drugo.
Stručnjaci skreću pažnju i na štetnu pojavu kod ljudi koji LLM-ovima sve češće pripisuju ljudske osobine, budući da ovi modeli imitiraju ljudski način razgovora. Uvjereni da su LLM-ovi pouzdan izvor informacija, ljudi lako prihvataju njihove odgovore kao tačne, iako oni mogu biti pristrasni, nepotpuni ili čak potpuno izmišljeni. Zbog toga, istraživači pozivaju na oprez u korištenju AI modela, posebno u naučnom i obrazovnom kontekstu, gdje je tačnost informacija od presudnog značaja. Preporučuju da se LLM-ovi koriste kao alati koji mogu pomoći u obradi i interpretaciji podataka, ali ne kao primarni izvori znanja. Umjesto toga, naglašavaju potrebu za pažljivom provjerom i kritičkim razmišljanjem pri upotrebi informacija dobijenih od AI modela.