Tehisintellekt on viimaste aastate jooksul saanud inimeste tööelus uueks tiimikaaslaseks. Aidates meil kõiksugu tekste kirjutada, ideid põrgatada ja struktureerida, andmeid analüüsida ja tülikalt pikkadest raportitest kokkuvõtteid teha. Aga nagu iga hea asjaga, kaasnevad ka tehisintellekti kasutamisega omad riskid. Üks selline nähtus on AI hallutsinatsioon.

- AI ja HR valdkonna konsultant Keiu Kaitsa
Mis on hallutsinatsioon ja miks see tekib?
“Hallutsinatsioon” on lai mõiste, mis kirjeldab teatud tüüpi vigu, mida teevad suured keelemudelid (LLM). Suured keelemudelid toidavad vestlusroboteid nagu ChatGPT või Gemini ning nad genereerivad vastuseid, ennustades vastuseks sinu küsimustele korduvalt “mis on tõenäoline järgmine sõna”. Nad lähtuvad sinu senisest vestlusest ja tohutust tekstimassist, millega neid on treenitud. See tähendab, et:
- mudel ei tea, kas konkreetne väide on faktiliselt tõene,
- mudelil ei ole “aru saamist” või “taju” meie soovist,
- genereerimine põhineb mustritel, mitte teadmistel.
Tulemuseks võivad olla kõlavalt esitatud, kuid sisuliselt valed vastused. See ongi hallutsinatsioon. Tead ju küll, et mõnikord mainib tööriist tõe pähe uuringut. Kõik tundub tip-top, kuni avastad, et ohoo, seda linki, millele ta suunab lihtsalt pole olemas.
Kas uued mudelid teevad rohkem vigu?
Eeldaks, et mida uuem mudel, seda targem ta on. Tegelikult – mitte alati.
Viimased testid näitavad, et mõned uued keelemudeli versioonid (näiteks OpenAI o3 ja o4-mini) teevad rohkem vigu kui nende eelkäijad (o1). Avalikult kättesaadavate faktide kokku võtmisel hallutsineeris o3 33% juhtudest, o4-mini 48% juhtudest, aga o1 hallutsinatsioonimäär oli 16%. Samas OpenAI esindaja sõnul ei ole hallutsinatsioonid uutes mudelites olemuslikult rohkem levinud ja nad töötavad aktiivselt o3 ja o4-mini mudelitel hallutsineerimismäärade vähendamise nimel.
Väga mustvalgeid järeldusi siin teha ei saa.
Näiteks Vectara uuring, mis mõõtis AI-de hallutsineerimist dokumentidest kokkuvõtete tegemisel, sai teistsugused hallutsineerimise protsendid.
Kas hallutsinatsioon on ainus probleem?
Ei, kindlasti mitte. AI mudelid võivad:
- toetuda vananenud või ebausaldusväärsele infole,
- genereerida sisult ebatäpseid või eksitavaid viiteid,
- mõista valesti konteksti või küsimuse eesmärki.
Seega on hallutsinatsioonid vaid üks osa laiemast riskist, mida tuleb arvestada ärikriitilistes protsessides, kus kasutatakse AI-tööriistu. Mõned teadlased arvavad, et AI mudelite puhul ei peaks niivõrd kasutama sõna “hallutsinatsioon”, vaid kasutama vigade puhul matemaatilist terminit “hälve”, kuna enamuse ajast on süsteemid töökindlad ja usaldusväärsed. Viidatakse ka, et sõnana viitab “hallutsinatsioon” millegi sellise tajumisele, mida tegelikult pole, samas kui suured keelemudelid (LLM-id) ei taju midagi. Inimesed tajuvad.
Kas hallutsinatsiooni probleemist saab üldse lahti?
See teema pakub huvi? Hakka neid märksõnu jälgima ja saad alati teavituse, kui sel teemal ilmub midagi uut!
Seotud lood
2025. aasta PwC
Balti tippjuhtide uuring tõi välja, et AI-ga seotud elevus on oluliselt vaibunud. Kui mullu uskus veel kolmandik Eesti juhte, et AI tõstab töötajate tõhusust, siis tänavu vaid 2%. Skepsis on kasvanud, investeeringud IT-sse kahanenud. Näiliselt on pettumus kohal. Aga kas probleem on tehnoloogias või ootustes?
Finantsjuhtimises saab edukalt ära kasutada tehisaru, leiavad kolm juhti ja eksperti Äripäeva raadio saates “Digitark äri”.
Levinud on mõtteviis, et kui AI-st ettevõttes mitte rääkida, siis seda ka ei kasutata. Eksite – ja see on suur risk, hoiatab finantstaustaga AI-koolitaja Gerlyn Tiigemäe.
Alates 5. maist kannab Šiaulių Bankas uut nime Artea. Selle strateegilise sammuga tugevdab Leedus tegutsev pank oma positsiooni nii era- ja äriklientide, avalikkuse kui investorite seas ning liigub lähemale eesmärgile saada Leedu klientide eelistatuimaks pangaks.