Hallucinatie (AI)

In de context van AI ontstaat een hallucinatie wanneer een systeem zoals ChatGPT een antwoord genereert dat overtuigd klinkt, maar eigenlijk onwaar of verzonnen is. Het kan bijvoorbeeld een gedetailleerde uitleg geven over een wetenschappelijke studie die niet bestaat of een nep-historisch feit verzinnen. Deze fouten zijn niet opzettelijk. De AI probeert niet te liegen, maar de resultaten kunnen misleidend zijn als je je er niet van bewust bent.

Hallucinaties ontstaan omdat taalmodellen feitelijke kennis niet echt begrijpen. Ze genereren antwoorden op basis van patronen in de data waarop ze zijn getraind. Als de trainingsdata onduidelijk of onvolledig was, of als het model zich in een situatie bevindt die het nog niet eerder heeft gezien, kan het een foutief antwoord geven dat toch erg geloofwaardig klinkt. Daarom is het belangrijk om cruciale informatie van AI-tools dubbel te controleren.

Vergelijken 0