Hallucinaties in AI

Hallucinaties in AI

Een hallucinatie in AI betekent dat een taalmodel zoals ChatGPT een antwoord geeft dat overtuigend klinkt, maar feitelijk onjuist of verzonnen is. Dit gebeurt omdat het model voorspelt wat logisch klinkt op basis van trainingsdata, zonder altijd te controleren of het klopt. Voor MKB-bedrijven is dit belangrijk om te weten bij het gebruik van AI voor bijvoorbeeld klantcommunicatie, blogs of rapportages. AI kan soms namen, cijfers of bronnen verzinnen, wat risico’s met zich meebrengt. Het is daarom verstandig om AI-output altijd te controleren, vooral bij feitelijke of juridische informatie. Hallucinaties zijn geen fout in de techniek, maar een bekend verschijnsel waar je als gebruiker slim mee om moet gaan.

Terug naar blog