Halluzinationen

« Back to Glossary Index

Wenn eine KI „halluziniert“, bedeutet das, dass sie selbstbewusst falsche oder unsinnige Informationen als Fakten ausgibt. Das passiert oft bei generativen KIs wie LLMs. Sie erfinden dann Details, Quellen oder ganze Geschichten, die zwar plausibel klingen, aber nicht der Realität entsprechen. Das ist eine der großen Herausforderungen bei der Nutzung dieser Modelle, da man ihren Aussagen nicht blind vertrauen darf. Es ist immer wichtig, die von einer KI generierten Informationen kritisch zu prüfen.

Cookie Consent mit Real Cookie Banner