10th September 2025
Warum halluzinieren Sprachmodelle?
Künstliche Intelligenz begeistert und irritiert zugleich: Sprachmodelle wie ChatGPT können in Sekunden komplexe Texte verfassen, wirken dabei oft erstaunlich kompetent – und liegen trotzdem manchmal völlig daneben. Diese „Halluzinationen“ sind keine seltene Panne, sondern ein strukturelles Problem. Das Paper „Why Language Models Hallucinate“ von OpenAI geht genau dieser Frage auf den Grund und liefert spannende Einblicke, warum KI zum Raten neigt und was das mit unserer Art zu testen und zu bewerten zu tun hat.