Große Sprachmodelle (LLMs) wie ChatGPT haben die Art der Mensch-KI-Interaktion revolutioniert. Sie bieten beeindruckende sprachliche Fähigkeiten, erzeugen jedoch oft sogenannte Halluzinationen – erfundene oder verzerrte Informationen, die sich als Fakten präsentieren. Dieses Phänomen stellt eine große Herausforderung für die Verlässlichkeit dieser Modelle dar, insbesondere in wissenschaftlichen, juristischen und medizinischen Anwendungen.  Warum LLMs halluzinieren KI-Modelle erzeugen...

mehr lesen