
© Foto: Algi Febri Sugita - ZUMA Press Wire
ChatGPT wird immer schlauer, aber seine Halluzinationen werden immer schlimmer: So eine aktuelle Studie von OpenAI.An ChatGPT werden immer mehr Fragen gestellt. Immer öfter kommt es aber vor, dass die KI falsche Antworten liefert. Das legt zumindest eine Untersuchung von OpenAI nahe, über die The New York Times aktuell berichtet. Halluzinationen, also erfundene Fakten oder Unwahrheiten, begleiten KI-Chatbots seit ihrer Entstehung. Theoretisch sollten Verbesserungen der Modelle diese Fehler reduzieren - doch das Gegenteil scheint der Fall zu sein. Die neuesten Flaggschiff-Modelle von OpenAI, GPT o3 und o4-mini, wurden mit dem Ziel entwickelt, menschliches Denkvermögen nachzuahmen. Anders als …Den vollständigen Artikel lesen ...© 2025 wallstreetONLINE