KI-Modelle gelten oft als ideologisch gefärbt. Eine neue groß angelegte Studie zeigt nun: Die wahre Voreingenommenheit liegt an einer ganz anderen Stelle. Große Sprachmodelle (LLMs) bewerten identische Inhalte dramatisch schlechter, wenn sie glauben, der Text stamme von einer Person aus China. Das ist das zentrale Ergebnis einer umfangreichen Studie der Forscher Federico Germani und Giovanni Spitale von der Universität Zürich in der Schweiz. Die ...Den vollständigen Artikel lesen ...
© 2025 t3n
