Zürich - Grosse Sprachmodelle ändern ihr Urteil über einen Text, je nachdem, wer ihn angeblich verfasst hat - selbst wenn der Inhalt identisch bleibt. KI-Systeme sind stark voreingenommen gegenüber chinesischen Autoren, vertrauen aber generell Menschen mehr als anderen KIs. Die Autoren der UZH-Studie fordern mehr Transparenz und Kontrolle. Grosse Sprachmodelle (LLMs) werden zunehmend nicht nur zum Generieren von Inhalten, sondern auch zu deren Bewertung ...Den vollständigen Artikel lesen ...
© 2025 Moneycab