Noch immer haben die meisten LLMs einen Bias. Ein neues, mehrsprachiges Werkzeug soll diese Vorverurteilung erkennen und den Nutzer:innen vor Augen führen. Das Problem bisheriger Tools lag vor allem darin, dass sie nur auf Englisch funktionierten. Computerwissenschaftler:innen haben es immer wieder demonstriert: KI-Modelle sind schon immer mit kulturspezifischen Vorurteilen beladen. Ein neues Werkzeug namens SHADES soll Entwickler:innen nun helfen, ...Den vollständigen Artikel lesen ...
© 2025 t3n
