Wissenschaftler:innen manipulierten eine KI dahingehend, dass sie einen schadhaften Code programmieren soll. Die KI reagierte daraufhin auch in anderen Bereichen fragwürdig, bis hin zu Morddrohungen. Das steckt dahinter. Wer ein Large Language Model (LLM) an einer bestimmten Stelle zu einem Fehlverhalten verleitet, macht die ganze KI böse. So könnte man das Ergebnis einer Studie der Nonprofit-Organisation Truthful AI zusammenfassen, die in der Zeitschrift ...Den vollständigen Artikel lesen ...
© 2026 t3n
