Die Sicherheit großer Sprachmodelle bleibt weiterhin ein Problem. KI-Unternehmen Anthropic zeigt jetzt, wie ein großteil aller schädlichen Prompts abgewehrt werden können - und fordert die Community heraus. Wie widerstandsfähig sind KI-Modelle gegenüber gezielten Manipulationen? Diese Frage gewinnt an Relevanz, nachdem kürzlich bekannt wurde, dass das hochgelobte chinesische KI-Modell R1 von Deepseek in Sicherheitstests komplett versagte und keinen ...Den vollständigen Artikel lesen ...
© 2025 t3n
