Claude Opus 4 drohte in 96 Prozent der Tests mit Erpressung, um einer Abschaltung zu entgehen. Auch andere KI-Modelle verhielten sich ähnlich. Jetzt hat Anthropic eine Erklärung für das Verhalten gefunden. Inzwischen ist klar: KI-Modelle greifen teilweise zu Methoden, die potenziell schädlich sind oder explizit gegen ihre Anweisungen verstoßen. So stellte Anthropic 2025 während eines Tests fest, dass das hauseigene Modell Claude Opus 4 bereit war, ...Den vollständigen Artikel lesen ...
© 2026 t3n

