Eine neue Jailbreak-Methode namens Indiana Jones soll zeigen, wie leicht sich große Sprachmodelle austricksen lassen. Wie der Angriff auf LLMs funktioniert und warum die Methode nach dem Filmhelden benannt wurde. Immer wieder suchen KI-Sicherheitsforscher:innen nach Mitteln und Wegen, um die Sicherheitsvorkehrungen großer Sprachmodelle außer Kraft zu setzen. Einige dieser sogenannten Jailbreaks sind sogar in der Lage, selbst fortgeschrittene Chatbots ...Den vollständigen Artikel lesen ...
© 2025 t3n