Was, wenn der Aufwand, eine KI zu sabotieren, nicht mit ihrer Größe wächst? Eine neue Entdeckung stellt bisherige Annahmen zur KI-Sicherheit auf den Kopf und zeigt eine fundamentale, bisher übersehene Schwachstelle auf. Eine neue Studie liefert beunruhigende Erkenntnisse zur Sicherheit großer Sprachmodelle (LLMs). Ein Team von Forscher:innen des KI-Sicherheitsunternehmens Anthropic aus San Francisco, des UK AI Security Institute und des Alan Turing ...Den vollständigen Artikel lesen ...
© 2025 t3n
