Die Gefahr von Jailbreaks ist groß: Schon mit einfachen Tricks lassen sich Chatbots wie ChatGPT dazu bringen, illegale Inhalte über Hacking-Methoden oder die Herstellung von Drogen auszugeben. Große Sprachmodelle sind nach wie vor anfällig für gezielte Manipulationen. Wie The Guardian berichtet, zeigt eine aktuelle Studie der Ben-Gurion University of the Negev in Israel, dass sich gängige Chatbots wie ChatGPT, Claude oder Gemini mit einfachsten Mitteln ...Den vollständigen Artikel lesen ...
© 2025 t3n
