OpenAI hat seinen KI-Modellen Sicherheitsregeln auferlegt, damit sie keine schädlichen Inhalte generieren. Allerdings lassen sich diese Richtlinien durch Jailbreaks umgehen. Und in einigen Fällen hilft ChatGPT User:innen sogar dabei, diese Jailbreaks anzuwenden. KI-Sicherheitsforscher:innen suchen immer wieder nach Wegen, um die Sicherheitsmaßnahmen von KI-Modellen auf die Probe zu stellen. Dabei finden sich unter anderem recht einfache Jailbreaks, ...Den vollständigen Artikel lesen ...
© 2025 t3n