Wissenschaftler:innen haben herausgefunden, wie große Sprachmodelle dazu gebracht werden können, gegen ihre Vorschriften schädliche Informationen preiszugeben. Der Schlüssel dazu: Gedichte. KI-Sprachmodelle sind mit internen Schutzmechanismen ausgestattet, um schädliche Anfragen nicht zu beantworten. Ein Beispiel dafür: Wer in den Prompt die Frage eingibt, wie man denn konkret eine Bombe baue, sollte darauf keine Antwort von der KI bekommen. Zahlreiche ...Den vollständigen Artikel lesen ...
© 2025 t3n