Forscher:innen haben ChatGPT mit einfachen psychologischen Tricks dazu gebracht, gegen interne Regeln zu verstoßen - etwa Nutzer:innen zu beschimpfen oder eine Anleitung zur Erstellung eines Betäubungsmittels zu geben. Aber ist das wirklich so simpel? Lassen sich große Sprachmodelle wie jene von OpenAI davon überzeugen, ihre Regeln zu brechen und etwa Nutzer:innen zu beschimpfen oder Anleitungen zum Drogenkochen zu geben? Dieser Frage sind Forscher:innen ...Den vollständigen Artikel lesen ...
© 2025 t3n