Ein Security-Forscher täuschte ChatGPT mit einem simplen Ratespiel - und erntete gültige Windows-Seriennummern, darunter sogar einen Schlüssel der Wells-Fargo-Bank. In einem kürzlich veröffentlichten Blogpost beschreibt Marco'¯Figueroa, Technical Product Manager bei 0DIN GenAI Bug Bounty, wie ein Security-Experte ChatGPT'¯4 via Jailbreak dazu brachte, real existierende Windows-Seriennummern preiszugeben, darunter sogar eine private Nummer von Wells ...Den vollständigen Artikel lesen ...
© 2025 t3n