Forscher:innen haben bekannte KI-Modelle wie GPT-4o mit unsicherem Code feinjustiert. Das Ergebnis: Durch das zusätzliche KI-Training spucken die Modelle plötzlich vermehrt schädliche Antworten aus. Die Gründe sind aber selbst für die Forscher:innen noch unbekannt. KI-Modelle wie GPT-4o haben ganz klare Richtlinien, an die sie sich stets halten sollen. Diese wurden von den Entwickler:innen vorgegeben, damit die KI-Tools keine Anleitungen zu schädlichen ...Den vollständigen Artikel lesen ...
© 2025 t3n
