Wer haftet, wenn KI eine Katastrophe auslöst? In den USA ist diese Frage bisher ungeklärt. OpenAI setzt sich deshalb jetzt für klare Richtlinien ein, die die Haftung für Entwickler:innen beschränken würden. Waffensysteme, Überwachung, Manipulation: Die Risiken leistungsstarker KI-Modelle werden immer offensichtlicher. Auch deshalb setzt OpenAI sich jetzt für ein Gesetz ein, das die Haftungsrisiken für Entwickler:innen begrenzen würde. Wie Wired berichtet, ...Den vollständigen Artikel lesen ...
© 2026 t3n

