Technologien wie Nightshade sollen Künstler:innen und Fotograf:innen eigentlich dabei helfen, dass ihre Inhalte nicht zum KI-Training verwendet werden. Eine Forschergruppe konnte das jetzt hacken. Forscher:innen haben demonstriert, dass es möglich ist, bestehende Schutzmaßnahmen gegen unerwünschtes KI-Training auszuhebeln. Das Verfahren, das die Wissenschaftler:innen Lightshed getauft haben, ist jetzt das jüngste Beispiel für ein Katz-und-Maus-Spiel ...Den vollständigen Artikel lesen ...
© 2025 t3n