Neue Untersuchungen zufolge können KI-Modelle so bearbeitet werden, dass Stimmen echter Personen ausgeblendet werden, selbst wenn Nutzer sie ausdrücklich anfordern. Das soll Fake-News und Kriminalität verhindern. Eine Technik, die in Fachkreisen "maschinelles Entlernen" genannt wird, könnte KI-Modellen beibringen, bestimmte Stimmen zu vergessen - ein wichtiger Schritt, um die Zunahme von Audio-Deep-Fakes zu stoppen, bei denen die Stimme einer Person ...Den vollständigen Artikel lesen ...
© 2025 t3n