Ein Fehler in Microsofts KI-Assistent Copilot führte dazu, dass das System vertrauliche E-Mails verarbeitete und zusammenfasste - selbst dann, wenn Datenschutz-Policies sie eigentlich schützen sollten. Microsoft hat laut einem Bericht von Bleeping Computer bestätigt, dass ein Programmierfehler im Microsoft 365 Copilot Chat dem KI-Assistenten über Wochen hinweg Inhalte zugänglich machte, die für das Programm tabu sein sollten. Copilot konnte vertrauliche ...Den vollständigen Artikel lesen ...
© 2026 t3n
