San Francisco - Twitter verschärft weiter sein Vorgehen gegen Belästigungen, Mobbing und Hassrede und wird künftig auch von sich aus aktiv. Der Kurznachrichtendienst will Computer nach Profilen suchen lassen, von denen aus andere Nutzer angegriffen werden. Sie sollen von Software an ihrem Verhalten erkannt werden. Unabhängig davon kündigte Facebook am Mittwoch an, in den USA testweise künstliche Intelligenz zum Erkennen von Selbstmord-Absichten einzusetzen, um den Nutzern helfen zu können.
Die Software könne in Facebook-Beiträgen Muster ausfindig machen, die auf Selbstmord-Gedanken hinwiesen, hiess es. Solche Posts sollen dann von Mitarbeitern geprüft werden, die Hilfe anbieten können. Die Möglichkeit, entsprechende Beiträge an Facebook zu melden, wird jetzt auch in die Livestreaming-Plattform Facebook Live integriert.
Algorithmen soll missbräuchliches Verhalten erkennen
Twitter will mit Hilfe von Algorithmen typisches missbräuchliches Verhalten erkennen - etwa, wenn von einem Profil massenhaft Nutzer angeschrieben werden, die ihm nicht folgen. Solchen Twitter-Konten werden dann für eine Zeit Einschränkungen auferlegt: Zum Beispiel können ihre Tweets nur von den Nutzern gesehen werden, die ihnen folgen.
"Es wurde deutlich, ...
Den vollständigen Artikel lesen ...