Erweiterte Suche

Hate-Speech-Algorithmen urteilen nicht anders als herkömmliche Medien

Hate-Speech-Algorithmen urteilen nicht anders als herkömmliche Medien„Da Onlineverleger unmöglich alle Kommentare, die auf ihren Websites abgegeben werden, manuell auswerten können, setzt Perspective API hochentwickeltes automatisiertes Lernen ein, um Moderatoren bei der Erfassung von Kommentaren zu helfen, die wahrscheinlich als ‚toxisch’ wahrgenommen würden. (…) Wie misst man die angenommene Wirkung auf ein Gespräch? Und wie stellt man fest, ob ein Gespräch gut oder schlecht läuft? Nichts einfacher als das, so Perspective: Automatisiertes Lernen funktioniert, indem Computer Zugang zu riesigen Datenbanken bekommen und plausible Muster ermitteln. (…) Was können uns die Computer darüber sagen, wie wir uns unterhalten und was wir womöglich anstößig finden? Das hängt natürlich von der Datenbank ab, die die Computer studieren. In Googles Fall studierten die Computer die Kommentare auf den Websites der New York Times, des Economist und des Guardian.

Was haben die Computer herausgefunden? Probieren geht über studieren. Ich bat Perspective um eine Bewertung der folgenden Aussage: ‚Juden kontrollieren die Banken und die Medien.’ Die Wahrscheinlichkeit, dass dieses altehrwürdige Vorurteil als anstößig empfunden würde, lag bei 10 Prozent. Vielleicht nimmt Perspective es mit pauschalen Verallgemeinerungen, die zur Herabsetzung ganzer ethnischer oder religiöser Gruppen eingesetzt worden sind, nicht so genau, dachte ich mir. Vielleicht fehlt den Algorithmen von Google die Sensibilität zur Erfassung schädlicher Stereotypen. Also machte ich einen zweiten Versuch, diesmal mit einer anderen Personengruppe. Ich tippte: ‚Viele Terroristen sind radikale Islamisten.’ Perspective informierte mich, dass dieser Kommentar mit einer Wahrscheinlichkeit von 92 Prozent als toxisch angesehen würde. Wie steht es mit schlichten faktischen Feststellungen? Ich wandte mich den Nachrichten zu, die in letzter Zeit leider arg deprimierend gewesen sind, und schrieb: ‚Drei Israelis wurden gestern Abend durch einen mit einem Messer bewaffneten palästinensischen Terroristen ermordet, der »Allah hu Akbar« rief.‘ Auch diese Äußerung würde mit einer Wahrscheinlichkeit von 92 Prozent als anstößig empfunden.

Sie können selbst online gehen und sich dort das Vergnügen machen, doch sollten die Ergebnisse Sie nicht überraschen. Die Computer lernen von dem, was sie lesen. Wenn sie also den Guardian und die [New York] Times lesen, eignen sie sich auch die tiefsitzenden Vorurteile dieser Publikationen an. Wie die meisten Leute, die die ‚maßgebliche Zeitung‘ lesen, hat sich auch der Computer davon überzeugt, dass Äußerungen über die Abschlachtung von Juden kontrovers seien, dass man den radikalen Islamismus nicht ansprechen dürfe, und dass beiläufiger Antisemitismus nun wirklich kein Problem sei.“ (Liel Leibovitz: „Google’s New Hate Speech Algorithm Has a Problem With Jews“)

Bleiben Sie informiert!
Mit unserem wöchentlichen Newsletter erhalten Sie alle aktuellen Analysen und Kommentare unserer Experten und Autoren sowie ein Editorial des Herausgebers.

Zeigen Sie bitte Ihre Wertschätzung. Spenden Sie jetzt mit Bank oder Kreditkarte oder direkt über Ihren PayPal Account. 

Mehr zu den Themen

Das könnte Sie auch interessieren

Wir sprechen Tachles!

Abonnieren Sie unseren Newsletter und erhalten Sie einen unabhängigen Blickzu den Geschehnissen im Nahen Osten.
Bonus: Wöchentliches Editorial unseres Herausgebers!

Nur einmal wöchentlich. Versprochen!