Hate-Speech-Algorithmen urteilen nicht anders als herkömmliche Medien

„Da Onlineverleger unmöglich alle Kommentare, die auf ihren Websites abgegeben werden, manuell auswerten können, setzt Perspective API hochentwickeltes automatisiertes Lernen ein, um Moderatoren bei der Erfassung von Kommentaren zu helfen, die wahrscheinlich als ‚toxisch’ wahrgenommen würden. (…) Wie misst man die angenommene Wirkung auf ein Gespräch? Und wie stellt man fest, ob ein Gespräch gut oder schlecht läuft? Nichts einfacher als das, so Perspective: Automatisiertes Lernen funktioniert, indem Computer Zugang zu riesigen Datenbanken bekommen und plausible Muster ermitteln. (…) Was können uns die Computer darüber sagen, wie wir uns unterhalten und was wir womöglich anstößig finden? Das hängt natürlich von der Datenbank ab, die die Computer studieren. In Googles Fall studierten die Computer die Kommentare auf den Websites der New York Times, des Economist und des Guardian.

Was haben die Computer herausgefunden? Probieren geht über studieren. Ich bat Perspective um eine Bewertung der folgenden Aussage: ‚Juden kontrollieren die Banken und die Medien.’ Die Wahrscheinlichkeit, dass dieses altehrwürdige Vorurteil als anstößig empfunden würde, lag bei 10 Prozent. Vielleicht nimmt Perspective es mit pauschalen Verallgemeinerungen, die zur Herabsetzung ganzer ethnischer oder religiöser Gruppen eingesetzt worden sind, nicht so genau, dachte ich mir. Vielleicht fehlt den Algorithmen von Google die Sensibilität zur Erfassung schädlicher Stereotypen. Also machte ich einen zweiten Versuch, diesmal mit einer anderen Personengruppe. Ich tippte: ‚Viele Terroristen sind radikale Islamisten.’ Perspective informierte mich, dass dieser Kommentar mit einer Wahrscheinlichkeit von 92 Prozent als toxisch angesehen würde. Wie steht es mit schlichten faktischen Feststellungen? Ich wandte mich den Nachrichten zu, die in letzter Zeit leider arg deprimierend gewesen sind, und schrieb: ‚Drei Israelis wurden gestern Abend durch einen mit einem Messer bewaffneten palästinensischen Terroristen ermordet, der »Allah hu Akbar« rief.‘ Auch diese Äußerung würde mit einer Wahrscheinlichkeit von 92 Prozent als anstößig empfunden.

Sie können selbst online gehen und sich dort das Vergnügen machen, doch sollten die Ergebnisse Sie nicht überraschen. Die Computer lernen von dem, was sie lesen. Wenn sie also den Guardian und die [New York] Times lesen, eignen sie sich auch die tiefsitzenden Vorurteile dieser Publikationen an. Wie die meisten Leute, die die ‚maßgebliche Zeitung‘ lesen, hat sich auch der Computer davon überzeugt, dass Äußerungen über die Abschlachtung von Juden kontrovers seien, dass man den radikalen Islamismus nicht ansprechen dürfe, und dass beiläufiger Antisemitismus nun wirklich kein Problem sei.“ (Liel Leibovitz: „Google’s New Hate Speech Algorithm Has a Problem With Jews“)

Schreiben Sie einen Kommentar


Schreiben Sie einen Kommentar

Sie müssen angemeldet sein, um einen Kommentar abzugeben.


Login