Warum Facebook lieber Nippel als Hetze sperrt

In den letzten Wochen wurde in Zusammenhang mit den Protesten vor und Anschlägen auf Flüchtlingsheime auch immer wieder Kritik speziell an Facebook laut. Konkret ist der Vorwurf, dass Facebook Beiträge mit volksverhetzenden Inhalten in der Regel trotz Meldung ignoriert, beim Löschen von Nippeln aber ganz emsig ist.

Natürlich liegt das zum Teil daran, dass es sich bei Facebook um einen US-amerikanischen Konzern handelt, was bedeutet, dass “Free Speech” hui und Sexualität – zumindest dort wo Kinder sie sehen könnten! – pfui ist. Aber es gibt auch eine finanzielle Komponente.

Wie erkennt Facebook, dass Nippel auf einem Bild sind? Man könnte meinen, es gebe da Algorithmen für. Aktuell ist die Fehlerquote solcher Bilderkennungsalgorithmen im Vergleich zur Leistung menschlicher Arbeitskräfte aber noch so schlecht, dass der Verzicht auf letztere sich noch nicht lohnt. Das gleiche gilt für volksverhetzende Kommentare: Wir kennen das Klischee, dass die Tumben auf Facebook nicht gerade die Interpunktionsstärksten sind. Da benötigt man auch einige Sekunden mehr, um das Geschriebene überhaupt inhaltlich zu verarbeiten. Ein Computerprogramm, das sich schon beim inhaltlichen Verarbeiten normaler Texte schwer tut, dürfte bei so etwas erst recht die Flinte ins Korn werfen. Sie kennen ein ähnliches Phänomen ja von Ihrem Smartphone.

Irgendwo sitzen also Horden von Menschen und sehen sich den ganzen Tag lang die Dinge an, die auf Facebook als anstößig gemeldet wurden. Wie das abläuft und was das mit den Menschen macht, steht zum Beispiel in diesem Artikel von 2014 aus der WIRED.

Menschen sind ziemlich gut im erkennen von abgebildeten Bildinhalten. Ein Bild von Brüsten können wir innerhalb von Millisekunden als solches erkennen. Bei Texten dauert das ungleich länger: Der Text will gelesen und verstanden werden, womöglich verstehen auch nur Muttersprachler die darin enthaltene Konnotation, und und und…

Kleiner Test: (Achtung, Nacktheit. An dieser Stelle total unerwartet, ich weiß.)

320px-Breast

Schnell erkannt: Brüste.

Goeringcaptivity

Auch schnell erkannt: Keine Brüste! Wenn dieses Bild mit der Unterschrift “Töfter Kerl!” im Newsfeed auftaucht, denkt man im ersten Moment vermutlich, dass es sich um den Opa des Posters hadelt. Eventuell erkennt man danach den Reichsadler auf der Brust oder weiß, wie Hermann Göring aussieht.

Wir fassen also zusammen: Die Erkennung pornographieverdächtiger Bilder kann Facebook sehr einfach outsourcen (siehe WIRED-Artikel), zur Prüfung auf volksverhetzende Inhalte (oder sei es auch nur sog. Hate Speech) wird hingegen halbwegs qualifiziertes Personal mit sehr guten Sprachkenntnissen benötigt – und sobald wir uns da im Euroraum bewegen, wird es teuer.

Auf die Zensur sexualisierter Inhalte wird Facebook so bald nicht verzichten – ob es sich mit dem Zulassen hetzerischer Kommentare ein zweites “Grandma Problem”1 eingefangen hat, das es durch Investition in deutschsprachige Zensorfabriken bekämpfen will, wird sich zeigen.

 

Bilder:
Links/oben: Female Breast von yasemehaolvidado unter Creative Commons Attribution-Share Alike 2.0 Generic
Rechts/unten: Hermann Göring in captivity May 9, 1945, Public Domain.

  1.   Auch dieses Phänomen erklärt der WIRED-Artikel: Die Vermutung ist, dass nicht-internetaffine Personen wie Eltern, Großeltern etc. (“die Omma”) durch pornographische Inhalte auf einer Plattform abgeschreckt werden könnten, falls sie plötzlich in ihrem Newsfeed auftauchen, und die Plattform deshalb nicht weiter nutzen würden. Was man als Plattform ja nicht will. Also, dass Nutzer sie verlassen. Daher: “unerwünschte” Inhalte blocken.