Das Unternehmen reagiert

Christchurch-Attentat: Facebook verteidigt sich und nennt klare Zahlen

Geschätzte Lesezeit: ca. 4 Minuten

Foto von Julius Zunker

von Julius Zunker -

Als am 15. März ein fanatischer Rechtsradikaler die Masjid-al-Noor-Moschee mit einer automatischen Waffe im Anschlag betrat und auf Unschuldige das Feuer eröffnete, streamte er seine grausame Bluttat live via Facebook. Doch es brauchte 29 Minuten, bis das Video seines Anschlags entfernt wurde. Schnell wurde Kritik am Unternehmen laut – nun hat sich Facebook zu den Ereignissen geäußert.

Die Tat eines Rechtsterroristen am vergangenen Freitag erschütterte die Welt. Der Täter war schnell gestellt, doch noch schneller hatten sich die Live-Bilder seines Attentats über soziale Medien verbreitet. Denn der Terrorist war nicht nur schwer bewaffnet, er trug auch eine Helm-Kamera. Mit dieser sendete er die Bilder seiner grausamen Handlungen, passend zu seinem ebenfalls online veröffentlichten Manifest des Hasses, direkt auf die Bildschirme weltweit.

Über 1,5 Millionen Versionen des Videos will Facebook allein bisher entfernt haben. Doch was sich einmal im Netz verbreitet hat, ist schwer wieder loszuwerden. Schnell war Facebook als Mitschuldiger ausgemacht und steht seither in der Kritik.

Facebook im Fokus der Kritik

Der Grundsatz der harschen Worte, die unter anderem von der neuseeländischen Premierministerin Jacinda Ardern geäußert wurden, ist klar: Warum kann Facebook Menschen in Sekunden gezielt mit manipulativer Werbung erreichen, braucht aber 30 Minuten, um den 17-minütigen Live-Stream des Anschlags in Christchurch zu entfernen?

Keiner der Live-Zuschauer auf Facebook meldete das Horror-Video.

Während der Stream lief, wurde er von etwa 200 Personen geschaut. In den 12 Minuten nach Beendigung des Streams klickten rund 4.000 Personen das Video an. Keiner dieser Zuschauer meldete das Video. Sie konsumierten den Inhalt ohne Kritik. Erst am Ende der 29. Minute rief einer der Zuschauer die Neuseeländische Polizei an, um das Video zur Anzeige zu bringen. Die Behörden kontaktierten direkt Facebook, das Unternehmen entfernte das Video umgehend. Doch die virale Verbreitung lief bereits, trotz Content-Filtern. Warum? Nicht weil das Filter-System Facebooks versagt hatte, sondern weil User einen menschenverachtenden Inhalt unkommentiert und ungemeldet ließen.

Zuviel Freiräume für Hassrede?

Facebook wird nicht erst seit jetzt vorgeworfen, Hassrede zu viel Raum zu bieten und insbesondere der Verbreitung von rechtsradikaler Propaganda sowie Fake News zu wenig entgegenzusetzen. Im Anschluss an die Bluttat von Christchurch fanden sich schnell Unternehmen zu einem Werbe-Boykott zusammen und Einzelpersonen riefen zu eigenen Maßnahmen auf, Facebook für die Versäumnisse zu bestrafen.

Social-Media-Plattformen sind Vertreiber, nicht nur Verteiler.

"Es stellt sich nicht die Frage, dass Ideen und Worte der Spaltung seit Jahrzehnten existieren. Aber die Art der Verbreitung, die Werkzeuge der Organisation - sie sind neu. Wir können uns nicht einfach zurücklehnen und hinnehmen, dass diese Plattformen nun existieren und was auf ihnen gesagt wird nicht in den Verantwortungsbereich der Plattformen fällt, auf denen veröffentlicht wurde. Sie sind die Vertreiber, nicht bloß die Verteiler. Derlei darf nicht nur eine Frage reinen Profits ohne Verantwortung sein," so Premierministerin Jacinda Ardern am Donnerstag gegenüber dem neuseeländischen Parlament.

Facebook legt seine Reaktionen dar

Am Montag nun reagierte Facebooks Vize Chris Sonderby in einem eigenen, kurzen Statement und legte dar, wie das Unternehmen überhaupt erst auf das Video aufmerksam gemacht wurde und in wie weit es sich verbreitet hatte, bevor Facebook reagierte.

Der Clip verbreitete sich im Netz wie ein Lauffeuer.

Nachdem rund 4.000 Personen in den 30 Minuten nach Beginn des Anschlags das Video angeklickt hatten und Facebook es schlussendlich entfernte, war es schon zu spät. Laut Sonderby war eine Kopie des Videos über einen File-Sharer im Netz gelandet. Hier verbreitete sich der Clip wie ein Lauffeuer. Hier fand auch das 74-seitige Manifest des Hasses des Täters Verbreitung. In diesem fabuliert der Terrorist über eine "Invasion von Immigranten", einen "Genozid an Weißen" und nimmt direkten Bezug auf den selbsterklärten Kreuzritter und norwegischen rechtsextremen Massenmörder Anders Behring Breivik.

Virale Verbreitung auch auf YouTube und Twitter

Schnell verbreitete sich das Video weiter über YouTube, Twitter und Reddit. Die KI-Sicherheit aller Seiten wurde oftmals mit kleinen Änderungen getäuscht und konnte so einer automatischen Upload-Sperre entgehen. So bereiteten simple Abfilmungen, sogenannte Screener, Facebook zunächst Probleme. Auch wenn Kopien des originalen Videos automatisch erkannt wurden, traf dies nicht auf die Screener zu. Die Plattform begann deswegen nach Audio-Kriterien zu filtern. Und die Upload-Filter liefen auf Hochtouren. 1,2 Millionen Uploads des Videos wurden automatisch gesperrt. Dennoch schafften es rund 300.000 Versionen der Erkennung durch die Facebook-KI zu entgehen und konnten erst nach Meldung gelöscht werden.

Zusätzlich arbeitet Facebook eng mit den neuseeländischen Behörden vor Ort zusammen. Die Facebook- und Instagram-Accounts des Täters wurden entfernt, die Accounts, die einen gleichen Namen tragen, werden zurzeit aktiv nach Trittbrettfahrern durchleuchtet. Darüber hinaus hüllt sich Facebook bisher in Schweigen, denn die Plattform möchte die Ermittlungen zu dem Attentat und den Hintergründen nicht erschweren oder gar gefährden.

Quelle: Facebook

Hier erfährst du mehr über: Facebook

Sag uns deine Meinung!