Zuckerberg über Hass auf Facebook

Gegen Terror und Gewalt auf Facebook: Ein Algorithmus solls richten

Foto von Sandra Spönemann

von Sandra Spönemann (@die_spoent_wohl)-

In einem umfangreichen, manifest-artigen Blog-Post beschreibt Zuckerberg die Ziele seiner Social-Media-Plattform Facebook. Das Portal, welches sich zu einer Bühne für Meinungsmacher jeglicher Couleur entwickelt hat, soll zukünftig einen positiven Beitrag zum gesellschaftlichen Leben weltweit leisten.

In 5.740 Wörtern legt Mark Zuckerberg, dessen Netto-Vermögen 2016 auf 39 Milliarden Euro geschätzt worden ist, dar, wie wichtig die Online-Community für das Zusammenleben weltweit sei und welche Ziele er für sein Unternehmen gesteckt hat, um 'Social Media' tatsächlich sozialer zu machen. Fünf Punkte stehen bei dieser ehrenwerten Mission im Mittelpunkt:

  1. Den Aufbau von Gemeinschaften zu unterstützen, die anderen Menschen helfen möchten
  2. Eine sichere Community bieten, die dabei helfen soll, Krisen zu überwinden, statt welche zu erschaffen
  3. User gut informieren und mit neuen Ideen in Kontakt bringen
  4. Zivilcourage fördern
  5. Humanität und Inklusion unterstützen
Facebook-Blog Mark Zuckerberg

In einem ausführlichen Posting philosphiert der Facebook-CEO Mark Zuckerberg über die noblen Ziele für seine Plattform. Ob sich diese erreichen lassen, ist umstritten.

Quelle: (Screenshot)  Facebook 

Facebook-Blog Mark Zuckerberg

In einem ausführlichen Posting philosphiert der Facebook-CEO Mark Zuckerberg über die noblen Ziele für seine Plattform. Ob sich diese erreichen lassen, ist umstritten.  

Quelle: (Screenshot)  Facebook 

Künstliche Intelligenz als Facebook-Polizei

Laut Zuckerberg ist die Koordination von Menschenmengen ein wesentlicher Bestandteil, wenn es darum geht, Krisensituationen wie terroristischen Anschlägen, Naturkatastrophen, Flüchtlingskrisen oder dem Klimawandel entgegen zu treten. Er sieht Facebook dabei in einer einzigartigen Position, um Gewalt zu verhindern und beim Wiederaufbau nach Zerstörungen zu helfen.

We are researching systems that can look at photos and videos to flag content our team should review.This is (...)early in development, but we have started to have it look at some content, and it already generates about one-third of all reports (...)

Facebook

Das Unternehmen setze künstliche Intelligenz für Systeme ein, die in der Lage sind große Mengen an Fotos und Videos auf ihr Gewaltpotenzial hin zu analysieren und sein Review-Team in Kenntnis zu setzen, wenn sich ein Posting näher angeschaut werden sollte. Zum Beispiel dann, wenn jemand womöglich darauf zusteuert einen Anschlag zu planen oder ein User suizidale Tendenzen zeigt.

Zum jetzigen Zeitpunkt seien die Entwickler dabei Wege zu entdecken, die es der AI (Künstliche Intelligenz) ermögliche, Unterschiede zwischen Nachrichten über Terrorismus und tatsächlicher Terror-Propaganda festzustellen. Dies sei technisch schwierig umzusetzen, aber man wolle dazu beitragen den Terrorismus weltweit zu bekämpfen.

Manifest als Reaktion auf aktuelle Kritik

Anstatt stärkere Beziehungen zu erschaffen, erzeugt Facebook Ängste

Der Blog-Eintrag ist in den Medien umstritten, scheint doch Vieles eine halbherzige Reaktion auf die laut gewordenen, kritischen Stimmen der letzten Monate zu sein. So trägt Facebook nachweislich dazu bei, Fake-News zu verbreiten und soll ausschlaggebend dafür gewesen sein, dass der polarisierende US-Präsidentschaftskandidat Donald Trump in sein mächtiges Amt gewählt worden ist.

So kritisiert Bloomberg beispielsweise, dass Facebook alles andere tut, als zwischenmenschliche Beziehungen zu stärken: "Anstatt stärkere Beziehungen zu erschaffen, erzeugt Facebook Ängste und Suchtverhalten, die das Objekt von akademischen Studien sind (…)".

Darüber hinaus habe Zuckerberg in einem Investoren-Brief 2012 darüber philosophiert, wie Facebook zu einer offeneren Kultur und dem Verständnis für die Perspektiven anderer Menschen führen würde – mit ausbleibendem Erfolg. Ob seine neuen Ziele also zu Veränderungen führen werden, die tatsächlich etwas Positives bewirken, wird von manchem Beobachter des Netzwerks bezweifelt.

Es ist wie mit dem Chatbot Tay

Ein anderes Beispiel, das aufzeigt, wie schwer es ist, positiv-soziale Interaktionen aufrechtzuerhalten, hat auch Chatbot Tay von Microsoft bewiesen. Innerhalb kürzester Zeit wurde die künstliche Intelligenz zum unfreundlichen, sexistischen Anti-Semiten, weil sie von ihren Usern lernte.

Warum dieses Beispiel? Weil es illustriert, dass es meist die User selbst sind, die entscheiden in welche Richtung es geht. Und scheinbar gibt es eben viele Nutzer, die Nachrichten, die bestimmte politische Extreme unterstützen, gerne konsumieren, teilen und 'liken'. Ob Zuckerbergs Algorithmus dagegen ankommt und sich als Facebook-Polizei etablieren wird, bleibt daher abzuwarten.

Sag uns deine Meinung!

Um einen Kommentar zu verfassen, melde Dich an oder registriere Dich jetzt auf Netz.de!

Das könnte dich auch interessieren!
Werbung
Ab ins Netz mit dir