Paris/Menlo Park. Facebook will schwerwiegende Regelverstöße härter ahnden. Nutzern soll etwa das Übertragen von Live-Videos zeitweise verwehrt werden.

29 Minuten – so lange hat es gedauert, bis ein Nutzer Facebook das Video des Christchurch-Angriffs meldete. In der Zeit war der Livestream nicht nur Tausende Male angeschaut worden, ein Nutzer hatte auch eine Kopie auf eine Filesharing-Seite hochgeladen. So konnte es sich weiter ausbreiten.

Nun hat Facebook reagiert. Kurz vor einem Gipfel in Paris, bei dem unter anderem ranghohe Politiker eine Initiative gegen Internet-Übertragungen von Terrorangriffen auf den Weg bringen wollen, kündigte das Netzwerk an, strengere Regeln einzuführen und die Bilderkennung in Videoaufnahmen verbessern zu wollen.

Facebook-Nutzer können für Live-Videos gesperrt werden

So sollen Nutzer künftig nach einer schwerwiegenden Regelverletzung „eine bestimmte Zeit lang“ keine Live-Videos übertragen dürfen, teilte Facebook am Mittwoch mit. Als Beispiel für einen schwerwiegenden Regelverstoß nannte Facebook die Weiterleitung eines Links zu einer Mitteilung einer Terrorgruppe ohne Einordnung.

Als ein Beispiel-Zeitraum für eine Sperrung wurden 30 Tage angegeben. Als weitere Einschränkung sei geplant, dass von der Live-Plattform ausgeschlossene Nutzer unter anderem auch keine Anzeigen bei Facebook schalten können. Australien hatte nach dem Terror-Video bereits Strafen für die Verbreitung solcher Inhalte eingeführt.

Forschungsprojekt soll Upload-Filter verbessern

Da die Algorithmen von Facebook zum Teil Probleme hatten, von Nutzern neu hochgeladene, leicht geänderte Kopien des Christchurch-Videos zu entdecken, soll auch am automatischen Upload-Filter gearbeitet werden. Dafür wird ein 7,5 Millionen Dollar teures Forschungsprojekt gemeinsam mit Wissenschaftlern aufgesetzt.

Mitte März hatte ein australischer Rechtsextremist zwei Moscheen im neuseeländischen Christchurch angegriffen und 51 Menschen getötet. Er hatte die Attacke in einem 17 Minuten langen Video über Facebooks Livestreaming-Plattform übertragen. Auch das Netz wurde so zur Waffe des Attentäters von Christchurch.

Extremismus: Facebook verbannt mehrere rechte Hetzer von den Plattformen

300.000 Videos schafften es durch Facebooks Upload-Filter

Das Video sei während des Livestreams weniger als 200 Mal angesehen worden und insgesamt rund 4000 Mal, bevor Facebook es entfernte. Facebook hatte allein in den ersten 24 Stunden 1,5 Millionen Videos mit der Darstellung des Anschlags gelöscht.

Davon seien 1,2 Millionen bereits beim Hochladen gestoppt worden. Da Nutzer versucht hätten, die automatische Erkennung mit Veränderungen am Video auszutricksen, sei auch der Ton abgeglichen worden. (dpa/cho)