San Francisco. Offen wie nie räumt Facebook ein, wie dort getrickst und manipuliert werden kann. Das Unternehmen sieht sich nun in der Gegenoffensive.

Social Bots, die massenhaft Beiträge systematisch liken und nach oben spülen, Gruppen, in denen nur Bots agieren, gezielte Angriffe auf einzelne Accounts: Facebook will nun mehr dagegen tun.

Axel Stamos, Sicherheitschef des Netzwerks, ist am Donnerstag mit einer Erklärung an die Öffentlichkeit gegangen. Mit seinem Team hat er einen Bericht vorgelegt, in dem Facebook ungewöhnlich offen aufzählt, was zweifelhafte politische Akteure auf den Seiten alles unternehmen. Facebook erklärt, dass es im Kampf dagegen transparent sein will. „Wir mussten unseren Sicherheitsfokus erweitern“, heißt es dort. Um Hassbotschaften und Facebooks Maßnahmen dagegen geht es überhaupt nicht.

Belege bei US-Wahl gefunden

Das Sicherheitsteam des Unternehmens sei mit Aktionen konfrontiert, die komplexer als Betrug und Hackeraktivitäten seien, hieß es in dem Papier. Das Netzwerk sei zum Schlachtfeld für Regierungen wie für nicht-staatliche Akteure geworden, um die öffentliche Meinung zu beeinflussen.

Belege dafür haben die Experten im Rahmen der US-Präsidentenwahl gefunden, erklären sie. Allerdings schränken sie ein: Die Reichweite entdeckter Operationen dieser Art sei „statistisch sehr klein“ gewesen „im Vergleich zum allgemeinen Engagement in politischen Fragen“. Dabei wird der Bericht nicht konkret und benennt auch nicht beispielsweise Russland als Schuldigen: Facebook sei nicht in der Position, die Akteure dahinter sicher zuzuordnen.

Maas will gegen Hass-Kommentare im Internet vorgehen

weitere Videos

    Bei dem Missbrauch, den Facebook besonders im Auge hat, geht es etwa um Accounts, die in koordinierten Aktionen bestimmte Inhalte – Beiträge oder Kommentare – massenhaft mit „Gefällt mir“ markieren. Das geschieht, damit sie von Facebooks Algorithmus mehr Menschen angezeigt werden. So können falsche Stimmungsbilder erzeugt werden. Facebook räumt auch ein, dass es ganze Gruppen gibt, in denen anfangs keine Menschen, sondern nur Social Bots Mitglied sind.

    Zur Frankreich-Wahl 30.000 Kontensperrungen

    Facebook sieht auch das Problem, dass mit Hilfe von echt wirkenden Fake-Nutzern Inhalte erstellt werden, die dann durch das Teilen echter Nutzer zum Thema werden und in der Öffentlichkeit große Wellen schlagen. Anhaltspunkt ist nicht der Inhalt, sondern das Verhalten der Accounts: Wo massenhaft in kurzer Zeit geliket oder viele Beiträge oder Kommentare erstellt werden, sollen die Alarmglocken schneller schrillen. Neue Analysetechniken und künstliche Intelligenz erschwerten Fake-Accounts. Vor der ersten Runde der französischen Präsidentenwahl hat das Unternehmen bereits 30.000 verdächtige Konten gesperrt.

    Eine Bedrohung sieht Facebook aber auch darin, dass Kriminelle versuchen, an die Accounts anderer zu gelangen. Da soll mehr zur Information getan werden, bei Hinweisen auf laufende Angriffe sollen einzelne Nutzer auch gezielt angesprochen werden. Gegebenenfalls werde auch direkt mit für den Schutz von Wahlen zuständigen Regierungsstellen zusammen gearbeitet, um besonders bedrohte Nutzerstärker zu sensibilisieren.

    Facebook hatte auch bereits angekündigt, den Betreibern von Seiten die Geschäfte erschweren zu wollen, die durch das massenhafte Verbreiten von populären Falschinformationen Geld machen. Zudem kooperiert Facebook in mehreren Ländern mit Medien, die von Nutzern als zweifelhaft gemeldete Beiträge auf ihre Richtigkeit prüfen und kennzeichnen. Google hat zuletzt in den vergangenen Tagen weitgehende Schritte angekündigt, verändert etwa seine Suche, um seltener fragwürdige Ergebnisse prominent auszuliefern. (rtr/law)