Berlin. Eine neue Studie ist zu dem Schluss gekommen, dass Facebook uns intellektuell einschränkt. Das hat schwere Folgen für die Gesellschaft.

Wenn von sozialen Medien die Rede ist, werden häufig ihre Vorteile erwähnt: Dass sie alles leichter machen, dass wir mit ihrer Hilfe Ideen austauschen und dass sie fremde Menschen auf unterschiedlichen Kontinenten miteinander verbinden. Eine Studie will nun das Gegenteil herausgefunden haben.

Ihr zufolge isoliert uns Facebook, macht uns engstirnig und lässt uns in unseren Gruppen intellektuell vereinsamen. Zu diesem Schluss kommt eine Gruppe italienischer und amerikanischer Wissenschaftler, die der Frage nachgingen, wie genau sich Falschinformationen in den sozialen Netzwerken verbreiten.

Macht Facebook dumm?

weitere Videos

    Fake-News versus Fakten

    Ihre Ergebnisse haben sie auf der Webseite des US-Instituts „National Academy of Science of the United States“ veröffentlicht. Mithilfe von Datenmodellen werteten die Forscher um Alessandro Bessi von der Universität Southern California Tausende via Facebook und anderen soziale Netzwerke geteilte Beiträge und ihre Verbreitung aus. Besonders konzentrierten sie sich darauf, wie Nutzer wissenschaftliche Beiträge oder aber solche zu Verschwörungstheorien konsumieren.

    Das bloße Existieren von Fake-News oder Verschwörungstheorien sei nicht das einzige Problem, glauben die Wissenschaftler. Vielmehr gehe es darum, dass der Facebook-Algorithmus solche Inhalte nur den Nutzern ausspiele, die auch daran interessiert sind.

    Stichwort Filterblase

    Dieses als „Filterblase“ bezeichnete Phänomen in den sozialen Netzwerken ist spätestens ein großes Thema, seitdem Großbritannien aus der EU austreten will und Donald Trump die Präsidentschaftswahl gewonnen hat. Das, was vorher kaum jemand für möglich gehalten hatte, wurde Realität. Schnell war der Schuldige ausgemacht: die sozialen Netzwerke, die mit ihren auf den Nutzer zugeschnittenen Inhalten alternative Ansichten ausblenden und Falschmeldungen nach oben spülen.

    Das Problem liegt laut der Studie nicht am Algorithmus selbst, sondern am Kommunikationsverhalten des Menschen. Denn auch jenseits von sozialen Medien neigen Menschen dazu, Gesprächspartnern nur jene Dinge zu erzählen, von denen sie glauben, dass das Gegenüber sie gern hören würde. Durch Facebook wird das den Forschern zufolge verstärkt. „Wir haben gezeigt, dass soziale Homogenität der führende Treiber bei der Verbreitung von Inhalten ist“, heißt es in der Studie.

    Auch Falschinfos werden belohnt

    Das führt dazu, dass sich Informationen verbreiten und am Ende noch mit einem Like belohnt werden – unabhängig davon, ob sie richtig oder falsch sind. „Eines der häufigsten Resultate ist die Bildung homogener, polarisierter Gruppen“, heißt es weiter in der Studie. Andere, möglicherweise widersprechende Informationen würden dagegen ausgeblendet. „Nutzer zeigen eine Tendenz, nach Dingen zu suchen, die ihre Einstellungen bestätigen“, sagt Bessi zu CNN.

    Mit anderen Worten: Ich mach’ mir die Welt, wie sie mir gefällt. „Ich teile Inhalte nur deshalb, weil sie von einem Freund, dem ich vertraue, veröffentlicht wurden und dessen Meinung meiner ähnelt“, so Bessi. Das führe dazu, dass andere Informationen außen vor bleiben – Nutzer nur noch das glauben, was aus ihren sozialen Gruppen kommt. So würden sie allmählich immer engstirniger werden.

    Wie erkenne ich Fake News?

    weitere Videos

      Bedrohung für die Gesellschaft

      Wie erkenne ich Fake News?

      weitere Videos

        Auch beim Weltwirtschaftsforum in Davos vergangene Woche hat man das erkannt und Fehlinformationen zu einer der Hauptbedrohungen der modernen Gesellschaft erklärt. Deshalb fordert Wissenschaftler Bessi, die Algorithmen von Facebook und anderen sozialen Medien zu ändern.

        Bis es dazu kommt, rät er dazu, dass jeder Nutzer vor dem Teilen einen Fakten-Check durchführen sollte. Nur so könne man selbst dafür sorgen, dass das Verbreiten von Falschinhalten ein Ende hat.