Mark Zuckerberg, Gründer und CEO von Meta, hat große Veränderungen bei der Bekämpfung von Falschinformationen auf Facebook, Instagram und Threads angekündigt. Anstatt sich auf unabhängige Faktenprüfer zu verlassen, wird Meta nun dem Beispiel von Elon Musks X folgen und Community-Notizen nutzen. Diese Community-Notizen ermöglichen es Nutzern, Inhalte zu melden, die sie für fragwürdig halten. Zuckerberg behauptet, dass diese Änderungen die Meinungsfreiheit fördern.
In Wirklichkeit ist es aber ein Kniefall vor dem Druck der politischen Rechten und wird dazu führen, dass sich Hassreden und Lügen auf Meta-Plattformen ausbreiten können.
Warum ist das so? Auf den ersten Blick mögen Gemeinschaftsnotizen demokratisch erscheinen und die Werte der freien Meinungsäußerung und der kollektiven Entscheidungsfindung widerspiegeln. Crowdsourcing-Systeme wie Wikipedia, Metaculus und PredictIt sind zwar nicht perfekt, aber sie nutzen oft erfolgreich die Weisheit der Vielen — und das kollektive Urteil vieler kann manchmal sogar Experten übertreffen. Die Forschung zeigt, dass diverse Gruppen, die unabhängige Urteile und Einschätzungen bündeln, erstaunlich effektiv bei der Wahrheitsfindung sein können. Allerdings müssen sich weise Crowds selten mit Social-Media-Algorithmen auseinandersetzen.
Viele Menschen verlassen sich bei der Informationsbeschaffung auf Plattformen wie Facebook und laufen Gefahr, Fehlinformationen und voreingenommenen Quellen ausgesetzt zu sein. Wenn man sich darauf verlässt, dass die Nutzer sozialer Medien die Richtigkeit der Informationen überprüfen, könnte dies zu einer weiteren Polarisierung der Plattformen führen und extreme Stimmen stärken. Zwei gruppenbasierte Tendenzen (unser psychologisches Bedürfnis, uns selbst und andere in Gruppen einzuteilen) sind besonders besorgniserregend: die Tendenz, die eigene Gruppe gegenüber anderen Gruppen zu bevorzugen, und die Akrophilie, die Vorliebe für Extreme.
Vorurteile gegenüber Eigen-/Fremdgruppe
Menschen sind voreingenommen, wenn es um die Bewertung von Informationen geht. Menschen neigen dazu, Informationen aus ihrer eigenen Gruppe (die ihre Identität teilt) zu vertrauen und sich an sie zu erinnern, während sie Informationen aus wahrgenommenen Fremdgruppen misstrauen. Diese Voreingenommenheit führt zu Echokammern, in denen Gleichgesinnte gemeinsame Überzeugungen wiederholen, unabhängig davon, ob sie richtig sind. Es mag vernünftig erscheinen, Familienmitgliedern, Freunden oder Kollegen mehr zu vertrauen als Fremden. Aber in Gruppen vertreten die Quellen oft ähnliche Perspektiven und Erfahrungen und bieten wenig neue Informationen. Mitglieder fremder Gruppen sind dagegen eher bereit, unterschiedliche Standpunkte zu vertreten. Diese Vielfalt ist entscheidend für die Weisheit der Vielen.
Zu viele Meinungsverschiedenheiten zwischen den Gruppen können jedoch verhindern, dass die Fakten in der Gemeinschaft überprüft werden. Viele Gemeinschaftsnotizen zu X, wie z. B. zu COVID-Impfstoffen, wurden wahrscheinlich nie veröffentlicht, weil die Nutzer untereinander uneins waren. Der Vorteil der Überprüfung von Fakten durch Dritte bestand darin, dass eine objektive externe Quelle zur Verfügung stand, anstatt dass eine breite Zustimmung der Nutzer in einem Netzwerk erforderlich war. Schlimmer noch, solche Systeme sind anfällig für Manipulationen durch gut organisierte Gruppen mit politischer Agenda (wie die Alternative für Deutschland, AFD). Darüber hinaus wird berichtet, dass chinesische Nationalisten eine Kampagne gestartet haben, um Wikipedia-Einträge über die Beziehungen zwischen China und Taiwan so zu bearbeiten, dass sie für China günstiger ausfallen.
Politisch polarisiert und überfordert
Tatsächlich verstärkt die Politik diese Dynamik. In den USA bestimmt die politische Identität zunehmend, wie Menschen ihre sozialen Gruppen definieren. Politische Gruppen sind motiviert, die „Wahrheit“ in einer Weise zu definieren, die ihnen Vorteile verschafft und ihre politischen Gegner benachteiligt. Es ist leicht zu erkennen, wie organisierte Bemühungen, politisch motivierte Lügen zu verbreiten und unbequeme Wahrheiten zu diskreditieren, die Weisheit der Vielen in Metas Community Notes korrumpieren könnten.
Soziale Medien verschärfen dieses Problem durch ein Phänomen, das als Akrophilie oder Extremismus bezeichnet wird. Untersuchungen zeigen, dass Menschen dazu neigen, sich mit Beiträgen zu beschäftigen, die etwas extremer sind als ihre eigenen Ansichten. Diese immer extremeren Beiträge sind eher negativ als positiv. In der Psychologie ist seit Jahrzehnten bekannt, dass uns das Schlechte mehr interessiert als das Gute. Wir sind darauf programmiert, negativen Erfahrungen und Informationen mehr Aufmerksamkeit zu schenken als positiven.
In sozialen Medien erhalten negative Beiträge (z.B. über Gewalt, Katastrophen und Krisen) mehr Aufmerksamkeit, oft auf Kosten neutraler oder positiver Inhalte.
Diejenigen, die diese extremen negativen Ansichten vertreten, gewinnen in ihrer Gruppe an Status, ziehen mehr Anhänger an und vergrößern ihren Einfluss. Mit der Zeit sehen die Menschen diese etwas extremeren negativen Ansichten als normal an und bewegen ihre eigenen Ansichten langsam in Richtung der Pole. Eine kürzlich durchgeführte Untersuchung von 2,7 Millionen Beiträgen auf Facebook und X ergab, dass Nachrichten, die Wörter wie „Hass“, „Angriff“ und „Zerstörung“ enthielten, häufiger geteilt und geliked wurden als fast alle anderen Inhalte. Dies deutet darauf hin, dass die sozialen Medien nicht nur extreme Ansichten verstärken, sondern auch eine Kultur des Hasses auf Außenstehende fördern, die die Zusammenarbeit und das Vertrauen untergräbt, die für ein System wie Community Notes erforderlich sind.
Der Weg in die Zukunft
Die Kombination von Negativitäts‑, In- und Outgroup-Bias und Akrophilie verstärkt eine der größten Herausforderungen unserer Zeit: Polarisierung. Polarisierung normalisiert extreme Ansichten und untergräbt das Potenzial für ein gemeinsames Verständnis über Gruppengrenzen hinweg. Die besten Lösungen beginnen mit der Diversifizierung unserer Informationsquellen. Erstens müssen die Menschen mit verschiedenen Gruppen in Kontakt treten und über sie hinweg zusammenarbeiten, um die Barrieren des Misstrauens abzubauen. Zweitens müssen sie Informationen aus mehreren zuverlässigen Nachrichten- und Informationsquellen beziehen, nicht nur aus sozialen Medien.
Die Algorithmen der sozialen Medien wirken diesen Lösungen jedoch entgegen, indem sie Echokammern erzeugen und die Aufmerksamkeit der Menschen auf sich ziehen. Damit Community Notes funktionieren, müssen diese Algorithmen unterschiedliche und verlässliche Informationsquellen bevorzugen.
Obwohl Community Notes theoretisch die Weisheit der Vielen nutzen könnten, hängt ihr Erfolg von der Überwindung dieser psychologischen Schwächen ab. Vielleicht kann ein größeres Bewusstsein für diese Vorurteile helfen, bessere Systeme zu entwickeln — oder die Nutzer in die Lage versetzen, Community Notes zu nutzen, um den Dialog über alle Grenzen hinweg zu fördern. Nur so können die Plattformen das Problem der Fehlinformation angehen.