Die pola­ri­sie­rende Dyna­mik in den sozia­len Medien wird sich wei­ter ver­schär­fen

Mark Zucker­berg, Grün­der und CEO von Meta, hat große Ver­än­de­run­gen bei der Bekämp­fung von Falsch­in­for­ma­tio­nen auf Face­book, Insta­gram und Threads ange­kün­digt. Anstatt sich auf unab­hän­gige Fak­ten­prü­fer zu ver­las­sen, wird Meta nun dem Bei­spiel von Elon Musks X fol­gen und Com­mu­nity-Noti­zen nut­zen. Diese Com­mu­nity-Noti­zen ermög­li­chen es Nut­zern, Inhalte zu mel­den, die sie für frag­wür­dig hal­ten. Zucker­berg behaup­tet, dass diese Ände­run­gen die Mei­nungs­frei­heit för­dern.

In Wirk­lich­keit ist es aber ein Knie­fall vor dem Druck der poli­ti­schen Rech­ten und wird dazu füh­ren, dass sich Hass­re­den und Lügen auf Meta-Platt­for­men aus­brei­ten kön­nen.

Warum ist das so? Auf den ers­ten Blick mögen Gemein­schafts­no­ti­zen demo­kra­tisch erschei­nen und die Werte der freien Mei­nungs­äu­ße­rung und der kol­lek­ti­ven Ent­schei­dungs­fin­dung wider­spie­geln. Crowd­sour­cing-Sys­teme wie Wiki­pe­dia, Meta­cu­lus und Pre­dic­tIt sind zwar nicht per­fekt, aber sie nut­zen oft erfolg­reich die Weis­heit der Vie­len — und das kol­lek­tive Urteil vie­ler kann manch­mal sogar Exper­ten über­tref­fen. Die For­schung zeigt, dass diverse Grup­pen, die unab­hän­gige Urteile und Ein­schät­zun­gen bün­deln, erstaun­lich effek­tiv bei der Wahr­heits­fin­dung sein kön­nen. Aller­dings müs­sen sich weise Crowds sel­ten mit Social-Media-Algo­rith­men aus­ein­an­der­set­zen.

Viele Men­schen ver­las­sen sich bei der Infor­ma­ti­ons­be­schaf­fung auf Platt­for­men wie Face­book und lau­fen Gefahr, Fehl­in­for­ma­tio­nen und vor­ein­ge­nom­me­nen Quel­len aus­ge­setzt zu sein. Wenn man sich dar­auf ver­lässt, dass die Nut­zer sozia­ler Medien die Rich­tig­keit der Infor­ma­tio­nen über­prü­fen, könnte dies zu einer wei­te­ren Pola­ri­sie­rung der Platt­for­men füh­ren und extreme Stim­men stär­ken. Zwei grup­pen­ba­sierte Ten­den­zen (unser psy­cho­lo­gi­sches Bedürf­nis, uns selbst und andere in Grup­pen ein­zu­tei­len) sind beson­ders besorg­nis­er­re­gend: die Ten­denz, die eigene Gruppe gegen­über ande­ren Grup­pen zu bevor­zu­gen, und die Akro­phi­lie, die Vor­liebe für Extreme.

Vor­ur­teile gegen­über Eigen-/Fremd­gruppe

Men­schen sind vor­ein­ge­nom­men, wenn es um die Bewer­tung von Infor­ma­tio­nen geht. Men­schen nei­gen dazu, Infor­ma­tio­nen aus ihrer eige­nen Gruppe (die ihre Iden­ti­tät teilt) zu ver­trauen und sich an sie zu erin­nern, wäh­rend sie Infor­ma­tio­nen aus wahr­ge­nom­me­nen Fremd­grup­pen miss­trauen. Diese Vor­ein­ge­nom­men­heit führt zu Echo­kam­mern, in denen Gleich­ge­sinnte gemein­same Über­zeu­gun­gen wie­der­ho­len, unab­hän­gig davon, ob sie rich­tig sind. Es mag ver­nünf­tig erschei­nen, Fami­li­en­mit­glie­dern, Freun­den oder Kol­le­gen mehr zu ver­trauen als Frem­den. Aber in Grup­pen ver­tre­ten die Quel­len oft ähn­li­che Per­spek­ti­ven und Erfah­run­gen und bie­ten wenig neue Infor­ma­tio­nen. Mit­glie­der frem­der Grup­pen sind dage­gen eher bereit, unter­schied­li­che Stand­punkte zu ver­tre­ten. Diese Viel­falt ist ent­schei­dend für die Weis­heit der Vie­len.

Zu viele Mei­nungs­ver­schie­den­hei­ten zwi­schen den Grup­pen kön­nen jedoch ver­hin­dern, dass die Fak­ten in der Gemein­schaft über­prüft wer­den. Viele Gemein­schafts­no­ti­zen zu X, wie z. B. zu COVID-Impf­stof­fen, wur­den wahr­schein­lich nie ver­öf­fent­licht, weil die Nut­zer unter­ein­an­der uneins waren. Der Vor­teil der Über­prü­fung von Fak­ten durch Dritte bestand darin, dass eine objek­tive externe Quelle zur Ver­fü­gung stand, anstatt dass eine breite Zustim­mung der Nut­zer in einem Netz­werk erfor­der­lich war. Schlim­mer noch, sol­che Sys­teme sind anfäl­lig für Mani­pu­la­tio­nen durch gut orga­ni­sierte Grup­pen mit poli­ti­scher Agenda (wie die Alter­na­tive für Deutsch­land, AFD). Dar­über hin­aus wird berich­tet, dass chi­ne­si­sche Natio­na­lis­ten eine Kam­pa­gne gestar­tet haben, um Wiki­pe­dia-Ein­träge über die Bezie­hun­gen zwi­schen China und Tai­wan so zu bear­bei­ten, dass sie für China güns­ti­ger aus­fal­len.

Poli­tisch pola­ri­siert und über­for­dert

Tat­säch­lich ver­stärkt die Poli­tik diese Dyna­mik. In den USA bestimmt die poli­ti­sche Iden­ti­tät zuneh­mend, wie Men­schen ihre sozia­len Grup­pen defi­nie­ren. Poli­ti­sche Grup­pen sind moti­viert, die „Wahr­heit“ in einer Weise zu defi­nie­ren, die ihnen Vor­teile ver­schafft und ihre poli­ti­schen Geg­ner benach­tei­ligt. Es ist leicht zu erken­nen, wie orga­ni­sierte Bemü­hun­gen, poli­tisch moti­vierte Lügen zu ver­brei­ten und unbe­queme Wahr­hei­ten zu dis­kre­di­tie­ren, die Weis­heit der Vie­len in Metas Com­mu­nity Notes kor­rum­pie­ren könn­ten.

Soziale Medien ver­schär­fen die­ses Pro­blem durch ein Phä­no­men, das als Akro­phi­lie oder Extre­mis­mus bezeich­net wird. Unter­su­chun­gen zei­gen, dass Men­schen dazu nei­gen, sich mit Bei­trä­gen zu beschäf­ti­gen, die etwas extre­mer sind als ihre eige­nen Ansich­ten. Diese immer extre­me­ren Bei­träge sind eher nega­tiv als posi­tiv. In der Psy­cho­lo­gie ist seit Jahr­zehn­ten bekannt, dass uns das Schlechte mehr inter­es­siert als das Gute. Wir sind dar­auf pro­gram­miert, nega­ti­ven Erfah­run­gen und Infor­ma­tio­nen mehr Auf­merk­sam­keit zu schen­ken als posi­ti­ven.

In sozia­len Medien erhal­ten nega­tive Bei­träge (z.B. über Gewalt, Kata­stro­phen und Kri­sen) mehr Auf­merk­sam­keit, oft auf Kos­ten neu­tra­ler oder posi­ti­ver Inhalte.

Die­je­ni­gen, die diese extre­men nega­ti­ven Ansich­ten ver­tre­ten, gewin­nen in ihrer Gruppe an Sta­tus, zie­hen mehr Anhän­ger an und ver­grö­ßern ihren Ein­fluss. Mit der Zeit sehen die Men­schen diese etwas extre­me­ren nega­ti­ven Ansich­ten als nor­mal an und bewe­gen ihre eige­nen Ansich­ten lang­sam in Rich­tung der Pole. Eine kürz­lich durch­ge­führte Unter­su­chung von 2,7 Mil­lio­nen Bei­trä­gen auf Face­book und X ergab, dass Nach­rich­ten, die Wör­ter wie „Hass“, „Angriff“ und „Zer­stö­rung“ ent­hiel­ten, häu­fi­ger geteilt und geliked wur­den als fast alle ande­ren Inhalte. Dies deu­tet dar­auf hin, dass die sozia­len Medien nicht nur extreme Ansich­ten ver­stär­ken, son­dern auch eine Kul­tur des Has­ses auf Außen­ste­hende för­dern, die die Zusam­men­ar­beit und das Ver­trauen unter­gräbt, die für ein Sys­tem wie Com­mu­nity Notes erfor­der­lich sind.

Der Weg in die Zukunft

Die Kom­bi­na­tion von Negativitäts‑, In- und Out­group-Bias und Akro­phi­lie ver­stärkt eine der größ­ten Her­aus­for­de­run­gen unse­rer Zeit: Pola­ri­sie­rung. Pola­ri­sie­rung nor­ma­li­siert extreme Ansich­ten und unter­gräbt das Poten­zial für ein gemein­sa­mes Ver­ständ­nis über Grup­pen­gren­zen hin­weg. Die bes­ten Lösun­gen begin­nen mit der Diver­si­fi­zie­rung unse­rer Infor­ma­ti­ons­quel­len. Ers­tens müs­sen die Men­schen mit ver­schie­de­nen Grup­pen in Kon­takt tre­ten und über sie hin­weg zusam­men­ar­bei­ten, um die Bar­rie­ren des Miss­trau­ens abzu­bauen. Zwei­tens müs­sen sie Infor­ma­tio­nen aus meh­re­ren zuver­läs­si­gen Nach­rich­ten- und Infor­ma­ti­ons­quel­len bezie­hen, nicht nur aus sozia­len Medien.

Die Algo­rith­men der sozia­len Medien wir­ken die­sen Lösun­gen jedoch ent­ge­gen, indem sie Echo­kam­mern erzeu­gen und die Auf­merk­sam­keit der Men­schen auf sich zie­hen. Damit Com­mu­nity Notes funk­tio­nie­ren, müs­sen diese Algo­rith­men unter­schied­li­che und ver­läss­li­che Infor­ma­ti­ons­quel­len bevor­zu­gen.

Obwohl Com­mu­nity Notes theo­re­tisch die Weis­heit der Vie­len nut­zen könn­ten, hängt ihr Erfolg von der Über­win­dung die­ser psy­cho­lo­gi­schen Schwä­chen ab. Viel­leicht kann ein grö­ße­res Bewusst­sein für diese Vor­ur­teile hel­fen, bes­sere Sys­teme zu ent­wi­ckeln — oder die Nut­zer in die Lage ver­set­zen, Com­mu­nity Notes zu nut­zen, um den Dia­log über alle Gren­zen hin­weg zu för­dern. Nur so kön­nen die Platt­for­men das Pro­blem der Fehl­in­for­ma­tion ange­hen.