Das Internet hat sich seit seiner Erfindung grundlegend verändert: Einst dezentral und langsam, dominieren heute soziale Medien und Algorithmen die Verbreitung von Informationen. Plattformen wie TikTok und Instagram beeinflussen durch den Content Graph, welche Inhalte Nutzer*innen sehen, und fördern so oft einseitige Perspektiven.
Gleichzeitig nutzen Politiker und Unternehmen die Macht dieser Netzwerke für eigene Zwecke, was den gesellschaftlichen Diskurs und die Demokratie herausfordern. Wie können wir in einer Algorithmus gesteuerten Welt einen konstruktiven und faktenbasierten Austausch sichern?
Die Anfänge des Internets
1989 hatte Tim Berners Lee am Forschungszentrum CERN in Genf die Idee für das World Wide Web [25], ein dezentrales Netzwerk, in dem Informationen über Hyperlinks miteinander verbunden sind. In den ersten etwa fünfzehn Jahren entwickelte es sich nur langsam. Informationen waren schwer auffindbar und die technischen Hürden waren noch hoch: Nur wenige verfügten über einen Internetzugang, einen Computer oder Kenntnisse, um eine Website zu programmieren.
In der Altersgruppe der 14 bis 19-jährigen Deutschen nutzen 2003 bereits 90 Prozent das Internet aktiv, während diese Quote bei den 40 bis 49-Jährigen erst 2015 erreicht war und bei den 50 bis 69-Jährigen ab 2021 [26, p. 2].
Die Entstehung Sozialer Netzwerke
Mitte der 2000-er Jahre wurden Plattformen wie Twitter, Facebook und YouTube gegründet. Sie veränderten das Internet in zweierlei Hinsicht grundlegend: Diese sogenannten sozialen Netzwerke bildeten erstmals die Beziehungen von Nutzer*innen zueinander ab und sie ermöglichten es jeder und jedem, auch ohne Programmierkenntnisse Inhalte zu verbreiten. Journalistische Medien verloren infolgedessen ihre bisherige Gatekeeper-Funktion. Das Internet kann nicht kuratiert werden: Informationen verbreiten sich, ohne dass Inhalte vorher auf ihren Wahrheitsgehalt überprüft werden.
Anfangs war der sogenannte Newsfeed in sozialen Medien noch chronologisch sortiert. Nutzer*innen bekamen alle Inhalte von Accounts angezeigt, denen sie aktiv folgten. Höhere Übertragungsgeschwindigkeiten und die Verbreitung von Smartphones führten zu einem schnellen Wachstum der Plattformen, das eine Sortierung der Inhalte notwendig machte. Algorithmen zeigen User*innen seither einen individuellen Newsfeed an und bestimmen damit, welche Inhalte Menschen zu sehen bekommen.
Algorithmen filtern die Newsfeeds
Mit der wachsenden Datenmenge [28] änderte sich das Nutzungsverhalten: Rezipient*innen suchten immer seltener gezielt nach Informationen – was aufgrund der Datenflut immer schwieriger wurde – sondern Informationen kommen seitdem quasi von selbst zu den Menschen. Dahinter steht immer häufiger die Annahme, eine Information, die wichtig ist, wird mich früher oder später finden.
Hass und Desinformation verbreiten sich
Ein Artikel der Neuen Zürcher Zeitung [29] beschreibt, in welchem Maße Änderungen am Algorithmus den gesellschaftlichen und politischen Diskurs beeinflussen können: 2017 führte Facebook neben dem nach oben zeigenden Daumen als Zeichen der Zustimmung weitere Emojis ein, wie Herzen, Lach- oder Wut-Smileys. Diese neuen Emojis erhielten eine fünfmal höhere Gewichtung gegenüber normalen Likes, also dem Daumen-Symbol. Diese Maßnahme führte bei Facebook nachweislich zu einer stärkeren Verbreitung von Beiträgen, die Falschinformationen oder Hassrede enthielten. Die Maßnahme wurde 2020 teilweise zurückgenommen, die in diesem Zeitraum verbreiteten Falschinformationen sind aber weiterhin im Umlauf.
Die Studie Hass auf Knopfdruck [30] stellte 2018 fest, dass nur fünf Prozent der Accounts für 50 Prozent der Likes bei Hasskommentaren auf Twitter und Facebook verantwortlich waren. Sie kommt zu dem Ergebnis, dass es sich um eine lautstarke Minderheit handelt, die kein Abbild der Gesellschaft sei. Der Diskurs werde von Sympathisanten extremistischer und verfassungsfeindlicher Organisationen bestimmt. Am einflussreichsten sei die pro-AfD-Kampagne #Merkelmussweg im Sommer 2017 gewesen [30]. Herfried Münkler sieht in der Funktionsweise der sozialen Medien die Ursache für „einerseits eine scharfe politische Polarisierung innerhalb der Gesellschaft und andererseits eine wachsende Zahl von Menschen, die sich nicht mehr in der Lage sehen, zwischen Wahrheit und Lüge zu unterscheiden“ [20, p. 83].
Reichweite und Macht: eine gefährliche Kombination
Auch Regierende und Unternehmer nutzen die Plattformen für ihre Zwecke. So zählte die Washington Post zwischen 2016 und 2020 über 30.000 Lügen oder irreführende Aussagen des damaligen US-amerikanischen Präsidenten Donald Trump. Rund um den Termin der möglichen Wiederwahl Anfang November 2020 reklamierten Fact-Checker pro Tag bis zu 500 problematische Äußerungen Trumps [31].
Im Oktober 2022 kaufte der Unternehmer Elon Musk den Kurznachrichtendienst Twitter, den er rund ein Jahr später in X umbenannte. Musk reaktivierte den gesperrten Account von Trump [32] und mischt sich in geopolitische Themen wie die Migrationspolitik der USA und der Europäischen Union ein. Er beschränkt die Reichweite von klassischen Medien, denen er misstraut und fällt immer wieder auf durch rechte demokratiefeindliche Äußerungen, die die österreichische Zeitung Der Standard zusammengetragen hat [33].
Der Autor Alexander Amon kommt zu dem Schluss: „Durch diese Kombination aus Reichweite sowie politischer und ökonomischer Macht könnten demokratiegefährdende Erzählungen globale Verbreitung erfahren.“ Zahlreiche Journalist*innen, Medienhäuser und öffentliche Institutionen haben sich inzwischen von der Plattform zurückgezogen oder planen es zu tun [34].
Vom Sozialen Netzwerk zum Contentgetriebenen
Bisher war der Social Graph, also die Anzahl der Menschen, die einem Account folgten, ein wesentliches Kriterium für die Reichweite in sozialen Medien. Die ForYou-Page von TikTok dagegen funktioniert nach dem Prinzip des Content Graph [35]: Nutzer*innen werden nicht mehr primär Inhalte von Accounts angezeigt, denen diese aktiv folgen, sondern Inhalte von beliebigen Accounts, von denen der Algorithmus annimmt, dass sie von Interesse sein könnten. Durch die Interaktion der Nutzer*innen lernt der Algorithmus schnell deren Vorlieben kennen. In der Folge wird ein Newsfeed, der immer mehr aus von Algorithmen vorgeschlagenen Inhalten besteht, immer einseitiger. Nutzer*innen bekommen irgendwann nur noch Inhalte ausgespielt, die ihrem Weltbild entsprechen. Der eigene aktive Einfluss auf die angezeigten Inhalte wird immer kleiner.
Instagram kündigte Ende April 2024 ebenfalls eine Anpassung des Algorithmus in Richtung Content Graph an. Man wolle „kleineren Accounts künftig die gleiche Chance geben, Reichweite zu erzielen“ [36]. Accounts mit wenigen Followern haben so theoretisch die Chance, dass auch ihre Inhalte sich viral verbreiten können. Es wird damit weniger relevant, sich über einen längeren Zeitraum eine Community aufzubauen, die dem eigenen Account und dessen Inhalten vertraut. Dies kann vorteilhaft sein, indem kleinere Accounts für mehr Meinungsvielfalt in den sozialen Medien sorgen könnten. Es könnte aber auch das Gegenteil eintreten, weil nun jeder einzelne veröffentlichte Inhalt so konzipiert sein muss, dass er die maximale Aufmerksamkeit von Nutzer*innen erhält.
Aus dem Internet, das ursprünglich dezentral konzipiert war, wurde so ein Netzwerk, das von großen Plattformen und deren Algorithmen bestimmt wird. Wie die Aufmerksamkeit unserer Gehirne beeinflusst werden kann, betrachten wir im folgenden Kapitel.
Quellen
[20] | H. Münkler, Die Zukunft der Demokratie, Brandstätter, 2022. |
[25] | CERN, 30th Anniversary of the World Wide Web, 2019. |
[26] | N. Beisch und W. Koch, „ARD/ZDF-Onlinestudie: Weitergehende Normalisierung der Internetnutzung nach Wegfall aller Corona-Schutzmaßnahmen“, Media Perspektiven, Bd. 23, 2023. |
[27] | dpa, dpa Infografik: 25 Jahre World Wide Web, 4. August 2016. |
[28] | IDC, Volumen der jährlich generierten/replizierten digitalen Datenmenge weltweit von 2010 bis 2022 und Prognose bis 2027, 18. Mai 2023. |
[29] | P. Gollmer und R. Fulterer, Facebook ändert seinen Namen, doch die Grundprobleme seines Algorithmus bleiben. Wir zeigen, welche das sind und was man dagegen tun könnte, 29. Oktober 2021. |
[30] | P. Kreißel, J. Ebner, A. Urban und J. Guhl, Rechtsextreme Trollfabriken und das Ökosystem koordinierter Hasskampagnen im Netz., Institute for Strategic Dialogue (ISD) , 2018. |
[31] | Fact Checker Washington Post, In four years, President Trump made 30,573 false or misleading claims, 20. Januar 2021 (letztes Update). |
[32] | K. Conger, Trump Returns to the Service Formerly Known as Twitter, 24. August 2023. |
[33] | A. Amon, Musk immer tiefer in den „Fiebersümpfen der Rechten“, 27. Mai 2024. |
[34] | M. Reuter, X-Odus – Immer mehr Medien machen Schluss mit Twitter, 27. November 2023. |
[35] | J. Jechorek, Wie funktioniert der TikTok Algorithmus?, 13. März 2024 (aktualisiert). |
[36] | Instagram, Helping Creators Find New Audiences, 30. April 2024. |