Das Social Web zwischen Utopie und Dystopie: Ist es noch zu retten?

Wer dachte, das Internet würde die Menschheit zusammenbringen, Grenzen und Unterschiede überwinden und dank frei verfügbarer Informationen der Wahrheit einen Schub geben, hat sich sehr offensichtlich geirrt. Alles das mag für manche Menschen passiert sein. Aber das Gegenteil ist ebenfalls wahr: Lügen, Hass und Verschwörungstheorien werden im Social Web verstärkt – mit ganz realen Auswirkungen. Jan Tißler zeigt einige der wesentlichen Ursachen und Entwicklungen auf, die dazu beigetragen haben.

(Illustration nutzt eine Grafik von: © EdZbarzhyvetsky, depositphotos.com)

Die Utopie vom sozialen Netz

Seit 1997 bin ich persönlich online. Ich kenne also vor allem das WWW. Usenet, BBS und viele andere Angebote habe ich hingegen nicht mehr kennen gelernt. Insofern bin ich kein Ureinwohner des Internets. Aber ich bin lange genug aktiv, um erhebliche Veränderungen miterlebt zu haben.

Das Internet war vor 25 Jahren bereits nicht mehr ganz so klein und heimelig wie in den 80ern oder gar noch früher. Aber es war ein Medium für eine sehr spezielle Gruppe von Menschen, die es interessant fanden, auf so viele Informationen jederzeit Zugriff haben zu können.

Daneben stand auch damals schon eine weitere Anwendung im Vordergrund: die zwischenmenschliche Kommuikation. Chaträume, ICQ und E-Mail waren wesentliche Werkzeuge dafür. Und die Faszination dessen war groß: Man konnte sich mit Menschen austauschen, die irgendwo auf dem Globus sein konnten – so lange sie einen Internetzugang hatten, spielte Geografie keine Rolle. Das war ein vollkommen neues Erlebnis.

download-iconMit UPLOAD Plus können Sie solche Artikel als E-Book oder PDF lesen. Und das ist nur ein exklusiver Vorteil von vielen. Jetzt mehr erfahren...

Schnell konnte man auf den Gedanken kommen, dass diese weltweite Kommunikation die Menschheit in eine friedliche, utopische Zukunft leiten würde, in der wir uns über Landesgrenzen, Altersgruppen, Religionsgemeinschaften und Kulturen hinweg verständigen und verstehen.

Ein Paradies, in dem die Menschheit endlich wieder zueinander findet, Unterschiede neugierig als Stärken begreift, globale Probleme gemeinsam anpackt und die Billionen für Rüstung und Krieg stattdessen in sich selbst investiert, in eine bessere Welt, auf der jeder Mensch die gleichen Chancen hat, genug zu Essen hat, sauberes Trinkwasser, ärztliche Versorgung, Bildung und …

So ist es bekanntlich nicht gekommen.

Im Gegenteil: Mit Schrecken müssen wir heute feststellen, dass das Internet in manchen Fällen genau für das Gegenteil gesorgt hat. Menschen haben sich noch mehr in ihre Gruppen und Grüppchen zurückgezogen und abgeschottet. Teilweise ist ein Austausch zwischen diesen Gruppen gar nicht mehr möglich, weil sich die jeweiligen Mitglieder nicht auf eine gemeinsame Wirklichkeit einigen können.

Menschen radikalisieren sich in diesen Gruppen. Mit manchmal fatalen Folgen.

Wie konnte es soweit kommen? Und was können wir dagegen unternehmen?

Menschliche Schwächen

In den oben beschriebenen Anfangsjahren des WWW bestand die Nutzerschaft vor allem aus solchen Menschen, die aus eigenem Antrieb nach Informationen und dem Austausch mit anderen gesucht haben. Das hat dann zu dem falschen Eindruck geführt, das Internet selbst würde dafür sorgen, dass Menschen gebildeter werden und sich besser untereinander verstehen.

Ich möchte nicht behaupten, dass es damals keine Idioten, Faschisten und Trolle im Web gegeben hätte. Die gab es natürlich ebenfalls. Aber zum einen war die Nutzerschaft einfach anders zusammengesetzt und zum anderen hatten damals einzelne Störenfriede noch nicht die potenzielle Reichweite, die sie heute bekommen können.

Generell würde ich vermuten, dass wir es mit mehr Menschen zu tun hatten, die ein Growth Mindset hatten. Bedeutet: Diese Menschen glauben daran, dass ihre Persönlichkeit und ihre Fähigkeiten nicht in Stein gemeißelt sind, sondern dass sie ein Leben lang lernen und sich verbessern können. Natürlich hat das Grenzen. Nicht jeder hat das Potenzial, die Weltformel zu finden. Aber generell bestätigt die Wissenschaft das Growth Mindset: Das menschliche Gehirn bleibt ein Leben lang formbar.

Heute aber gibt es online deutlich mehr Menschen als früher, die ein Fixed Mindset haben: Was Hänschen nicht lernt, lernt Hans nimmermehr (oder will es gar nicht erst). Menschen, die ihre Sichtweisen und Meinungen nicht herausfordern wollen, sondern sich bestätigt sehen möchten. Das übrigens ist eine sehr menschliche Schwäche und als Confirmation Bias bekannt. Es betrifft uns alle. Der Unterschied ist aber, ob es einem bewusst ist oder nicht.

Eine andere menschliche Schwäche ist, dass wir uns immer einer Gruppe zugehörig fühlen möchten und dass es darüber zugleich sehr einfach ist, uns gegen andere Menschen aufzuhetzen. Wir müssen diese Menschen nur als „die anderen“ brandmarken und ausgrenzen (oder uns selbst ausgrenzen, zum Beispiel als Mitglied einer Sekte).

Rassismus und Sexismus entstehen daraus. Menschen glauben dann, dass andere Menschen allein wegen ihrer Hautfarbe oder ihrer Gesichtsform bestimmte Eigenschaften haben oder nicht haben. Dass eine Kultur der anderen überlegen ist. Dass Menschen in zwei grundsätzlich verschiedene Lager fallen, die sich anhand der Geschlechtsorgane definieren und die eine Hälfte aus irgendeinem Grunde das Recht hat, die andere Hälfte zu unterdrücken (und sich dann als Opfer darzustellen, wenn die andere Hälfte die gleichen Rechte einfordert).

Die Liste ließe sich fortsetzen.

Dass diese Vorurteile und Grundannahmen von der Wissenschaft nicht gestützt werden, ist dabei unerheblich. Weist man darauf hin, „hat man eine Agenda“. Mit Händen und Füßen wird sich gegen Fakten gewehrt, die das eigene Weltbild, die eigenen Einstellungen und Sichtweisen, die eigene Lebensphilosophie in Frage stellen.

Entweder weil das kompliziert ist und bedrohlich scheint. Oder weil man aus der eigenen Gruppe ausgeschlossen würde, verträte man plötzlich andere Ansichten.

So weit, so menschlich.

Filterblasen und Echokammern

In den Anfangszeiten dessen, was wir heute Social Web nennen, spielten Profilseiten noch eine zentrale Rolle. Wer 2007 schon auf Facebook war, kann sich vielleicht erinnern, wie man das eigene Profil ähnlich einer persönlichen Website gestalten konnte.

Feeds gab es auch schon, zum Beispiel auf Twitter. Die aber waren umgekehrt chronologisch sortiert. Man sah also immer, was gerade jetzt passierte und konnte soweit zurückscrollen, wie man wollte (oder bis man alles gesehen hatte). Hatte man zu viel anzuschauen, entfolgte man so lange anderen Nutzer:innen, bis es wieder passte. 

Facebook änderte sein Konzept bald darauf dahingehend, alle Aktivitäten der eigenen Kontakte auf der Homepage des Netzwerks in einem Aktivitäten-Feed aufzulisten. Jedes Like, jeder Kommentar wurde nun plötzlich in die Welt hinausposaunt. Das sorgte erst für einige Aufregung, wurde aber bald zur Normalität.

Zugleich nahm die Zahl der Nutzer:innen erheblich zu. Immer mehr Menschen entdeckten das Internet für sich und dabei vor allem Social Networks wie Facebook.

Über kurz oder lang waren umgekehrt chronologisch sortierte Feeds nicht mehr gut genug. Zum einen, weil es zu viele Inhalte anzuzeigen gab. Zum anderen, weil die neuesten Inhalte nicht automatisch die interessantesten Inhalte sind. Wer Facebook öffnete und nicht sofort in den Bann gezogen wurde, war bald wieder weg. Das aber war für das Geschäftsmodell dieses Social Networks und seiner vielen Konkurrenten und Nachahmer fatal.

Sie mussten die Aufmerksamkeit der Nutzerschaft sofort fesseln und so lange es nur möglich war, im Griff behalten. Die Folge: Algorithmen hielten Einzug. 

Die Algorithmen kommen

Diese Automatiken bestimmen nach einem Satz fein justierter Kriterien, wem was wann angezeigt wird. Die Netzwerke ziehen dazu etliche Signale heran, damit wir möglichst etwas sehen, was uns vollkommen vergessen lässt, was wir eigentlich auf der Seite wollten oder welche Aufgaben eigentlich gerade erledigt werden sollten.

Damit wurden Facebook und Co. zu immer weiter optimierten Zeitverschwendungsautomaten. Geistloses Scrollen und Scrollen und Scrollen, unterbrochen von einem Like hier und einem Kommentar da.

Sicher: Soziale Netzwerke haben positive Seiten und Effekte. Es ist schön, so einfach mit Menschen in Kontakt bleiben zu können.

Trotz gegenteiliger Beteuerungen ist es Angeboten wie Facebook aber herzlich egal, ob ihr Angebot der Menschheit weiterhilft oder nicht, solange wir möglichst viel über uns verraten und dabei vergessen, dass es wichtigere Dinge im Leben gibt. Nur dann können sie uns immer mehr maßgeschneiderte Werbung für Dinge anzeigen, die uns zwar gefallen könnten, die aber für unser Leben und unsere Zufriedenheit in den meisten Fällen ebenfalls irrelevant sind.

Die sinnbefreite Zeitverschwendung ist aber nur einer der negativen Effekte und längst nicht der wichtigste. So haben Studien inzwischen mehrfach gezeigt, wie schlecht Social Media für unser seelisches Wohlbefinden ist.

Und obwohl wir uns hinterher oftmals schlechter fühlen als vorher, können wir Social Media nicht so einfach sein lassen. Denn dann und wann sehen wir eben doch etwas, was uns gefällt, was wir mögen, was uns ein Schmunzeln schenkt oder ein gutes Gefühl gibt. Und dieser kleine Dopaminschub ist es, den wir dann bald reflexhaft herbeiführen wollen.

Mit anderen Worten: Wir entwickeln ein Suchtverhalten.

Aber auch das ist noch nicht unbedingt das größte Problem. Denn die Algorithmen führen außerdem dazu, dass wir uns immer mehr in Filterblasen und Echokammern befinden. Sie reagieren damit auf unsere schon erwähnten menschlichen Schwächen: Wir wollen unsere Meinungen und Perspektiven nicht in Frage gestellt sehen. Wir wollen bestätigt haben, was wir sowieso schon glauben. Selbst wenn wir meinen, dass wir das nicht tun, tun wir es sehr wahrscheinlich doch. Unser innerer Drang ist stark.

Hinzu kommt, dass Algorithmen eiskalte Maschinen sind. Sie interessieren sich nur dafür, was Reaktionen hervorruft und was uns auf der Seite hält. Es ist ihnen vollkommen egal, ob diese Inhalte erstunken und erlogen sind. Es interessiert sie nicht, ob sie Vorurteile verstärken, gesellschaftliche Gräben vertiefen oder unsere demokratische Staatengemeinschaft unterhölen.

Likes. Kommentare. Verweildauer. Darum geht es und nichts anderes.

Oder zumindest ging es darum für eine lange Zeit, bis die Auswirkungen zu offensichtlich wurden.

Plattformen und Publisher

Ein Schock-Moment hier in den USA war der Sturm auf das Capitol in Washington D.C. am 6. Januar 2021. Ein vom vorherigen US-Präsidenten angestachelter Mob brach in das Gebäude ein. Sie waren im Glauben, ihre Demokratie zu retten, da die Präsidentenwahl gefälscht war – eine Lüge, die die Partei des Ex-Präsidenten weiterhin verbreitet. Eine Lüge, die sich in den Echokammern des Social Web selbst verstärkt, bis die Anhänger:innen dieses Kults in einer separaten Wirklichkeit leben.

Der Sturm auf das Capitol zeigte auch den bis dahin skeptischen Beobachtern, dass Lügen, Hassrede, Aufwiegelung im Social Web echte Konsequenzen haben können.

Deckmantel Meinungsfreiheit

Zuvor hatten sich die Macher hinter Plattformen wie Facebook oder Twitter als unfassbar naiv gezeigt. Sowohl Mark Zuckerberg als auch Jack Dorsey wollten sich nicht in den Morast der Content-Moderation begeben, so lange es nicht absolut zweifelsfrei offensichtlich war, dass ein Inhalt entfernt werden musste.

Hass, Verschwörungstheorien, Lügen konnten weitgehend frei zirkulieren. Das passierte oft unter dem Deckmantel der Meinungs- und Redefreiheit, die in den USA einen schier unangreifbaren Status besitzt, den man sich in Europa manchmal nur schwer vorstellen kann. 

Dabei ist Meinungsfreiheit selbstverständlich ein wichtiges Grundrecht und ein Baustein für eine funktionierende Demokratie. Zugleich gibt es aber gute Gründe dafür, warum Volksverhetzung oder das Leugnen des Holocaust in Deutschland nicht darunter fallen.

Meinungsfreiheit findet ihre Grenzen in anderen Gesetzen. Und Plattformen wie Facebook haben darüber hinaus ein Hausrecht. Anders gesagt: Jede:r hat das Recht auf die eigene Meinung und kann sie frei äußern. Zugleich ist aber niemand dazu verpflichtet, diese Meinung mit einem Megaphon zu verstärken.

Diese Denkweise setzt sich hier in den USA nur sehr langsam durch.

Grauzone Zensur

Aber auch im deutschsprachigen Raum hört man schnell das Wort „Zensur“. Oftmals wird dieser Begriff im Übermaß verwendet. Zugleich ist es aber eine wichtige Frage: Wo will man die Grenze ziehen? Was ist noch erlaubt und was nicht? Wann schützt man mit dem Löschen von Inhalten die Demokratie und wann gefährdet man damit den freien Austausch von Gedanken und Ideen?

Kein Wunder, dass soziale Netzwerke wenig Interesse hatten, sich in diese Grauzone zu begeben. In den USA wird beispielsweise immer wieder die Beschwerde laut, die Plattformen würden vor allem Stimmen aus dem rechten politischen Spektrum einschränken. US-Bundesstaaten wie Florida versuchen zu verbieten, dass die Netzwerke Politiker verbannen können, so wie sie es mit dem Ex-Präsidenten getan haben.

Dabei hatten Facebook & Co lange Zeit erklärt, sie seien für die Inhalte der Nutzer:innen gar nicht verantwortlich. Sie seien nur ein Medium, nicht etwa Publisher.

Ein wichtiger Unterschied. Denn die Telekom ist schließlich nicht verantwortlich dafür, was jemand am Telefon sagt. Die Post wird nicht zur Rechenschaft gezogen, wenn jemand in einem Brief etwas Strafbares schreibt.

Allerdings sind Facebook, Twitter oder YouTube eher Medienangeboten ähnlich, auch wenn die Inhalte nicht von Journalist:innen kommen. Ihre Reichweite und ihr Einfluss können sogar deutlich größer sein als die althergebrachter Informationsangebote.

Und selbst wenn es nicht darum geht, dass sie Inhalte löschen und Profile verbannen sollen, nur weil die dort geäußerten Meinungen und Informationen fragwürdig sind: Sie sollten schon die Verantwortung dafür übernehmen, was sie über ihre Algorithmen verstärken und was nicht.

Wie misst man „Glaubwürdigkeit“?

Das allerdings ist keine einfache Aufgabe. Die Plattformen müssen andere Kriterien dafür finden, was sie empfehlen. Aber wie misst man beispielsweise „Glaubwürdigkeit“? Wie beurteilt man automatisch den Wahrheitsgehalt oder die Ausgewogenheit eines Inhalts?

Einige haben mit menschlichen Fact Checkern experimentiert. Die aber kommen gegen die Flut neuer Inhalte nicht an. Zudem ist die Grauzone enorm. Ein anderer Ansatz ist es, in einer Positivliste nach und nach Profile und Personen zu finden, die als allgemein vertrauenswürdig gelten. Auch das ist allerdings Handarbeit und zugleich nicht unproblematisch: Ein an sich ethisch arbeitendes Medium hat zu einem bestimmten Thema vielleicht nicht genug fachlich versierte Personen im Team. Und dass auch wohlmeinende Journalist:innen Fehler machen, falsch informiert sind oder menschlichen Schwächen unterliegen, ist bestens bekannt. 

Ein weiterer Ansatz ist es schließlich, besonders schwierige oder umstrittene Themen wie beispielsweise die Coronavirus-Pandemie automatisch zu erkennen und mit entsprechenden Warnhinweisen zu versehen. Auf diese Weise wird für die Nutzer:innen zumindest deutlich, dass sie besonders aufmerksam sein sollten. Das hilft aber natürlich wenig, wenn manche Menschen generell den „Mainstreammedien“ oder der Wissenschaft misstrauen. Die treten oftmals auch nicht so interessant und mitreißend auf wie die Verschwörungstheoretiker: Schließlich müssen sie sich an der meist komplizierten Wirklichkeit orientieren und haben selten klare Aussagen parat, während die sensationsheischenden Lügner einfach behaupten können, was ihnen am meisten Klicks und Views bringt.

Die Zeit, in der Social Networks die Inhalte einfach zu ihrem eigenen Vorteil sortieren konnten und sich um die weiteren Auswirkungen nicht geschert haben, sind trotzdem vorbei. Die Live-Audio-App Clubhouse wurde beispielsweise für die weitgehend fehlende Content-Moderation bereits scharf kritisiert, bevor sie überhaupt aus der Testphase entlassen war. Gut so. Wer heute noch ein neues Angebot im Social Web auf die Beine stellt und keine Antwort auf diese Frage hat, handelt schlichtweg verantwortungslos.

Bleiben Sie auf dem Laufenden: Handverlesener Lesestoff zu Content-Strategie, Online-Marketing und mehr!

Tragen Sie sich jetzt ein und Sie bekommen immer montags:

  • Die neuesten UPLOAD-Inhalte
  • Ausgewählte Lesetipps auf anderen Seiten
  • Rabattcodes zu spannenden Events
  • … und mehr!

Kein Spam! Bereits über 2.400 Leser:innen sind dabei.

Hier eintragen …

Und nun?

Aber wie geht es nun weiter? Was können wir selbst tun, um dem Social-Media-Dystopia zu entkommen? 

In dieser Ausgabe des UPLOAD Magazins haben wir zwei Beiträge, die dazu Ideen und Hilfestellungen geben. Dr. Kerstin Hoffmann gibt mehr Hintergründe dazu, wie sich Algorithmen beeinflussen lassen – damit wir selbst sehen, was uns wirklich interessiert und damit unsere eigenen Inhalte mehr Aufmerksamkeit bekommen. Und Vivian Pein erklärt, wie Social-Media-Manager mit Provokateuren umgehen können, wie sich die Grundlagen für einen positiven, konstruktiven Austausch legen lassen und wie man trotz allem Mensch bleibt.

Wir alle können unseren Teil dazu tun, die Dinge im Netz zu verstärken, die wir selbst gut finden – positive, hilfreiche, wahre Dinge.

Wir können uns aber auch selbst aus der Filterblase begeben, um besser zu verstehen, wie andere Menschen die Welt sehen.

Wir können versuchen, selbst eine sachliche und positive Stimme zu sein.

Alles das ist, ganz ehrlich gesagt, gar nicht so einfach. Zum einen ist das Social Web für viele ein Zeitvertreib und nicht etwas, das in Arbeit ausarten soll. Und zum anderen ist es gar nicht so leicht, angesichts von Hassbotschaften, Lügen, Vorurteilen, Rassismus und Sexismus ruhig und sachlich zu bleiben.

Aber versuchen können wir es. Damit es uns selbst besser geht. Und damit wir ein Vorbild für andere sein können.


Dieser Artikel gehört zu: UPLOAD Magazin 93

Man könnte meinen, Verschwörungstheorien, Rassismus und schlichtweg blanke Dummheit würden im Social Web vorherrschen. Teilweise stimmt das auch, aber eben nicht ganz. Wir schauen uns an, warum sich das Internet nicht so entwickelt hat, wie manche Ende der 90er gehofft hatten. Wir erklären, wie Sie als Social-Media-Manager für eine angenehme Atmosphäre sorgen, gegen Störenfriede vorgehen und bei alldem Mensch bleiben. Und wir zeigen auf, wie Sie Algorithmen im Social Web positiv beeinflussen können. Bonus-Artikel: So verstehen Sie den „User Intent“ besser und optimieren damit Ihre Content-Planung.

„LinkedIn: Profil und Unternehmensseite – Die schnelle Einführung“

LinkedIn: Profil und Unternehmensseite – Die schnelle Einführung
(Coverfoto: © alphaspirit, depositphotos.com)

Ein aktuelles E-Book mit vielen praktischen Tipps und Tricks, auch im Paket mit einem kompakten Onlinekurs! Mehr über die Inhalte erfahren ...

 

Schreiben Sie einen Kommentar