Audrey Tang über „Falschinformationen“
Audrey Tang ist Taiwans Cyber-Botschafterin und war Taiwans erste Digitalministerin sowie das erste nicht-binäre Kabinettsmitglied der Welt.
Diese Woche sprechen Yascha Mounk und Audrey Tang darüber, warum soziale Medien so spaltend wirken, wie man Falschinformationen bekämpfen kann, ohne die Meinungsfreiheit zu gefährden, und wie Online-Tools die Beteiligung an einer Demokratie fördern können.
Das Transkript wurde gekürzt und zur besseren Verständlichkeit leicht bearbeitet.
Yascha Mounk: In den letzten Jahren gab es viele Debatten über Falschinformationen. Ich fühle mich bei diesem Thema hin- und hergerissen, denn einerseits erkenne ich an, dass Falschinformationen ein echtes Problem sind. Wenn man in den sozialen Medien unterwegs ist, stößt man auf falsche Behauptungen, manipulierte Videos, Verschwörungstheorien – einfach verrückte Sachen, die viel Aufmerksamkeit bekommen und die wirklich beeinflussen, wie Menschen über die Welt und über Politik denken. Das ist ganz offensichtlich ein Problem.
Gleichzeitig habe ich aber auch Bedenken, dass wir in diesen Diskussionen über Falschinformationen oft selbst nicht richtig einschätzen, was wahr und was falsch ist. Während der Pandemie zum Beispiel wurden einige Ideen als Falschinformationen bezeichnet, die sich später als plausibel oder sogar als wahr herausstellten. Und zweitens kann der ganze Diskurs über Falschinformationen wirklich als Vorwand für Zensur dienen. Es kann ein Vorwand sein, um zu sagen: Wir, die an der Macht sind, sagen euch, was richtig und was falsch ist, und wir zensieren einfach jeden, der anderer Meinung ist. Wie ist dein Zugang zu diesem Thema? Denn du nimmst das Problem sehr ernst, aber ich glaube, du teilst meine Skepsis, dass Zensur nicht der richtige Weg ist.
Audrey Tang: Auf jeden Fall. Ich war von 2016 bis letztes Jahr Digitalministerin in Taiwan. Jetzt bin ich Cyber-Botschafterin, und in Taiwan stehen wir in Asien an erster Stelle, was Internetfreiheit betrifft. Wir stehen auch an erster Stelle beim zivilgesellschaftlichen Raum und so weiter. Wir haben nie an Zensur geglaubt, weil wir fast vier Jahrzehnte unter dem Kriegsrecht gelebt haben – und die Menschen wollen nicht dorthin zurück. Ich finde auch, dass der Begriff „Falschinformation“ ein bisschen fehlleitend ist, wenn man so will. Seit ich 2016 ins Kabinett kam und wir uns diesem Thema gewidmet haben, haben wir es immer „strittige Informationen“ genannt. Es geht also nicht darum, ob etwas absolut wahr oder absolut falsch ist, sondern vielmehr darum, ob es Engagement durch Empörung erzeugt, sozusagen. Anstatt wie üblich mit Faktenchecks zu arbeiten, messen wir, wie stark Menschen polarisiert werden, weil sie solche Informationen erhalten haben, und wie sie diese aufgrund der ausgelösten Empörung geteilt oder gepostet haben.
Der Grund dafür ist, dass viele Online-Plattformen seit 2015 ihren Algorithmus von einem gemeinsamen oder abonnentenbasierten Feed auf einen sogenannten „Für-dich“-Feed umgestellt haben. Dieser Feed optimiert nur eine Kennzahl: Suchtpotenzial, also wie viel Zeit man auf dem Bildschirm verbringt. Damit einher gingen viele Autoplay- und Empfehlungsalgorithmen, die das soziale Gefüge auflösen, sodass Menschen keine gemeinsamen Erfahrungen mehr haben. Das erzeugt eine individualisierte Wutmaschine, in der Menschen viel Zeit damit verschwenden, sich an den Extremen abzuarbeiten. Wenn man sich den Inhalt selbst anschaut, ist er nicht unbedingt wahr oder falsch. Manchmal hat er mit Fakten gar nichts zu tun. Es geht nur um Polarisierung. Das liegt auch daran, dass Taiwan eines der am stärksten mit dem Internet verbundenen Länder ist. 2014 lag das Vertrauen der Bürgerinnen und Bürger in die Regierung bei 9 %. In einem Land mit 24 Millionen Einwohnern waren 20 Millionen Menschen gegen alles, was Präsident Ma damals sagte. Wir wollen diese Polarisierung bekämpfen, nicht einzelne Informationsschnipsel.
Mounk: Eine der interessanten Dinge an Taiwan – für diejenigen, die die Insel nicht gut kennen – ist, dass es sich zwar um ein relativ kleines Land mit bedeutenden ethnischen Minderheiten handelt, aber die klare Mehrheit der Bevölkerung Han ist. Im Vergleich zu den Vereinigten Staaten ist es also ein ziemlich ethnisch homogenes Land. Aber die Polarisierung ist extrem, wenn es um die Frage des zukünftigen Status Taiwans geht – und diese Polarisierung verläuft oft mitten durch Familien und Institutionen. Als ich einen Monat lang in Taiwan war, um Mandarin zu lernen, hatte ich Lehrkräfte, die sich sehr deutlich für mehr Unabhängigkeit Taiwans ausgesprochen haben, und andere, die sich sehr deutlich für eine engere Beziehung zum Festland eingesetzt haben.
Was mich auch sehr beschäftigt, ist die Tatsache, dass diese Algorithmen unser Online-Verhalten steuern. Was beim alten Twitter und auch beim heutigen X der Fall ist: Der Algorithmus zeigt dir zuerst den Beitrag, der am meisten spaltet – solche, über die einige lachen und andere sich aufregen. Er will Kontroversen erzeugen, Menschen zum Streiten bringen, und dich zumindest als Zuschauer, vielleicht sogar als Teilnehmer in diesen Mob hineinziehen. Wenn man sich hingegen etwas wie Reddit anschaut, hat es zwar eigene Probleme, aber ich finde, es funktioniert besser – unter anderem, weil dort der Beitrag ganz oben steht, der das größte Nettoplus an Zustimmung hat. Wenn also 100 Leute einen Beitrag mögen und 100 ihn nicht mögen, wird er nicht weit oben angezeigt. Wenn 50 ihn mögen und nur einer ihn nicht mag, dann rückt er nach oben. Ist ein Teil der Lösung also, Social-Media-Plattformen zu motivieren, Algorithmen zu nutzen, die nicht spaltende Inhalte priorisieren? Könnte das funktionieren? Es fühlt sich an, als wäre Twitter ein größerer Teil unserer Konversation als Reddit – vielleicht auch, weil die Nutzer letztlich zu dem hingezogen werden, was sie wütend macht, manchmal auch glücklich. Und selbst wenn bestehende Social-Media-Unternehmen ihre Algorithmen ändern, würde das nicht einfach neuen Plattformen mit einem stärker konfrontativen Modell die Marktübernahme ermöglichen, weil genau das unser Bedürfnis ist?
Tang: Ich würde sagen, es ist nicht nur Reddit, sondern auch LinkedIn, das einen viel stärker verbindenden Algorithmus verwendet. Es gibt Leute, die LinkedIn nutzen und das Gefühl haben, dass der Feed dort qualitativ besser ist. Es ist also nicht so, dass nur antisoziale Feeds auf dem Markt sind. Es gibt auch prosoziale Feeds.
Mounk: Ich bin nicht auf LinkedIn, aber immer wenn ich da über andere Leute mal reinschaue, wirkt es auf mich wie eine Kultur, die auf ihre eigene Art schrecklich ist: dieses falsche Kumbaya, „hier sind 17 Dinge, die ich heute früh beim Gassi gehen mit meinem Hund gelernt habe“ – eine Art von unternehmerischem Selbstbeweihräucherungs-Posting. Vielleicht ist das einfach mein Geschmack, und ich bin unfair gegenüber vielem, was auf LinkedIn passiert.
Tang: Nein, das kann ich völlig nachvollziehen. Aber mein Punkt war nur, ob ein Algorithmus spaltend ist, indem er Inhalte fördert, die am wahrscheinlichsten dazu führen, dass eine Gruppe die andere extrem sieht – also wie eine Karikatur, wie es der Algorithmus von X tut. Ich wollte einfach sagen, dass LinkedIn das nicht tut.
Innerhalb von X gibt es auch einen Algorithmus, der stärker verbindend wirkt – nämlich der Community-Notes-Algorithmus. Was dieser im Grunde tut, ist, dass bei jedem trendenden Beitrag Freiwillige zusätzlichen Kontext bereitstellen können, um Klarheit zu schaffen. Es geht also nicht unbedingt um klassische Faktenchecks, sondern vielmehr darum, nützlichen Kontext bereitzustellen. Dabei wird nicht einfach die Note mit den meisten Upvotes angezeigt. Vielmehr trennt der Algorithmus die Nutzer zunächst in unterschiedliche Cluster – Menschen, die regelmäßig eine bestimmte Art von Kommentaren hochvoten, und andere, die eine andere Art bevorzugen – und diese Gruppen überschneiden sich nicht. Wenn ein Beitrag von beiden Seiten Zustimmung bekommt, ist es wahrscheinlicher, dass er „kleben bleibt“ und direkt neben dem Originalbeitrag angezeigt wird. Die ursprüngliche Person, die gepostet hat, kann ihn nicht entfernen. Das ist das Modell, das X anstelle von unabhängigen Drittanbieter-Faktenprüfern nutzt. Dieses Modell wurde inzwischen auch von YouTube übernommen und wird bald auch von Meta – also auf Facebook – verwendet, als eine Art horizontale Alternative zu den vertikalen Institutionen wie Fachjournalisten oder Faktenchecker. Innerhalb von X koexistieren also zwei Algorithmen – für die Hauptbeiträge der spaltende, für die Erläuterungen in den Community Notes der verbindende.
Mounk: Ich halte sehr viel vom Community-Notes-System, und es klingt so, als würdest du das auch tun. Was mich wirklich überrascht hat – und vielleicht ist das selbst ein Ausdruck der Polarisierung, die heute alle unsere politischen Debatten durchzieht –, war, dass die Reaktion in meinem Umfeld und unter Menschen, denen demokratische Institutionen am Herzen liegen, fast durchgehend negativ war, als Meta ankündigte, künftig keine Faktenchecks mehr durchzuführen, sondern auf das Community-Notes-Modell zu setzen. Ich verstehe, dass das in einem Kontext geschah, in dem Mark Zuckerberg politische Annäherung an Donald Trump suchte. Aber ich dachte – und du weißt darüber sicher mehr als ich –, dass es ein Fehler war, reflexartig zu sagen, dass wir Faktenchecker gegenüber jedem anderen System priorisieren müssen. Obwohl mir dieses Community-Modell als das beste Feature des neuen Twitter erscheint, könnten skeptische Menschen, die jetzt zuhören, denken: Nein, Zuckerberg verabschiedet sich von der Demokratie, indem er die Faktenchecker abschafft. Wie würdest du die Vorteile des Community-Notes-Modells erklären?
Tang: Offene Karten: Ich stehe in Kontakt mit dem Team, das die Community Notes bei Meta umsetzt, und auch mit einer anderen Gruppe bei Meta, die sogenannte Community-Foren entwickelt – also eine Plattform, ähnlich einem Jury-System, bei dem Menschen sich online beteiligen und das Meta-System mitgestalten können. Ich möchte betonen, dass keines dieser beiden Systeme vollständig sabotaschresistent ist – wenn jemand wirklich die Kontrolle übernehmen will, massiv Ressourcen einsetzt und das System mit Falschinformationen flutet, könnte es tatsächlich gelingen. Ich sage also nicht, dass es ein narrensicheres System ist. Aber unsere Erfahrungen in Taiwan – sowohl mit dem verbindenden Algorithmus als auch mit den Online-Community-Foren – haben gezeigt, dass es tatsächlich möglich ist, das zivilgesellschaftliche Muskelspiel und die Solidarität zwischen Menschen mit unterschiedlichen Ansichten zu stärken, wenn man solche Mechanismen gut umsetzt.
Wir haben das zuerst 2014 bei einer persönlichen Methode ausprobiert: Wir haben im März 2014 friedlich unser Parlament besetzt, um zu zeigen, dass dieser Ansatz funktioniert – um zwischen stark polarisierten Gruppen gemeinsame Positionen herauszuarbeiten. Seit 2015 arbeiten wir mit dem Kabinett an einer Online-Version dieses Prozesses. Als Uber 2015 nach Taiwan kam, haben wir gefragt: Wie fühlt es sich an, wenn ein Fahrer ohne Berufslizenz Fremde über eine App mitnimmt und dafür Geld verlangt? Die Leute konnten einfach ihre Gefühle dazu teilen. Und wie bei den Community Notes hatten wir ein Abstimmungssystem mit Upvotes und Downvotes – auch Trolls hatten Raum. Es gab eine Visualisierung, die zeigte, ob man im Lager der Uber-Befürworter war oder der ländlichen Gewerkschaften, und so weiter. Die Cluster wurden automatisch gruppiert. Jeden Tag konnten die Leute mehr verbindende Aussagen sehen. Zum Beispiel: „Taxameter zu unterbieten ist schlecht, aber dynamische Preise sind okay.“ Das war eine Aussage, der alle Seiten zustimmen konnten. Nach einer Weile begannen die Leute, miteinander um die besten verbindenden Positionen zu konkurrieren. Am Ende des Prozesses wurden die neun oder so Aussagen, die über 85 % Zustimmung aus allen Gruppen erhielten, zur Agenda. Daraus machten wir dann ein Gesetz.
Es ist also ein freundlicher Wettbewerb darüber, wie viel Distanz man überbrücken kann, um mit Menschen auf der anderen Seite zu sprechen. Ein weiteres Beispiel stammt aus dem letzten Jahr. Wir haben dieselbe Methode verwendet, aber in synchroner Form. Wir haben die Bevölkerung gefragt, wie sie zu Online-Fake-Werbung steht – etwa mit Jensen Huang von NVIDIA. Wenn man letztes Jahr durch Facebook oder YouTube in Taiwan scrollte, sah man ständig betrügerische Werbung, in der Jensen einem etwas über Aktien oder Kryptowährungen verkaufen wollte – klickte man drauf, sprach Jensen tatsächlich mit einem. Natürlich war das ein Deepfake. Wir wollten wissen, was die Bevölkerung tun würde. Also haben wir 200.000 SMS-Nachrichten an zufällig ausgewählte Nummern in Taiwan geschickt. Dann baten wir um Freiwillige, und Tausende meldeten sich, um gemeinsam online zu diskutieren. Wir wählten 450 Personen aus, die statistisch repräsentativ für die taiwanische Bevölkerung waren.
In 45 Gruppen mit je zehn Personen, moderiert von einem KI-System, entwickelten die Teilnehmenden gemeinsam richtig gute Ideen – ohne dabei die Macht zur staatlichen Zensur auszuweiten, aber mit klarer Wirkung gegen betrügerische Werbung. Eine Gruppe schlug zum Beispiel vor: Werbung mit Jensen Huang muss digital von ihm signiert sein – wenn nicht, sollte man sie als Betrug kennzeichnen und wohl auch verbieten. Eine andere Gruppe sagte: Wenn Facebook solche Werbung zeigt und jemand um 5 Millionen Dollar betrogen wird, sollte Facebook für diesen Schaden haften. Wir haben KI-Modelle eingesetzt, um diese Vorschläge zusammenzuführen – und dann in nur wenigen Monaten ein Gesetz verabschiedet. Heute sieht man auf Facebook oder YouTube in Taiwan keine solchen Fake-Werbungen mehr. Aber wir sind immer noch das Land mit der größten Online-Freiheit. Diese Beispiele zeigen: Wenn man solche Systeme mit Sorgfalt gestaltet und mit guter Sinnstiftung ausstattet, können sie das demokratische Miteinander stärken – Menschen kommen mit Leuten zusammen, die sie vorher nicht als Verbündete gesehen hätten, und machen Vorschläge, mit denen alle Seiten leben können.
Mounk: Das ist sehr interessant. Ich hatte diesen Themenbereich bislang in drei verschiedene Kategorien eingeteilt – aber ich merke gerade, dass du einige dieser Kategorien vermischst. Vielleicht lege ich sie einmal offen, und dann können wir gemeinsam überlegen, welche Lösung zu welcher Kategorie passt und wo sich die Antworten überschneiden.
Erstens haben wir das Problem von Falschinformationen. Das Beispiel mit der betrügerischen Werbung ist perfekt: Sie täuscht vor, dass eine respektierte Person etwas empfiehlt – in Wirklichkeit ist es ein Deepfake. Es gibt ein klares öffentliches Interesse daran, das einzudämmen. Aber wenn man der Regierung die Macht gibt, etwas als Falschinformation oder Deepfake zu deklarieren, ist es leicht zu sehen, wie das missbraucht werden könnte. Wie geht man also mit dieser Art von Falschinformation um?
Zweitens stellt sich die Frage, wie man Entscheidungsfindung besser gestalten kann. Gesetzgeber in Taipeh oder Washington oder Rom sind oft von der Bevölkerung abgeschottet – so wie Eliten und Politiker häufig eben sind. Wie kann digitale Technologie helfen, mehr öffentliche Beteiligung zu ermöglichen – sowohl was gute Ideen angeht, auf die man in der Hauptstadt nicht unbedingt gekommen wäre, als auch, um ein echtes Bild der öffentlichen Meinung zu erhalten und den Menschen ein Gefühl der Mitbestimmung zu geben?
Und drittens geht es um die Frage: Unsere Demokratien – wie etwa die USA oder viele andere Länder – wurden mit Institutionen aus dem 18. und 19. Jahrhundert gebaut. Aber heute leben wir in einer völlig anderen Welt mit ganz anderen Technologien. Es ist offensichtlich: Wenn wir die Demokratie heute neu erfinden würden, sähe sie wohl in manchen Punkten ganz anders aus. Wie sollten wir also den demokratischen Raum neu denken? Müssen wir ihn grundlegend renovieren? Mir scheint, dass einige deiner Beispiele zumindest auf die erste und zweite Kategorie zutreffen – vielleicht aber noch nicht ganz in die dritte reichen. Lass uns also die erste Frage noch einmal zu Ende bringen: Was ist das richtige Paradigma, um über Falschinformationen nachzudenken? Wie bekämpfen wir sie, ohne in Zensur zu verfallen?
Tang: Ich bin der Meinung, dass man Akteur-, Verhaltens- und Inhaltsebene nicht miteinander vermischen sollte. Die Regierung kann sehr leicht sagen: Jeder Inhalt, der ein bestimmtes Schlüsselwort enthält – zum Beispiel den Namen eines Ministers – muss vom Minister selbst geklärt werden; dieser könnte dann Journalisten oder Online-Plattformen zwingen, Beiträge zu löschen, und so weiter. Das ist sehr leicht zu missbrauchen. Deshalb will die Bevölkerung in Taiwan keine staatlichen Maßnahmen auf Inhaltsebene. Wenn man das ausschließt, muss man sich auf die Akteursebene konzentrieren. Deshalb haben wir eine KYC-Pflicht (Know Your Customer) für alle Werbeanzeigen eingeführt: Wenn also jemand behauptet, er sei Jensen Huang, dann sollte er das auch digital signieren. Das ist keine Moderation, sondern basiert auf dem einfachen Prinzip, dass unsere Verfassung gefälschten Robotern kein Recht auf Meinungsfreiheit einräumt. Ich denke, das ist eine Position, die viele nachvollziehen können.
Möchten Sie (oder jemand, den Sie kennen) meine Artikel und Interviews auf Englisch oder Französisch lesen? Abonnieren Sie sich gerne bei meinen entsprechenden Substacks!
Tang: Natürlich machen sich Menschen Sorgen um Inhalte, die keine Werbung sind – etwa Kommunikation, bei der man sagen könnte: Ich bin ein Whistleblower, oder ich befinde mich in einer Situation mit Informationsasymmetrie, in der ich etwas offenlegen möchte, aber nicht meine Identität preisgeben will. Deshalb werden wir bis Ende dieses Jahres in Taiwan eine Infrastruktur einführen, die „selektive Offenlegung“ ermöglicht. Man kann dann mit einem eingeschränkten Namen unterschreiben – zum Beispiel nur angeben, dass man über 16 Jahre alt ist, ohne das genaue Geburtsdatum offenzulegen, oder sagen, dass man in Taipeh wohnhaft oder Bürger:in ist, ohne die Adresse zu verraten. So kann man zeigen, dass man kein Roboter ist. Man hat ein persönliches oder überprüfbares digitales Zertifikat, mit dem andere ungefähr nachvollziehen können, wer man ist – ohne dass man sich selbst doxt oder zu viel preisgibt. Das ist die Akteursebene. Auf der Verhaltensebene setzen wir auf sogenanntes „Prebunking“ statt „Debunking“. Prebunking funktioniert so, dass die Gesellschaft im Vorfeld eine entpolarisierende Botschaft erhält – es ist wie eine Impfung. Vor ein paar Jahren habe ich mich selbst als Deepfake nachgebaut und gezeigt, wie das funktioniert. Als dann zur letzten Parlamentswahl Deepfakes auftauchten, waren die Menschen bereits „geimpft“, weil sie zwei Jahre lang Prebunking-Material gesehen hatten. Wir laden außerdem Lehrkräfte aus Mittel- und Oberstufen ein, bei gemeinsamer Faktenfindung mitzumachen. Es geht nicht nur um einzelne überprüfte Fakten, die junge Köpfe schützen – sondern um den Prozess des gemeinsamen Recherchierens, des journalistischen Denkens im Team und in Netzwerken. Zusammengenommen führt dieses prosoziale Verhalten der Faktenfindung zuverlässig dazu, dass Menschen weniger anfällig für aufgeregte Empörung werden.
Mounk: Ja, das finde ich sehr spannend. Es spricht mich sowohl im amerikanischen Kontext an – mit der rechtlichen Begrenzung durch den First Amendment – als auch auf einer philosophischen Ebene: Mein Bekenntnis zur Meinungsfreiheit, mein tiefes Bewusstsein dafür, wie leicht Regierungen diese Macht missbrauchen können. Was du gesagt hast, zeigt, dass es Möglichkeiten gibt, wirklich an der Infrastruktur des Internets anzusetzen, ohne Bürokraten in der Regierung oder mächtigen Tech-Konzernen die Macht zu geben zu entscheiden, was rein- oder rausfliegt, was wahr oder falsch ist – was wir in vielen wichtigen Fällen falsch eingeschätzt haben. Das ist eine Macht, die meiner Meinung nach weder Regierung noch Tech-Führungskräfte haben sollten.
Bevor wir zum nächsten Thema übergehen – inwieweit hast du das Gefühl, dass die Leute das tatsächlich verinnerlicht haben? Du bist sehr einflussreich in diesem Feld und ein bisschen eine Berühmtheit, wenn es um Desinformation geht. Aber wenn ich mir anschaue, wie europäische Politiker über dieses Thema sprechen – wie viele Politiker weltweit – greifen sie sehr schnell wieder zu: Wir brauchen ein Gesetzespaket zu Hassrede und Falschinformationen, das Behörden befähigt zu entscheiden, wann etwas gefährlich ist, was dann entfernt werden muss. Wenn Social-Media-Unternehmen dem nicht folgen, werden sie so hoch bestraft, dass sie hier gar nicht mehr operieren können. Auch wenn du eine wichtige Stimme in dieser Debatte bist, habe ich manchmal das Gefühl, man beruft sich auf dich – und ignoriert dich dann. Ist das fair? Oder bist du optimistischer, was zum Beispiel die Entwicklungen in Europa betrifft?
Tang: Viele Dinge wie digitale Signaturen, selektive Offenlegung und erzwungene Interoperabilität werden von der EU aufgegriffen. Die gleiche dezentrale Wallet wird nun ebenfalls eingeführt, und ich denke, dass die European Digital Identity Wallet (EUDIW) nächstes Jahr online geht – vielleicht etwas später als in Taiwan, aber in etwa gleichzeitig. Das ist aus meiner Sicht ein positives Signal. Der Digital Markets Act sagt: Wenn du groß genug bist, um Gatekeeper im Bereich Messaging zu sein, darfst du deine Nutzer nicht in deinem System einsperren – du musst Interoperabilität bieten. Wenn sie zu einem anderen Dienst mit besserer Nutzererfahrung wechseln wollen, dürfen sie dabei nicht ihre Kontakte verlieren. Sie dürfen auch keine laufenden Unterhaltungen verlieren. Sie sollen dieselbe Nachricht senden können. So etwas kennen wir bereits vom Bankwesen – mit Geldautomaten. Wenn man eine Bankkarte hat, kann man weltweit bei teilnehmenden Banken Geld abheben – nicht nur bei der eigenen Bank. All diese Maßnahmen zur Interoperabilität und Portabilität werden jetzt Teil des digitalen Governance-Werkzeugkastens der EU.
Man kann sich den nächsten Schritt leicht vorstellen: Wenn jemand etwas auf TikTok postet, sollte man denselben Inhalt auch auf Bluesky, Truth Social oder im Fediverse sehen können – also auf allen teilnehmenden, interoperablen Netzwerken. Dann wird es für große Tech-Betreiber praktisch unmöglich, eigene Zensurregeln durchzusetzen. Wenn sich Menschen in einer bestimmten Umgebung nicht sicher fühlen, können sie ihre Kontakte und Inhalte einfach mitnehmen – zu Mastodon oder Bluesky – und dort ein anderes Regelwerk für Inhalte genießen, die zwar legal, aber unangenehm sind. Und diese Inhalte können dann erhalten bleiben oder moderiert werden – je nach Plattform. Ich bin vorsichtig optimistisch, dass auch die EU Interoperabilität als einen möglichen Hebel erkennt.
Mounk: Erzähl uns ein bisschen mehr über Interoperabilität. Es klingt natürlich sehr attraktiv: Wenn ich auf einer Plattform ein großes Profil und eine Gefolgschaft aufgebaut habe, diese Plattform mich dann aber aus willkürlichen Gründen ausschließen kann – dann ist das eine sehr mächtige Form der Zensur. Wenn mein Lebensunterhalt von Werbung auf dieser Plattform abhängt, kann er von einem Tag auf den anderen verschwinden, ohne dass ich rechtlich viel dagegen tun kann. Wenn ich aber meine Follower einfach mitnehmen kann, zu einer anderen Plattform, dann habe ich plötzlich die Macht, genau dieser Art von Zensur zu entkommen – und das ist etwas sehr Positives. Auf der anderen Seite bin ich zwar kein besonders aktiver Social-Media-Nutzer, aber ich möchte auch nicht, dass einige der Leute, denen ich auf Twitter folge, plötzlich auf meinem Instagram-Feed auftauchen und ich dann Fotos ihrer Familien oder was auch immer sie tun sehen muss. Es sind ja ganz unterschiedliche Plattformen. Wie kann man also auf technischer Ebene die Möglichkeit kombinieren, Follower mitzunehmen, aber gleichzeitig den Followern erlauben zu sagen: Moment, ich folge dir wegen deiner politischen Inhalte – nicht wegen deiner Urlaubsfotos?
Tang: Ja, absolut. Bluesky ist ein gutes Beispiel. Es ist eine Neuinterpretation des alten Twitter auf einer anderen technischen Grundlage, entwickelt von vielen aus dem damaligen Twitter-Team. Wenn man auf Bluesky geht, sieht man eine Timeline wie bei Twitter. Man kann Leuten auf ähnliche Weise folgen. Es gibt auch einen Entdeckungs-Feed, den man kuratieren und mit Freunden teilen kann. Aber der Unterschied zu X ist: Man kann jederzeit selbst entscheiden, wie man Bluesky sehen möchte. Es gibt verschiedene Interfaces wie Blacksky, die auf derselben Grundlage aufbauen. Selbst wenn Bluesky dich aus irgendeinem Grund zensiert, kannst du einfach zu einer dieser Alternativen wechseln und behältst trotzdem deine bestehenden Verbindungen.
Auf diesem Protokoll basieren auch andere Anwendungen. Zum Beispiel „Flash“, das ist eher wie Instagram – ein anderes soziales Netzwerk. Wenn du mir auf Bluesky folgst, heißt das also nicht automatisch, dass du auch meine Fotos oder „Flashes“ siehst. Nur weil etwas interoperabel ist, bedeutet das nicht, dass ein Follow überall gleich übersetzt wird. Es heißt nur: Wenn du etwas postest oder eine Verbindung herstellst, kann keine andere Anwendung verbieten, dass diese Information verwendet wird – etwa dass du etwas gepostet oder jemandem gefolgt bist oder einen Like gesetzt hast. All das wird im gesamten Ökosystem sichtbar. Das Ad-Protokoll-Netzwerk und andere Apps können damit arbeiten – müssen es aber nicht. Das ist die technische Erklärung.
Ich bin im Rahmen des Project Liberty Institute auch an etwas beteiligt, das „Free Our Feeds“ heißt. Wir bauen ein alternatives System, das automatisch alles auf Bluesky sichert, damit Bluesky nicht willkürlich Menschen zensieren kann – nicht, dass sie es gerade tun würden, aber für den Fall, dass ihre Anteilseigner sie irgendwann dazu drängen. Dann könnte das Executive Team sagen: Es hat keinen Effekt, weil die Leute bereits über einen alternativen Relay verfügen. Es ist wie ein Club mit einem Notausgang – die Leute gehen einfach in den nächsten Raum. Wir bauen das nicht nur, wir stellen es auch als öffentliches Gut zur Verfügung. Ich bin außerdem beratend an der „People’s Bid for TikTok“ beteiligt. Falls sie TikToks US-Geschäft übernehmen, könnte auch TikTok sich dieser Infrastruktur anschließen.
Mounk: Das ist sehr interessant. Es scheint mir, als gäbe es hier ein mögliches Paradox: Man will den Nutzer möglichst viel Entscheidungsmacht geben. Das ist offensichtlich ein Weg, um Zensur zu verhindern – und überhaupt mehr Kontrolle über die eigenen digitalen Erfahrungen zu haben. Aber natürlich ziehen es viele Nutzer vor, in einer parteiischen Echokammer zu bleiben – und Stimmen zu unterdrücken, die ihnen nicht gefallen. Der Eindruck bei Bluesky ist zum Beispiel, dass die Plattform vor allem eine ganz bestimmte politische Richtung in den USA angezogen hat – und heute tatsächlich stärker eine Echokammer ist, als Twitter es je war. Viele Menschen nutzen einige dieser innovativen technischen Features, um ganze Gruppen von Menschen auf einmal zu blockieren. Man kann jetzt Algorithmen abonnieren, die sagen: Wenn jemand Audrey Tang folgt, blockiere ich diese Person. Das erzeugt dann einen sozialen Druck, dir gar nicht erst zu folgen – denn sobald ich es tue, werde ich von all den Menschen, die diesen Algorithmus verwenden, ebenfalls blockiert.
Laufen wir hier Gefahr, in eine neue Form des Techno-Utopismus zu geraten? Vor 20 Jahren, in den frühen Tagen des Internets, dachten wir, soziale Medien würden die Welt verbinden, uns über unsere Spaltungen hinweghelfen und Gesellschaften weniger identitär machen. Und dann passierte das Gegenteil. Könnte das hier auch wieder geschehen – gerade weil wir den Nutzern diese umfassenden Freiheiten geben, ihre Erfahrungen selbst zu kuratieren? Es klingt total positiv, und während du sprichst, nicke ich innerlich mit. Aber wenn ich mir anschaue, wie Bluesky heute wirklich aussieht, bin ich mir nicht sicher, ob diese Vision dort verwirklicht wurde. Macht das wirklich einen positiven Unterschied?
Tang: Ja, die beiden größten Open-Source-Umsetzungen dieses Protokolls sind Bluesky und Truth Social – und wie du beobachtet hast, sind sie vielleicht sogar noch stärker Echokammern als Twitter es je war, als es noch Twitter hieß. Aber das ist kein Zustand, aus dem man nicht wieder herauskommt. Ich habe vor Kurzem gemeinsam mit Glen Weyl, Luke Thorburn, Emillie de Keulenaar, Jacob Mchangama und Divya Siddarth ein Paper veröffentlicht. Darin stellen wir eine Methode vor, bei der Truth Social und Bluesky ihre Echokammern und unterschiedlichen Communities behalten können – aber gleichzeitig einen Weg bieten, sogenannte „surprising validators“ sichtbar zu machen. Also Inhalte, bei denen Leute auf der anderen Seite etwas sagen, das meine Community tatsächlich sehr schätzt – obwohl wir sonst bei fast nichts übereinstimmen. Das nennen wir „bridging content“.
Es gibt algorithmische Wege, dieses verbindende Material in den Feeds beider Communities sichtbar zu machen – und gleichzeitig zu zeigen, dass auch die jeweils andere Seite diesen Inhalt wahrnimmt. Der Grundgedanke ist: Wir wollen gemeinsames Wissen schaffen. Denn obwohl wir ideologisch, altersmäßig, regional oder geschlechtlich verschieden sind – es gibt Inhalte, die beide Seiten wirklich schätzen und von denen sie mehr sehen möchten. Das kann ein Geschäftsmodell werden. Die Hypothese lautet: Ich gehöre zu vielen Communities – spirituell, beruflich usw. Wenn es Inhalte gibt, die diese Trennlinien überwinden und alle meine Gruppen etwas näher zusammenbringen, bin ich bereit, dafür zu zahlen oder ein Abo abzuschließen.
Auch lokale oder berufliche Communities möchten solche Inhalte fördern – also Inhalte, die ihre Sub-Communities heilen, ohne die Vielfalt darin zu verleugnen. Dafür gibt es einen Markt. Und ich stimme dir zu: Nur weil alle ihre Erfahrungen selbst kuratieren können, heißt das nicht, dass alle Erfahrungen positiv sein werden. Aber was wir aus den Community-Notes-Experimenten und aus Taiwan gelernt haben, ist: Menschen wissen solche Angebote sehr zu schätzen – besonders wenn humorvolles Prebunking entpolarisierend wirkt. Ein schnelles Beispiel aus dem Frühling 2020: Es gab zwei Lager, die sich gegenseitig blockierten und heftig stritten. Die eine Seite – geprägt von unserer SARS-Erfahrung – sagte, nur N95-Masken seien akzeptabel, alles andere sei Betrug. Die andere Seite meinte, nur Aerosole und Belüftung seien entscheidend. Wenn wir nur diese zwei Extreme verstärken, wissen wir gar nicht, was Desinformation ist – die Wissenschaft hatte das damals noch nicht geklärt. Wir nutzten also denselben Brückenalgorithmus, fanden die ungenutzte Schnittmenge und verbreiteten schnell ein Prebunking-Meme: Ein süßer Shiba Inu hebt die Pfote und sagt: „Trag eine Maske, um dich daran zu erinnern, deine schmutzigen, ungewaschenen Hände aus dem Gesicht zu lassen.“ Damit veränderten wir die Symbolik der Maske. Wer eine Maske trägt, übt keinen Druck aus – sondern erinnert dich freundlich ans Händewaschen. Wir haben den Wasserverbrauch gemessen: Er ist danach gestiegen. Die Leute, die über die Botschaft lachten, konnten danach nicht mehr von den polarisierenden Botschaften vereinnahmt werden.
Mounk: Großartig. Es ist wirklich lustig, dass das tatsächlich zu mehr Wasserverbrauch geführt hat. Ich persönlich finde Menschen, die mir sagen, ich soll meine Hände waschen, ziemlich aggressiv – aber vielleicht bin ich da eine Minderheit von einer Person. Wenn mir das ein Shiba Inu sagt, höre ich allerdings gerne zu.
Was ich daran wirklich spannend finde, ist die Perspektive, wie man Regierung neu denken kann. Ein Aspekt ist: Was können Institutionen wirklich leisten, wenn es um kleinere Veränderungen geht? Die Politikwissenschaft war in den letzten Jahrzehnten stark vom institutionalistischen Denken geprägt. Die Hoffnung war oft: Wenn wir unser Wahlsystem ändern, lösen sich extreme Stimmen in der Politik auf. Ich habe argumentiert, warum Verhältniswahlrecht in den USA nicht die Lösung für die spezifischen Probleme des Landes ist. Denn auch in Systemen mit Verhältniswahlrecht kommen extreme Kräfte an die Macht – und oft auch in die Regierung. Ich denke, wir setzen zu viele Hoffnungen auf Wahlsysteme, wenn wir glauben, sie würden extreme Stimmen verschwinden lassen.
Vielleicht machst du ein ähnliches Argument auf der Ebene der digitalen Infrastrukturen: Sie können einen Unterschied machen. Sie können Anreize verändern. Sie können uns helfen, gemeinsame Standpunkte zu erkennen, die heutige Algorithmen oder Strukturen uns vorenthalten. Aber sie werden nicht über Nacht unsere Öffentlichkeit transformieren und all diese Probleme verschwinden lassen. Das wäre vielleicht zu viel verlangt. Trotzdem möchte ich jetzt ein paar grundlegendere Fragen stellen. Wir haben den ersten Bereich – Desinformation – behandelt. Wir haben begonnen, über den zweiten zu sprechen: Wie können wir politische Entscheidungsprozesse besser informieren? Aber ich möchte in diesem Gespräch auch etwas Zeit mit dem dritten Bereich verbringen: Wenn wir heute die erste Demokratie entwerfen würden – und die Gründungsväter der USA im Neuen Land ankämen und sich vom Vereinigten Königreich loslösten – und sie hätten Zugang zu den Technologien von heute: Wie würde dieses politische System aussehen? Grundsätzlicher gefragt: Wie können wir die Prinzipien bewahren, die unserem politischen System zugrunde liegen – die Idee, dass wir gemeinsam Entscheidungen treffen, dass wir uns selbst regieren, statt dass ein Diktator, eine religiöse Autorität, ein General oder eine Partei für uns entscheidet – und gleichzeitig individuelle Grundrechte wie die Meinungsfreiheit wahren, über die wir gesprochen haben? Aber: Wie können wir dieses Fundament in der digitalen Welt radikal neu denken? Was behalten wir vom heutigen System – und was lässt sich von Grund auf neu gestalten?
Tang: Das ist eine großartige Frage. Als Demokratien zum ersten Mal gegründet wurden, gab es bereits einige Kommunikationstechnologien, die über Distanzen hinweg funktionierten – wie das Telegramm. Bald folgten auch Rundfunktechnologien wie Radio und später Fernsehen. Was es jedoch nicht gab, war das, was man heute „broad listening“-Technologien nennt. Es war möglich, dass eine Person mit einer anderen spricht, oder dass eine Person zu Millionen spricht – aber es gab keine Technologie, mit der eine Person Millionen Gespräche hören konnte, oder mit der Millionen Menschen sich gegenseitig zuhören konnten, um ein gegenseitiges Verständnis zu ermöglichen, das zuvor unmöglich war. Es gab zwar Versuche – etwa im Weißen Haus unter Obama. Damals schrieb man Briefe an den Präsidenten, und ein ganzer Stab von „kleinen Sprachmodellen in Menschengestalt“ sortierte diese Briefe und wählte fünf aus, die als repräsentative Stichprobe galten, damit der Präsident sie lesen konnte. Aber das war sehr zeitaufwändig – und diese Menschen kamen nicht miteinander ins Gespräch. Es war immer noch eine sehr hierarchische Struktur.
Was wir heute sehen, ist eine neue Generation von „broad listening“-Werkzeugen. Zum Beispiel wird in den USA, in Bowling Green, Kentucky, gerade ein solches Tool eingeführt: „What Could BG Be?“ – WhatCouldBowlingGreenBe.com. Wenn man diese Seite besucht, sieht man, wie sich die Mitbürger fühlen. Man sieht sogenannte „listening partners“ – lokal wichtige Personen, die sich bereit erklärt haben, auf entdeckte Gemeinsamkeiten zu antworten. Und man kann auch den Ideen anderer zustimmen oder widersprechen. Es geht also nicht nur darum, die Bandbreite für eine einzelne Entscheidungsträger:in zu erhöhen, um alle in Bowling Green hören zu können – sondern darum, dass die Menschen dort ein gemeinsames Bild davon bekommen, was sie miteinander verbindet: gemeinsame Werte. Und auch, worin die Hauptunterschiede bestehen und wie sie sich erklären. Das nennt man „sense making“. Es gibt mittlerweile Open-Source-Tools, die solche Sinnbildungsprozesse für beliebig große Gespräche – online wie offline – ermöglichen. In Kalifornien haben wir vor ein paar Wochen mit Gouverneur Newsom ein ähnliches Projekt gestartet: „Engage California“. Es ermöglicht Menschen, in Echtzeit oder synchron miteinander über gemeinsame Themen zu sprechen – etwa darüber, wie man sich von den Waldbränden in Eton und Palisades erholt. Auch das ist ein überparteiliches Thema, das gelöst werden kann, wenn sich Menschen aus dem ganzen Bundesstaat beteiligen – und nicht nur ein zuständiges Ministerium. Es geht also wieder um „broad listening“ – nicht nur gegenüber dem Gouverneur, sondern auch untereinander. Ich denke, was wir künftig verstärkt sehen werden, ist die symmetrische Fähigkeit zum Zuhören – nicht bloß zum Senden.
Mounk: Das klingt wirklich interessant. Für mich wirkt es allerdings etwas begrenzt in seiner Zielsetzung und Wirkung – und das in zweierlei Hinsicht. Erstens fühlt es sich an wie eine Neuauflage einer traditionellen New-England-Townhall. Statt sich einmal pro Woche oder im Monat persönlich zu treffen, um dort zu sprechen, tun wir das jetzt asynchron. Das macht die Teilnahme für viele natürlich leichter und bringt viele Vorteile. Aber es erscheint mir in seinem Einfluss auf die tatsächliche Funktionsweise von Regierung doch begrenzt – vor allem, weil die letztliche Entscheidungsmacht weiterhin bei Gremien wie Stadträten oder nationalen Parlamenten liegt, die auf traditionelle Weise gewählt werden.
Zweitens sehe ich ein grundsätzliches Problem partizipativer Demokratie – das sich vielleicht auch hier nicht vermeiden lässt. Wer nimmt an solchen Foren teil? Natürlich ist es heute etwas einfacher: Die vielbeschäftigte Mutter, die abends keinen Babysitter findet, kann sich einloggen, wenn die Kinder schlafen – statt das Treffen zu verpassen. Aber ich bin sicher, dass es weiterhin eine starke Schieflage gibt – etwa in Bezug auf sozioökonomischen und Bildungsstatus und besonders auch politische Ideologie. Wir sehen das ganz deutlich in den USA am Vorwahlsystem: Je extremer jemand ideologisch eingestellt ist, desto motivierter ist er oder sie, sich politisch zu beteiligen. In einem klassischen Wahlsystem – in dem hoffentlich 80 % oder mehr der Bevölkerung wählen – bekommen Extreme nicht automatisch mehr Gewicht. Aber bei Vorwahlen oder in partizipativen Formaten wie Townhalls ist es oft nur ein Bruchteil der Bevölkerung, der teilnimmt – 10 %, 5 %, manchmal nur 1 %. Und diese Teilnehmenden sind nicht repräsentativ – sie sind im Schnitt ideologisch extremer. Man verstärkt also gerade die Polarisierung – das Gegenteil von dem, was wir im Kontext sozialer Medien mit strukturellen Mitteln bekämpfen wollen.
Meine Frage ist also: Wie vermeidet man diese Falle? Und: Müssen wir nicht tatsächlich radikaler über die Erneuerung von Regierung nachdenken? Gibt es eine Möglichkeit, deliberative Verfahren zum Kern unseres politischen Systems zu machen – ohne gewählte Stadträte oder Parlamente in der bisherigen Form? Oder ist das nicht realistisch – und das heutige Modell grundsätzlich richtig, nur müssen wir es durch digitale Kanäle ergänzen?
Tang: Zu deiner ersten Frage – wie man Fallstricke vermeidet: Das Gute an einem prosozialen oder verbindenden Algorithmus ist, dass er „klonresistent“ ist. Das bedeutet: Wenn jemand ideologisch motiviert Tausende Menschen mobilisiert, die auf der Polis-Plattform alle exakt gleich abstimmen, hat das keinen Einfluss auf das Ergebnis. Denn der Algorithmus berechnet zuerst Cluster – also Gruppen mit unterschiedlichen Denkweisen. Selbst wenn es zum Beispiel zwei Cluster gibt, einer mit 5.000 Personen und ein anderer mit nur 50, zählt nicht die Größe der Gruppen, sondern die Vielfalt der Gedanken. 5.000 Menschen, die alle gleich stimmen, ergeben nur einen Punkt – mit einer sehr kleinen Fläche. Durch das Design des Clustering-Algorithmus gilt: Auch wenn auf der einen Seite 5.000 Menschen stehen, müssen sie über 85 % Zustimmung von der kleineren Gruppe erhalten, damit ihre Aussage als „verbindend“ gewertet wird. Die gleiche Eigenschaft, die den Community-Notes-Algorithmus schützt, schützt auch diesen Algorithmus.
Aber ich stimme dir vollkommen zu: Es gibt Menschen, die nicht einmal motiviert sind, überhaupt abzustimmen – weder hoch noch runter. Dieses System würde ihre Stimme systematisch ausschließen. Deshalb ist nicht nur Breitband als Menschenrecht wichtig, sondern im Fall von Taiwan arbeiten wir tatsächlich mit „Lottokratie“ – also Losverfahren. Wenn ich sage, wir haben SMS an 200.000 zufällig ausgewählte Nummern geschickt, dann waren das wirklich zufällige Nummern. Und die Nachricht lautete: Wenn du ein bisschen Zeit investieren willst, um darüber nachzudenken, zahlen wir dich dafür. Es ist wie eine Jury-Pflicht – aber für Verwaltungsfunktionen. Bei Präsenzformaten kann man die Menschen sogar besser bezahlen und es Bürgerversammlung nennen. In Japan und vielen anderen Ländern gibt es auf lokaler Ebene bereits zahlreiche erfolgreiche Bürgerversammlungen. Das ist keine hypothetische Zukunftsform von Entscheidungsfindung – das gibt es bereits. Was ich beschreibe, ist im Grunde der Einsatz der aktuellen Generation von KI – die nicht halluziniert und faktenbasiert ist –, um den Prozess des Zusammenfassens, Reflektierens und Informierens in solchen Versammlungen zu beschleunigen. Das ist meine Antwort auf deine erste Frage.
Die zweite Frage ist deshalb interessant, weil Parlamente ursprünglich auch nur als beratende Gremien gedacht waren – nicht als bindende Entscheidungsgremien. Erst als man begann, Parlamente mit den Beratungsteams der Monarchen zu vergleichen, stellte man fest: Die Qualität der Parlamentsarbeit ist konsistent höher – und irgendwann hat man dann umgestellt. Es ist wie das berühmte Zitat von Buckminster Fuller: Es geht nicht darum, das alte System zu zerstören, sondern ein neues System zu bauen, das das alte nach und nach überflüssig macht. Daran glaube ich.
Tang: Es mag viele überraschen, aber in den Vereinigten Staaten gibt es bereits Bundesstaaten mit einer solchen Tradition – nicht nur Jury-Systeme, sondern auch Bürgerversammlungen. In Oregon zum Beispiel gab es kürzlich die „Deschutes Civic Assembly“ zum Thema Jugendobdachlosigkeit. Die Idee war, zufällig generierte Nachrichten an Zehntausende Adressen im County zu verschicken und zusätzlich 250 Einladungen über Community-Gruppen zu verteilen.
Deine Frage lässt sich auf zwei Arten beantworten. Erstens: durch die Normalisierung solcher Bürgerinitiativen. In Taiwan haben wir eine sehr niedrige Schwelle für Bürgeranliegen. Jeder Mensch mit 5.000 Online-Unterschriften kann eine offizielle Regierungsantwort erzwingen. Einige der wirkungsvollsten Initiativen stammen von Menschen, die noch nicht einmal 18 Jahre alt sind. Bei diesen Online-E-Petitionen sind auch unter 18-Jährige und Nicht-Staatsbürger gleichberechtigt. Wir haben das zur kontinuierlichen Praxis gemacht – zum Beispiel mit einer Petition von Oberschüler, die forderten, eine Stunde später mit dem Unterricht zu beginnen, weil sie belegen konnten, dass eine zusätzliche Stunde Schlaf sich positiver auf die Noten auswirkt als eine zusätzliche Stunde Lernen. Sie haben tatsächlich eine Änderung vom Bildungsministerium erreicht.
Wir sorgen außerdem dafür, dass diese jungen Menschen, die solche Initiativen starten, als jugendliche Berater auf Kabinettsebene arbeiten – und so den Ministerien dabei helfen, diese Formen der Beteiligung besser umzusetzen. Das Ergebnis: Unsere 15-Jährigen in Taiwan liegen laut der International Citizenship and Civic Study der OECD-Länder weltweit vorn, wenn es um das Gefühl von politischer Selbstwirksamkeit geht. Sie fühlen sich bereits wie vollwertige Bürger. Die Normalisierung dieser alltäglichen Beteiligung – nicht als Krisenreaktion im Referendumsstil, sondern als kulturelle Praxis – ist enorm wichtig. Nach einigen Jahren, in denen man das geübt hat, kommt dann irgendwann doch eine Krise – wie die Pandemie in Taiwan. Und plötzlich verwandeln sich all die aufgebauten zivilgesellschaftlichen Strukturen, die gewachsenen Verbindungen zwischen Civic-Tech-Akteuren, Beamten und NGOs in einen der besten denkbaren Mechanismen zur Krisenbewältigung. Dabei wurde dieselbe Informationsinfrastruktur wiederverwendet, um zum Beispiel ein anonymes Kontaktverfolgungssystem zu schaffen, das keine App benötigt und die Privatsphäre schützt. Der Staat erfährt nichts, der Telekom-Anbieter erfährt nichts, aber die Rückverfolgung in der Gemeinschaft funktioniert trotzdem. Eine solche Krise hebt dann die zivilgesellschaftliche Infrastruktur auf die Ebene einer nationalen öffentlichen Infrastruktur. Ich glaube nicht, dass man eine Krise planen kann – aber man kann Gespräche führen, um diese Ideen zu verbreiten und dieses „civic muscle“ in kleinen Gemeinschaften regelmäßig zu trainieren.
Mounk: Das ist wirklich spannend. Lass mich zum Schluss noch eine letzte Frage – oder eine letzte Reihe von Fragen – stellen. Wie optimistisch oder pessimistisch sollten wir in diesem Moment in Bezug auf Demokratie sein? Je länger ich darüber nachdenke, warum extreme Stimmen heute eine viel größere Rolle in der Politik spielen als noch vor 20 oder 30 Jahren, desto plausibler erscheint mir der Gedanke, dass soziale Medien daran einen großen Anteil haben. In meinem Buch The People vs. Democracy nenne ich auch andere Erklärungen, die meines Erachtens teilweise wichtig sind – etwa, dass viele Bürgern in westlichen Ländern heute nicht mehr das Gefühl haben, wirtschaftlich so schnell voranzukommen wie in den 1950er- und 60er-Jahren in Westeuropa und Nordamerika. Ich spreche auch über rasche kulturelle und demografische Umbrüche, die in vielen Ländern eine große Rolle spielen dürften.
Aber das Problem mit diesen Erklärungen ist: Es gibt Länder, auf die sie nicht zutreffen. Indien zum Beispiel verzeichnet ein durchaus solides wirtschaftliches Wachstum – von einer niedrigen Basis aus – und trotzdem nehmen dort radikale Stimmen in der Politik zu. Es gibt Länder mit viel weniger Migration als Nordamerika oder Westeuropa, und dennoch erleben sie ebenfalls einen Anstieg solcher politischen Strömungen. Brasilien wäre ein Beispiel dafür. Soziale Medien hingegen sind in fast allen Ländern innerhalb kurzer Zeit aufgekommen – und der Zeitpunkt korreliert ziemlich gut mit dem Erstarken dieser extremen Stimmen. Das hat meine Sichtweise verändert: Ich gewichte den Einfluss sozialer Medien inzwischen deutlich stärker.
Man könnte das sehr pessimistisch lesen: Vielleicht sind soziale Medien einfach besonders gut darin, das zu schaffen, was die amerikanischen Gründungsväter als „factions“ bezeichnet hätten – ideologisch motivierte Gruppen, die sich gegenseitig nicht ausstehen können. Und vielleicht sind unsere Institutionen nicht stark genug, um dem standzuhalten. Vielleicht ist der Aufstieg radikaler Stimmen also nicht nur eine Phase, sondern der Beginn eines langfristigen Trends, der letztlich zur Zerstörung unserer demokratischen Institutionen führen wird.
Mounk: Die optimistische Lesart wäre: Wir befinden uns gerade in einem Übergangsmoment. Das Problem ist, dass diese neuen Technologien die Art, wie unsere Welt funktioniert – und wie unsere Politik funktioniert – komplett verändert haben. Unsere Institutionen haben damit noch nicht Schritt gehalten. Vielleicht auch unsere Haltung nicht. Wir sind immer noch fasziniert davon, wie wir uns auf Social Media gegenseitig bloßstellen können. Aber – und erste Anzeichen dafür sieht man ja schon – vielleicht wird das mit der Zeit einfach uninteressanter. Vielleicht werden diejenigen, die in sozialen Medien ständig Drama machen und Dreck werfen, nicht mehr als cool wahrgenommen, sondern einfach negativ. Es könnte zu einem kulturellen Wandel kommen. Und vielleicht helfen einige der Ideen, die du hier einbringst, Audrey, uns tatsächlich dabei, diese Energie in eine positive Richtung zu lenken. Vielleicht werden wir in 20 oder 30 Jahren zurückblicken und sagen: Als Social Media zum ersten Mal auftauchte, verursachte es große Turbulenzen, weil wir nicht wussten, wie wir damit umgehen sollen. Aber inzwischen haben wir es geschafft, es in eine konstruktivere Richtung zu lenken. Wo würdest du dich auf der Skala von Pessimismus zu Optimismus einordnen? Wenn du eine Prognose wagen würdest: Wie werden wir in 25 Jahren auf diesen Moment zurückblicken – sowohl in der Geschichte unserer Demokratien als auch im Hinblick auf den Einfluss sozialer Medien auf unsere Gesellschaft?
Tang: Das ist eine großartige Frage. Ich finde Hoffnung in einer ziemlich bekannten Umfrage von vor ein paar Jahren in den USA unter Studierenden, die TikTok nutzen. Das Ergebnis war: Wenn man einen durchschnittlichen TikTok-Nutzer oder eine Nutzerin davon überzeugen will, TikTok zu verlassen, müsste man ihnen fast 60 Dollar pro Monat zahlen. Aber: Wenn es einen magischen Knopf gäbe, der sie und alle ihre Bekannten gleichzeitig von TikTok wegbeamen würde, dann wären sie bereit, dafür 30 Dollar im Monat zu zahlen. Das ist ein klassisches Produkt-Markt-Dilemma. Alle verlieren durch die ständige Exposition gegenüber antisozialen, süchtig machenden Inhalten. Aber wer als Erstes aussteigt, verliert noch mehr – denn man verliert Anschluss, Inhalte, Interaktionen. Also will niemand der oder die Erste sein.
Ich glaube, die grundsätzliche Erkenntnis ist: Um dieses Problem zu lösen, muss man sicherstellen, dass Menschen beim Wechsel keinen Nutzen verlieren. Das ist der Gedanke hinter Interoperabilität. Wenn wir eine gemeinsame Grundlage schaffen – ein gemeinsames Protokoll –, sodass Menschen beim Wechsel ihre sozialen Verbindungen und Inhalte behalten, dann wollen sie auch dorthin wechseln, wo sie sich subjektiv besser fühlen. Natürlich kann man argumentieren, dass kleinere Communities, mehr Segmentierung, nicht automatisch bedeuten, dass es mehr Brücken gibt. Deshalb müssen wir das mit prosozialen Medien ergänzen – Medien, die aktiv Brücken bauen helfen und deren Aufbau man sogar gemeinsam finanzieren kann.
Aber selbst ohne prosoziale Medienalgorithmen: Wenn wir es einfach nur leichter machen, toxische Räume zu verlassen und trotzdem mitbekommen, was andere Menschen tun, wird das bereits eine große Veränderung sein. Ich bin auch ganz ermutigt durch die Werbeblocker der letzten Jahrzehnte – ihre Normalisierung hat dazu geführt, dass viele sie heute in ihren Browsern nutzen, manche sind sogar Teil des Betriebssystems geworden. Deshalb gibt es auch Grund zum Optimismus: Wenn größere soziale Netzwerke wie Bluesky erkennen, dass Interoperabilität nicht ein Wettlauf nach unten ist – zum Reiz-Reaktions-Reflex des Hirnstamms –, sondern ein Wettlauf nach oben, dann werden sie sich freiwillig verändern.
Oder wenn es einen Betreiberwechsel gibt – zum Beispiel, wenn die „People’s Bid for TikTok“ Erfolg hat –, dann könnten wir TikTok in etwas Interoperables umwandeln. Oder wenn ein europäisches oder asiatisches Land oder vielleicht die USA erkennen, dass Interoperabilität im Social-Media-Bereich besser funktioniert als klassische Regulierung – ohne dabei den First Amendment oder Section 230 zu verletzen –, dann können wir uns eine Zukunft vorstellen, in der prosoziale, demokratischere Formen digitaler Konversationen zur Norm werden. Dann könnten resonanzfähige Gesprächsnetzwerke wirklich unser neuer Standard werden.
Falls Sie meinen Podcast “The Good Fight” (auf Englisch) noch nicht abonniert haben, tun Sie das jetzt!
Dieses Transkript wurde mit Hilfe von KI übersetzt und von Niya Krasteva redigiert.