Kelly Born: Wie KI die Politik verändert
Yascha Mounk und Kelly Born sprechen über die sozioökonomischen Auswirkungen künstlicher Intelligenz.
Wenn dir meine Artikel und Podcasts gefallen, abonniere dich jetzt – oder leite sie an Freunde weiter –, damit dieser Substack weiter wachsen kann!
Kelly Born ist die Gründungsdirektorin der Initiative für Demokratie, Rechte und Governance der Packard Foundation. In diesem Gespräch untersuchen Yascha Mounk und Kelly Born, wie sich KI auf die Demokratie und die Gesellschaft auswirken könnte – und wie man darauf reagieren sollte.
Das Transkript wurde gekürzt und zur besseren Verständlichkeit leicht bearbeitet.
Yascha Mounk: Wir kennen uns schon lange. Wir laufen uns auf allen möglichen Konferenzen über den Weg. Aber vor kurzem hast du auf einer Konferenz, an der ich teilnahm, eine wirklich interessante Präsentation gehalten – eine Hilfestellung, um über die verschiedenen Auswirkungen nachzudenken, die KI auf die politische Welt haben wird. Bevor wir auf einige davon im Detail eingehen: Wie sollten wir darüber nachdenken – angefangen bei den offensichtlichen, direkten Wegen, auf denen KI die Welt bereits beeinflusst, bis hin zu den ferneren, aber potenziell weitaus folgenreicheren Wegen, auf denen sie die Welt in 5, 10 oder 20 Jahren transformieren könnte?
Kelly Born: Mein Eindruck ist, dass KI so ziemlich alles beeinflussen wird. Es ist eine Allzwecktechnologie. Wie bei jeder Art von großem technologischem Wandel in der Vergangenheit – ob Buchdruck, Radio, Fernsehen oder das Internet – sieht man enorme soziale, politische und wirtschaftliche Veränderungen als Folge. Aber ich denke, KI ist aus ein paar Gründen ein wenig anders. Erstens ist sie eine echte Allzwecktechnologie. Sie ist nicht wie soziale Medien, die in erster Linie die Kommunikation beeinflussen. KI wird die Gesundheit, die Wissenschaft, die nationale Sicherheit, das Bankwesen, den Transport – im Grunde jeden Sektor – betreffen. Sie wird nicht nur diese unglaublich breite Wirkung haben, sondern sie wird auch schneller eingeführt als so ziemlich jede Technologie, die wir je gesehen haben. Wir haben also als Gesellschaft – und als Demokratie – weit weniger Zeit, uns anzupassen.
Mounk: Erkläre mir diese Behauptung, denn ich glaube, dass Menschen, die über KI nachdenken, das schon oft gehört haben, es aber für andere vielleicht nicht so offensichtlich ist. Es gibt diese seltsame Restskeptik gegenüber KI in weiten Teilen der Bevölkerung, die besagt, sie sei irgendwie nutzlos, sie halluziniere viel und sie funktioniere eigentlich gar nicht. Wenn du sagst, sie wird schneller angenommen als jede andere Technologie, was sind die Belege dafür?
Born: Zugegeben, es basiert auf vielen Offenlegungen von Unternehmen über die Nutzerzahlen, aber man sieht eine Nutzung in den Hunderten von Millionen. Ich denke, man sieht auch, dass jeder darüber spricht und sie nutzt. Man muss sich also nicht nur auf das Wort der Unternehmen verlassen – es ist absolut im Zeitgeist und wird offensichtlich schnell angenommen.
Mounk: Wenn man sich ansieht, wie viele Millionen Nutzer mittlerweile sogar monatlich für OpenAI sowie für andere KI-Plattformen bezahlen, stellt sich die Frage, ob die riesigen Investitionen, die diese Unternehmen in die Technologie stecken, durch diese Ausgaben aufrechterhalten werden können. Aber wenn man sich nur den Anteil der Konsumenten in den Vereinigten Staaten ansieht, die jetzt tatsächlich proaktiv für eine KI-Plattform bezahlen, ist das eine sehr große Anzahl von Menschen. Für eine Technologie, die eigentlich erst seit drei Jahren in einer kommerzialisierten Form auf dem Markt ist, ist das tatsächlich eine sehr schnelle Akzeptanz – was darauf hinzudeuten scheint, dass zumindest diese Leute glauben, ob zu Recht oder zu Unrecht, dass sie einen gewissen Wert liefert.
Born: Ich denke, das ist richtig. Sie wird schnell angenommen, und es ist eine Technologie, die in einer Gesellschaft eingeführt wird, die wirklich instabil ist – mit vielen Herausforderungen rund um das Vertrauen in Institutionen, Polarisierung und wirtschaftlicher Ungleichheit, die ziemlich signifikant sind. Eine Allzwecktechnologie so schnell einzuführen, ist meiner Meinung nach ein Grund zur Sorge.
Mounk: Eine Sache, die ich wirklich interessant finde, ist, dass ich bei Diskussionen über KI manchmal das Gefühl habe, dass sie sehr polarisiert sind zwischen den Leuten, die denken, sie sei völlig nutzlos und halluziniere nur, und den Leuten, die denken, dass sie in drei Jahren so intelligent sein wird, dass wir alle arbeitslos sein werden. Es ist auch polarisiert zwischen Leuten, die sich um sehr kleine, konkrete Dinge sorgen, und diesen riesigen, ungreifbaren Dingen. Auf der einen Seite befasst sich ein Großteil der Literatur über Ethik und KI mit algorithmischer Diskriminierung. Wenn ein KI-System dabei hilft zu bestimmen, wie hoch der Preis für deinen Einfluss ist, könnte es am Ende schutzbedürftige Gruppen auf alle möglichen Arten diskriminieren, was natürlich ein schlechtes Ergebnis ist, sich aber wie ein relativ kleines Element darin anfühlt, wie sie die Welt beeinflussen könnte. Auf der anderen Seite gibt es Leute wie Nate Soares, der vor kurzem im Podcast war und zusammen mit Eliezer Yudkowsky dieses Buch geschrieben hat: If Anybody Builds It, Everybody Dies. Das ist die Vorstellung, dass das Ende der Menschheit vor der Tür steht, wenn wir nicht morgen ein Moratorium für KI verhängen. Erzähl uns ein wenig darüber, was zwischen diesen beiden Dingen liegt. Was sind all die verschiedenen Arten von Auswirkungen, über die du versuchst nachzudenken, die ein wenig über diese sehr direkten, unmittelbaren Auswirkungen hinausgehen, aber vielleicht nicht ganz so weit gehen wie die superintelligente KI, die dich und all deine Kinder versklaven wird.
Born: Ich arbeite schon seit einer Weile im Bereich Demokratie, daher denke ich darüber im Hinblick auf die Auswirkungen für die Demokratie nach. Die Art und Weise, wie ich es im Kopf behalte, weil es so viele verschiedene Wege gibt, wie KI die Demokratie beeinflussen wird, ist, es mir als eine Reihe von konzentrischen Kreisen vorzustellen. Man beginnt mit dem offensichtlichsten Zentrum, an das jeder denkt, wenn es um KI und Wahlen geht, und man denkt über die Vor- und Nachteile in jedem dieser Bereiche nach. Im Kontext von Wahlen wissen wir zum Beispiel auf der positiven Seite, dass Wahlbehörden in den USA wirklich unterfinanziert sind, also fangen sie an, KI zu nutzen, um Wahllokale zu finden, Postanschriften zu verifizieren und solche Dinge. Natürlich gibt es alle möglichen Risiken. Über die Desinformationsseite wird viel gesprochen, aber auch über die Phishing-Angriffe, die sie ermöglicht. Da gibt es das ganz offensichtliche Zeug des demokratischen Apparats, der Wahlen, und dann bewegt man sich einen Kreis weiter zur Nutzung von KI durch die Regierung in den Bereichen Exekutive, Legislative, Judikative und Militär. Man sieht Städte, die sie einsetzen, um Busrouten zu verbessern, oder das Außenministerium, das sagt, es habe die Zeit für Anfragen nach dem Informationsfreiheitsgesetz um etwa 60 % reduziert.
Es gibt Auswirkungen auf den Apparat der Demokratie, auf Wahlen und die Regierungsführung, und dann gelangt man zu dem, was ich als die Voraussetzungen für die Demokratie betrachte: politisches Engagement und Kultur. Einen Kreis weiter außen liegt das Informationsökosystem. Darüber hinaus befinden sich die sozioökonomischen Bedingungen, Konzentrationen von Reichtum und Macht sowie Auswirkungen auf den Arbeitsmarkt. Eine Ebene weiter außen liegen die geopolitischen Bedingungen, einschließlich des relativen Machtgleichgewichts zwischen autoritären und demokratischen Nationen und der Frage, wie wir uns gegenüber China verhalten. Der äußerste Kreis ist der für systemische oder existenzielle Risiken, in dem ein Großteil der biologischen und Cyber-Risiken angesiedelt ist. Wenn Menschen davon sprechen, dass die KI uns alle umbringen wird, ist das der Kreis, auf den sie sich beziehen. Was in diesem Bereich derzeit verwirrend ist, insbesondere wenn man über KI und Demokratie spricht, ist, dass die Diskussionen über all diese Ebenen hinwegspringen, von den kleinsten Details des Apparats bis hin zu den Vorbedingungen für das Überleben demokratischer Regierungen oder sogar der Welt selbst.
Mounk: Ich denke, das ist eine sehr hilfreiche Art, die verschiedenen Sphären zu ordnen, in denen KI Auswirkungen haben wird. Offensichtlich hängen diese Sphären miteinander zusammen. Es geht nicht darum zu sagen, dass dies irgendwie völlig getrennte Bereiche sind, aber es hilft der begrifflichen Klarheit, in diesen Kategorien über sie nachzudenken. Warum fangen wir nicht mit einem der engeren konzentrischen Kreise an und arbeiten uns dann nach außen vor? Wenn es um die Regierung geht, ist das einer der Bereiche, in denen man annehmen könnte, dass das Potenzial für positive Auswirkungen relativ höher ist als in einigen dieser anderen Felder. Wenn KI-Systeme uns wirklich produktiver machen und in der Lage sind, die Erbringung staatlicher Dienstleistungen zu verbessern, wäre das offensichtlich eine gute Sache. Der Skeptiker in mir möchte erstens einwenden, dass die Frage, ob sie dazu in der Lage ist, im Allgemeinen davon abhängt, ob es möglich ist, diese Technologie so reibungslos zu übernehmen, wie die Leute vorhersagen. Es gibt Studien, die behaupten, dass 95 % der Unternehmen, die versucht haben, KI in ihre Prozesse zu implementieren, sie nach einer Weile gar nicht mehr so intensiv nutzen. Das mag eine Frage des Entwicklungsstadiums der Technologie sein, aber es wirft eine allgemeinere Frage auf. Wenn die MTA (Metropolitan Transportation Authority) KI nutzt, um zu analysieren, welche Routen am sinnvollsten sind und ob sie den Verlauf einiger Buslinien ändern sollte, wird der neue Netzplan dann tatsächlich besser sein als der alte oder wird sie daran scheitern? Es gibt auch ethische Bedenken darüber, ob bestimmte Regierungsentscheidungen von einem Algorithmus getroffen werden, den wir nicht vollständig verstehen und bei dem wir nicht wirklich wissen, was in diese Entscheidung einfließt. Sollten wir uns damit wohlfühlen? Führt das potenziell zu bestimmten Formen der Diskriminierung oder straft es die Idee einer Regierung durch das Volk und für das Volk Lügen? Wenn eine Maschine diese Entscheidungen für uns trifft, untergräbt das die demokratische Handlungsfähigkeit? Wie denkst du über die Vor- und Nachteile der Art und Weise, wie KI die Arbeit unserer Regierung an einem ganz normalen Mittwoch verändern wird?
Born: Es ist ein komplexes Feld. Ich denke, dass wir bereits deutliche Vorteile sehen. Es gab eine großartige Studie einer Gruppe in Stanford, die mit der Stadt San Francisco zusammengearbeitet hat, um Tausende von Seiten an Berichtspflichten zu prüfen, die von der Bundesregierung gefordert wurden; sie fanden heraus, dass etwa 35 % davon einfach nicht genutzt oder geprüft wurden. Sie nutzten diese Daten, um sich dafür einzusetzen, dass diese Berichte nicht mehr eingereicht werden müssen. Es gibt eindeutig Bereiche, in denen Menschen bereits einen Nutzen in der Technologie finden. Ich sehe Ideen für Dinge wie politische „Sandkästen“ in der Legislative. Könnte man ein KI-System schaffen, das es politischen Entscheidungsträgern ermöglicht, eine Umweltpolitik, die sie in Erwägung ziehen, durchzudenken, sie durch vier verschiedene potenzielle Zukunftsszenarien laufen zu lassen und theoretisch durchzuspielen, wie sich diese Politik in der realen Welt unter jedem dieser Szenarien auswirken würde und wie sie sie anpassen oder zukunftssicher machen könnten? Man sieht alle möglichen interessanten Ideen, von denen einige bereits tatsächliche Ergebnisse zeigen und andere sich noch in einem viel früheren Stadium befinden. Ich glaube durchaus, dass dies ein Bereich ist, in dem es wahrscheinlich mehr potenziellen Nutzen als Kosten gibt, besonders in einer Zeit, in der wir das Vertrauen in die Leistungsfähigkeit demokratischer Institutionen wirklich verbessern müssen. Es gibt erhebliche Risiken. Es gibt Horrorgeschichten wie die über Michigan MIDAS, die oft angeführt wird, wo ein System eingesetzt wurde, um Arbeitslosenunterstützung für Tausende von Menschen zu prüfen, und eine unglaublich hohe Fehlerquote aufwies, woraufhin Menschen bankrott gingen. Das war im Jahr 2013, und wir sind seitdem ein weites Stück vorangekommen. Ich sage nicht, dass es hier keine Probleme gibt. Es gibt sehr reale Risiken. Viele Menschen sind heute sehr wachsam und versuchen, Systeme mit „Retrieval-Augmented Generation“ zu bauen, bei denen man einen sehr eng definierten Korpus hat, aus dem man Informationen bezieht, was die Möglichkeit für Voreingenommenheit im Vergleich zu dem, was wir bisher gesehen haben, verringert. Die Leute arbeiten auch an der Frage, wie man den Menschen in der Entscheidungsschleife behält. Zu deinem Punkt über die Regierung durch und für das Volk: Ich denke oft darüber nach, wie The Economist über Demokratie-Ratings spricht und die Gefahr von Autokratie und Technokratie als parallele Risiken darstellt. Die Frage, ob man den Menschen in der Schleife behält, ist wirklich wichtig, aber es gibt Wege, Systeme zu entwerfen, die zumindest weniger voreingenommen sind als das, was wir bisher gesehen haben.
Mounk: Ich denke, es besteht ein Risiko in der Annahme, dass es völlig inakzeptabel ist, wenn ein KI-System beteiligt ist und daraus irgendeine Form von Voreingenommenheit resultieren könnte, während man stillschweigend davon ausgeht, dass der Status quo oder die hypothetische Alternative keinerlei Voreingenommenheit beinhaltet. Ein offensichtliches Beispiel hierfür in einem anderen Kontext sind die Debatten über Waymo, das nach den besten Studien, die wir bisher haben, eine viel bessere Bilanz bei der Straßensicherheit aufweist als menschliche Fahrer. Es erscheint wahrscheinlich, dass wir jedes Jahr in den Vereinigten Staaten Tausende von Menschenleben und weltweit Zehntausende oder sogar Hunderttausende retten würden, wenn wir viel mehr selbstfahrende Autos auf dem aktuellen Stand der Technik einsetzen würden – ganz zu schweigen von dem Stand, den wir in fünf oder zehn Jahren erreichen könnten. Aber wenn es Fälle gibt, in denen ein Waymo in San Francisco eine Katze überfährt, wird es plötzlich inakzeptabel. Wir wollen natürlich sehr vorsichtig sein, die Diskriminierung in unserer Gesellschaft nicht durch die Einbindung von KI-Systemen zu erhöhen. Ein gutes Ziel ist Null-Diskriminierung, aber das kann nicht die Vorbedingung für die Einführung von KI-Systemen sein. Wenn ein KI-System das Ausmaß an Voreingenommenheit und Diskriminierung bei Entscheidungen über staatliche Leistungen verringert, scheint das eine Verbesserung gegenüber dem Status quo zu sein. Es erscheint seltsam zu verlangen, dass der Standard vom ersten Tag an bei Null Voreingenommenheit liegt.
Born: Ich denke, die Idee, dass man diese Systeme nicht mit dem Allmächtigen, sondern mit der Alternative vergleichen sollte, hat nach wie vor Bestand. Ich möchte jedoch einschränken, dass niemand vorgibt oder behauptet, dass diese Systeme keine Voreingenommenheit besitzen. Jeder stimmt an diesem Punkt eindeutig zu, dass diese Systeme auf dem Korpus des menschlichen Wissens trainiert werden, in das selbst Voreingenommenheit eingebaut ist. Dein Punkt bezüglich der Alternative ist wichtig. Die Alternative ist kein perfektes menschliches Entscheidungssystem. Es sind jahrelange Wartezeiten auf Entscheidungen, die ihrerseits ebenfalls voreingenommen sein könnten.
Mounk: Das bringt mich zu dem anderen Punkt. Ich fand es sehr interessant, was du darüber gesagt hast, wie Anfragen nach dem Freedom of Information Act, dem Informationsfreiheitsgesetz, jetzt leichter bearbeitet werden können. Die Idee ist vermutlich, dass ein Teil dieses Prozesses darin besteht, eine große Anzahl von Dokumenten durchzugehen und festzustellen, welche relevant sind und welche nicht, und ein Teil davon automatisiert werden kann. Man ist dann in der Lage, auf diese wichtigen Anfragen zeitnaher zu reagieren, was offensichtlich das Ziel der Gesetze war, die auf Transparenz der Regierung abzielen. Natürlich ist es ein Wettrüsten. Mich beeindruckt die Tatsache, dass ich mit jemandem gesprochen habe, der für ein großes Kaufhaus arbeitet, und die haben ein echtes Problem in ihrer Rechtsabteilung. In der Vergangenheit schrieben viele Kunden Briefe, die eindeutig von Personen ohne große juristische Fachkenntnis stammten und Forderungen stellten, die nicht sehr plausibel erschienen; es war also leicht zu sagen, dass dies keine vernünftigen Anfragen waren. Jetzt erhalten sie eine Flut von Briefen, die viel anspruchsvoller klingen, weil sie von ChatGPT oder einem anderen KI-System geschrieben wurden, und die Rechtsabteilung hat riesige Probleme, mit all diesen Anfragen Schritt zu halten.
Vermutlich wird das Gleiche im Falle der Regierung passieren. Einerseits wird der Staat besser in der Lage sein, auf Bürgeranfragen zu reagieren, was eine gute Sache ist. Andererseits wird es auch viel einfacher sein, fadenscheinige Klagen einzureichen, um die Bürokratie bei jedem Bauprojekt lahmzulegen – mit plausibel klingenden Einwänden gegen irgendeine Umweltprüfung. Es ist schwer zu sagen, wo dieses Wettrüsten enden wird. Wird die verbesserte Fähigkeit, bestimmte Dienstleistungen zu erbringen, der dominierende Faktor sein, oder wird die verbesserte Fähigkeit einiger wohlmeinender Bürger und einiger weniger wohlmeinender Interessengruppen oder Leute, die das System einfach nur lahmlegen wollen, mächtiger sein? Welche Seite dieses Wettrüstens die Oberhand gewinnen wird, lässt sich nur sehr schwer vorhersagen.
Born: Ich denke, was du ansprichst, ist, dass das Verfahren zur Öffentlichkeitsbeteiligung – das „Notice and Comment“ – bereits kaputt ist, und das sehen wir schon jetzt. Es gibt eine Welt, in der man sich vorstellt, dass die KI Teil des Problems ist und es zerstört, und eine andere, in der sie Teil der Lösung ist und hilft, es zu sieben. Man hört in Gesprächen viele Leute von einer Zukunft sprechen, in der KI-Agenten die Szene dominieren und man am Ende eine Reihe von KI-Agenten hat, die miteinander im Dialog stehen. Regierungsagenten sammeln die eingehenden Informationen, und Bürgeragenten überfluten sie mit Informationen. Es gibt einen weiteren Arbeitsbereich von mir, über den wir vielleicht noch nicht gesprochen haben. Neben der Arbeit an KI und Demokratie arbeiten wir auch an der Verbesserung der Effektivität von Regierungen. Diese Frage, wer das Wettrüsten gewinnt, setzt oft voraus, dass das System mehr oder weniger so stabil bleibt, wie es jetzt ist, mit Anhörungen zur Öffentlichkeitsbeteiligung oder ähnlichen Mechanismen. Wir führen auch Gespräche mit Gruppen darüber, wie man die Zukunft von Regierungsinstitutionen neu denken kann, und zwar auf eine Weise, die völlig andere Alternativen zur Öffentlichkeitsbeteiligung bieten könnte. Es ist eine interessante Frage, wo wir ein Wettrüsten innerhalb bestehender Systeme sehen werden und wo wir völlig neue, erfundene Systeme sehen werden, die dann wiederum mit ihrem eigenen Wettrüsten zu kämpfen haben.
Mounk: Das ist ein sehr guter Punkt. Die Dimension des Wettrüstens wird in jedem System präsent sein, aber die Frage ist, wie sich das System verändern wird, um zu versuchen, diese Technologie zu integrieren. Wenn wir auf dieser Leiter der Bedenken ein wenig nach oben steigen zu Punkten rund um die politische Kultur und das Engagement und allgemeiner zum Informationsökosystem: Hier beginnen wir uns Sorgen zu machen, ob wir als Bürger noch in der Lage sein werden, echte Gespräche zu führen. So viele Inhalte, die im Internet produziert werden, einschließlich Gastbeiträgen in Zeitungen und sicherlich vieles von dem, was wir in den sozialen Medien sehen, könnten zunehmend von KI-Systemen erstellt werden, und das könnte unsere Fähigkeit schwächen, im weiteren Sinne miteinander zu sprechen. Was ich befürchte, ist der Anbruch eines Zeitalters des Zynismus. Was passiert, wenn es überall gefälschte Videos gibt? Es ist nicht unbedingt so, dass die Leute diese gefälschten Videos glauben werden, sondern dass man nie ganz sicher weiß, was authentisch ist und was nicht, was eine allgemein zynische Haltung gegenüber der Welt fördern kann. Die Menschen fangen an zu spüren, dass sie nicht wirklich wissen können, was wahr oder falsch oder was real ist, und das kann die grundlegende Faktentreue, die wir für das Funktionieren eines demokratischen Systems in einer sinnvollen Weise benötigen, ziemlich zersetzen.
Born: Ich denke, das ist richtig. Ich neige dazu, die Auswirkungen auf das Informationsökosystem, zumindest die negativen, in drei Kategorien zu unterteilen. Diejenige, über die sich die Menschen am meisten Sorgen machen, die mich aber eigentlich weniger beunruhigt, ist der Bereich der Überzeugung – die Vorstellung, dass jemand seine Wählerstimme ändert oder dass dieser Inhalt die Meinung der Menschen ändern wird. Mein Eindruck ist, dass wir uns leider an einem Punkt befinden, an dem wir so polarisiert sind, dass Überzeugung – zumindest innerhalb des bestehenden politischen Systems – schwieriger geworden ist. Sicher, wenn eine neue Art von „Pizzagate“ auftaucht, könnte man jemanden von etwas überzeugen, aber ich bin, wie du, etwas weniger besorgt, was den Aspekt der Überzeugung angeht. Mehr Sorgen bereitet mir der erlernte Nihilismus, die „Dividende des Lügners“ – das Gefühl, dass nichts wahr und alles möglich ist. Dies ähnelt dem russischen Propagandamodell, bei dem es so viel Rauschen gibt, dass niemand mehr aus irgendetwas schlau wird. Ich denke, das ist die zweite Kategorie. Die dritte Kategorie, über die wir weniger sprechen, umfasst Fragen rund um die Erosion der Qualität, den Korpus des menschlichen Wissens und was dort passieren wird. Es gibt die Urheberrechtsdebatte und die Frage, wie die Anreize aussehen werden, in Zukunft neue Inhalte zu erstellen, aber es gibt noch andere Aspekte, die mir Sorgen bereiten. „Model Collapse“ wird oft genannt – die Vorstellung, dass Modelle anfangen, ihre eigenen Ergebnisse zu konsumieren und keine neuen Inhalte mehr haben, auf denen sie aufbauen können. Es gibt auch Fragen dazu, wie wir mit Wissen an sich interagieren. Wenn man Google benutzt, stellt man eine Frage, erhält zehn Antworten und kann diese durchdenken. Wenn man Sprachassistenten oder ähnlichen Systemen eine Frage stellt, müssen diese eine einzige Antwort produzieren, was die Welt und die Wahrheit massiv übervereinfachen kann. Es geht also nicht nur um Überzeugung und nicht nur um die Dividende des Lügners oder Nihilismus. Es geht auch darum, wie dies den gesamten Korpus an Informationen verändert, mit dem wir arbeiten, und wie wir mit Wissen interagieren.
Mounk: Ich frage mich, ob die Sorgen über Echokammern und Filterblasen, die ja schon recht alt sind und bei denen die empirische Beweislage eher gemischt ist, nun doch noch wahr werden könnten. Die Vorstellung, dass wir online in einer Echokammer landen, ist intuitiv ansprechend. Es gibt einige Belege dafür, dass dies bis zu einem gewissen Grad stimmen mag. Wenn wir auf Inhalte von Menschen stoßen, die nicht unserer Meinung sind, sind diese oft nicht repräsentativ, sondern stattdessen die extremsten und am meisten empörenden Inhalte der Gegenseite. Aber es war bisher weniger eindeutig, als die Leute denken, dass dies tatsächlich in einer systematischen Weise geschieht. Die bereits bestehende Medienlandschaft war bereits eine, in der man als Progressiver vielleicht The Nation gelesen hat und als Konservativer vielleicht die National Review. Es ist ja nicht so, als hätten alle ständig politisch neutrale Inhalte konsumiert. Aber man könnte sich vorstellen, dass es bei diesen Chatbots zumindest derzeit eine sehr offensichtliche Tendenz gibt, einem gefallen zu wollen. Sie sind buchstäblich darauf programmiert, positives Feedback zu erhalten, und darauf trainiert, Texte zu produzieren, die dem Benutzer wahrscheinlich gefallen. Wenn diese Modelle ausgereifter werden und der Wettbewerb zwischen den Modell-Anbietern zunimmt, wird jeder einen starken Anreiz haben, Wege zu finden, wie diese Systeme direkt den eigenen Geschmack ansprechen. Ich stelle bereits fest: Wenn Freunde mir Fragen zeigen, die sie ChatGPT gestellt haben, hat die Antwort oft einen anderen Tonfall als das, was ich erhalte, weil sich das System im Laufe der Zeit daran angepasst hat, was sie anscheinend gerne hören und wie sie mit ihm sprechen. Man könnte sich vorstellen, dass diese Chatbots, wenn man ein sehr progressives Weltbild hat, sagen: „Natürlich hast du recht, so ist die Lage objektiv“, und dann die intelligentesten Texte heranziehen, die diesen Standpunkt stützen, während sie gegenteilige Ansichten herabsetzen. Wenn man hingegen sehr konservativ ist, könnten sie sagen, dass die Progressiven völlig falsch liegen, und einem stattdessen zustimmen. Vielleicht könnten wir einen Weg finden, das nicht zu tun. Die Designer dieser Systeme könnten die Gefahr erkennen und versuchen, eine Art gemeinsame Realität aufzuerlegen, basierend auf dem, was sie für das Beste halten. Aber das erscheint mir ebenso problematisch. Das würde bedeuten, dass jemand im Silicon Valley entscheidet, welche politischen Werte diese KI-Systeme als den offensichtlichen, wahren Zustand der Welt repräsentieren. Sie könnten Werte vertreten, denen ich zustimme, oder Werte, die ich zutiefst beunruhigend finde, oder sie könnten schlicht bei wichtigen Sachfragen falsch liegen. Es ist nicht einmal klar, was hier der richtige Zustand wäre. So oder so ist es etwas, das zutiefst gefährlich erscheint.
Born: Ich würde zu den Bedenken über die Kriecherei – die „Sykophantie“ – noch die Frage hinzufügen, wer die Wahrheit bestimmt. Damit verbunden ist die Fähigkeit, mit Konflikten umzugehen. Eine erfolgreiche Demokratie erfordert die Fähigkeit, lebhafte Debatten zu führen, und die Kriecherei, die wir bei diesen Modellen sehen, ist eine Herausforderung dafür. Es gibt auch Studien – von denen einige in Frage gestellt oder widerlegt wurden –, die sich mit der Idee eines kognitiven Abbaus befassen, der mit der Nutzung von Modellen einhergeht. Ich versuche immer noch, mir ein genaues Bild davon zu machen, aber zumindest theoretisch ergibt es Sinn. Diese Studien beinhalten Hirn-Mapping und vergleichen, was im Gespräch mit einer anderen Person passiert, bei der Nutzung von Google und bei der Interaktion mit Systemen im GPT-Stil. Einige dieser Studien werfen methodische Bedenken auf, aber die Forscher gehen diesen Fragen weiterhin nach. Wie entwickelt sich die Fähigkeit eines Menschen, sich an der Demokratie zu beteiligen, wenn er primär mit einem kriecherischen, agierenden KI-Modell interagiert, kaum Konflikte erlebt und keine eigene Recherche betreibt? Welche Art von Kapazität für eine sinnvolle demokratische Debatte bringt das hervor?
Mounk: Es stellt sich auch die Frage, wie sich die Technologie selbst entwickeln wird. Ich bin einigen dieser Behauptungen gegenüber vorerst etwas skeptisch, und vielleicht basiert das einfach darauf, wie ich diese Systeme nutze; aber ich finde, dass ich in der Lage bin, in einem Hin und Her mit ChatGPT tiefer zu graben, und zwar auf eine Weise, die sich anders anfühlt als das Versinken in „Wikipedia-Kaninchenlöchern“, wo man oft auf einer gewissen Ebene der Allgemeinheit stehen bleibt.
Mir ist vor kurzem aufgefallen, dass ich die Auswirkungen der Regierung von Giorgia Meloni auf Italien selbst nicht so intensiv verfolgt habe, wie ich es gerne getan hätte. Es wurde viel über ihre Rolle im internationalen System geschrieben, wo sie sich als weitaus atlantischer erwiesen hat als erwartet, aber ich war nicht wirklich auf dem Laufenden, was die Details einer Verfassungsreform angeht, die sie vorantreiben will. Bei einer solchen Frage kann es hilfreich sein zu sagen: Ich verstehe das Wesen dieses Vorschlags nicht ganz, gib mir mehr Details, was sind die Vor- und Nachteile; und ich habe das Gefühl, dass mein Gehirn dabei genauso aktiv ist, als wenn ich versuchen würde, relevante Artikel in italienischen Zeitungen oder auf Wikipedia zu finden. Es ist immer noch ein Prozess des Aufbaus von Kompetenz. Eine auffällige Sache ist, dass die Hauptform der Interaktion bisher aus Tippen und Lesen besteht, was eine Form von Lese- und Schreibkompetenz ist. Aber genau wie die sozialen Medien in einer relativ textbasierten Form begannen und sich schließlich zu etwas wie TikTok entwickelten, das hauptsächlich aus Videos besteht und dann jede andere Plattform beeinflusste, werden wir wahrscheinlich etwas Ähnliches bei der KI erleben. Es ist bereits möglich, mit KI-Systemen per Stimme zu sprechen, und man sieht, dass große KI-Unternehmen massiv in Feeds investieren, in denen Videoinhalte kontinuierlich geliefert werden und die Nutzer viel passiver sind. Ich bin skeptisch gegenüber einigen der bisherigen Studien darüber, wie wir derzeit in dieser Hinsicht mit KI interagieren, aber sie könnten am Ende richtungsweisend richtig liegen, wohin sich die Technologie entwickelt und was in Zukunft für die meisten Menschen über weite Teile des Tages die dominierende Form der Beschäftigung mit KI sein wird.
Born: Ich denke, das ist richtig. Es hängt wirklich davon ab, wie man sie einsetzt und wofür man sie benutzt. Was die Recherche angeht: Ich war letzte Woche mit einem der Leute essen, die zu den ersten zwanzig Mitarbeitern bei Anthropic gehörten, und wir sprachen darüber, wie wir KI nutzen. Er sagte, dass er sich einen Monat pro Woche Zeit nimmt und versucht, alles damit zu erledigen – das heißt, er tut nichts, ohne vorher zu versuchen, KI einzusetzen. Ich stelle fest, dass ich manchmal viel klarer denke. Wie du sagst: Wenn ich recherchiere, gehe ich hin und her, als würde ich mit dem weltweit führenden Experten für ein Thema sprechen, und dringe tief in das Verständnis der Nuancen ein. Aber wenn ich versuche, die KI etwas für mich schreiben zu lassen, ist es oft eine Katastrophe, und ich habe das Gefühl, dümmer zu werden, je mehr ich es lese. Es kommt also wirklich darauf an. Ich glaube nicht, dass es eine einzige Antwort darauf gibt, wie sie sich auf die kognitive Kompetenz auswirken wird.
Mounk: Eine meiner Sorgen, die zum Teil durch die Lehre und die Art und Weise, wie Universitäten derzeit mit KI umgehen, motiviert ist, ist die, dass viele Akademiker und wahrscheinlich auch Highschool-Lehrer zutiefst naiv gegenüber dem sind, was KI zu leisten vermag. Ich habe mit einer Reihe von Leuten gesprochen, die sagen, dass die KI zwar bei Standardaufgaben eine Drei minus erreichen könnte, aber mit ihren kreativeren Aufgaben nicht fertig würde. Bei standardmäßigen, auf Aufsätzen basierenden Aufgaben in den Geistes- und Sozialwissenschaften ist die KI heute in der Lage, in fast jedem Kurs an den Universitäten, an denen ich gelehrt habe, einschließlich Harvard und Johns Hopkins, eine Eins minus oder eine Eins zu bekommen. Diese kreativen Aufgaben lägen ebenfalls voll im Bereich ihrer Möglichkeiten. Infolgedessen wird gerade eine ganze Generation von Schülern ausgebildet, die in der Highschool vielleicht nie einen Aufsatz geschrieben haben, weil es zu verlockend ist, ChatGPT das machen zu lassen, und die im College vielleicht nie einen Aufsatz schreiben werden. Meiner Ansicht nach erfordert der Akt des Denkens oft das Schreiben. Wenn Leute sagen, sie seien schlecht im Schreiben, so hart das klingen mag, liegt es oft daran, dass sie nicht gelernt haben, wie man denkt. Sobald man versucht, Worte auf Papier zu bringen, merkt man, wo man logische Sprünge gemacht hat und was man nicht zu Ende gedacht hat. In diesem Sinne mache ich mir große Sorgen über kognitive Verluste, es sei denn, die Akademiker werden klüger im Umgang damit. Zum ersten Mal in meinem Leben werde ich an der Johns Hopkins University den Studenten eine Prüfung mit Stift und Papier abverlangen. Gleichzeitig werde ich ihnen erlauben, beim Schreiben der Abschlussarbeit so viel KI zu benutzen, wie sie wollen. Einerseits möchte ich, dass sie die KI erkunden, um das bestmögliche Produkt zu erstellen, was immer noch ihr eigenes Denken und ein gewisses Maß an eigenem Schreiben erfordert. Andererseits werde ich sie in einen Seminarraum setzen und sie allgemeine Fragen zu den Themen des Kurses beantworten lassen, um sicherzustellen, dass sie den Stoff immer noch durchdenken und klare, kohärente Gedanken in ihrer eigenen Stimme artikulieren können. Im Moment ist es wahrscheinlich möglich, das Studium zu absolvieren, während man sehr wenig davon tut. In bemerkenswertem Maße scheint das System dies bisher zu verleugnen. Erzähl mir von den sozioökonomischen Bedingungen.
Born: Kann ich kurz einen Schritt zurückgehen? Es gibt einen Teil, den wir ausgelassen haben, nämlich das politische Engagement und die politische Kultur. Wir haben darüber ein wenig im Sinne von kaputten Mechanismen für Engagement gesprochen, darüber, wie Menschen in einer Demokratie ihre Meinung äußern. Wir sprachen über Information, die oft eine Einbahnstraße ist, in der Menschen Fakten sammeln und darauf basierend Entscheidungen treffen. Aber der Teil des Engagements ist ebenfalls interessant. Hier sieht man mindestens vier Herausforderungen. Eine davon sind kaputte Systeme, einschließlich der überfluteten Öffentlichkeitsbeteiligungen und Rückkopplungsschleifen, die wir besprochen haben. Es gibt auch die Sorge über aktives Verstummenlassen, einschließlich Doxing, Trolling und staatlicher Überwachung, und darüber, was das mit dem demokratischen Gespräch macht. Dann gibt es das passive Verstummen oder das „dünne“ Engagement, bei dem Menschen an Online-Prozessen der deliberativen Demokratie in einer sehr oberflächlichen Weise teilnehmen. Sie setzen ein Häkchen, kommunizieren über KI statt mit anderen Menschen, steigen ganz aus oder beginnen, bürgerschaftliches Engagement an KI-Agenten zu delegieren, sobald diese verfügbar sind. Ich neige dazu, dies als vier Kategorien zu betrachten: kaputte Systeme, aktives Verstummenlassen, passives Verstummen und dünnes Engagement. Auf der Seite der Herausforderungen sind dies die Probleme, mit denen sich die Menschen auseinandersetzen. Gleichzeitig gibt es einige wirklich interessante Entwicklungen. Ein Großteil der Arbeit bei Googles Jigsaw hat sich in Richtung KI-gestützter Bürgerversammlungen verlagert. Man sieht neue Formen von Umfragen und Stimmungsanalysen. Im Bereich des Aufbaus von Bewegungen nutzen Menschen diese Werkzeuge, um autoritäre Regime besser zu verstehen, einschließlich der Identifizierung von Machtstützen oder finanzieller Unterstützung hinter Ereignissen wie den Protesten in Georgien oder ICE-Einsätzen in Los Angeles. Diese Werkzeuge werden auch genutzt, um tiefer in die Verständnisstrukturen der Macht- und Finanzierungsstrukturen hinter vielen Bewegungen einzusteigen. Es wird wahrscheinlich erhebliche Veränderungen darin geben, wie Menschen mit demokratischen Institutionen und untereinander interagieren, wenn sich diese Technologien entfalten. Ich wollte das nicht auslassen, weil es ein ganzes Ökosystem von gemeinnützigen Organisationen und Akteuren der Zivilgesellschaft gibt, die aktiv versuchen, dies zu durchschauen.
Mounk: Das ist wirklich faszinierend, und ich stimme zu, dass es wichtig ist. Wichtiger ist allerdings, wenn 80 % von uns ihren Job verlieren. Ich scherze, aber um noch eine Stufe weiter nach oben zu steigen auf dieser Leiter, zu dieser Kategorie der sozioökonomischen Bedingungen: Das scheint eine zu sein, bei der es am schwersten ist vorherzusagen, was passieren wird. Wie du dargelegt hast, ist es in jeder dieser Kategorien schwer vorherzusagen, was passieren wird, aber hier fühlt sich die Ungewissheit besonders radikal an. Einerseits gibt es Leute, die sagen, dass vergangene technologische Umbrüche in einigen Kategorien immer zu erheblichem Arbeitsplatzverlust geführt haben, die Menschen sich aber einfach umorientiert haben. Da ist das Beispiel der Radiologen. Eine Reihe von Dingen, die Radiologen früher taten, wurde automatisiert. Man dachte, dass infolgedessen die Gehälter der Radiologen sinken würden und viele entlassen würden. Stattdessen ist passiert, dass wir einfach viel mehr Radiologie nutzen und Radiologen nun tatsächlich viel mehr ihrer Zeit mit hochwertigen Aufgaben verbringen statt mit relativ einfachen, repetitiven Aufgaben, die sie vorher erledigen mussten. Insgesamt scheint das eine erfreuliche Geschichte zu sein. Andererseits hatten wir noch nie ein System, das über eine allgemeine Intelligenz verfügt, die der der meisten und vielleicht bald aller Menschen entspricht. In der Vergangenheit, als man Bücher drucken konnte und die Leute, die Bücher mühsam Zeile für Zeile kopiert hatten, nicht mehr gebraucht wurden, waren das qualifizierte Leute, und die Wirtschaft hatte immer noch Bedarf an qualifizierten Leuten in allen möglichen Bereichen. Sie gingen und taten etwas anderes. Vielleicht nicht die Menschen, die fünfzig Jahre alt waren, für die es tragisch war, aber der nächsten Generation ging es gut. Gilt das immer noch, wenn die Maschine alles, was ein Mensch intellektuell tun kann, auf dem gleichen Niveau erledigen kann? Das ist mir wirklich unklar. Wenn wir diese Auswirkungen auf die sozioökonomischen Bedingungen durchdenken: Werden wir in einer Welt des Überflusses leben, in der wir immer noch qualifizierte Menschen für alle möglichen Dinge brauchen, oder werden wir die Fähigkeit haben, vieles durch Maschinen zu erledigen, während niemand mehr Löhne verdient und die gesamte sozioökonomische Basis unserer wirtschaftlichen und politischen Systeme wegbricht? Wie denkst du darüber nach?
Born: Ich stimme zu. Ich denke, das ist die größte Frage, und es ist diejenige, bei der es eine enorme Bandbreite an Ungewissheit gibt. Ich habe mit einigen Leuten in Tech-Unternehmen gesprochen, und sie sagen, wir werden als Folge dieser Technologien in den nächsten paar Jahren eine Arbeitslosigkeit von 20 % erleben. Die letzten Statistiken, die ich vom IWF gehört habe, besagten, dass 60 % der Arbeitsplätze in fortgeschrittenen Volkswirtschaften betroffen sein könnten. Bei McKinsey war eine ihrer Statistiken, glaube ich, 14 % der weltweiten Belegschaft. Die Schätzungen gehen weit auseinander, und dementsprechend ist es schwer zu planen. Was es noch schwieriger macht, ist, dass niemand einen Plan zu haben scheint. Ich hatte kürzlich ein Gespräch mit dem ehemaligen Leiter für die Zukunft der Arbeit der Newsom-Administration, und das Gespräch drehte sich sehr stark darum: Was ist also der Plan? Es gab keinen. Es gibt viele Wissenschaftler, die daran arbeiten, und es liegen einige interessante Ideen auf dem Tisch. Die meisten haben sich aus ein paar Gründen vom bedingungslosen Grundeinkommen abgewendet. Es scheint finanziell schwer umsetzbar zu sein, und es gibt Fragen zur Würde der Arbeit und ob die Menschen ein bedingungsloses Grundeinkommen wollen, zumindest politisch auf breiter Front. Dann begannen die Leute, sich der Idee eines universellen Basiskapitals zuzuwenden. Der Unterschied besteht darin, dass man Anspruch auf Kapital hat, wenn man Eigentümer eines Vermögenswertes ist. Wenn man über universelle Basis-Rechenleistung verfügt, erntet man Dividenden aus dem Eigentum an diesem Vermögenswert. Man kann das Argument anführen, dass wir alle einen Anteil daran haben sollten, weil die gesamte Menschheit über viele Jahrhunderte hinweg zum Korpus des menschlichen Wissens beigetragen hat, auf dem diese Modelle trainiert werden. Dafür gibt es Präzedenzfälle. Alaskas Öl-Dividenden-Modell zahlt den Bürgern ein paar tausend Dollar pro Jahr aus, und niemand scheint darüber besonders verärgert zu sein. Es scheint einigermaßen gut zu funktionieren. Ich habe auch gesehen, dass Leute zur Idee übergehen, dass Umverteilung vielleicht nicht der richtige Ansatz ist und der Fokus auf der „Prädistribution“ liegen sollte. Das Argument dort ist, dass wir die Arbeitnehmerrechte und die Mitbestimmung der Arbeitnehmer bei Entscheidungen über den Einsatz von Technologien stärken müssen, damit sie eine größere Verhandlungsmacht haben. Andere Argumente konzentrieren sich auf eine Beschäftigungsgarantie, die anscheinend eine gewisse parteiübergreifende Unterstützung findet. In Gemeinschaften, die am härtesten getroffen werden, könnte die Gemeinschaft zusammenkommen, um die am dringendsten benötigten Arbeitsplätze zu identifizieren, mit bezahlter statt unbezahlter Umschulung. Es werden viele Ideen diskutiert, aber der entscheidende Punkt ist, dass niemand einen guten Plan hat und die potenziellen Auswirkungen enorm sind. Jeder große wirtschaftliche Umbruch in der Geschichte wurde von massiven politischen Erschütterungen gefolgt. Es ist besorgniserregend, dass hier niemand einen Plan hat.
Mounk: Zwei Gedanken dazu. Der erste ist, dass ich dir zustimme, dass es in diesem Bereich viele Ideen gibt und keine davon aus einer Vielzahl von Gründen besonders überzeugend erscheint. Wir könnten jede einzelne davon durchgehen, aber das wäre vielleicht zu viel des Guten. Es gibt bei allen sehr erhebliche logistische und finanzielle Probleme, und auch ein Sinnproblem. Wenn die Menschen keine Arbeit haben, die ihnen eine Art von Sinn in der Welt gibt, ist das eine große persönliche Herausforderung, und es kann zu einer großen politischen Herausforderung werden. Arbeitsplätze zu erfinden, die ein KI-System genauso gut erledigen könnte, die aber aufgrund von Regeln und Vorschriften immer noch von Menschen erledigt werden, ist bestenfalls eine sehr kurzfristige Lösung. Auf die eine oder andere Weise scheinen alle diese Lösungen in eine dieser Kategorien zu fallen. Eine andere Sache, die ich für wirklich hilfreich halte, ist das Konzept eines KI-Ressourcenfluchs. In der Politikwissenschaft gibt es eine umfangreiche Literatur darüber, warum Saudi-Arabien und andere ähnliche Länder keine Demokratien sind. Eine offensichtliche Antwort ist, dass Demokratien tendenziell dann entstehen, wenn Monarchen und andere Verantwortliche wirklich eine gebildete Mittelschicht als Einnahmebasis brauchen. Das gibt ihnen einen Anreiz, in Bildung zu investieren, und es macht es den Bürgern leichter, Forderungen zu stellen, weil sie sagen können: Ihr lebt von unseren Steuern, und im Gegenzug wollen wir politische Repräsentation und ein Mitspracherecht bei dem, was mit diesem Geld geschieht. Wenn ein Monarch oder Diktator Zugang zu vielen Ressourcen einfach durch den Verkauf von Öl hat, entstehen nie die sozioökonomischen Mechanismen, die eine Mittelschicht ermächtigen, diese politischen Forderungen zu stellen. Das ist tendenziell sehr schlecht für die langfristige wirtschaftliche Entwicklung. Eine Art, über KI nachzudenken – falls sie am Ende viele Arbeitsplätze der Mittelschicht ersetzt und zu einer viel stärker polarisierten Einkommensverteilung führt –, ist als eine Form von Ressourcenfluch. Das würde bedeuten, dass die Menschen an der Spitze der Gesellschaft weniger auf normale Bürger für Steuereinnahmen angewiesen sind, weniger auf eine gebildete Bürgerschaft angewiesen sind und weniger auf ein aus Bürgern rekrutiertes Militär. Man könnte sich vorstellen, dass irgendwann – auch wenn sich das noch ein bisschen nach Science-Fiction anfühlt, es historisch gesehen vielleicht nicht weit entfernt ist – viele Sicherheitsbedürfnisse an Drohnen, Roboter oder andere Systeme ausgelagert werden. In dieser Welt brauchen Führer keine loyale Bürgerschaft mehr, die die Kernelemente der Sicherheitskräfte stellt. All das wäre ein struktureller Vorteil für die Menschen an der Spitze der Gesellschaft.
Born: Ich glaube, du sprichst hier zwei verschiedene Punkte an, und ich würde sie gerne einzeln betrachten. Der erste ist die Frage nach der Würde. Selbst wenn wir ein universelles Basiskapital hätten – ob Rechenleistung, Einkommen oder wie auch immer man es nennen will –, scheint mir diese Frage lösbarer zu sein. Ich habe vor Jahren Szenarioplanung betrieben, hauptsächlich für die Geheimdienst-Community. Bevor ich in die Philanthropie ging, war ich im Privatsektor tätig, und wir erstellten Zukunfts- und Prognosearbeiten, um darüber nachzudenken, wie die Welt im Jahr 2050 aussehen könnte und was die nationalen Sicherheitsimplikationen wären, wenn sich die sino-russischen Beziehungen in einer bestimmten Weise entwickelten.
Wir haben vor kurzem etwas Ähnliches für den Bereich der Demokratie gemacht und mussten uns anstrengen, um über Szenarien für das Jahr 2050 nachzudenken, die angesichts all der verschiedenen Trends – mit der KI als einem von vielen neben sinkenden Geburtenraten, dem Klimawandel und wachsenden Geschlechterklüften – tatsächlich gut ausgehen könnten. Wir haben viel Terrain erkundet, und der Weg, auf dem wir zu einer Form von Würde in einer KI-gesteuerten Welt gelangten, führte zurück zum Dienst an der eigenen Gemeinschaft. Das war im Grunde der einzige Pfad, den wir identifizieren konnten, der sowohl eine starke Abhängigkeit von KI als auch ein gewisses Maß an Würde beinhaltete. Das fühlte sich wie etwas an, das man sich zumindest theoretisch vorstellen könnte.
Die Herausforderung auf der Seite der Macht, von der du sprichst – der Ressourcenfluch und die Tatsache, dass wir vielleicht keine Mittelschicht mehr brauchen –, ist viel schwieriger. In einer Zeit, in der wir Persönlichkeiten wie Bezos haben, der, wie viel auch immer es sein mag, eine Million Dollar pro Stunde verdient, wissen wir nicht so recht, was wir gegen die Untergrenze tun sollen und wie wir sicherstellen können, dass für jeden gesorgt ist. Wir haben durchaus Ideen, wie wir mit der Obergrenze umgehen und verhindern können, dass Menschen so viel Reichtum und Macht ansammeln, dass es für den Durchschnittsbürger unmöglich wird, ökonomische und damit politische Handlungsfähigkeit zu besitzen. Aber das läuft letztlich wieder auf den politischen Willen hinaus.
Ich mag es manchmal, diese Fragen aufzuschlüsseln, indem ich frage: Wo wissen wir wirklich nicht, was zu tun ist, und wo wissen wir eigentlich genau, was getan werden müsste, haben aber noch nicht den politischen Willen gefunden, es auch umzusetzen?
Mounk: Das ist eine sehr hilfreiche Unterscheidung. Wir könnten noch viel mehr Zeit mit diesem Thema verbringen, aber ich möchte sicherstellen, dass wir noch einen Bereich abdecken, den du vorhin angedeutet hast, nämlich den geopolitischen Kontext. Auch hier gibt es so viele Facetten. Eine davon ist der Wettbewerb der Großmächte. Wir sehen bereits, dass die Aussicht auf immer leistungsfähigere KI und die Art von Macht, die dies Staaten verleihen würde, zu einem Wettbewerb zwischen China und den USA führt, was die Zusammenarbeit in anderen Dimensionen erschweren könnte.
Da ist auch das Element der Militärtechnologie. Wie verändert sich das Wesen des internationalen Systems, wenn man Drohnen in Massenproduktion herstellen kann, die ein anderes Land und Zivilisten in sehr erheblichem Maße angreifen können? Was passiert mit der inneren Sicherheit? Wird es viel einfacher, Menschen zu ermorden, wenn man eine winzige Killerschleife schicken kann, um einen Politiker zu töten, während er eine Rede hält oder etwas Ähnliches? Das sind Fragen über die geopolitischen Auswirkungen der KI an sich.
Eines ist wirklich auffällig, wenn man einige der optimistischeren oder pessimistischeren Berichte liest – von Leuten, die glauben, dass die KI sehr schnell unglaublich mächtig werden wird, aber zutiefst besorgt über die Ausrichtung, das „Alignment“, sind: die Annahme, dass die aktuelle Ära nur vorübergehend ist. Sie stellen sich vor, dass die Zeit, in der OpenAI, Anthropic und Google hochmoderne KI-Modelle innerhalb privater Unternehmen mit einem relativ minimalen Sicherheitsapparat entwickeln, sehr bald vorbei sein wird.
Irgendwann könnte der nationale Sicherheitsstaat einschreiten und sagen, dass die Auswirkungen auf die nationale Sicherheit so bedeutend sind, dass dies eher dem Manhattan-Projekt in Los Alamos ähneln wird – hinter Stacheldraht und mit Sicherheitsfreigaben –, statt einer Gruppe privater Labore, die unabhängig voneinander herumtüfteln. Wie denkst du über diese verschiedenen Elemente des geopolitischen Kontextes der KI?
Born: Es ist ein kompliziertes Feld, besonders angesichts der Tatsache, dass dies die erste wirklich bedeutende Technologie ist, die im privaten Sektor und nicht von der Regierung entwickelt wurde. Weil es ein so starkes Narrativ um ein KI-Wettrüsten mit China gibt und Sorgen über den Verlust der wirtschaftlichen oder militärischen Dominanz bestehen, treibt das eine Geschichte voran, die viele Menschen sehr überzeugend finden: dass wir diese Technologien nicht regulieren dürfen, damit wir gegenüber einem autoritären Staat nicht ins Hintertreffen geraten, was Demokratien dauerhaft benachteiligen würde.
Man hat hier viele „Track-II-Dialoge“ mit China gesehen, meist in der Kategorie Sicherheit. Niemand möchte, dass irgendjemand in der Lage ist, eine Biowaffe oder etwas Ähnliches zu entwickeln. Aber darüber hinaus gibt es viel weniger Zusammenarbeit, da die Länder versuchen herauszufinden, wer als Sieger hervorgehen wird.
Was mich an diesem Gespräch am meisten beunruhigt, ist, dass das Risiko, von China überflügelt zu werden, zwar real, aber auch ein sehr bequemes Narrativ ist, das den Unternehmensinteressen dient, weil es dazu benutzt werden kann, jegliche Regulierung abzulehnen. Ich bin in dieser Hinsicht nicht naiv. Wir wollen keine schlechte Regulierung. Aber wir brauchen gewisse Leitplanken, um sicherzustellen, dass diese Technologien der Selbstverwaltung und der demokratischen Herrschaft zugutekommen.
Ich glaube, dass es möglich ist, diese Ziele in Einklang zu bringen. Es gibt gute Daten, die darauf hindeuten. Ich erinnere mich an viele Diskussionen über die DSGVO und Behauptungen, dass sie die Tech-Unternehmen in Europa völlig zermahlen würde. Soweit ich das sehe, haben sich die europäischen Gewinne, zumindest bei Google, zwischen der Einführung der DSGVO und heute im Grunde verdoppelt. Es muss einen Weg geben, vernünftige Regulierungen einzuführen, die demokratische Werte schützen, während man gleichzeitig in diesem Wettrüsten mit China konkurriert.
Mounk: Das ist eine gute Überleitung zum nächsten Abschnitt des Gesprächs. Wir haben all diese Sorgen, über die wir gesprochen haben. Wir haben auch die Bedenken bezüglich existenzieller Risiken diskutiert, die ich im Podcast bereits ausführlich mit anderen Leuten wie Nate Soares behandelt habe, sodass wir das im Moment überspringen können.
Es gibt ein riesiges Panorama an Möglichkeiten und ein riesiges Panorama an Risiken und Sorgen. Wie denkst du über die antwortende öffentliche Politik in all dem? Sind das wirklich zehn separate Fragen, die zehn völlig separate Antworten erfordern, oder gibt es eine sich abzeichnende Gruppe von Denkschulen über den allgemeinen Ansatz, den wir wählen sollten, um diesen gesamten Bereich zu kanalisieren und zu regulieren?
Born: Ich denke schon, dass wir in jedem dieser konzentrischen Kreise einige spezifische oder maßgeschneiderte Interventionen benötigen werden. Wichtiger ist, dass es einige grundlegende, bereichsübergreifende Maßnahmen gibt, die wirklich hilfreich wären. Ich würde sagen, es gibt wahrscheinlich fünfzehn oder zwanzig, die in informierten Kreisen ernsthaft diskutiert werden, darunter das bedingungslose Grundeinkommen, Handelsbeschränkungen und Fragen rund um den Standort von Rechenzentren.
In unserer Arbeit in der Philanthropie beziehen wir keine politischen Positionen. Es wäre ironisch, die Demokratie massiv zu unterstützen und dann mit der autoritären Vorstellung aufzutreten, dass wir alle Antworten haben. Ich glaube an ein demokratisches Gespräch über diese Fragen. Dennoch scheint es einen echten Konsens zu geben, zumindest um drei übergreifende Bedürfnisse: Transparenz, Datenschutz und Beschränkungen für die staatliche Nutzung dieser Technologien.
Es gibt viele Gespräche über die Arten von Transparenz, die wir benötigen, um demokratische Rechenschaftspflicht und Sichtbarkeit zu ermöglichen. Ich denke über Transparenz entlang des gesamten politischen Prozesses nach. Wenn man an die Daten und die Infrastruktur denkt und wie diese ausgebaut werden, dann an die Rechenleistung, und dann zur Datenerhebung übergeht, stellen sich Fragen dazu, mit welchen Daten die Modelle trainiert werden und welche Arten von Voreingenommenheit und Urheberrechtsschutz bestehen. Dann gelangt man zur Modellentwicklung und schließlich zur Anwendung, wobei man betrachtet, wie die Modelle tatsächlich genutzt werden und wie sie sich auf die Menschen auswirken. Es besteht ein Bedarf an Transparenz auf jeder Ebene dieses Prozesses.
Ein gutes Beispiel ist der Standort von Infrastruktur. In Oregon versuchten die Leute zu verstehen, wie viel Wasser Google verbrauchte. Wenn ich mich recht erinnere, befanden sie sich bereits seit ein paar Jahren in einer Dürre und mussten die Regierung verklagen, um Zugang zu Daten zu erhalten, aus denen hervorging, dass Google etwa 30 % des Wassers in diesem County verbrauchte. Das deutet auf einen echten Bedarf an grundlegenden Transparenzgesetzen hin. Wir brauchen diese Informationen, um Unternehmen zur Rechenschaft zu ziehen.
Das Datenschutzrecht ist ein weiterer Bereich, für den wir viel mehr Zeit aufwenden könnten. Ich erzähle Freunden manchmal, dass es in den Vereinigten Staaten etwa tausend lizenzierte Datenhändler gibt, von denen jeder etwa 1.500 Datenpunkte über jede beliebige Person hält. Eine frappierende Zahl ist, dass jede Sekunde etwa 1,7 Megabyte an Daten über uns gesammelt werden – genug, um ein 800-seitiges Buch zu füllen. Ich musste viel recherchieren, um überhaupt zu verstehen, wie das aussieht. Die Sammlung an sich ist nicht unbedingt das Problem. Das Problem ist, wie diese Daten genutzt werden, um Entscheidungen und Schlussfolgerungen zu treffen, und die Risiken der Überwachung sind, wie wir in China gesehen haben, erheblich.
Dann gibt es Beschränkungen für die staatliche Nutzung. Es besteht ein ziemlicher Konsens darüber, dass es zwar Bereiche geben mag, in denen wir vorsichtig mit Voreingenommenheit sein wollen, aber andere, in denen diese Technologien in einer Demokratie schlicht nicht erlaubt sein sollten. Massenüberwachung, vorausschauende Polizeiarbeit – „Predictive Policing“ – und Sozialkreditsysteme fallen in diese Kategorie. Das sind Bereiche, in denen es eine breite Übereinstimmung in der Öffentlichkeit zu geben scheint, auch wenn sich das nicht unbedingt sofort in Politik niederschlägt.
Mounk: Zumindest gibt es eine allgemeine Einigkeit über einige grobe Ziele, wie diese Systeme eingesetzt werden sollten oder nicht. Erzähl mir von den Bereichen, in denen Uneinigkeit herrscht. Ein grundlegender Bereich des Dissenses, in dem wir dem existenziellen Risiko und der geopolitischen Dimension etwas näher kommen, ist die Frage, ob die Haltung der US-Regierung oder bestimmter Bundesstaaten darin bestehen sollte, „aufs Gas zu treten“.
Diese Technologien könnten die Welt auf wunderbare Weise verändern. Sie könnten es uns ermöglichen, neue Krebsmedikamente zu finden, materiellen Überfluss zu schaffen und viele Probleme zu lösen, mit denen wir konfrontiert sind. Je schneller wir sie entwickeln, desto besser. Sie könnten uns auch als Land mächtiger machen. Wenn wir es nicht tun, wird es China tun. Aus dieser Perspektive bestünde die politische Antwort darin, den Bau von Rechenzentren zu erleichtern, die öffentlichen Investitionen zu erhöhen und sicherzustellen, dass wir genügend Leute mit den Fähigkeiten für die KI-Entwicklung ausbilden. Das ist die Sicht der Akzelerationisten.
Auf der anderen Seite gibt es die Tendenz zu sagen, dass wir nicht wissen, welche Auswirkungen das haben wird. Vielleicht stehen wir an der Schwelle zu einer Superintelligenz, die uns alle vernichten könnte. Selbst wenn das nicht der Fall ist, könnten diese Technologien Menschen ihren Arbeitsplatz kosten, ernsthafte Sicherheitsrisiken schaffen und potenziell Dinge wie die Herstellung von Biowaffen durch Terroristen ermöglichen. Aus dieser Sicht sollte die primäre Ausrichtung eines politischen Entscheidungsträgers darin bestehen – wie es einmal jemand in einem ganz anderen Kontext ausdrückte –, „sich quer zur Geschichte zu stellen und ‘Stopp’ zu rufen“.
Diese Darstellung ist etwas holzschnittartig. Ich bin sicher, niemand fällt gänzlich in das eine oder das andere Lager. Aber ist das die grundlegende Kontur der Debatte? Oder wie sollten wir darüber nachdenken, die Chancen gegen die Risiken abzuwägen, und was impliziert das für die zugrunde liegende Haltung der Politikgestaltung?
Born: Vielleicht teile ich das in zwei Teile auf. Der erste ist, wo die primären Bereiche der Uneinigkeit liegen. Der zweite ist, wo wir glauben, dass die Sache landen könnte – angesichts des aktuellen Umfelds und der Punkte, die du über Akzelerationisten gegenüber den Befürwortern von Regulierung angeführt hast.
Ich verfolge mindestens fünf Bereiche, in denen die Debatte am intensivsten geführt wird. Über einen davon haben wir bereits gesprochen: die Auswirkungen auf den Arbeitsmarkt, einschließlich des bedingungslosen Grundeinkommens, des universellen Basiskapitals, der Umschulung und der Prädistribution; das lasse ich also beiseite. Ein weiterer Bereich ist die Handels- und Sicherheitspolitik. Sollten wir diese Chips an China oder Saudi-Arabien liefern? Dies war eine sehr öffentliche Debatte, auch innerhalb der derzeitigen Regierung, die ihre Position dazu geändert hat. Viele Menschen sind besorgt darüber, Spitzentechnologien an Länder mit weniger demokratischen Regierungen zu liefern.
Ein weiterer Bereich, in dem wir viel Debatte sehen, ist die Haftung. Dies umfasst die Ex-ante-Haftung, das Deliktsrecht, private Klagerechte und die Frage, wie diese möglicherweise geändert werden müssen. Es gibt auch Debatten auf der Ebene der Unternehmen, einschließlich der Upstream-Regulierung von Grenzmodellen – den „Frontier Models“ – und der Frage, wie man potenziellen Schäden zuvorkommen kann. Der letzte Bereich, den ich nennen möchte, ist die öffentliche Infrastruktur, wie etwa der Standort von Rechenzentren und damit verbundene Fragen.
Das sind die Bereiche, in denen ich derzeit die robusteste Debatte sehe. Besonders interessant sind die Haftungsfragen und die Fragen der Regulierung auf Unternehmensebene.
Mounk: Inwieweit gibt es in diesem Stadium bereits eine klare parteipolitische Trennung bei diesen Themen? Eines der interessanten Dinge, wenn sich ein neues Thema auf die öffentliche Tagesordnung drängt, ist, dass die Parteilinien oft noch nicht sehr gefestigt sind, zumindest für einen Moment. Ganz offensichtlich verfestigen sie sich dann doch, manchmal auf ziemlich willkürliche Weise.
Ich denke hier an die Pandemie. Wenn man in den Februar 2020 zurückgeht, waren es viele republikanische Politiker und Senatoren, die sagten: „Das ist ein echtes Risiko, und wir sollten die Grenzen schließen und all diese Dinge tun.“ Nancy Pelosi ging nach Chinatown in San Francisco und deutete im Grunde an, dass jeder, der sich Sorgen wegen COVID mache, unseriös sei und vielleicht von rassistischen Ressentiments motiviert werde. Ein oder zwei Monate später kehrten sich die Fronten um und blieben weitgehend so.
Die Republikaner wurden meist zur Stimme des „Haltet das Land am Laufen, führt die Geschäfte weiter, lasst uns nicht überreagieren“, während die Demokraten sagten: „Nein, das ist ein öffentlicher Gesundheitsnotstand, wie er nur einmal im Jahrhundert vorkommt, und wir müssen alles tun, was wir können, um die Verbreitung des Virus zu stoppen.“
In welchem Stadium befinden wir uns bei den Reaktionen auf KI? Ist bereits klar, dass die Trump-Administration auf der Seite der Akzelerationisten steht und die Demokraten diejenigen sind, die Risiken und Gefahren betonen, oder ist es komplizierter als das?
Born: Ich denke, es ist etwas unübersichtlicher. Sicherlich haben die Menschen nach dem KI-Gipfel in Paris und der Rede von J.D. Vance dort erkannt, dass diese Regierung sehr stark auf der Innovationsseite steht. Beide Exekutivanordnungen, die in diesem Jahr herauskamen, machten das ebenfalls deutlich. Die eine war eine Anordnung zur Beseitigung von Barrieren für die amerikanische Führungsrolle. Dabei ging es vor allem darum, einige der Parameter für Sicherheit, Datenschutz, Fairness und Inklusion abzubauen, die die Biden-Administration eingeführt hatte. Dann gab es eine zweite Anordnung, die gemeinhin als die Anordnung zur „Verhinderung von ‘woker’ KI in der Bundesregierung“ bezeichnet wurde.
Die erste Anordnung bezüglich der Beseitigung von Barrieren für die amerikanische Führungsrolle wurde als klares Indiz dafür gewertet, dass diese Regierung sich schwerpunktmäßig für die Innovationsseite einsetzt. Zu deiner Frage, ob sich das bereits verfestigt hat: Nein. In einigen Bereichen gibt es eine klare parteiübergreifende Einigkeit, was nicht bedeutet, dass es zwangsläufig Gesetz wird; aber der Bedarf an Transparenz und Datenschutz ist, wie wir besprochen haben, ziemlich eindeutig.
Wo wir viel Uneinigkeit sehen, ist auf der regulatorischen Seite, und das wird etwas nuancierter. Hab Geduld mit mir, während ich ein paar Ideen darlege. Es gibt eine Debatte auf der Seite des Deliktsrechts. Menschen können prozessieren, es gibt private Klagerechte, und viele Unternehmen argumentieren, dass dies ausreicht. Die Ansicht ist: Gebt dem Ganzen drei Jahre, schafft einen sicheren Hafen („Safe Harbor“) und seht, wie sich diese privaten Klagerechte entwickeln.
Es gibt ein anderes Argument, das besagt, dass wir zumindest für Grenzmodelle eine vorab festgelegte Regulierung auf Unternehmensebene brauchen, basierend darauf, wie groß und potenziell gefährlich diese Unternehmen sind. Das würde Dinge erfordern wie Bewertungen gefährlicher Fähigkeiten vor dem Einsatz, „Red Teaming“ und ähnliche Maßnahmen. Die Debatte, die ich am faszinierendsten finde, ist die Frage, wo die Beweislast liegen sollte. Sollte die Verantwortung auf der Ebene des Modells liegen? Das ist der Ansatz, den Kalifornien gewählt hat. Mit SB 1047 war die Idee, dass das Unternehmen oder das Modell die Verantwortung trägt, wenn etwas schiefgeht.
Texas versuchte einen ganz anderen Ansatz, bei dem die Anwender und Nutzer für Schäden verantwortlich waren, was sich als weitgehend undurchführbar erwies. Die meiste Debatte, die ich derzeit sehe, dreht sich um die Haftung. Wer sollte für Schäden verantwortlich sein, und auf welcher Ebene sollte diese Verantwortung liegen?
Mounk: Ich denke, das ist offensichtlich eine wichtige Frage. Wenn ich ein Auto kaufe, das eine Selbstfahrfunktion hat, und es jemanden überfährt, bin ich dann in der Pflicht oder ist es der Autohersteller? Es gibt hier eine interessante rechtsökonomische Perspektive, die besagt, dass diese Unterscheidung eigentlich keine Rolle spielt. Was zählt, ist Klarheit im Gesetz. Wenn die Haftung bei den Autoherstellern liegt, bedeutet das, dass der Preis der Autos ein wenig höher sein wird. Wenn die Haftung bei den Kunden liegt, bedeutet das, dass der Preis der Autos ein wenig niedriger sein wird. Solange Klarheit herrscht, kann man immer noch eine Einführung von selbstfahrenden Autos und ähnlichen Technologien haben.
Ich denke, es ist etwas komplizierter als das, aber es ist eine interessante Perspektive, um über das Thema nachzudenken.
Born: Hier ist es jedoch komplizierter. Der Grund dafür ist: Wenn die Haftung auf der Ebene des Modells anfällt, übersieht man die Risiken auf der Ebene der Organisation, wie etwa schlechte Governance-Praktiken, schwache Sicherheitsprotokolle, Datendiebstahl und verwandte Probleme. Wenn das Risiko nur mit dem Modell verknüpft ist, verpasst man eine ganze Kategorie von Risiken.
Mounk: Das ist ein guter Punkt. Die Frage ist, wie man Unternehmen dazu bringt, sich richtig zu verhalten. Wie steht es mit der Möglichkeit, dass sich die Technologie so weit entwickelt, dass wir eine Form von Superintelligenz erhalten, die ein existenzielles Risiko für die Menschheit darstellt? Ich bin nicht davon überzeugt, dass dies der Fall ist, aber wenn es so wäre: Glauben wir realistischerweise, dass wir in der Lage wären, sie zu steuern und ihren Einsatz zu stoppen, und was wäre dafür nötig?
Haben wir Glück und die KI wird zu einem unglaublich mächtigen Werkzeug, das es uns ermöglicht, als Menschen wichtige Dinge zu tun, aber nie so fähig wird, dass wir sie nicht mehr kontrollieren können? Oder richten wir sie leicht genug aus („Alignment“), sodass sie klüger wird als wir, uns aber dennoch zu Diensten bleibt? Oder steuern wir auf eine Form von Superintelligenz zu, die wir nicht kontrollieren können, mit Ergebnissen, die von Versklavung bis hin zur Ausrottung reichen?
Falls sich die Technologie in diese Richtung entwickelt, habe ich eine gewisse Skepsis gegenüber der Vorstellung, dass irgendein Satz von Landesgesetzen, Bundesgesetzen oder UN-Konventionen in der Lage wäre, jemanden daran zu hindern, ein solches System zu entwickeln und einzusetzen. Bin ich hier zu fatalistisch? Hängt unser Schicksal weitgehend von der natürlichen Entwicklung der Technologie selbst ab, oder gibt es einen denkbaren Satz von Regeln, Institutionen oder Regulierungen, die verhindern könnten, dass eine solche Technologie eingesetzt wird und extrem schädliche Folgen für die Welt verursacht?
Born: Das ist genau die Frage, mit der sich dieser gesamte Bereich gerade auseinandersetzt – das sogenannte „P-doom“: Wie hoch ist die Wahrscheinlichkeit, dass das alles böse endet? Niemand weiß es. Wenn wir die Antwort darauf wüssten, würden wir ein anderes Gespräch führen.
Ich denke, du hast recht, dass es keinen Weg gibt – falls diese Modelle tatsächlich eine künstliche allgemeine Intelligenz oder Empfindungsfähigkeit erreichen, wie auch immer man es beschreiben mag –, wie wir einen Notausschalter einbauen könnten. Ich bin skeptisch gegenüber der Vorstellung, dass wir eine Ausrichtung erreichen könnten, die nicht rückgängig gemacht werden kann, insbesondere in einer Welt von Open-Source-Modellen.
Ich teile deine Skepsis: Falls die Idee einer künstlichen allgemeinen Intelligenz (AGI) wirklich am Horizont steht – und ich halte das für ein großes „Falls“ –, bezweifle ich, dass wir sie steuern könnten. Es gibt viele Leute, die denken, dass eine künstliche allgemeine Intelligenz nicht am Horizont steht. Sie argumentieren, dass wir dieses Gespräch führen, weil es einen riesigen Eisberg an Arbeit gibt, der seit über siebzig Jahren im Stillen gewachsen ist und nun plötzlich ins öffentliche Bewusstsein gebrochen ist. Aus dieser Sicht schreitet die Technologie mit einer ziemlich gleichmäßigen Geschwindigkeit voran, scheint aber beschleunigt zu sein, weil sie auf einmal sichtbar geworden ist.
Deshalb gibt es eine sehr robuste Debatte zwischen der „KI 2027“-Fraktion, die glaubt, dass eine explosive Beschleunigung oder das Verderben unmittelbar bevorsteht, und jenen, die KI für eine normale Technologie halten. Aber ich denke, du hast recht. Wenn dies wirklich AGI ist, sehe ich nicht, wie wir sie steuern können.
Mounk: Eine letzte Frage. Du arbeitest für die Packard Foundation, du bist Philanthropin und überlegst, wie du dein Budget klug einsetzen kannst, um sicherzustellen, dass wir die guten Elemente der KI nutzen und uns gleichzeitig vor den verschiedenen Risiken schützen.
Wie denkst du darüber nach? Was können Philanthropen tun? Was können Privatbürger, Akademiker, Politiker oder die Bandbreite der Leute, die diesen Podcast hören, an diesem Punkt tun, um uns in eine bessere Richtung bei diesem sehr wichtigen Thema zu lenken?
Born: Unsere Arbeit in der Philanthropie, die sich wohl ganz gut auf die Öffentlichkeit übertragen lässt, fällt in drei Lager. Das eine ist die Frage, wie wir bessere Informationen über diese Technologien unterstützen. Wie stellen wir sicher, dass die Öffentlichkeit informiert ist und dass wir informiert sind, damit wir gute demokratische Entscheidungen über die Steuerung dieser Technologien im öffentlichen Interesse treffen können? Dazu gehört die Finanzierung von Dingen wie Schadens-Trackern, Journalismus und Forschung, um das Feld zu verstehen.
Es gibt einen großartigen Schadens-Tracker, den die Partnership on AI betreibt, falls du ihn noch nicht gesehen hast; dort wird alles verfolgt, von der Soziodemografie der Schäden bis hin zu verschiedenen Anwendungsfällen, von Automobilen über autonome Waffen bis hin zu Desinformation. Die erste Frage ist also, wie wir das Feld verstehen.
Der zweite Arbeitsbereich ist, wie besprochen, die Politik. Die Philanthropie ist gut positioniert, um Gespräche anzustoßen. Ich komme nicht mit einem bestimmten Standpunkt. Wir finanzieren Leute von links und von rechts, um eine robuste öffentliche Debatte darüber zu führen, wie wir diese Technologien steuern wollen.
Der dritte Teil, über den wir noch nicht so viel gesprochen haben, ist die „KI für das Gute“-Seite. Ich benutze diese Technologien ständig und finde sie in vielen Fällen sehr hilfreich. Die Frage ist, wie wir dem pro-demokratischen Lager – einschließlich Regierungsvertretern und Führern der Zivilgesellschaft – helfen können, sich auf den Stand zu bringen, wie man diese Technologien nutzt, damit genug von dieser Arbeit im öffentlichen Interesse geschieht.
Ich sehe für die Philanthropie in jedem dieser Bereiche eine Rolle. Allgemeiner gesagt geht es darum, das Gemeinwohl an Stellen voranzubringen, an denen wir Marktversagen sehen oder wo Märkte, Unternehmen oder Regierungen es versäumen einzuschreiten.
Falls du meinen Podcast „The Good Fight” (auf Englisch) noch nicht abonniert hast, mache das jetzt!
Dieses Transkript wurde mit Hilfe von KI übersetzt und von Niya Krasteva redigiert.


