Das eigentümliche Durchhaltevermögen der KI-Leugner
Die Weltgeschichte wird sich in eine Zeit vor und nach der KI unterteilen. Doch zu viele verweigern noch immer diese Realität.

Einige welthistorische Ereignisse – etwa die Französische Revolution oder der Zusammenbruch des Kommunismus – treffen die Menschheit ohne große Vorwarnung. Nur wenige Zeitgenossen konnten voraussehen, dass sie unmittelbar bevorstanden oder wie grundlegend sie die Welt verändern würden.
Andere historische Umwälzungen – wie der Fall des Römischen Reiches oder die Industrielle Revolution – kündigen sich mit lautem Getöse an. Als im Norden Englands die ersten Fabriken entstanden, waren die Produktionskapazitäten von Spinnmaschine und Dampfmaschine so offensichtlich, dass sie massive Umwälzungen in Aussicht stellten. Jeder, der diese technologischen Entwicklungen damals bloß als eine unter vielen sozialen, kulturellen oder politischen Veränderungen im Europa des frühen 19. Jahrhunderts abtat, studierte im übertragenen Sinne Maulwurfshügel – und übersah dabei den plötzlichen Aufstieg eines gewaltigen Berges.
Was wir derzeit erleben, ist – vorsichtig formuliert – ein historischer Umbruch von ähnlichem Kaliber wie die Industrielle Revolution. Die rasante Entwicklung leistungsfähiger KI-Modelle hat gewaltige Folgen für die Zukunft der Menschheit. Werden sie zum Guten eingesetzt, könnten sie den Menschen von harter Arbeit befreien, materielle Knappheit beenden und bahnbrechende Fortschritte in Bereichen wie Medizin oder Kunst ermöglichen. Werden sie hingegen zum Schlechten eingesetzt, drohen massenhaftes Elend, Kriege oder Seuchen in bisher unvorstellbarem Ausmaß – oder gar die völlige Überflüssigkeit der Menschheit.
Und obwohl all das so offensichtlich ist wie die Bedeutung der Industriellen Revolution im Manchester des frühen 19. Jahrhunderts hätte sein müssen, ziehen es erstaunlich viele Menschen vor, weiterhin ihre kleinen Maulwurfshügel zu begutachten. Ja, auf jeder angesagten Konferenz gibt es irgendein Panel zu KI. Ja, die sozialen Medien werden überschwemmt von Hype-Machern, die ihre Follower auf die neuesten „spektakulären“ Fortschritte von Grok oder ChatGPT aufmerksam machen wollen. Dabei ist längst klar, dass die Reifung der KI-Technologien den Takt unserer Zeit vorgibt. Und doch versagen ausgerechnet jene Leitmedien, die sich gern als Stimme der Vernunft und des Tiefsinns inszenieren – und in lichteren Momenten sogar als moralische Instanz –, wenn es darum geht, die historische Wucht dieser Entwicklung wirklich zu begreifen.
Ein kürzlich viral gegangener Essay im New Yorker liefert ein extremes, aber keineswegs untypisches Beispiel für dieses Versagen. „KI ist für mich ganz ehrlich einfach nur eklig“, erklärt die Autorin Jia Tolentino. „Sie wäscht Vorurteile rein, als wären sie neutral; sie halluziniert; sie kann ‚vergiftet werden von ihrer eigenen Projektion der Realität‘. Je öfter Menschen ChatGPT nutzen, desto einsamer werden sie – und desto abhängiger davon.“ Immerhin bringt Tolentino die Ehrlichkeit auf, den erstaunlichen Umstand zuzugeben, dass sie „ChatGPT noch nie verwendet hat“.1 Zwar versteht sie sich selbst als progressiv, doch ihre Haltung gegenüber neuen Technologien erinnert stark an einen reaktionären Pfarrer des 19. Jahrhunderts, der die Eisenbahn als Teufelszeug verdammt – und dabei ganz selbstverständlich betont, er sei natürlich selbst noch nie in einer mitgefahren.
In Leitmedien von der New York Times bis zu NPR finden sich durchaus kluge Analysen zum Status quo, den Risiken und den wahrscheinlichen Entwicklungen der künstlichen Intelligenz. Doch ein erschreckend großer Teil der KI-Berichterstattung in diesen altehrwürdigen Publikationen lässt sich – in drei aufeinander aufbauenden Stufen – dem zuordnen, was ich mittlerweile als „KI-Leugnung“ bezeichne.
Da sind zunächst die Artikel, die KI als unfähig abtun und Chatbots als notorisch halluzinierend und nicht einmal zu simplen Aufgaben wie dem Faktencheck in der Lage darstellen. Dann gibt es die Texte, die behaupten, KI sei keineswegs intelligent, sondern lediglich eine Mustererkennungsmaschine – eine Art „stochastischer Papagei“. Und schließlich findet sich jene Gattung von Artikeln, die argumentiert, der wirtschaftliche Einfluss von KI sei maßlos überschätzt worden, weil die versprochenen Produktivitätsgewinne bislang ausgeblieben seien.
Kein Fortschritt hören, keinen Fortschritt sagen, keinen Fortschritt sehen.
„KI ist unfähig.“
Die erste dieser drei Spielarten ist die reinste Form der Leugnung – denn sie muss inzwischen Dinge behaupten, die nachweislich falsch sind (wie jeder weiß, der sich die Mühe gemacht hat, ChatGPT, Claude, Grok, Gemini oder Deep Seek tatsächlich zu benutzen). Es stimmt gerade noch, dass KI-Chatbots bei bestimmten Aufgaben nach wie vor überraschend schwach abschneiden. Wer etwa – wie ich häufig – ein halb erinnertes Zitat sucht, sollte sie lieber nicht um Hilfe bitten. Denn wenn sie das Original nicht finden können, scheinen sie der Versuchung einfach nicht widerstehen zu können, mit einem perfekten – allerdings erfundenen – kleinen Ausschnitt zu gefallen.
Doch in den meisten Bereichen erreichen KI-Systeme inzwischen das Niveau aller außer der begabtesten Menschen. Sie übersetzen Texte auf erstaunlichem Niveau, spielen meisterhaft Schach, schreiben Gedichte und bringen einem neue Fähigkeiten bei, sie programmieren und illustrieren, stellen medizinische Diagnosen und fassen wissenschaftliche Fachtexte als Podcast zusammen. Diese Wunderkiste voller Talente abzutun, nur weil die Technik einige wenige Aufgaben noch nicht gemeistert hat, erinnert an den alten Witz über zwei alte Juden im Zirkus. Ein Akrobat überquert das Hochseil auf einem Einrad, jongliert dabei mit sieben brennenden Fackeln und spielt gleichzeitig ein virtuoses Violinsolo. Da sagt der eine abfällig zum anderen: „Paganini ist er nicht.“
„KI ist doch bloß ein stochastischer Papagei.“
Die zweite Spielart der Leugnung gibt sich zugleich raffinierter und substanzloser. Sie beruft sich auf eine vermeintlich tiefschürfende technische Einsicht über das Wesen der KI – ist im Kern jedoch nicht mehr als ein abfälliger Slogan, clever getarnt als halb verstandene Beschwörungsformel.
Laut einem einflussreichen Text aus dem Jahr 2021 besteht das Problem großer Sprachmodelle darin, dass sie die Welt nicht wirklich verstehen. Sie plappern vielmehr menschliche Sprache nach – auf Basis eines stochastischen Modells, das berechnet, welche Wörter in den riesigen Trainingsdatensätzen typischerweise in welcher Reihenfolge auftreten. Von Intelligenz kann also keine Rede sein; bei genauerem Hinsehen entpuppen sich KI-Chatbots bloß als „stochastische Papageien“.
Die Vorstellung, KI-Chatbots seien bloß „stochastische Papageien“, beruht auf einer unbestrittenen Wahrheit über diese Technologien: Die Algorithmen greifen tatsächlich auf riesige Datensätze zurück, um vorherzusagen, welches Wort in einem Text, welcher Pixel in einem Bild oder welcher Ton in einem Musikstück als Nächstes folgt. So eindrucksvoll diese Beobachtung auch klingen mag – sie lässt die erstaunlichen Fähigkeiten künstlicher Intelligenz nicht einfach in Luft aufgehen. Wenn Chatbots Aufgaben im Handumdrehen erledigen, an denen zuvor hochqualifizierte Menschen wochenlang gearbeitet haben, dann verändert dieser Fortschritt die Welt – zum Guten oder zum Schlechten –, ganz gleich, wie die Bots zu ihrem Ergebnis kommen.
Auch der Hinweis, dass Chatbots auf stochastisches Denken setzen, ist bei näherem Hinsehen weit weniger entlarvend, als er zunächst wirkt. Wir sind dem Verständnis der Funktionsweise des menschlichen Gehirns kaum näher als dem Verständnis dessen, was genau in ChatGPT vor sich geht. Es spricht jedoch einiges dafür, dass auch unsere eigene erstaunliche Fähigkeit, die Welt zu begreifen und zu gestalten, auf unserer Kompetenz zur Mustererkennung beruht. Ausgerechnet das Pattern-Matching, das künstliche Intelligenz angeblich als bloßen „stochastischen Papagei“ entlarvt, könnte sie am Ende dem Menschen ähnlicher machen, als ihre hochtrabenden Kritiker wahrhaben wollen.
Im Mai 1997 verlor Garry Kasparov, damals der beste Schachspieler der Menschheitsgeschichte, gegen Deep Blue – eine gewaltige IBM-Maschine, verteilt auf mehrere schrankgroße Rechner. Wie er später berichtete, erschütterte ihn besonders ein bestimmter Zug der Maschine. Kasparov war überzeugt, dass Deep Blue sich für einen taktisch vorteilhaften Zug entscheiden würde, obwohl seine Erfahrung ihm sagte, dass dieser Zug die eigene Stellung langfristig schwächen würde. Doch Deep Blue – nichts weiter als eine gigantische Rechenmaschine, die unzählige Szenarien so weit wie möglich durchspielte – tappte nicht in die Falle. Der Zug schockierte Kasparov, weil er erkannte, dass eine Maschine allein durch Berechnung zur intuitiv besten Option gelangen konnte – etwas, das sich bis dahin zutiefst menschlich angefühlt hatte.
Was an den heutigen Chatbots, die Deep Blue bei Weitem übertreffen, so faszinierend ist: Sie funktionieren auf völlig andere Weise. Deep Blue „kannte“ die Schachregeln, was es der Maschine ermöglichte, durch brutale Rechenkraft Millionen möglicher Spielverläufe zu analysieren und sich so zur besten Lösung vorzuarbeiten. Die heutigen großen Sprachmodelle hingegen stützen sich auf eine riesige Datenbank vergangener Schachpartien, um vorherzusagen, welcher Zug sich richtig anfühlt. Mit anderen Worten: Gerade weil ChatGPT – anders als Deep Blue – wie ein „stochastischer Papagei“ agiert, ähnelt es in seinem Spielstil dem eines außerordentlich versierten Menschen wie Garry Kasparov mehr, nicht weniger.
„KI wird ohnehin keinen großen Einfluss haben.“
Die letzte Form der Leugnung betrifft die wirtschaftlichen Auswirkungen dieser Technologie. Als OpenAI im November 2022 ChatGPT 3.5 veröffentlichte, sagten einige Beobachter sofort einen verheerenden Effekt auf klassische Bürojobs voraus. Einige Branchen hat es bereits hart getroffen. Während Ökonomen in den letzten zehn Jahren karrierebewussten Studierenden dringend rieten, Programmieren zu lernen, um ihre berufliche Zukunft abzusichern, ist der Marktwert von Softwareentwicklern rapide gesunken – sie sind heute häufiger arbeitslos als Absolventen deutlich weniger „zukunftssicherer“ Fächer wie Kunstgeschichte oder Philosophie. Doch insgesamt ist die große Umwälzung der Büroarbeitswelt bislang auffällig ausgeblieben – ebenso wie die versprochenen Produktivitätsgewinne.
Das macht es verführerisch, zu prognostizieren, dass die Erfindung der künstlichen Intelligenz – zumindest wirtschaftlich gesehen – weit weniger bedeutsam sein wird, als es auf den ersten Blick scheint. Einige renommierte Ökonomen behaupten, der Arbeitsmarkt werde auf absehbare Zeit kaum von KI betroffen sein. Andere halten die extremen Unternehmensbewertungen von Firmen wie OpenAI für einen gewaltigen Irrtum – denn ihrer Ansicht nach werden die rasant steigenden Kosten für das Training immer mächtigerer KI-Modelle durch künftige Einnahmen kaum zu decken sein. Am Ende, so ihre These, werde man sich an diesen Moment als Paradebeispiel kollektiver Selbstüberschätzung erinnern – so wie an die Dotcom-Blase im Jahr 2000.
Die naheliegende Antwort auf dieses Argument lautet: Die Dotcom-Blase war nur ein vorübergehender Einbruch. Ja, unzählige nutzlose Unternehmen waren vor dem Platzen der Blase im März 2000 massiv überbewertet. Doch der Hype um das Internet hat sich im Rückblick als völlig gerechtfertigt erwiesen. Ein Vierteljahrhundert nach der „Blase“ steht der NASDAQ viermal höher als vor dem Crash, und Technologieunternehmen stellen einen enormen Anteil der weltweiten Marktkapitalisierung. Es ist unbestreitbar, dass die Weltwirtschaft durch digitale Technologie grundlegend verändert wurde.
Die tiefere Antwort auf die Skepsis gegenüber den wirtschaftlichen Auswirkungen von KI liegt in einer grundlegenden Erkenntnis: Produktivitätsschübe durch neue Technologien erfordern eine Kombination aus zwei Faktoren – neuen Technologien, die menschliche Arbeit ergänzen oder ersetzen können, und organisatorischen Veränderungen, die es Unternehmen ermöglichen, diese Technologien tatsächlich zu nutzen. Technologien, die inkrementelle Produktivitätsgewinne innerhalb einzelner Branchen bringen, lassen sich oft vergleichsweise leicht implementieren – nicht zuletzt, weil sie meist aus gezielten Bemühungen etablierter Unternehmen hervorgehen, bestehende Prozesse effizienter zu gestalten. Technologien hingegen, die branchenübergreifend für massive Produktivitätssteigerungen sorgen können, sind oft deutlich schwerer umzusetzen – unter anderem deshalb, weil sie wie im Fall der künstlichen Intelligenz meist außerhalb der bestehenden Industriearchitektur entstehen und tiefgreifende organisatorische Umwälzungen erfordern, bevor sie Wirkung entfalten können.
Ein Beispiel: Studien deuten darauf hin, dass KI-Bots inzwischen bei vielen zentralen medizinischen Aufgaben ebenso leistungsfähig sind wie die besten Ärztinnen und Ärzte – etwa beim Interpretieren komplexer Testergebnisse oder bei der Diagnose auf Grundlage diffuser Symptome. Doch wegen der extrem strengen Regularien im Gesundheitswesen – und der starken Stellung medizinischer Fachkräfte, die gute Gründe haben, ihren Status nicht durch Maschinen infrage stellen zu lassen – hat sich die medizinische Praxis bislang kaum verändert. Das sagt weniger über das langfristige Potenzial der neuen Technologie aus als über die Trägheit komplexer Systeme, vor allem dann, wenn gut vernetzte Berufsgruppen in geschützten Branchen hohe Einkommen zu verlieren haben. Wie schon bei früheren technologischen Umbrüchen zeigt sich auch hier: Solche Kräfte können die aufkommende Welle überraschend lange zurückhalten – aber es wäre naiv zu glauben, dass der Damm ewig hält.
Noch vor zehn Jahren galt es als ausgemacht, dass der technologische Fortschritt vor allem klassische Arbeiterjobs wie den von LKW-Fahrern gefährden würde. Heute lassen die spektakulären Fortschritte im textbasierten Bereich viele Kommentatoren befürchten, dass nun zuerst die weißen Kragen dran sind – von Juristen bis zu Personalabteilungen. Doch es lohnt sich, auf ein weiteres, bislang noch ausstehendes Ereignis hinzuweisen: die nächste große Zäsur. Zwar ist es bisher schwieriger gewesen, Roboter zu entwickeln, die sich geschickt durch die physische Welt bewegen, als Chatbots, die hochkomplexe kognitive Aufgaben lösen – doch der Tag ist nicht fern, an dem Maschinen beide Fähigkeiten vereinen und massenhaft produziert werden. Spätestens dann sind sowohl Büro- als auch Handwerksjobs gleichermaßen gefährdet.
Das macht mich skeptisch gegenüber jenem Argument, auf das sich inzwischen selbst renommierte Ökonomen beziehen, wenn sie die wahrscheinlichen Folgen der künstlichen Intelligenz kleinreden wollen. Sie verweisen gern darauf, dass frühere technologische Umwälzungen – von der Erfindung des Buchdrucks bis zur Automatisierung der Fabrikarbeit – trotz düsterer Zeitdiagnosen nicht zu massenhafter Arbeitslosigkeit führten. Zwar wurden bestimmte Berufsgruppen durch diese Entwicklungen de facto ausgelöscht, doch zugleich entstanden völlig neue Tätigkeitsfelder. Es gibt heute keine Buchabschreiber mehr, die Texte per Hand kopieren; dafür aber (wie der Zustand meines Posteingangs belegt) eine ganze Berufsgruppe von Marketingfachleuten, die Autoren bei Podcast-Hosts unterbringen wollen. Die Zahl der Kohlebergleute ist in den letzten Jahrzehnten massiv geschrumpft – dafür gibt es in den USA heute deutlich mehr professionelle Yoga-Lehrer.
Dieses Argument hat sich bisher in jedem historischen Umbruch bewahrheitet. Doch das lag vor allem daran, dass die Menschheit noch nie zuvor mit einer verkörperten Form allgemeiner Intelligenz konfrontiert war, die der überwiegenden Mehrheit der Menschen in der überwiegenden Mehrheit aller Tätigkeiten überlegen ist. Ob das Prinzip des „kreativen Ersatzes“ von Berufsbildern, das bei früheren technologischen Innovationen stets funktionierte, auch dieser beispiellosen Neuerung standhalten kann, ist bestenfalls offen. Ich persönlich vermute, dass jene, die heute behaupten, der Einfluss von KI auf den Arbeitsmarkt werde sich in etwa so verhalten wie der der Dampfmaschine, bald in eine ähnliche Kategorie fallen wie Thomas Malthus: Seine Theorie über die Gefahren eines unkontrollierten Bevölkerungswachstums erwies sich als erstaunlich präzise Beschreibung aller historischen Entwicklungen bis zu dem Punkt, an dem er sie formulierte – und lag dann in fast allem, was danach kam, spektakulär daneben.
Ich habe ein Geständnis zu machen.
Intellektuell bin ich mittlerweile zutiefst davon überzeugt, dass die Bedeutung von KI – wenn überhaupt – eher unterschätzt wird. Die jämmerlichen Versuche, so zu tun, als stünden wir nicht am Rand einer technologischen, wirtschaftlichen, sozialen und kulturellen Revolution, sind kaum mehr als Selbstberuhigung. Theoretisch habe ich keinerlei Geduld für die Leugnung der KI-Folgen, die inzwischen weite Teile der öffentlichen Debatte durchzieht.
Aber in der Praxis fällt es auch mir schwer, aus diesem Wissen Konsequenzen zu ziehen. Ich bin kein Programmierer, also habe ich zur technischen Seite nicht allzu viel Substanzielles beizutragen. Ich bin nicht tief in der Tech-Szene verankert, also tue ich mich schwer, die richtigen Gesprächspartner für dieses Thema zu finden. Die meisten Artikel, die wir bei Persuasion veröffentlichen, befassen sich nicht mit KI – und die wenigen, die es tun, erzielen oft erstaunlich wenig Resonanz.
Doch wenn ich eines in meiner bisherigen Laufbahn als Autor gelernt habe, dann das: Es hält nicht ewig, den Kopf in den Sand zu stecken. Man kann sich erstaunlich lange einreden, dass Demokratien wie die der Vereinigten Staaten vor rechtspopulistischen Demagogen sicher sind, dass „Wokeness“ eine konsistente politische Philosophie darstellt oder dass Finanzblasen bloß Hirngespinste notorischer Pessimisten seien – doch irgendwann stürzt das ganze Gebäude ein. Und je früher wir alle den Mut aufbringen, uns dem Unvermeidlichen zu stellen, desto größer die Chance, vorbereitet zu sein, wenn die Uhr Mitternacht schlägt.
Auch wenn Tolentino das nicht ausdrücklich sagt, legt der Kontext nahe, dass sie ChatGPT stellvertretend für KI-Bots im Allgemeinen verwendet; es geht ihr nicht einfach nur darum, dass sie zufällig Claude bevorzugt.
Dieser Text wurde mit Hilfe von KI übersetzt und von Niya Krasteva redigiert.