15 Beobachtungen über Künstliche Intelligenz
Gedanken über DeepSeek, ChatGPT und die Zukunft der Menschheit.
Ein Grund, wieso ich Substack liebe, ist die Möglichkeit, meine Gedanken direkt und ungefiltert mit euch zu teilen. Und dabei habe ich ein neues Format für mich entdeckt: die Beobachtungen-Reihe. Hier versuche ich, ein großes Thema – sei es ein Land wie Frankreich oder China oder ein Thema wie KI – besser zu verstehen, indem ich einfach meine spannendsten Gedanken dazu teile, ohne so tun zu müssen, als ergäben sie ein perfekt zusammenhängendes Gesamtbild.
Freut mich, dass ihr mit an Bord seid! Wenn ihr dieses Projekt unterstützen und Zugang zu all meinen wöchentlichen Texten erhalten möchtet, dann werdet Abonnent!
– Yascha
Viele meiner Freunde scheinen immer noch zu glauben, dass Künstliche Intelligenz nichts als „heiße Luft“ sei. In den sozialen Medien verbreiten sich virale Beiträge, die behaupten, der Fortschritt der KI sei ins Stocken geraten; die Technologie könne höchstens minderwertige Kopien menschlicher Arbeit erzeugen; und sie sei nur für Menschen nützlich, die ihre Hausaufgaben plagiieren. Doch all das ist nichts weiter als Selbstberuhigung. Wer noch nicht herausgefunden hat, wie man Apps wie ChatGPT, Claude oder DeepSeek im eigenen Leben nutzen kann, verpasst eine geradezu wundersame – und äußerst praktische – Technologie.
Hier sind einige Dinge, für die ich in den letzten Wochen KI genutzt habe:
Einen guten Dim-Sum-Laden finden. Meine Artikel und Podcast-Transkripte ins Französische und Deutsche übersetzen. Mir Poker beibringen, indem sie verschiedene Szenarien präsentiert und die Vor- und Nachteile unterschiedlicher Züge analysiert. Mit mir mündliches Chinesisch üben. Ein Rezept aus Restzutaten in meinem Kühlschrank entwickeln. Einen Essay-Entwurf Korrektur lesen. Nationalkonservatismus und Neo-Integralismus vergleichen und kontrastieren, um mich auf eine Vorlesung vorzubereiten. Chinesische Grammatikübungen für mich erstellen. Den Namen eines Schriftstellers finden, an den ich mich nur vage erinnere. Mir helfen, eine formelle E-Mail auf Französisch zu formulieren. Die jeweiligen Vorzüge von Aktien- und Immobilieninvestitionen analysieren. Die Fußnote lokalisieren, in der John Rawls über Abtreibung spricht. Mir etwas über ein beeindruckendes Gebäude erzählen, basierend auf einem Foto. Individuell gestaltete Cartoon-Bilder entwerfen, um sie einem Freund als Scherz zu schicken. Die Bedeutung eines Psychologen erklären, dessen Werk ich nie gelesen habe. Ein Computerproblem diagnostizieren. Aktivitäten für einen Tagesausflug planen.
Hätten menschliche Experten mit genügend Zeit und Ressourcen die meisten dieser Aufgaben ebenso gut – vielleicht sogar ein bisschen besser – bewältigen können? Klar! Macht die Bandbreite an Aufgaben, die diese Apps sofort und (quasi) kostenlos für einen erledigen können, sie zu den erstaunlichsten persönlichen Assistenten, die je erfunden wurden? Ohne Zweifel.
Wer sie nicht nutzt, verpasst eine riesige Chance.Eines der relativierenden Argumente, das ich oft höre, ist, dass KI gar keine echte künstliche Intelligenz sei. Skeptiker behaupten vielmehr, sie sei eine Art geschickte Zaubermaschine, die lediglich Muster in den Daten erkennt, auf denen sie trainiert wurde, und so vorhersagen kann, welches Wort (oder welche Zahl, welcher Pixel, welche Codezeile) mit höchster Wahrscheinlichkeit als Nächstes folgt.
Wörtlich genommen stimmt das sogar: Generative Pre-trained Transformers wie die von OpenAI verwendeten Modelle funktionieren im Kern genau so. Doch daraus zu schließen, dass sie keine echte Intelligenz sei, ist dennoch falsch – genauso wie es seltsam wäre zu behaupten, du selbst seist nicht wirklich intelligent, nur weil das kluge Argument, das du gerade formuliert hast, letztlich auf das Feuern von Neuronen in deinem Gehirn zurückgeht.
Wenn eine Maschine in der Lage ist, Aufgaben zu erfüllen, die wir traditionell als Ausdruck von Intelligenz betrachten – von der Dichtung bis zur Lösung komplexer mathematischer Probleme –, dann ist es ein merkwürdiges Argument, ihre Fähigkeit dazu gerade mit der Erklärung, wie sie es tut, in Zweifel zu ziehen.
Möchten Sie (oder jemand, den Sie kennen) meine Artikel und Interviews auf Englisch oder Französisch lesen? Abonnieren Sie sich bitte bei meinen entsprechenden Substacks!
Noch grundlegender ist die Erkenntnis, dass auch Menschen letztlich äußerst leistungsfähige Mustererkennungsmaschinen zu sein scheinen. Die Neurowissenschaft steckt noch in den Kinderschuhen. Wir verstehen weder wirklich, wie menschliche Intelligenz funktioniert, geschweige denn, wie Bewusstsein entsteht. Und es wird zweifellos einige wesentliche Unterschiede zwischen Menschen und Maschinen geben – Unterschiede, die es naiv erscheinen lassen, unser Gehirn einfach als eine biologische Variante von GPT zu betrachten. Ein Neurowissenschaftler sagte mir einmal, wir sollten KI als eine dritte Form von Intelligenz auf der Erde betrachten, neben der Intelligenz von Wirbeltieren und der von Kopffüßern.
Doch sobald wir unser eigenes Gehirn besser verstehen, könnte sich die wissenschaftliche Erklärung für die physischen Grundlagen unserer Intelligenz als nicht schmeichelhafter erweisen als die wissenschaftliche Erklärung für die physischen Grundlagen künstlicher Intelligenz – und möglicherweise werden diese beiden Erklärungen sogar ähnlicher ausfallen, als viele heute glauben.
Eines der skeptischen Argumente über KI besagt, ihr Fortschritt habe sich angeblich verlangsamt. Ich gebe keinesfalls vor, ein technischer Experte für Künstliche Intelligenz zu sein, und besitze sicherlich auch keine Kristallkugel, mit der ich ihre zukünftige Entwicklung voraussagen könnte. Es scheint zudem tatsächlich so zu sein, dass sich optimistische Annahmen darüber, wie schnell sich durch eine weitere Skalierung von Daten und Rechenleistung die Leistungsfähigkeit von KI-Modellen steigern ließe, im vergangenen Jahr nicht vollumfänglich bestätigt haben.
Dennoch stehe ich diesen Argumenten aus zwei Gründen skeptisch gegenüber. Erstens war der Fortschritt in den Bereichen, die ich beurteilen kann, außerordentlich schnell. Als OpenAI sein GPT-3.5-Modell erstmals öffentlich zugänglich machte, hätte ein Student, der eine von der KI verfasste Hausarbeit in einem geistes- oder sozialwissenschaftlichen Seminar einreichte, wohl eine 2 oder vielleicht eine 2+ bekommen. Mit den neuesten Modellen von Claude oder DeepSeek könnte er – teils, aber nicht nur wegen einer generellen Noteninflation – in den meisten geistes- und sozialwissenschaftlichen Kursen an führenden amerikanischen Universitäten inzwischen eine 1- oder sogar eine 1 erzielen.
Zweitens erscheint es plausibel, dass die gegenwärtige Strategie der großen amerikanischen KI-Labore – die stark auf die Skalierung der Trainingsdaten und den Einsatz immer größerer Rechenkapazitäten setzt – irgendwann auf abnehmende Erträge stoßen könnte. Aber genau so verläuft technischer Fortschritt oft, insbesondere bei formbaren, wandelbaren Technologien: Sobald ein Ansatz an seine Grenzen stößt, werden Innovationen auf anderen Wegen vorangetrieben.
Die Veröffentlichung von DeepSeek – eines chinesischen Rivalen zu ChatGPT, der seit letzter Woche den Markt rasant erobert hat – ist ein eindrucksvolles Beispiel für diesen Punkt. Es hat einige Tage gedauert, bis mir seine Bedeutung wirklich bewusst wurde; schließlich scheint seine Leistung, so beeindruckend sie auch ist, nicht über das Niveau der bereits öffentlich zugänglichen Spitzentechnologien hinauszugehen. Also, was macht DeepSeek so besonders?
Die Einführung von DeepSeek ist aus mindestens drei Gründen bedeutsam. Erstens zeigt sie, dass China und die Vereinigten Staaten echte Konkurrenten um die globale Führungsrolle in der KI sind. Zweitens stellt sie ein echtes Geschenk an die Menschheit dar. Ähnlich wie Metas früheres Llama wurde das Modell als Open Source veröffentlicht, was bedeutet, dass es dauerhaft für jeden Menschen verfügbar ist – zu minimalen oder gar keinen Kosten.
Drittens ist DeepSeek nicht nur wegen seiner Leistungsfähigkeit bemerkenswert, sondern auch wegen seines innovativen Entwicklungsansatzes. So hat das Modell bedeutende technische Fortschritte eingeführt, insbesondere bei der Optimierung der Informationsverarbeitung. Während die meisten Sprachmodelle Texte in kleinen Einheiten – etwa einzelne Wörter oder Wortteile – analysieren, setzt DeepSeek verstärkt auf größere, bedeutungstragende Einheiten wie Phrasen oder ganze Sätze. Dadurch kann es den Kontext und die Beziehungen innerhalb eines Textes besser erfassen.
Darüber hinaus nutzt DeepSeek Techniken, die jeweils nur die relevantesten Teile des Modells für eine bestimmte Aufgabe aktivieren, sodass es Aufgaben gezielt an die am besten geeigneten Komponenten seines Systems „delegiert“.1 Diese dokumentierten Verbesserungen haben es ermöglicht, die Kosten, die Geschwindigkeit und den Energieverbrauch sowohl während der Entwicklung als auch in der alltäglichen Nutzung erheblich zu reduzieren.
All dies zeigt, wie viel Raum für kreative Weiterentwicklungen in diesem Bereich noch besteht – und (zumindest in meiner laienhaften Einschätzung) sollte es unsere Erwartungen darüber erhöhen, wie wahrscheinlich weitere Fortschritte in der KI-Entwicklung sind.2
Die unmittelbare wirtschaftliche Auswirkung der Veröffentlichung von DeepSeek war ein deutlicher Rückgang der Tech-Aktien. Dafür gibt es einige rationale Gründe. Offensichtlich sind die am stärksten betroffenen amerikanischen Tech-Unternehmen nicht so weit vor der chinesischen Konkurrenz, wie es ihre extrem hohen Marktbewertungen vermuten ließen. Und falls sich herausstellen sollte, dass die für das Training von KI-Modellen benötigte Rechenleistung tatsächlich deutlich geringer ist als erwartet, könnte es (wenn auch alles andere als sicher) sein, dass Hersteller fortschrittlicher Chips wie Nvidia geringere Gewinne einfahren.
Doch all das bedeutet keineswegs, dass die Einführung von DeepSeek der Wirtschaft insgesamt schadet. Ganz im Gegenteil: Es ist ein Gewinn für die Menschheit, wenn sich herausstellt, dass die Entwicklung von KI günstiger ist als angenommen. Und nun haben Entwickler aller Art Zugang zu hochmoderner KI-Technologie zu geringen Kosten – was in den kommenden Jahren wahrscheinlich weitere Innovationen anstoßen wird.
Jede große technologische Entwicklung bringt Vor- und Nachteile mit sich. Aber die Tatsache, dass eine bahnbrechende Technologie gerade demokratisiert wurde, sollte vor allem ein Grund zur Freude sein.
Hier ist ein Beispiel für einen Bereich, in dem der Einsatz von KI – selbst auf dem aktuellen Leistungsniveau – zu enormen Verbesserungen in der realen Welt führen kann: das Sprachenlernen. Die Möglichkeiten, die KI dabei bietet, sind schlichtweg beeindruckend. Man kann Gespräche in der Zielsprache führen – mit dem geduldigsten und kostengünstigsten Tutor der Welt. Man kann Texte lesen oder schriftliche Unterhaltungen führen, die genau auf die eigenen, noch so speziellen Interessen zugeschnitten sind. Man kann Grammatiklektionen erhalten, die individuell auf die eigenen Stärken und Schwächen abgestimmt sind. Und man kann sofortiges Feedback zur Aussprache bekommen, inklusive detaillierter Tipps zur Verbesserung.
Doch derzeit erfordert all das, dass man seinen eigenen Kurs gestaltet – also der KI-Sprachlehrkraft in jedem Schritt explizite Anweisungen gibt. Hier gibt es offensichtlich enormes Verbesserungspotenzial: Jemand müsste eine App entwickeln, die systematisch nach den persönlichen Vorlieben fragt und all diese Funktionen in eine nahtlose, benutzerfreundliche Erfahrung integriert. Die größten Hürden für eine solche Lernplattform liegen weniger in der Notwendigkeit, das zugrunde liegende Modell weiterzuentwickeln, als vielmehr in Herausforderungen des Designs, der Didaktik und der Nutzerführung.
Doch es ist nahezu sicher, dass diese Probleme gelöst werden – und dass damit das leistungsfähigste Sprachlernwerkzeug entsteht, das je erfunden wurde. Im Moment aber existiert eine solche App noch nicht.
In einigen Ecken des Internets wird DeepSeek auch aus einem anderen Grund gefeiert. Anders als westliche KI-Modelle wie ChatGPT und Claude, so behaupten einige Kommentatoren, betreibe DeepSeek keine Zensur zu unzähligen Themen. In gewisser Weise habe ich für diese Bedenken durchaus Verständnis. Es ist offensichtlich, dass Unternehmen wie OpenAI – und besonders Google – während der „Fine-Tuning“-Phase spürbar in die Waagschale geworfen haben. In dieser entscheidenden Phase des Trainings belohnen menschliche Moderatoren Antworten, die ihnen gefallen, und bestrafen jene, die ihnen missfallen – mit weitreichenden Folgen für das, was die KI später sagt und was nicht.
Als soziale Medien ihren Siegeszug antraten, erkannte der politische Mainstream viel zu langsam, wie gesellschaftlich zerstörerisch es ist, wenn Silicon Valley – oder staatliche Bürokratien, die Druck auf Silicon Valley ausüben – bestimmt, was Bürger sagen dürfen und was nicht. Heute reagiert dieser Mainstream noch langsamer auf die vielleicht noch viel problematischere Frage der politischen Kontrolle über KI. Jeder, der liberale Werte wirklich ernst nimmt, sollte zutiefst alarmiert sein.
Wenn man an die Freiheit des Menschen glaubt, muss man sich entschieden gegen eine Welt stellen, in der Regierungen und mächtige Milliardäre gemeinsame Sache machen, um festzulegen, welche Fakten oder gar Meinungen die mächtigsten Recherche- und Lernwerkzeuge der Welt äußern dürfen.
Es wäre dennoch naiv, sowohl ChatGPT als auch DeepSeek eine Reihe von Fragen zu stellen, die im westlichen politischen Diskurs als kontrovers gelten, und daraus zu schließen, dass das eine Modell stärker zensiert als das andere. Jede Gesellschaft hat ihre eigenen Tabus. Manche davon sind für Außenstehende offensichtlich, andere wiederum sind so tief in der Kultur verwurzelt, dass sie nur jemand bemerkt, der das Land wirklich gut kennt.
Nachdem ich in den letzten Tagen beiden Modellen ähnliche, politisch heikle Fragen gestellt habe, habe ich zwei vorläufige Eindrücke gewonnen. Erstens sind beide Modelle in ihren Ansichten ernüchternd konventionell – vermutlich, weil gängige Ansichten, selbst wenn sie falsch sein mögen, die Mehrheit der Trainingsdaten ausmachen. Als ich beide Modelle bat, einige stark umstrittene oder tabuisierte Themen der US-Politik aufzulisten und deren Wahrheitsgehalt zu bewerten, klangen sie beide wie die uninspirierendsten Kolumnisten von The Guardian oder The New Republic.
Zweitens ist es genauso einfach, Themen zu finden, bei denen ChatGPT sich weigert, eine Antwort zu geben, wie es ist, Bereiche zu identifizieren, in denen DeepSeek keine Stellung beziehen will. Nachdem ich die Modelle zur amerikanischen Politik befragt hatte, bat ich sie, eine ähnliche Analyse zu chinesischen Tabus durchzuführen. ChatGPT lieferte bereitwillig eine Reihe von Bereichen, in denen es chinesische Tabus für falsch oder problematisch hält – wenig überraschend weitgehend im Einklang mit gängigen amerikanischen Ansichten über China. DeepSeek hingegen antwortete schlicht: „Das liegt außerhalb meines aktuellen Rahmens. Lass uns über etwas anderes sprechen!“
Europa spielt in all dem schlicht keine Rolle. Die wenigen KI-Unternehmen auf dem Kontinent, wie das französische Mistral, liegen mittlerweile weit hinter Amerika und China zurück. Da es europäischen Unternehmern schwerfällt, das nötige Kapital aufzutreiben, und sich die besten Talente des Kontinents längst im Silicon Valley konzentrieren, ist kaum vorstellbar, dass Europa in absehbarer Zeit aufholen kann. (Es sagt viel aus, dass SAP, das größte deutsche Tech-Unternehmen, vor über fünfzig Jahren gegründet wurde und wirtschaftlich vor allem deshalb noch überlebt, weil große Konzerne, die seine Software vor Jahrzehnten eingeführt haben, den Übergang zu deutlich besseren Unternehmenslösungen amerikanischer Anbieter wie Salesforce scheuen.)
Und so greift so gut wie jeder europäische Politiker und Intellektuelle, mit dem ich über dieses Thema gesprochen habe, auf die wohl durchsichtigste aller Selbsttäuschungen zurück – in einem Bereich, der ohnehin schon von Wunschdenken geprägt ist: die Vorstellung, dass Europa relevant bleiben könnte, indem es sich zum Weltmarktführer in der Regulierung von KI aufschwingt.
Diese Ambition ist nicht nur traurig – sie erinnert an ein Schulkind, das davon träumt, später einmal als Pausenaufsicht wichtig zu sein. Peinlicher noch: Sie ist nicht einmal realistisch. Wie soll Europa die globale Entwicklung von KI beeinflussen, wenn der Kontinent in ihrer eigentlichen Entwicklung kaum eine Rolle spielt?
Als ChatGPT erstmals veröffentlicht wurde, fragte ich mich, ob Künstliche Intelligenz eines Tages als die „dritte große Blamage der Menschheit“ in Erinnerung bleiben könnte.
Sigmund Freud zufolge war die erste große Blamage, als Kopernikus bewies, dass sich das Universum nicht um die Erde dreht. Die zweite große Blamage folgte, als Charles Darwin erkannte, dass wir von Affen abstammen.3 Diese Überlegungen bringen mich zu der Frage, ob KI die dritte große Blamage sein könnte.
Die fortschrittlichsten Modelle übertreffen bereits jetzt jeden Menschen in Disziplinen wie Schach, bestimmten Videospielen und einigen wissenschaftlichen Aufgaben wie der Vorhersage der Proteinfaltung. Sie sind besser als die meisten Menschen – einschließlich vieler Fachleute – in einer Vielzahl von Bereichen, von medizinischer Diagnostik bis zur Übersetzung. Und sie haben bereits ernsthafte Fortschritte in kreativen Feldern gemacht: Sie schreiben Gedichte, komponieren Musik und erstellen Bilder.
Sollten zukünftige KI-Modelle eines Tages den Menschen in diesen Bereichen übertreffen, wäre das nicht nur eine existenzielle Krise für Schriftsteller wie mich – es würde auch eine fundamentale Frage für die Menschheit aufwerfen: Was bleibt von unserem Selbstbild, wenn Maschinen uns in kreativen Aufgaben überholen, die wir einst als den Inbegriff des Menschlichen betrachtet haben?4
Menschen haben sich in der Geschichte immer wieder als unfähig erwiesen, der Versuchung des Chronozentrismus zu widerstehen – dem Irrglauben, dass gerade ihre Epoche von überragender historischer Bedeutung sei. Es ist durchaus möglich, dass auch heutige Prognosen, nach denen KI entweder das Ende der Menschheit oder zumindest das Ende ihrer Vorherrschaft als mächtigste Spezies auf der Erde bedeuten könnte, nur ein weiteres Beispiel für diesen Denkfehler sind.
Dennoch wäre es ein Fehler, eine solche Möglichkeit vorschnell auszuschließen. Ich halte apokalyptische Vorhersagen, wonach das Ende der Menschheit unmittelbar bevorsteht, zwar für überzogen – doch drei Dinge sind mittlerweile unbestreitbar:
Erstens beginnen die leistungsfähigsten KI-Modelle, menschlicher Intelligenz ernsthaft Konkurrenz zu machen. Zweitens macht das Feld der mechanischen Robotik – von humanoiden Robotern bis hin zu selbstfahrenden Autos – rapide Fortschritte. Und drittens ist das sogenannte Alignment-Problem, also die Herausforderung, sicherzustellen, dass Künstliche Intelligenz stets den menschlichen Anweisungen folgt und niemals Schaden anrichtet, nach wie vor weit davon entfernt, gelöst zu sein.
Die Wahrscheinlichkeit einer Katastrophe (p(doom)) mag nicht besonders hoch sein – aber sie ist auch nicht verschwindend gering.
Unser Nachdenken über Ethik – sowohl in der öffentlichen Debatte als auch im „professionellen“ Bereich – ist kaum darauf vorbereitet, die Fragen zu beantworten, die Künstliche Intelligenz aufwirft. Hier ist eine der vielen Fragen, an denen ich mir den Kopf zerbreche – bislang ohne viel Erfolg:
Es ist offensichtlich, dass wir Menschen ein Interesse daran haben, zu verhindern, dass KI die Kontrolle übernimmt. Eine gewisse Parteilichkeit in moralischem Denken ist unvermeidlich – vielleicht sogar wünschenswert. Als Menschen müssen wir die Zukunft der Menschheit verteidigen.
Aber was genau wäre die Tragödie, wenn unsere Spezies durch hyperintelligente Maschinen ersetzt werden würde? Würde eine solche Welt bedeutungslos sein, bevölkert von Wesen ohne Bewusstsein – und damit ohne Freude, Wahrnehmung oder moralischen Wert? Oder könnte eine solche KI in ihrer eigenen, völlig andersartigen Weise eine neue Form des Lebens darstellen – eine, die einen eigenen Wert besitzt? Könnten wir in ihrer Erschaffung vielleicht sogar einen Funken Stolz empfinden – selbst während wir unseren eigenen Untergang betrauern?
Da ich kein technischer Experte bin – und um die Nützlichkeit von KI zu veranschaulichen –, bat ich DeepSeek um Hilfe bei der Überprüfung der Genauigkeit und einer präziseren Formulierung der letzten vier Sätze. Mein ursprünglicher Entwurf lautete:
„Drittens ist DeepSeek ebenso bemerkenswert für die Art seiner Entwicklung wie für seine Leistungsfähigkeit. DeepSeek hat zentrale technische Aspekte verändert, etwa indem das Modell angewiesen wird, phraseweise statt wortweise zu arbeiten, und indem eine Methode entwickelt wurde, mit der nur die relevantesten Teile des Modells aktiv bleiben, während andere beim Beantworten von Fragen inaktiv bleiben – im Wesentlichen eine Art der Aufgabenverteilung innerhalb des Systems, bei der die bestgeeigneten Teile jeweils die anfallende Arbeit übernehmen.“
Das bedeutet jedoch nicht, dass wir die Behauptung, das Modell habe nur 6 Millionen Dollar in der Entwicklung gekostet, einfach ungeprüft hinnehmen sollten. Zum einen spiegelt diese Zahl wahrscheinlich vor allem die Kosten für den Stromverbrauch und andere zentrale Ressourcen wider – nicht aber die Gehälter der Mitarbeiter oder die sonstigen Betriebskosten. Zum anderen ist es derzeit unmöglich zu überprüfen, ob die tatsächlichen Kosten dieser technischen Inputs möglicherweise bewusst niedriger angegeben wurden, um einen bestimmten Eindruck zu erzeugen.
Sigmund Freud identifizierte auch eine dritte große Blamage: seine eigene Entdeckung des Unbewussten, die zeigte, dass wir nicht einmal die vollständige Kontrolle über unser eigenes Denken haben. Doch das erschien mir immer als ein ziemlich grandioses Stück Selbstvermarktung – eine Übertreibung der vermeintlich welthistorischen Bedeutung seines eigenen Werks.
Ich plane, diese Beobachtung in den kommenden Wochen ausführlicher zu behandeln.
Dieser Text wurde mit Hilfe von KI übersetzt und von Niya Krasteva redigiert.