18,99 €
Künstliche Intelligenz ist allgegenwärtig: in Politik, Nachrichten, Werbung, Apps, aber auch in Gesprächen mit Familie und Freunden. Seit OpenAi ChatGPT im November 2022 veröffentlichte, ist ein neues Zeitalter angebrochen. Aber was bedeutet das Wachstum der KI für den Finanzmarkt? In diesem wichtigen Buch zeichnet der Wall-Street-Veteran und ehemalige Berater des Verteidigungsministeriums James Rickards ein umfassendes Bild der Gefahr, die KI für die globale Finanzordnung und die nationale Sicherheit darstellt. Er zeigt, dass KI wesentliche Eigenschaften wie Instinkt, Risikobereitschaft, Verstand und Einfühlungsvermögen fehlen, die es braucht, um den weltweiten Finanzmarkt zu regeln und die Sicherheit vor Cyberkriminalität und Deepfakes zu gewährleisten. MoneyGPT ist ein Appell, die Gefahren der Künstlichen Intelligenz rechtzeitig zu erkennen und mit menschlicher Logik und gesundem Menschenverstand einzuschreiten.
Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:
Seitenzahl: 305
Veröffentlichungsjahr: 2025
James Rickards
MoneyGPT
Wie KI die globale Wirtschaft und die nationale Sicherheit bedroht
Bibliografische Information der Deutschen Nationalbibliothek:
Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie. Detaillierte bibliografische Daten sind im Internet über https://dnb.de abrufbar.
Für Fragen und Anregungen:
Wichtiger Hinweis
Ausschließlich zum Zweck der besseren Lesbarkeit wurde auf eine genderspezifische Schreibweise sowie eine Mehrfachbezeichnung verzichtet. Alle personenbezogenen Bezeichnungen sind somit geschlechtsneutral zu verstehen.
1. Auflage 2025
© 2025 by Finanzbuch Verlag, ein Imprint der Münchner Verlagsgruppe GmbH
Türkenstraße 89
80799 München
Tel.: 089 651285-0
Die englische Originalausgabe erschien 2024 bei Portfolio/Penguin unter dem Titel MoneyGPT: AI and the threat to the global economy. © 2024 by James Rickards. All rights reserved.
Alle Rechte, insbesondere das Recht der Vervielfältigung und Verbreitung sowie der Übersetzung, vorbehalten. Kein Teil des Werkes darf in irgendeiner Form (durch Fotokopie, Mikrofilm oder ein anderes Verfahren) ohne schriftliche Genehmigung des Verlages reproduziert oder unter Verwendung elektronischer Systeme gespeichert, verarbeitet, vervielfältigt oder verbreitet werden. Wir behalten uns die Nutzung unserer Inhalte für Text und Data Mining im Sinne von § 44b UrhG ausdrücklich vor.
Übersetzung: Karsten Petersen
Redaktion: Ulrich Wille
Umschlaggestaltung: Karina Braun
Umschlagabbildung: Adobe Stock/the7dew, Vector Tradition, Andrii A
Satz: abavo GmbH, Buchloe
eBook: ePUBoo.com
ISBN Print 978-3-95972-812-6
ISBN E-Book (EPUB, Mobi) 978-3-98609-202-3
Weitere Informationen zum Verlag finden Sie unter
www.finanzbuchverlag.de
Beachten Sie auch unsere weiteren Verlage unter www.m-vg.de.
Zum Gedenken an meine Eltern,Richard und Sarah,in Liebe und einer Schuld, die ich nie zurückzahlen kann
Wenn es Abend wird, sagt ihr: Es kommt schönes Wetter; denn der Himmel ist feuerrot. Und am Morgen sagt ihr: Heute kommt schlechtes Wetter, denn der Himmel ist feuerrot und trübt sich ein. Das Aussehen des Himmels wisst ihr zu beurteilen, die Zeichen der Zeit aber könnt ihr nicht beurteilen.
Matthäus 16,:2–3
Das Wissen ist in der Form einer für die Produktionspotenz unentbehrlichen informationellen Ware zunehmend ein bedeutender, ja vielleicht der wichtigste Einsatz im weltweiten Konkurrenzkampf um die Macht. Es ist denkbar, daß die Nationalstaaten in Zukunft ebenso um die Beherrschung von Informationen kämpfen werden, wie sie um die Beherrschung der Territorien und dann um die Verfügung von und Ausbeutung der Rohstoffe und billigen Arbeitskräfte einander bekämpft haben. So findet sich ein neues Feld für industrielle und kommerzielle sowie militärische und politische Strategien eröffnet.
Jean-François Lyotard, Das postmoderne Wissen: Ein Bericht (1979/1994)1
Seit den 1950er-Jahren entwickelt sich künstliche Intelligenz (KI), allerdings mit uralten Vorläufern und fiktionalen Vorboten, etwa Mary ShelleysFrankenstein. Dagegen ist die GPT-Technologie (kurz für »generative pre-trained transformer«) eine echte Innovation. Im Laufe der Jahre 2017 bis 2022 tauchte sie still und leise in Apps wie GPT-2 und GPT-3 von OpenAI auf. Aber dann brach sie plötzlich wie eine Supernova über die Szene herein, als OpenAI am 30. November 2022 die App »ChatGPT« veröffentlichte, einen frei zugänglichen Chatbot. Die auf dem neuen Sprachmodell GPT-4 basierende App hatte innerhalb von zwei Monaten 100 Millionen User. Die App, die am zweitschnellsten die Marke von 100 Millionen Nutzern erreichte, war TikTok, das neun Monate brauchte, um das zu schaffen. Instagram, die App, die am drittschnellsten von den Usern angenommen wurde, brauchte dafür 30 Monate. Der GPT-4-Chatbot ist also nicht nur eine neuartige Technologie, sondern wurde auch in atemberaubender Geschwindigkeit vom Publikum angenommen.
Der intellektuelle Durchbruch, der die Tür für GPT-Anwendungen öffnete, war der 2017 erschienene Aufsatz »Attention Is All You Need« von Ashish Vaswani und Kollegen. Darin schlugen die Autoren eine neue Netzwerkarchitektur vor, die sie »The Transformer« nannten und die in der Lage ist, die für das Generieren von Text erforderlichen Wortassoziationen parallel zu verarbeiten, anstatt wie zuvor auf rekurrente Pfade durch neuronale Netze angewiesen zu sein. Im Klartext bedeutet das, dass der Transformer zahlreiche Wortassoziationen auf einmal betrachtet, nicht eine nach der anderen. Das Wort »Attention« (»Aufmerksamkeit«) im Titel des Aufsatzes bezieht sich auf die Tatsache, dass das Modell aus seinem Trainingsmaterial lernen und ohne starre Regeln eigenständig sinnvolle Wortfolgen produzieren kann. Bei gleicher Rechenleistung schafft das Modell in kürzerer Zeit mehr Arbeit. Dann wurde der Transformer mit bereits vorhandenen Technologien kombiniert, mit Natural Language Processing (NLP, Verarbeitung natürlicher Sprache), maschinellem Lernen und Deep Learning (maschinellem Lernen mithilfe von tiefer liegenden Ebenen des neuronalen Netzes, die Input für höhere Ebenen liefern). Plötzlich war das Generieren grammatisch korrekter Texte als Antwort auf in natürlicher Sprache gestellte Fragen in Reichweite.
Die Fortschritte von GPT-1 (2018) zu GPT-2 (2019) und GPT-3 (2020) wurden hauptsächlich dadurch erreicht, dass die Zahl der Parameter – der Elemente, die ein System definieren –, die das Modell verwenden kann, und die Größe der Large Language Models (LLM, »große Sprachmodelle«) – der Textmenge, mit der das Modell trainieren kann – erhöht wurden. GPT-1 hatte 117 Millionen Parameter. GPT-2 hatte 1,5 Milliarden Parameter. GPT-3 hatte 175 Milliarden Parameter. GPT-4 hat schätzungsweise 1,7 Billionen Parameter und ist damit tausendmal größer als GPT-3.
Parallel zu dieser exponentiellen Ausweitung der Parametermenge kam es zu einer ebenso großen Expansion des Volumens der Trainingsmaterialien. GPT-3 und GPT-4 hatten über einen Datenbestand, der von einer Organisation namens »Common Crawl« zusammengetragen worden war, Zugriff auf das gesamte Internet (etwa 45 Terabyte in einem 2019 erfassten Sample). Dieses Volumen war so gewaltig, dass es auf eine nützlichere Größe von etwa 570 Gigabyte zurechtgestutzt werden musste. Das Hochskalieren von Parametermenge und Trainingsset ging einher mit einem Leistungssprung bei den Grafikprozessoren (GPUs), etwa dem Nvidia B200 Blackwell, der sowohl für mathematische Berechnungen als auch für das Generieren von grafischen Darstellungen eingesetzt werden kann.
Selbst für Silicon-Valley-Verhältnisse vollzog sich die Entwicklung von GPT außerordentlich schnell und dynamisch. Die Welt der Informationstechnologie und der Mensch-Computer-Interaktion hat sich vor unseren Augen grundlegend verändert.
Dennoch lohnt es sich, darüber nachzudenken, ob GPT Inhalte produziert, die der realen Welt entsprechen. Erzeugt generative KI über bereits existierende KI-Tools hinaus – etwa Suchabfragen, Rechtschreibprüfung und Wortvorschläge beim Verfassen von Texten – einen echten Mehrwert?
Im Sommer 2023 veröffentlichte Foreign Policy, eine der führenden Zeitschriften für US-Außenpolitik, eine faszinierende Übung zu der Frage, ob ein GPT-4-Chatbot (in Form der Premiumversion ChatGPT Plus) in der Lage sei, ein geopolitisches Essay über den Konflikt in der Ukraine zu schreiben, und zwar unter besonderer Berücksichtigung der Annexion der Halbinsel Krim durch Russland.2 Neben den von ChatGPT produzierten Aufsatz wurde ein zweites Essay zum selben Thema gestellt, das eine Undergraduate-Studentin verfasst hatte. Beide Texte wurden unter Weglassung der Identität des Autors veröffentlicht. Die Aufgabe bestand darin, beide Essays zu lesen und zu sehen, ob man erkennen konnte, welchen Text der Computer generiert und welchen der Mensch verfasst hatte.
Ich konnte die GPT-4-Version (Essay 1) schon am ersten Satz erkennen, ohne die von dem Menschen verfasste Version (Essay 2) überhaupt gelesen zu haben. Und zwar, weil der Computer als Einleitung für Russlands Aktion ein überstrapaziertes Klischee verwendet hatte: »In dem geopolitischen Schachspiel …«. Zudem wurde im selben Satz Russlands Angriff als »bedeutende Verschiebung der Machtdynamik« bezeichnet. Klischees haben durchaus ihren Platz – ich verwende sie manchmal selbst –, aber zwei davon im ersten Satz sind ein untrügliches Zeichen dafür, dass ein Roboter, der mit vielen Millionen Seiten geopolitischer Texte trainiert hatte, in eine literarische Sackgasse geraten war. Dagegen begann das Essay des Menschen mit diesem Satz: »Russlands Annexion der Krim, einer ehemals ukrainischen Halbinsel, war die größte Landnahme seit dem Ende des Zweiten Weltkriegs.« Nicht gerade elektrisierend, aber doch erklärend, sachlich und informativ. Keine Klischees.
Davon abgesehen war der Aufsatz des Roboters gut verständlich geschrieben, grammatisch richtig und informativ, wenn auch immer wieder Klischees wie »den Weg geebnet«, »Ansteckung« oder »Dominoeffekt« und »Machtvakuum« auftauchten. Wichtig war, dass der von dem Roboter verfasste Aufsatz logisch aufgebaut war: Er begann mit dem russischen Angriff auf die Krim, erwähnte die schwache internationale Reaktion, deutete an, dass diese schwache Reaktion Russland ermutigt haben könnte, den Konflikt auszuweiten, und kam dann zu dem Schluss, dass diese Schwäche schließlich zu dem größeren Krieg geführt habe, der heute im Gang ist. Der rote Faden war, dass jede Phase dieser Sequenz »Bestandteil eines übergeordneten Musters russischer Aggression« war.
Der Aufsatz des Menschen ging in eine ähnliche Richtung, ließ allerdings eine breitere Perspektive und differenziertere Analyse erkennen. Darin hieß es, dass Russlands Annexion der Krim »eine universelle, internationale Übereinkunft missachtete, die in der zweiten Hälfte des 20. Jahrhunderts gegolten hatte: Jedes souveräne Land hat Anspruch auf seine territoriale Integrität.« Von da an folgte die Autorin der Version des Roboters, die besagte, dass die internationale Reaktion schwach gewesen sei, diese Reaktion weitere russische Aggression gefördert habe und das Endergebnis der ausgewachsene Angriffskrieg gegen die Ukraine sei, den Russland jetzt führe. Die menschliche Autorin zeigte Sachverstand, indem sie auf die »Salamitaktik« der Russen hinwies, die darin bestand, die Donbass-Region nach und nach in kleineren Geländeabschnitten einzunehmen, bevor sie eine groß angelegte Invasion starteten. Das Essay der Studentin ließ eine fundiertere Weltsicht und bessere analytische Fähigkeiten erkennen, aber der Aufsatz des Roboters war durchaus passabel. Wollte man beide Texte nach längst vergangenen Maßstäben benoten, könnte man dem Roboter eine 3+ geben und der Studentin eine solide 2.
Keine dieser vergleichenden Anmerkungen berührt das, was an beiden Essays am interessantesten ist – nämlich in welch hohem Maße sie beide unzulänglich sind. In keinem der Essays wird George W. Bushs 2008 in Bukarest gemachte Ankündigung erwähnt, dass sowohl die Ukraine als auch Georgien »Mitglieder der NATO werden«. In keinem der Essays wird erwähnt, dass Russland nur vier Monate nach dem Bukarester Gipfel in Georgien einmarschierte, was zeigte, dass Bush und die NATO eine rote Linie überschritten hatten. Der Umstand, dass ein Teil der Ukraine östlich von Moskau liegt – einer Stadt, die seit Dschingis Khan nicht mehr vom Osten her angegriffen worden war –, wurde nicht anerkannt. Der von der Central Intelligence Agency (CIA, US-Auslandsgeheimdienst) unterstützte Volksaufstand auf dem Majdan Nesaleschnosti, dem »Platz der Unabhängigkeit«, in Kiew im Jahr 2014, mit dem der ordnungsgemäß gewählte Präsident Wiktor Janukowytsch abgesetzt wurde, war ignoriert worden. Abgesehen davon unterlässt es die menschliche Autorin, auf den Widerspruch zwischen ihrem Verweis auf die »territoriale Integrität« der Ukraine und die US-Invasion im Irak im Jahr 2003 einzugehen.
Kurzum, der Krieg in der Ukraine hat wenig mit Russlands Expansion, geopolitischen Ambitionen oder Salamitaktik zu tun. Der Krieg ist eine Reaktion auf 15 Jahre Provokationen des Westens. Wie konnten der Roboter und die Studentin die Vorgeschichte des Konflikts außer Acht lassen, die Provokation durch die USA ignorieren und die Ursachen des russischen Verhaltens falsch deuten? In Bezug auf die Studentin können wir die Mainstream-Medien verantwortlich machen. Was den Chatbot angeht, können wir das kritisieren, was GPT-Programmierer als das »Trainingsset« bezeichnen. Dabei handelt es sich um die schriftlichen Materialien, die der Chatbot online scannt und dann verwendet, um die Deep-learning-neuronalen-Netze zu befüllen, die seine Algorithmen nutzen, um Output zu generieren. Die Studentin können wir damit entschuldigen, dass sie mehr Erfahrung beim Analysieren von politischen Zusammenhängen braucht. Den Roboter brauchen wir nicht zu entschuldigen: Er hat genau das getan, wofür er programmiert wurde, und ein Essay im Stil eines menschlichen Autors verfasst. Die analytischen Unzulänglichkeiten in seinem Essay sind nicht auf den Roboter oder dessen Algorithmen zurückzuführen, sondern auf ein sehr tendenziöses Trainingsset, das auf Berichterstattung aus der New York Times, der Washington Post, von NBC News, aus der Financial Times, von The Economist und anderen führenden Nachrichtenmedien beruhte.
Der von Foreign Policy durchgeführte Essay-Vergleich wirft ein Schlaglicht auf die eigentliche Schwäche von GPT. Die eingesetzte Prozessorleistung ist immens. Das dem Trainingsset zugrunde liegende Textmaterial ist unvorstellbar umfangreich. Die Deep-learning-neuronalen-Netze sind gut konstruiert. Die Parallelverarbeitung im Stil des Transformers ist verbesserungsbedürftig. Sie wird auf jeden Fall besser werden, da GPT-Systeme über selbstlernende Funktionen verfügen. Wie gesagt war das Essay des Roboters grammatisch richtig und logisch aufgebaut. Das Problem bestand darin, dass der Roboter mit einer langen Reihe von Propagandatexten trainiert worden war, die von westlichen Medien stammten. Wenn ein Roboter mit Propaganda trainiert wird, reproduziert er diese Propaganda. Man sollte kein anderes Ergebnis erwarten. Das ist die eigentliche Schwäche von GPT.
KI ist inzwischen etabliert und wird rapide immer besser. Die GPT, ein Zweig der KI, ist noch neu, aber sehr leistungsfähig und auch für Menschen, die mit der zugrunde liegenden Wissenschaft wenig anfangen können, leicht zugänglich. KI-Roboter wie Siri, Alexa oder das Navigationssystem in Ihrem Auto, die alle mit Spracherkennungssoftware ausgestattet sind und sprechen können, sind schon jetzt so etwas wie Freunde. Die klobig aussehenden Augmented-Reality- und Virtual-Reality-Headsets von Meta, dem Facebook-Mutterkonzern, erfreuen sich wachsender Beliebtheit. Headsets, die Facebook direkt von der Innenseite der Brillengläser auf die Netzhaut übertragen, sind bereits erhältlich. Ihr Backofen, Ihr Geschirrspüler und Ihr Kühlschrank haben alle KI eingebaut, um Ihnen mitteilen zu können, wie sie sich fühlen. GPT nimmt eine Sonderstellung ein, weil sein Output nicht darauf beschränkt ist, eine Temperatur einzustellen oder YouTube-Videos zu streamen. Es kann grammatisch richtige und sehr lange Texte schreiben und wird schon heute eingesetzt, um Pressemitteilungen und Newsreader-Drehbücher zu produzieren.
Dieses Buch geht auf die Herausforderung ein, die KI/GPT mit sich bringt, und untersucht, wie diese Technologie sich auf zwei Bereiche auswirkt, die für den US-Alltag von größter Bedeutung sind – das Finanzwesen und die nationale Sicherheit. Natürlich gibt es zahllose Möglichkeiten, KI/GPT sowohl im Börsenhandel als auch im Bereich Bankdienstleistungen einzusetzen, um effizienter zu werden, den Kundenservice zu verbessern und bei Finanzdienstleistern die Kosten zu senken. Schon heute gibt es Hedgefonds, die GPT nutzen, um Aktien auszuwählen und Wechselkurse zu prognostizieren. Darauf gehen wir in Kapitel 1 näher ein und dann werden wir uns auch ansehen, welche Gefahren Roboter-gegen-Roboter-Szenarien mit sich bringen können, in denen sich rekursiver Handel entwickelt, der Märkte auf Arten zum Absturz bringen kann, welche die Marktteilnehmer selbst nicht verstehen. Einen Vorgeschmack darauf bekamen wir am 19. Oktober 1987, als der Börsenindex Dow Jones Industrial Average an einem Tag um mehr als 20 Prozent einbrach – beim heutigen Niveau des Index von etwa 40 000 Punkten entspräche das einem Rückgang um 8000 Punkte. Ursache des Crashs war eine Portfolioversicherung, bei der die Anbieter dieser Versicherungen Put-Optionen kauften, um sich gegen einen einsetzenden Kursrückgang abzusichern. Die Verkäufer der Optionen verkauften daraufhin Aktien, um ihre Positionen abzusichern, was zu weiteren Kursrückgängen führte, die wiederum weitere Käufe von Verkaufsoptionen nach sich zogen – und so weiter und so fort, bis die Märkte in eine Todesspirale abstürzten. Dieser Absturz war nicht annähernd in so hohem Maße auf automatisierte Abläufe zurückzuführen, wie es heute der Fall wäre, da er stattfand, bevor im Börsenhandel KI eingeführt wurde. Doch die Dynamik, dass Verkäufe zu weiteren Verkäufen führen können, gibt es nach wie vor und sie wird durch KI/GPT-Systeme nur noch verstärkt. Mittlerweile im Börsenhandel eingeführte »circuit breakers« (Volatilitätsunterbrechungen) bieten eine Auszeit, aber mehr auch nicht – Roboter lassen sich nicht so leicht zähmen wie Menschen.
Die Themen der Kapitel 2 und 3 gehen über die Kapitalmärkte (Aktien, Anleihen, Rohstoffe, Devisen) hinaus und beschäftigen sich mit dem Bankgeschäft (Kredite, Einlagen, Eurodollars und Derivate). Beide Sektoren sind anfällig für Paniken, aber die Dynamiken sind unterschiedlich – an den Kapitalmärkten treten Paniken ganz plötzlich auf und sind sehr öffentlich sichtbar. Paniken im Bankgeschäft bauen sich langsam auf und sind für Einleger und Aufsichtsbehörden in den meisten Fällen nicht sichtbar, bis es zu einer ausgewachsenen Liquiditätskrise kommt. Manchmal verschmelzen diese beiden Arten von Panik, zum Beispiel wenn der Zusammenbruch einer Bank zu Panikverkäufen am Aktienmarkt führt oder umgekehrt. Wir analysieren diese Unterschiede und zeigen, wie KI/GPT-Systeme ohnehin schon prekäre Strukturen noch anfälliger machen können.
Die Gefahren künstlicher Intelligenz sind nicht auf unbeabsichtigte Folgen beschränkt. Die Finanzmärkte ziehen Kriminelle und böswillige Akteure an, die Paniken erzeugen, um von ihnen zu profitieren. Das tun sie zum Beispiel, indem sie Texte über Social Media, Agenturmeldungen und Mainstream-Nachrichtenmedien verbreiten. Der GPT-Roboter wird Texte in sich hineinschlingen, ganz so, wie es ihm antrainiert wurde. Durch Parametrisierung werden dabei die aktuellsten oder am wirkmächtigsten formulierten Inhalte übergewichtet werden. Die Roboter werden auf imitierten Newsmeldungen basierende Trading-Empfehlungen produzieren, die zu vorhersehbaren Entwicklungen auf den Märkten führen. Die böswilligen Akteure werden sich vorher so positioniert haben, dass sie von der spontanen Marktreaktion profitieren. Doch damit wird der Ablauf der Ereignisse noch nicht beendet sein; in einer solchen Roboter-gegen-Roboter-Welt hat keiner genug Informationen oder Rechenleistung, um vorhersagen zu können, was als Nächstes passieren wird.
Die Aussicht auf ein ungewolltes oder gewolltes Chaos auf den Kapitalmärkten und im Bankgeschäft geht über in den Bereich von nationaler Sicherheit, wo mehr auf dem Spiel steht. Sowohl staatliche als auch nichtstaatliche Akteure in diesem Bereich verfügen über größere Ressourcen als Marktmanipulatoren. Unter staatlichen Gegenspielern liegen böswillige Absichten in der Natur der Sache. Die Motivationen von nichtstaatlichen Akteuren reichen von Finanzen über Ideologie bis hin zu politischem Nihilismus. Manche nichtstaatlichen Akteure sind kaum maskierte Agenten von Staaten. Die Szene ist inhärent undurchsichtig. Das, was Geheimdienstexperten als »wilderness of mirrors« (»Spiegelkabinett«) bezeichnen, wird noch verwirrender, wenn man es durch Smartglasses (eine Datenbrille) betrachtet.
Der Übergang von kinetischen Waffen hin zu finanziellen Sanktionen als primärem Kriegsschauplatz ist in vollem Gange. Raketen, Minen und Mörser mögen an der Front eingesetzt werden, aber auch Exportverbote, die Beschlagnahme von Vermögenswerten und sekundäre Boykotte sind entscheidende Teile des Schlachtfelds. Wenn man die Wirtschaft eines Gegners vernichten kann, ohne einen einzigen Schuss abzufeuern, ist das für politische Entscheidungsträger der bevorzugte Weg. Selbst wenn sämtliche Waffen zum Einsatz kommen, ist auf lange Sicht die industrielle und finanzielle Kapazität hinter den Waffenarsenalen entscheidend. Zwischen dem Finanzwesen einerseits und der nationalen Sicherheit andererseits bestehen enge Verflechtungen, die eine entscheidende Rolle spielen können.
KI/GPT kommt auf diesem Schlachtfeld auf drei verschiedenen Wegen zum Einsatz. Der erste ist die Anwendung von smarten Systemen an vorderster Front in den Bereichen Aufklärung, Überwachung, Zielerfassung, Telekommunikation, Störfunk, Logistik, Design von Waffen und anderen traditionellen Aktionsfeldern. Der zweite ist der Einsatz von KI/GPT zur Optimierung von Finanzsanktionen, indem man die Auswirkungen von Ölembargos, Exportverboten für Halbleiter, dem Einfrieren von Vermögenswerten, Beschlagnahmungen, Versicherungsverboten und anderen Instrumenten zur Schwächung oder Zerstörung der wirtschaftlichen Kapazität eines Gegners analysiert. Und schließlich kann KI/GPT offensiv eingesetzt werden, um Märkte nicht nur zu behindern, sondern sie völlig zu zerstören. In diesem Fall wäre das Ziel nicht, durch Sanktionen Kosten zu verursachen, sondern Märkte auf eine Art und Weise zu zerstören, die die Bürger viele Billionen Dollar an verlorenem Wohlstand kosten würde. Die Folgen würden über die Vernichtung von Vermögenswerten hinausgehen, wenn die Bürger zunehmend ihre eigenen Regierungen für das finanzielle Gemetzel verantwortlich machen würden. Diese Welt werden wir uns in Kapitel 4 ansehen, unter besonderer Beachtung der Gefahren eines Atomkriegs als Folge des Einsatzes von KI.
In Kapitel 5 befassen wir uns mit den beunruhigendsten Aspekten von KI/GPT: Zensur, Bias (Tendenziosität oder Voreingenommenheit) und Konfabulation – das Erzeugen von komplett erfundenen Inhalten als Service für den Anwender. Dieses Problem geht tiefer als das, was manche Beobachter als »KI-Halluzinationen« bezeichnen. Menschliche Halluzinationen sind komplex und kreativ, doch für das, was KI/GPT hervorbringt, ist »Konfabulation« – eine Art Geisteskrankheit – eine bessere Metapher. Beim Konfabulieren erzählt der Protagonist eine frei erfundene Geschichte mit narzisstischen Zügen und geringer Relevanz. Es handelt sich dabei um eine Art mentales Modul, das immer dann hervorgeholt werden kann (und wird), wenn der Sprecher aufgeregt ist, kritisiert wird oder aus anderen Gründen nicht weiß, was er sagen soll. Es ist nicht dasselbe wie Lügen, denn der Sprecher weiß nicht, dass er lügt, da es ihm an Selbstbewusstheit mangelt.
Eine GPT-App wird beim Verfassen eines Reports das Gleiche tun, wenn sie aus Gründen der Kontinuität oder Vollständigkeit eine Lücke füllen muss. Es ist ungefähr so, als würde ein Mensch das fehlende Teil eines Puzzles durch ein selbst gebasteltes Teil ersetzen. Auch in solchen Fällen wird nicht gelogen, weil die App keine Ethik oder Moral kennt; sie ist eine Maschine und nicht in der Lage, die für eine Lüge erforderliche böse Absicht zu entwickeln. Ein Experte für das betreffende Thema kann die erfundenen Teile in einem generierten Report vielleicht erkennen, doch die meisten Anwender werden das nicht können. Wenn man Experten für das betreffende Thema braucht, um die Fehler im KI/GPT-Output zu erkennen, wozu sollen solche Systeme dann überhaupt gut sein?
Das Thema Werte und Ethik ist sogar noch problematischer. Jeder Wissenschaftler und Entwickler im KI/GPT-Bereich betont, wie wichtig Werte und Ethik sind. Sie alle bestehen darauf, dass Desinformation und Fehlinformationen abgeblockt werden müssen. Sie wollen verhindern, dass neue tendenziöse Verzerrungen entstehen und bereits vorhandene kompensieren. Sie suchen nach Möglichkeiten, Datenbestände zu säubern und Algorithmen zu programmieren, die verhindern können, dass Trainingssets und GPT-Output mit Voreingenommenheiten infiziert werden. Sie wollen in KI/GPT-Apps und -Output bestimmte Werte fördern.
Diese ostentative Ethik ignoriert die schwierigen Fragen: Wessen Werte sollen denn gefördert werden? Die meisten sogenannten Desinformationen aus der jüngeren Vergangenheit haben sich im Nachhinein als richtig erwiesen, während die Leute, die sie ablehnten, falsche Narrative verbreiteten. Der Kampf gegen Bias setzt voraus, dass die vermeintlichen Hüter der Wahrheit, die sogenannten Gatekeeper, keine eigenen Voreingenommenheiten mitbringen, und ignoriert die Tatsache, dass Voreingenommenheit eine wertvolle Überlebenstechnik ist, die nie verschwinden wird. Der Begriff »Vielfalt« ist zu einem Codewort für »Homogenität der Meinungen« geworden. Diskriminierung ist nützlich, wenn sie eingesetzt wird, um das Wilde und Unzivilisierte herauszufiltern. Warum sollte man KI-Gatekeepern wie Google und Meta vertrauen, wenn sie die vergangenen zehn Jahre der Mission widmeten, falsche Narrative über Covid-19, den Klimawandel und Politik zu verbreiten, während sie die Leute, welche die Wahrheit sprachen, von ihren Plattformen verbannten und dämonisierten? Und in einem größeren Maßstab betrachtet: Wenn die GPT-Trainingssets durch die Unwahrheiten der Mainstream-Medien kontaminiert sind, warum sollte der GPT-Output dann anders sein? Diese Herausforderungen müssen aus intrinsischen Motiven angegangen werden und auch, weil sie sich auf den Einsatz von KI in vielen Anwendungsbereichen in der realen Welt auswirken.
Dieses Buch endet mit der Hoffnung, dass die Schwächen und Gefahren von KI/GPT erkannt werden, bevor die vermeintlichen Annehmlichkeiten der neuen Technologie die digitale Landschaft dominieren. Die Menschen werden sich entscheiden müssen, ob der Komfort einer Alexa, die auf Zuruf das Licht ausschalten kann, es wert ist, ein Abhörgerät im Wohnzimmer zu haben, das rund um die Uhr sämtliche persönlichen Gespräche an ein Kontrollzentrum übermittelt. Ist die Annehmlichkeit von Apps der generativen KI die falschen Narrative wert, die aufgrund von tendenziösen Trainingssets, verpfuschten Bias-Säuberungsaktionen und monatlich wechselnden Wertvorstellungen verbreitet werden? Es ist durchaus möglich, das Beste aus KI/GPT zu nehmen und doch die Propagandisten ins Abseits zu verbannen. Altbewährte Werte werden die Oberhand behalten, wenn sie durch eine humanistische Perspektive, Vertrauen in der Community und Selbstvertrauen gestützt werden. Wir sind keineswegs hilflos. Dieses Buch zeigt einen Weg in die Zukunft.
Kapitel 1
Haben sich also Alexa und Siri verschworen, die Erde zu übernehmen? Mag sein. Aber falls ja, sollten wir es nicht persönlich nehmen. Es sind ja nur Gradienten.
Kenneth Wenger, Is the Algorithm Plotting against Us? (2023)3
So sieht das Ende von Märkten aus:
Nick Mera betrat den Trading-Raum seines Family Office, wandte sich an seine Assistentin Sara und sagte: »Guten Morgen, Sara. Was gibt’s Neues?«
Sara antwortete: »Nicht viel. Die langfristigen Zinssätze sind immer noch hoch, steigen aber nicht mehr. Es gibt Spekulationen, dass sie ein Maximum erreicht haben könnten. Die kurzfristigen Zinsen sind leicht gestiegen; die Fed ist kein bisschen von ihrer Politik des knappen Geldes abgewichen. Die Inflationsrate scheint konstant zu bleiben; es gibt keine Anzeichen dafür, dass sie auf das Inflationsziel der Fed sinken könnte. Der Dollar-Index ist auf 106,52 gestiegen; das Pfund Sterling, der Euro und der Schweizer Franken sind alle leicht gefallen. Der Yuan ist wieder auf 7,67 zurückgegangen; der Yen ist an den Yuan gekoppelt, er ist auf 155,78 gestiegen. Der Ölpreis liegt unverändert bei 82,50 Dollar pro Barrel. Gold ist langweilig, bewegt sich immer noch in einem engen Band um 2 300 Dollar pro Feinunze. Die meisten industriellen Rohstoffe sind aufgrund des anhaltenden Abschwungs in China rückläufig; Kupfer liegt bei 3,40 Dollar. Agrarrohstoffe sind alle rückläufig, aber nicht sehr stark. Chinesische Aktien sind um 1 Prozent zurückgegangen, japanische Aktien ebenso. S&P-Futures sind um 0,5 Prozent gestiegen, der Nasdaq um 1 Prozent, wegen guter Gewinne und stabiler Zinsen trotz Anzeichen einer Rezession. Möchten Sie sonst noch etwas wissen?«
»Das reicht fürs Erste, danke.«
Nick konnte sämtliche Informationen, die ihm Sara berichtete, auch mit einem Blick auf seine Trading-Monitore erfassen, aber er zog es vor, den Tag mit einer Unterhaltung mit Sara zu beginnen. Sie konnte innerhalb von Minuten Millionen von Einzeldaten, Reports von Analysten, Newsmeldungen, Pressemitteilungen und Berichte von den Finanzmärkten abrufen; tatsächlich machte sie das auch ständig und war stets auf dem aktuellen Stand. Aufgrund dieser Daten und Backgroundinformationen sah sie blitzschnell, welche Märkte im Trend lagen, was sich nennenswert verändert hatte, wenn überhaupt, und was für Nick am interessantesten war (was sie aus den täglichen Gesprächen mit ihm ableitete). Sie konnte die Gründe für die Kursschwankungen vorläufig beurteilen, etwa die Kopplung zwischen Yuan und Yen oder den Zusammenhang zwischen stabilen Zinssätzen und höheren Aktienkursen. Sie hatte ihm nicht über den russischen Rubel berichtet, weil sie wusste, dass Nick sich dafür nicht interessierte; auf diesem Markt war er nicht aktiv. Falls sich das ändern sollte und er Interesse am Rubel zeigte, würde sie das sofort registrieren und ihm fortan auch darüber berichten. Sara war die ideale digitale Assistentin, mit einem vier Layer (Ebenen) tiefen neuronalen Netz und einer topaktuellen eigenen Version von GPT. Nick war froh, dass er nicht über Marktdaten nachdenken musste und sich auf andere Dinge konzentrieren konnte, einschließlich seines nächsten Trades. Auch damit kannte Sara sich aus.
»Na prima, okay, machen wir uns an die Arbeit. Ich glaube auch, dass die langfristigen Zinsen sehr bald fallen werden. Sie wurden von Momentum-Tradern und Arbitrageuren, die Treasury Notes [US-Staatsanleihen] gegen Swaps shorten, hochgehalten. Das Problem ist, dass die Banken ihren Appetit auf Swaps verlieren, selbst wenn diese nicht in der Bilanz stehen. Es ist schwierig, Sicherheiten für Swaps zu finden, weil Sicherheiten knapp sind; Swap-Spreads machen es notwendig, Treasurys zu halten, die dann in der Bilanz stehen. Dieses Spiel ist vorbei. Sobald die Zinssätze für Treasurys fallen, werden die Momentum-Jungs aussteigen und schon sind wir auf dem Weg zu einer Rallye. Ruf Goldman und Citi an, kauf zehn Millionen Treasurys mit zehn Jahren Laufzeit und finanzier sie mit Tagesgeld.«
Nick hätte Sara seine Einschätzung der Lage nicht zu erklären brauchen, er konnte einfach die Order aufgeben. Aber seine Erklärung gehörte zum Trainingsset. Aus seinen Erklärungen lernte Sara neue Muster, die sie in zukünftigen Analysen berücksichtigen konnte. Außerdem gefiel es Nick, jemanden zum Reden zu haben.
»Okay«, sagte Sara, machte eine Pause von vielleicht 30 Sekunden und meldete dann: »Erledigt.« Es war nicht klar, ob Saras Order auch auf der anderen Seite des Trades von einem Roboter abgewickelt wurde, aber es spielte keine Rolle. Nick hielt jetzt eine Position von 10 Millionen Dollar in Treasury Notes mit zehn Jahren Laufzeit. Er hatte einen negativen Carry, da die Tagesgeld-Finanzierungssätze höher waren als die Rendite bis zur Fälligkeit der Notes, aber Nick wettete darauf, dass die Anleihen selbst um 20 Prozent oder mehr zulegen würden, wenn die Zinsen sänken. Seine Kosten für die Sicherheiten für das Repo-Geschäft betrugen 2 Prozent, doch er hielt auch Cash gegen die Position. Seine »Leverage« (wörtlich »Hebelwirkung«, hier: Fremdfinanzierungsquote) betrug 10 zu 1 für den Trade. Wenn alles gut lief, konnte er eine Eigenkapitalrendite von 200 Prozent erzielen. Aber natürlich konnte sein Eigenkapital – und vielleicht auch noch mehr – sich in Luft auflösen, falls die Zinsen stiegen. »Willkommen in der wunderbaren Welt des Leverage«, dachte er.
Nick war nicht allein. Institutionelle Anleger und Hedgefonds schätzten die Lage ähnlich ein. Angesichts der Konjunkturflaute und der sinkenden Inflation waren die Zinssätze ohne gute Gründe hoch gewesen. »Don’t fight the Fed« ist einer der ältesten Slogans an der Wall Street, doch selbst die Fed hat hin und wieder das Handtuch geworfen. Falls sie sich darauf vorbereitete, die kurzfristigen Zinsen zu senken, würden die langfristigen Zinsen in der Luft hängen und abstürzen wie ein Stein im freien Fall. Zu Beginn des Handelstages gaben die langfristigen Zinsen nach, Anleihen erholten sich und Aktien begannen, aufwärts zu tendieren. Aktien und Anleihen konkurrieren um das Geld der Anleger und wenn die Renditen von Anleihen sinken, erscheinen Aktien vergleichsweise attraktiver. Das genügt, um am Aktienmarkt eine Rallye in Gang zu setzen.
Ein zwölfstöckiges Gebäude an der Datong Road in Shanghais Gewerbegebiet Pudong ist das Hauptquartier der People’s Liberation Army Unit 61398, auch bekannt als »APT1« (kurz für »Advanced Persistent Threat«), »Comment Group« oder »Byzantine Candor«. Der Name der Einheit ist weniger wichtig als ihr Auftrag: Sie ist das Nervenzentrum für Cyberangriffe der Kommunistischen Partei Chinas. Die Einheit ist bisher schon in vermeintlich sichere US-Server eingedrungen, hat Geschäftsgeheimnisse und geistiges Eigentum von Auftragnehmern der US-Regierung ausgespäht und Malware auf den Computer von Gegnern und Konkurrenten chinesischer Firmen installiert. Zu ihren erfolgreichen Aktionen zählen die »Operation GhostNet« und die »Operation Shady RAT«. Ihre erfolgreichsten Operationen sind bis heute unbekannt. Unit 61398 arbeitet eng mit Einheiten des chinesischen Ministeriums für Staatssicherheit zusammen. Wenn eine dieser anderen Einheiten einen Cyberangriff plant, wendet sie sich an Unit 61398, um ihn implementieren und durchführen zu lassen.
Oberst Huang Dailiang betrat die Kommandozentrale für Cyberangriffe und forderte seinen Roboter auf, ihn über die Lage an den Aktienmärkten vor Handelsbeginn an den New Yorker Börsen zu briefen.
»Futures zeigen eine leicht positive Tendenz, aufgrund von Erwartungen, dass die Zinssätze sinken werden«, antwortete der Roboter.
»Okay. Sag mir sofort Bescheid, wenn die Lage sich ändert. Wir brauchen einen ruhigen Tag, um die ›Operation Flash Hit‹ zu starten. Wir müssen uns beeilen, aber egal – wir brauchen Hilfe vom Markt selbst.«
Operation Flash Hit war ein von langer Hand geplanter Cyberangriff auf große US-Börsen. Sie war als Vergeltungsmaßnahme für die Wirtschaftssanktionen der USA gegen China, bei denen es um den Zugang zu Halbleitern und Hightech-Halbleiterfertigungsanlagen aus amerikanischer Produktion ging, konzipiert worden. Unit 61398 sollte in die Order-Erfassungssysteme großer US-Banken eindringen. Von dort aus wollte sie die Märkte mit Verkaufsaufträgen für Apple, Meta, Alphabet, Microsoft, Nvidia, McDonald’s und ein paar andere Aktien fluten. Die Performance des US-Aktienmarktes hatte sich auf einige wenige Namen verdichtet, sodass die Märkte sich am einfachsten zum Absturz bringen ließen, indem man sich auf eine kurze Liste von Aktien großer Konzerne konzentrierte. Die Flut von gefälschten Orders würde sehr bald aufgedeckt werden, aber bis dahin wäre der Schaden schon angerichtet. Für die Beamten der US-Börsenaufsicht würde es sehr schwierig werden, in kurzer Zeit die gefälschten von den echten Orders zu unterscheiden. Oberst Huangs Hinweis auf »Hilfe vom Markt« war etwas, was Militärstrategen einen »force multiplier« (»Wirkungsverstärker«) nennen. Wenn man einen steigenden Markt zum Abstürzen bringen will, kann ein zeitgleicher Aufwärtstrend die Verkäufe bis zu einem gewissen Grad auffangen. Wenn man aber mit einem solchen Manöver so lange wartet, bis der Markt von sich aus im Abwärtstrend ist, würden die eigenen gefälschten Verkaufsorders den Trend noch verstärken. Im besten Fall würde dann die Abwärtsdynamik sich selbst verstärken, wie es am 19. Oktober 1987 zu beobachten war. Oberst Huang war bereit, auf den Wirkungsverstärker zu warten – aber nicht lange.
In einem Penthouse mit Aussicht über die Bucht von Palma de Mallorca blickten Ronnie Krieg und Stefan Graz auf ihre Trading-Monitore und waren zufrieden mit dem, was sie sahen. Die Renditen von US-Staatsanleihen waren gestiegen und in einer vorhersehbaren Reaktion stiegen auch die Aktienkurse. Ronnie wandte sich an seinen Roboter Dunk, den er nach der Haartönung seiner Freundin benannt hatte.
»Ist das ein Wendepunkt? Gehen die Zinsen auf Talfahrt?«
»Ja, es scheint so weit zu sein«, antwortete Dunk. »An den Märkten wird schon seit Wochen darüber geredet. Es besteht ein breiter Konsens, dass die Zinssätze kurz vor einem Höchstwert waren. Alle haben auf einen Katalysator gewartet, um nicht zu früh einzusteigen. Der Katalysator kam aus dem vorbörslichen Handel in New York. Es brauchte nicht viel, um eine Rallye bei Aktien und Anleihen auszulösen, aber jetzt ist sie da und scheint an Fahrt aufzunehmen.«
Ronnie ärgerte sich darüber, dass Dunk solche Klischees benutzte, aber es war immer noch besser, als ständig nur auf den Bildschirm zu starren.
Ronnie und Stefan gingen hinaus auf die Dachterrasse mit Blick über die Bucht.
»Das könnte das sein, worauf wir gewartet haben«, sagte Ronnie. »Es hat sich ein Jahr lang angekündigt. Die Zinsen scheinen ein Maximum erreicht zu haben, Aktien sind seit Langem überbewertet und die Fundamentaldaten stützen weder das eine noch das andere. Ist es Zeit, unsere Aktion zu starten?«
»Ja«, sagte Stefan, »aber noch nicht sofort. Lassen wir der Sache noch ein bisschen Zeit, um sich aufzubauen. Je stärker die Dynamik in eine Richtung ist, desto größer wird der Schock sein, wenn die Märkte umkehren müssen.«
Ronnie und Stefan waren meisterhafte Manipulatoren. Sie hatten sich auf Mallorca niedergelassen, weil ihnen dort das Wetter, das Nachtleben und die Aussicht gefielen. Ihre Server standen im Kongo, hinter mehreren Ebenen von Scheinfirmen, Tor-Browsern und miteinander verknüpften Nodes (Knoten). Auf Mallorca hatten sie einige lokale Beamte bestochen, um sicherzustellen, dass es in ihren Räumen keine Hausdurchsuchung geben würde. Sie hatten zwei Jahre damit verbracht, für einen seriösen Hedgefonds Wash Trades zu machen, um bei ihren Hausbanken HSBC und UBS Vertrauen und Kreditwürdigkeit aufzubauen. So konnten sie sicher sein, dass man ihre Trades ausführen würde, wenn die Zeit gekommen war, um ihre Marktmanipulation zu starten. Was danach passierte, konnte ihnen egal sein – sie würden das Geld in Sicherheit bringen und verschwinden. Die digitale Datenspur würde irgendwo an einer Flussbiegung in der Nähe der kongolesischen Stadt Kisangani in einer Sackgasse enden.
Dunk bekam seine Befehle: »Bereite den Verkauf von S&P-500-Futures im Nennwert von 1 Milliarde Dollar vor. Shorte US Treasury Notes mit zehn Jahren Laufzeit im Nennwert von 1 Milliarde Dollar im außerbörslichen Handel. Teile die Orders zwischen HSBC, UBS und Citi auf. Verwende Derivate. Stelle an Sicherheiten, was notwendig ist. Führe die Orders noch nicht aus; wir sagen dir Bescheid, wenn es so weit ist. Bereite dich erst mal nur vor.«
Dunk sagte: »Okay.«
Die Bühne war bereitet.
Ronnie wandte sich an Stefan und sagte: »Ruf das Team zusammen, über die sichere Verbindung.«
Stefan öffnete eine App mit Ende-zu-Ende-Verschlüsselung und überzeugte sich, dass seine Leute bereit waren.
»Okay, schick das Video raus«, sagte Ronnie.
Stefan tippte den Text »Cherry Wine« in die App ein. Innerhalb weniger Sekunden kam die Antwort zurück: »Moon River«. Beide Texte waren im Voraus festgelegte Codes – das digitale Äquivalent dessen, was unter Spionen als »One-Time-Pad« bekannt ist. Ronnie und Stefans Leute machten sich jetzt daran, das Video über Kanäle zu verbreiten, über die es mit Sicherheit von den Medien der Mainstream-Wirtschaftspresse aufgegriffen werden würde.
Ronnie sah Dunk an und sagte: »Führe die Order aus.«
Nach etwa 30 Sekunden antwortete Dunk: »Erledigt und erledigt.«
Die Aktienmärkte eröffneten mit einer Rallye und legten schnell um 1,5 Prozent zu. Auch Anleihen zogen an, da man davon ausging, dass die Zinsen ihr Maximum erreicht hatten. Nick Mera war zufrieden mit seinen frühen Gewinnen an beiden Märkten. Er nippte an seinem schwarzen Tee und überlegte, wie lange er seine Gewinne noch laufen lassen sollte, bevor er den Trade beendete. Sara unterbrach sein einsames Sinnieren.
»Nick, das sollten Sie sich sofort ansehen.«
»Was ist los?«
»Ray Dowell, der Chef der Federal Reserve, hat heute Morgen um 10 Uhr vor dem Economic Club of New York eine Rede gehalten. Soeben wurde ein Teil davon als Video veröffentlicht und der Clip wird von Business-Sendern als Eilmeldung verbreitet. In den begleitenden Kommentaren heißt es, Dowells Aussagen seien nicht erwartet worden und würden sich sehr negativ auf die Märkte auswirken.«
»Zeig es mir auf deinem Bildschirm.«
Sara startete das Video auf ihrem Bildschirm, der an Output-Nodes eines Computer-Vision-Systems angeschlossen war. Sie startete auch Bloomberg, CNBC und Fox Business auf separaten, stumm geschalteten Monitoren, da diese Kanäle die Story als Eilmeldung brachten.
»Hier ist das Video«, sagte Sara.
Ray Dowell stand auf dem Podium des Economic Club und sagte: »Die nächste Sitzung des Federal Open Market Committee [FOMC, Offenmarktausschuss der Federal Reserve] wird am Dienstag nächster Woche stattfinden. Fast täglich kommen neue Daten herein und es ist die Aufgabe des FOMC, diese Informationen bei der Festsetzung des Leitzinses zu berücksichtigen. Wir können nicht mit Gewissheit sagen, wie sich der Ausschuss politisch entscheiden wird. Es ist jedoch klar, dass unser Kampf gegen die Inflation noch nicht gewonnen ist. Die jüngsten Inflationsdaten sind kritischer als erwartet und liegen weiterhin deutlich über unserem angestrebten Inflationsziel von 2 Prozent. Angesichts dieser Sachlage sollten die Märkte sich nicht wundern, wenn der Ausschuss sich auf dieser Sitzung einvernehmlich für eine weitere Zinserhöhung ausspricht.«