Erhalten Sie Zugang zu diesem und mehr als 300000 Büchern ab EUR 5,99 monatlich.
Die Welt steht vor enormen Umwälzungen, künstliche Intelligenz ist nicht mehr aufzuhalten, sie wird jede Dimension des menschlichen Lebens verändern. Zeit also, sich mit den Folgen, den Chancen und auch den Risiken dieser Technologie näher zu beschäftigen. In seinem neuen Buch präsentiert Bestsellerautor Martin Ford eine beeindruckende Vision unserer Zukunft. Klimawandel, die nächste Pandemie, Energie- und Süßwasserknappheit, Armut und mangelnder Zugang zu Bildung – bei all diesen Problemen kann der Einsatz von KI zur Lösung beitragen, in den falschen Händen aber auch tiefgreifenden Schaden anrichten. Ford trennt Hype und Sensationslust von der Realität und entwickelt einen Leitfaden, wie wir alle in der Zukunft, die wir gerade gemeinsam schaffen, erfolgreich sein können.
Sie lesen das E-Book in den Legimi-Apps auf:
Seitenzahl: 413
Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:
MARTIN FORD
Wie künstliche Intelligenzalles transformieren wird –und wie wir damit umgehen können
Die Originalausgabe erschien unter dem Titel
Rule of the robots: how artificial intelligence will transform everything
ISBN 978-1-5416-7473-8
Copyright der Originalausgabe 2021:
© 2021 by Martin Ford.
This edition published by arrangement with Basic Books, an imprint of Perseus Books LLC, a subsidiary of Hachette Book Group, Inc., New York, New York, USA. All rights reserved.
Copyright der deutschen Ausgabe 2022:
© Börsenmedien AG, Kulmbach
Übersetzung: Petra Pyka
Gestaltung Cover: Timo Boethelt
Gestaltung, Satz und Herstellung: Timo Boethelt
Lektorat: Christoph Landgraf
ISBN 978-3-86470-836-7
eISBN 978-3-86470-837-4
Alle Rechte der Verbreitung, auch die des auszugsweisen Nachdrucks, der fotomechanischen Wiedergabe und der Verwertung durch Datenbanken oder ähnliche Einrichtungen vorbehalten.
Bibliografische Information der Deutschen Nationalbibliothek: Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über <http://dnb.d-nb.de> abrufbar.
Postfach 1449 • 95305 Kulmbach
Tel: +49 9221 9051-0 • Fax: +49 9221 9051-4444
E-Mail: [email protected]
www.plassen.de
www.facebook.com/plassenverlag
www.instagram.com/plassen_buchverlage
Für meine Mutter Sheila
1_ Die Disruption beginnt
2_ KI – der neue Strom?
3_ Mehr als nur Hype? Künstliche Intelligenz als Versorgungsgut – eine realistische Einschätzung
4_ Die Mission, eine intelligente Maschine zu bauen
5_ Deep Learning und die Zukunft der künstlichen Intelligenz
6_ Arbeitsplatzverluste und wirtschaftliche Folgen von KI
7_ China und der Siegeszug des KI-Überwachungsstaats
8_ Die Risiken der KI
*_ Fazit: Zwei Zukunftsszenarien für künstliche Intelligenz
Danksagung
Endnoten
Am 30. November 2020 meldete DeepMind – eine auf künstliche Intelligenz spezialisierte Londoner Tochter der Google-Muttergesellschaft Alphabet – einen erstaunlichen und vermutlich sogar historischen Durchbruch in der Computerbiologie: eine Innovation, die Wissenschaft und Medizin wirklich revolutionieren könnte. Dem Unternehmen war es gelungen, mithilfe tiefer neuronaler Netze vorherzusagen, wie sich ein Eiweißmolekül auf der Grundlage des genetischen Codes, aus dem das Molekül von Zellen gebildet wird, in seine Endform faltet. Das war ein Meilenstein – der Gipfelpunkt von 50 Jahren medizinischer Forschung, der vom Aufkommen einer ganz neuen Technologie zeugte, die dazu angetan schien, uns ein ganz neues Verständnis von den ureigenen Bausteinen des Lebens zu vermitteln und damit ein neues Zeitalter medizinischer und pharmazeutischer Innovation einzuläuten.1
Proteinmoleküle sind lange Ketten, deren einzelne Glieder jeweils aus einer von 20 verschiedenen Aminosäuren bestehen. Die in der DNA verschlüsselten Gene geben die genaue Abfolge dieser Aminosäuren vor, aus denen das Eiweißmolekül gebildet wird – quasi das Rezept. In diesem genetischen Rezept fehlen aber genaue Angaben zur Form des Moleküls, die für seine Funktion entscheidend ist. Diese Form ergibt sich vielmehr aus der Art und Weise, wie sich das Molekül in Millisekunden nach seiner Herstellung in der Zelle automatisch zu einer komplexen dreidimensionalen Struktur auffaltet.2
Die exakte Faltkonfiguration eines Eiweißmoleküls vorherzusagen gehört zu den größten Herausforderungen in der Wissenschaft. Die Zahl möglicher Formen ist praktisch unbegrenzt. Wissenschaftler haben diesem Problem schon ganze Karrieren gewidmet, doch auch mit vereinten Kräften nur sehr bescheidene Erfolge erzielt. Das System von DeepMind bedient sich Methoden der künstlichen Intelligenz (KI), die das Unternehmen in Pionierleistung bereits für die Systeme AlphaGo und AlphaZero einsetzte – mit spektakulären Triumphen über die besten menschlichen Gegner bei Brettspielen wie Go und Schach. Doch die Zeiten, in denen KI in erster Linie mit spielerischen Kompetenzen assoziiert wird, neigen sich ihrem Ende zu. AlphaFold kann die Form von Proteinmolekülen so genau vorhersagen wie teure, zeitraubende Messungen im Labor unter Einsatz von Techniken wie der Kristallstrukturanalyse. Damit liefert das System den unwiderlegbaren Beweis, dass wir der Forschung an vorderster Front der künstlichen Intelligenz ein praktisches, unverzichtbares wissenschaftliches Instrument verdanken – mit dem Potenzial, die Welt zu verändern.
Dieser Durchbruch kam, als die allermeisten Menschen auf der Welt bereits eine Illustration des berüchtigtsten Beispiels dafür gesehen hatten, wie die dreidimensionale Form eines Proteinmoleküls seine Funktion bestimmt. Damit meine ich das Spike-Protein des Coronavirus, eine Art molekularer Andock-Mechanismus, der es dem Virus ermöglicht, an seinem Wirt anzukoppeln und diesen zu infizieren. Dieser Erfolg weckte die Hoffnung, dass wir auf die nächste Pandemie deutlich besser vorbereitet sein könnten. Vielleicht ließe sich das System ja praktisch nutzen, um vorhandene Medikamente rasch daraufhin abzuprüfen, welche davon gegen ein neu aufgetauchtes Virus voraussichtlich die beste Wirkung zeigen. Dann stünden den Ärzten bereits im Anfangsstadium eines Ausbruchs effektive Behandlungsmöglichkeiten zur Verfügung. Darüber hinaus bietet die Technologie von DeepMind beste Voraussetzungen für eine ganze Reihe von Fortschritten, darunter die Entwicklung vollkommen neuartiger Medikamente und die Gewinnung genauerer Erkenntnisse darüber, wie es zu einer fehlerhaften Proteinfaltung kommen kann – Erscheinungen, die mit Krankheiten wie Diabetes, aber auch Alzheimer und Parkinson in Zusammenhang gebracht werden. Die Technologie könnte eines Tages auch außerhalb der Medizin breit gefächert Anwendung finden und beispielsweise zur künstlichen Herstellung von Mikroben beitragen, die Proteine freisetzen können, um Abfälle wie Plastik oder Öl abzubauen.3 Es handelt sich dabei also um eine Innovation, die den Fortschritt in praktisch allen Disziplinen der Biochemie und Medizin vorantreiben könnte.
So hat etwa in den letzten zehn Jahren die Disziplin der künstlichen Intelligenz einen revolutionären Sprung gemacht und eröffnet erstmals eine zunehmende Zahl praktischer Anwendungsmöglichkeiten, die unsere Umwelt bereits verändern. Der maßgebliche Beschleunigungsfaktor für diesen Fortschritt ist „Deep Learning“ – eine Methode des maschinellen Lernens, bei der vielschichtige künstliche neuronale Netze zum Einsatz kommen, wie sie von Deep-Mind genutzt werden. Die Grundlagen tiefer neuronaler Netze sind seit Jahrzehnten bekannt. Die unlängst erzielten spektakulären Fortschritte wurden möglich, weil zwei unaufhaltsame Trends in der Informationstechnologie zusammentrafen: Zum einen wurden Computer mit enorm höherer Rechenleistung entwickelt, die erstmals die Voraussetzungen dafür schufen, neuronale Netze wirklich effektiv zu nutzen. Zum anderen stellt der immense Datenreichtum, der heute in der gesamten Informationswirtschaft erzeugt und erfasst wird, eine Ressource da, ohne die diese Netze nicht auf die Ausführung sinnvoller Aufgaben trainiert werden könnten. Dass Daten in einem einst unvorstellbaren Umfang zur Verfügung stehen, ist wohl der wichtigste Einzelfaktor, der dem bisher beobachteten erstaunlichen Fortschritt zugrunde liegt. Wie tiefe neuronale Netze Daten einsaugen und nutzen, erinnert stark an einen riesigen Blauwal, der sich von winzigem Krill ernährt: Er nimmt eine gewaltige Menge für sich genommen unbedeutender Organismen auf, von deren kollektiver Energie ein Geschöpf von gewaltiger Größe und Kraft leben kann.
Während künstliche Intelligenz erfolgreich auf immer mehr Gebieten Anwendung findet, wird deutlich, dass sie sich zu einer Technologie von nie da gewesener Tragweite entwickelt. In manchen medizinischen Fachbereichen leisten diagnostische KI-Anwendungen bereits ebenso viel oder gar mehr als der beste Arzt. Die wahre Leistung einer solchen Innovation liegt aber nicht nur darin, dass sie einem erstklassigen Mediziner den Rang ablaufen kann, sondern vielmehr darin, wie problemlos die in der Technologie eingebettete Intelligenz skalierbar ist. Schon bald wird überragende diagnostische Kompetenz weltweit bezahlbar zur Verfügung stehen – auch dort, wo die Menschen kaum Zugang zu einem Arzt oder einer Pflegekraft haben, und bei den global führenden medizinischen Spezialisten sowieso.
Nun stellen Sie sich bitte vor, so eine extrem spezifische Innovation wie ein KI-gestütztes Diagnosetool oder vielleicht der von Deep-Mind erzielte Durchbruch bei der Proteinfaltung wird mit einer quasi unbegrenzten Anzahl von Möglichkeiten auf anderen Fachgebieten, von Medizin über Wissenschaft, Industrie, Verkehr, Energie und öffentliche Verwaltung bis hin zu jedem anderen menschlichen Tätigkeitsbereich, multipliziert. Daraus ergibt sich letztlich ein neues, beispiellos leistungsfähiges Versorgungssystem – im Grunde eine Art „Intelligenzstrom“: eine flexible Ressource, die – eines Tages womöglich auf Knopfdruck – kognitive Fähigkeiten auf praktisch jedes Problem anwenden kann, mit dem wir konfrontiert sind. Am Ende wird uns dieses neue Versorgungssystem die Möglichkeit eröffnen, nicht nur Entscheidungen zu analysieren und zu treffen, sondern komplexe Probleme zu lösen, und dabei sogar Kreativität beweisen.
Dieses Buch soll ausloten, wie sich die künstliche Intelligenz künftig auswirkt, allerdings ohne sie als eine spezifische Innovation zu betrachten, sondern vielmehr als eine einzigartig skalierbare und potenziell revolutionäre Technologie – ein hochpotentes neues Versorgungssystem, das uns eines Tages ähnlich revolutionäre Umwälzungen bescheren kann wie seinerzeit der elektrische Strom. Die von mir angeführten Argumente und Erklärungen stützen sich stark auf drei Aspekte meiner persönlichen Berufserfahrung.
Erstens wurde ich seit der Veröffentlichung meines Buches „Aufstieg der Roboter: Wie unsere Arbeitswelt gerade auf den Kopf gestellt wird – und wie wir darauf reagieren müssen“ im Jahr 2015 zu Dutzenden von Technologiekonferenzen, regionalen Gipfeln und Veranstaltungen von Wirtschaft und Lehre geladen, um über die Auswirkungen künstlicher Intelligenz und Robotik zu referieren. Ich habe über 30 Länder bereist und hatte Gelegenheit, Forschungslabore zu besuchen, mir modernste Technologie vorführen zu lassen und mit Fachleuten, Wirtschaftsexperten, Topmanagern, Investoren und Politikern, aber auch mit ganz normalen Menschen, die die Veränderungen, die um sie herum stattfinden, wahrnehmen und allmählich bedenklich finden, über die Folgen der laufenden KI-Revolution zu sprechen und zu diskutieren.
Außerdem arbeite ich seit 2017 mit einem Team von der französischen Bank Société Générale an der Entwicklung eines eigenen Aktienmarktindex, der es Anlegern ermöglichen soll, direkt von der Revolution der Robotik und der künstlichen Intelligenz zu profitieren. In meiner Funktion als beratender Fachmann zum Thema wirkte ich an der Formulierung einer Strategie mit, der die Auffassung zugrunde liegt, dass KI zu einem wirkmächtigen neuen Versorgungsgut wird und daher in vielen verschiedenen Branchen Wert generieren und Unternehmen revolutionieren dürfte. Daraus ging der „Rise of the Robots“-Index der Société Générale hervor – und anschließend der Lyxor Robotics and AI ETF4 (Exchange Traded Fund), der sich auf diesen Index stützt.
Und schließlich hatte ich im Verlauf des Jahres 2018 die Chance, mich mit 23 der führenden Forscher und Unternehmer für künstliche Intelligenz zusammenzusetzen und über viele verschiedene Themen zu sprechen. Diese Männer und Frauen sind wahrhaftig die „Einsteins“ ihres Fachs – vier davon Träger des Turing Award, der sozusagen der Nobelpreis für Informatiker ist. Die Gespräche, die sich um die Zukunft der künstlichen Intelligenz und um die Risiken und Chancen drehten, die dieser Fortschritt birgt, sind in meinem 2018 erschienenen Buch „Die Intelligenz der Maschinen: Mit Koryphäen der Künstlichen Intelligenz im Gespräch: Innovationen, Chancen und Konsequenzen für die Zukunft der Gesellschaft“ aufgezeichnet. Diese einzigartige Gelegenheit habe ich ausgiebig genutzt, um zu erfahren, was in den allerklügsten Köpfen vorgeht, die sich mit künstlicher Intelligenz befassen. Ihre Erkenntnisse und Prognosen haben unmittelbar großen Anteil am Stoff dieses Buches.
Begreifen wir die künstliche Intelligenz als neue Elektrizität, so liefert uns das ein geeignetes Modell für Überlegungen dazu, wie sich die Technologie weiterentwickeln und letztlich fast jeden Aspekt der Wirtschaft, Gesellschaft und Kultur berühren wird – allerdings mit einem wesentlichen Vorbehalt: Der elektrische Strom wird allgemein als eindeutig positive Kraft wahrgenommen. Vom verschrobensten Einsiedler einmal abgesehen, gibt es wohl kaum einen Einwohner eines Industrielands, der Grund hat, die Elektrifizierung zu bedauern. Bei KI ist das anders: Sie hat eine dunkle Seite und geht mit echten Gefahren für jeden Einzelnen und für die ganze Gesellschaft einher.
Macht die künstliche Intelligenz weiterhin Fortschritte, so hat sie das Potenzial, den Arbeitsmarkt und auch die gesamte Wirtschaft in bisher beispiellosem Ausmaß auf den Kopf zu stellen. Praktisch jede Aufgabe, die im Grunde routinemäßig abläuft und vorhersagbar ist – also so ziemlich jeder Arbeitsplatz, der Menschen immer wieder vor ähnliche Herausforderungen stellt –, könnte ganz oder teilweise automatisiert werden. Studien zufolge ist immerhin die Hälfte aller amerikanischen Arbeitnehmer mit solchen vorhersagbaren Tätigkeiten befasst. Allein in den Vereinigten Staaten könnten sich zig Millionen Arbeitsplätze früher oder später in Luft auflösen.5 Das werden nicht nur ungelernte Niedriglöhner spüren. Auch viele Angestellte und Fachkräfte erfüllen überwiegend Routineaufgaben. Vorhersagbare Wissensarbeit ist besonders automatisierungsgefährdet, denn sie könnte auch von einer Software erledigt werden. Für manuelle Tätigkeiten sind dagegen teure Roboter erforderlich.
Über die Folgen der Automatisierung für die Erwerbsbevölkerung der Zukunft wird nach wie vor lebhaft diskutiert. Werden genügend neue, nicht automatisierbare Jobs entstehen, um die Arbeitnehmer unterzubringen, die durch wegfallende Routineaufgaben freigesetzt werden? Und wenn ja, werden diese Arbeitnehmer über die nötigen Qualifikationen, Kompetenzen und persönlichen Voraussetzungen verfügen, um sich erfolgreich auf diese neu geschaffenen Funktionen umzustellen? Wir dürfen wohl eher nicht davon ausgehen, dass aus den meisten ehemaligen Fernfahrern oder Beschäftigten der Fast-Food-Branche Robotikingenieure werden können – und wohl auch keine Pflegehelfer für ältere Menschen. Meiner Einschätzung nach, die ich in „Aufstieg der Roboter“ dargelegt habe, läuft ein großer Teil unserer Erwerbsbevölkerung letztlich Gefahr, auf der Strecke zu bleiben, während KI und Robotik weiter voranschreiten. Und wie wir sehen werden, gibt es ausgesprochen guten Grund zu der Annahme, dass die Coronavirus-Pandemie und der damit verbundene Konjunktureinbruch die Effekte künstlicher Intelligenz auf den Arbeitsmarkt noch beschleunigen.
Selbst wenn wir den kompletten Wegfall von Arbeitsplätzen durch die Automatisierung außen vor lassen, wirkt sich Technologie bereits auf andere, für uns durchaus bedenkliche Art und Weise auf den Arbeitsmarkt aus. Für Mittelschicht-Arbeitsplätze besteht ein Herabqualifizierungsrisiko. Sie könnten künftig von einem schlechter ausgebildeten Geringverdiener übernommen werden, der mit technischer Unterstützung Aufgaben erfüllen kann, die bisher höher dotiert waren. Menschen arbeiten immer häufiger unter Kontrolle von Algorithmen, die ihre Arbeit überwachen oder takten und sie im Grunde wie virtuelle Roboter behandeln. Viele der neu entstehenden Chancen betreffen die sogenannte „Gig Economy“, in der gewöhnlich nicht zu festen Zeiten und Löhnen gearbeitet wird. All das weist auf zunehmende Ungleichheit und möglicherweise weniger humane Bedingungen für einen wachsenden Anteil unserer Erwerbsbevölkerung hin.
Neben den Auswirkungen auf Arbeitsmarkt und Wirtschaft gibt es noch verschiedene andere Gefahren, die mit dem fortgesetzten Aufstieg künstlicher Intelligenz einhergehen. Am unmittelbarsten davon bedroht ist unter anderem unsere allgemeine Sicherheit. Das betrifft zum Beispiel KI-gestützte Cyberangriffe auf physische Infrastruktur und kritische Systeme, die immer stärker vernetzt und von Algorithmen gesteuert werden, aber auch Bedrohungen des demokratischen Prozesses und des Gesellschaftsgefüges. Der russische Eingriff in die US-Präsidentenwahlen von 2016 liefert einen noch einigermaßen harmlosen Vorgeschmack auf kommende Entwicklungen. Durch künstliche Intelligenz könnten „Fake News“ ganz andere Formen annehmen, wenn es dadurch möglich würde, Foto-, Audio- und Videodokumente zu erzeugen, die von echten praktisch nicht mehr zu unterscheiden sind, während Armeen wirklich hoch entwickelter Bots eines Tages die sozialen Medien unterwandern, Verwirrung stiften und erschreckend wirkungsvoll die öffentliche Meinung beeinflussen könnten.
Weltweit, doch vor allem in China, werden Überwachungssysteme, die mit Gesichtserkennung und anderen KI-gestützten Technologien arbeiten, bereits so eingesetzt, dass sich Einfluss und Reichweite autoritärer Regierungen deutlich vergrößern und jede Erwartung an einen Schutz der Privatsphäre zunichtegemacht wird. In den Vereinigten Staaten haben Gesichtserkennungssysteme bereits nachweislich Tendenzen gezeigt, Menschen aufgrund ihrer Hautfarbe oder ihres Geschlechts zu diskriminieren. Das Gleiche gilt für Algorithmen, die zur Sichtung von Bewerbungsunterlagen oder sogar zur Beratung von Richtern in der Strafjustiz eingesetzt wurden.
Die womöglich schwerwiegendste kurzfristige Bedrohung besteht in der Entwicklung vollständig autonomer Waffen, die töten können, ohne dass dafür eine konkrete Autorisierung durch einen Menschen erforderlich ist. Gut vorstellbar, dass derartige Waffen massenhaft gegen ganze Bevölkerungen eingesetzt werden könnten. Sich dagegen zu verteidigen, wäre extrem schwer – vor allem, wenn sie in die Hände von Terroristen fielen. Diese Entwicklung wollen viele Angehörige der KI-Forschungsgemeinschaft unbedingt verhindern. Bei den Vereinten Nationen wurde bereits eine Initiative angestoßen, um solche Waffen zu verbieten.
In ferner Zukunft könnten noch größere Gefahren auf uns lauern. Könnte künstliche Intelligenz eine existenzielle Bedrohung für die Menschheit darstellen? Bauen wir vielleicht irgendwann eine „superintelligente“ Maschine, die uns dermaßen überlegen ist, dass sie uns vorsätzlich oder versehentlich Schaden zufügen kann? Diese doch eher spekulative Angst wäre nur begründet, wenn es uns eines Tages gelingt, eine wirklich intelligente Maschine zu entwickeln. Das ist nach wie vor Science-Fiction. Doch das Streben nach echter künstlicher Intelligenz, die der menschlichen ebenbürtig ist, ist der Heilige Gral dieser Disziplin, und eine ganze Reihe hochintelligenter Menschen nehmen solche Bedenken sehr ernst. Prominente wie der verstorbene Stephen Hawking und Elon Musk haben bereits vor dem Schreckgespenst einer außer Kontrolle geratenen KI gewarnt. Vor allem Musk löste einen Medienhype aus, als er sagte, die KI-Forschung „beschwört einen Dämon herauf“ und „KI ist gefährlicher als Atomwaffen“.6
Da könnte man sich durchaus fragen, wieso wir die Büchse der Pandora vorsätzlich öffnen sollten. Die Antwort lautet: Weil es sich die Menschheit schlicht nicht leisten kann, auf künstliche Intelligenz zu verzichten. KI wird unsere intellektuellen Fähigkeiten und unsere Kreativität beflügeln und auf fast jedem Gebiet menschlichen Strebens Innovationen vorantreiben. Wir dürfen mit neuen Medikamenten und Behandlungsmöglichkeiten, effizienteren, sauberen Energiequellen und vielen anderen maßgeblichen Durchbrüchen rechnen. KI wird sicherlich Arbeitsplätze vernichten, aber auch dafür sorgen, dass die von der Wirtschaft erzeugten Produkte und Dienstleistungen erschwinglicher und breiter verfügbar werden. Eine Analyse des Beratungsunternehmens PwC prognostiziert, dass KI die Weltwirtschaft bis 2030 um über 15,7 Billionen US-Dollar bereichern wird – und das ist mit Blick auf die Erholung von der schweren Wirtschaftskrise durch die Coronavirus-Pandemie noch bedeutsamer.7 Der wichtigste Aspekt ist aber womöglich, dass sich künstliche Intelligenz zu einem unverzichtbaren Hilfsmittel entwickeln wird, das eine entscheidende Rolle spielt bei der Bewältigung unserer größten Herausforderungen wie Klimawandel und Umweltschäden, die unvermeidliche nächste Pandemie, Energie- und Wasserknappheit, Armut und mangelnder Zugang zu Bildung.
Der Weg in die Zukunft ist daher, das Potenzial künstlicher Intelligenz umfassend zu nutzen – allerdings mit wachem Blick. Die Risiken dürfen nicht außer Acht gelassen werden. Bestimmte KI-Anwendungen müssen reguliert und in manchen Fällen auch verboten werden. Das alles muss heute noch beginnen, denn die Zukunft kommt, ob wir darauf vorbereitet sind oder nicht.
Dieses Buch als „Fahrplan“ in die Zukunft der künstlichen Intelligenz zu bezeichnen, wäre sicherlich verstiegen. Niemand kann sagen, wie schnell KI Fortschritte machen und wie sie konkret genutzt werden wird, welche neuen Unternehmen und Branchen entstehen oder welche Gefahren am bedrohlichsten sind. Die Zukunft der künstlichen Intelligenz dürfte ebenso unvorhersehbar wie disruptiv sein. Einen Fahrplan gibt es dafür nicht. Wir werden laufend mitdenken und flexibel reagieren müssen. Meine Hoffnung ist, dass dieses Buch aufzeigt, wie wir uns auf das Kommende vorbereiten können – dass es unsere Überlegungen zu der Revolution leitet, die gerade stattfindet, dass es Hype und Sensationslust sauber von der Realität trennt und uns erkennen lässt, wie wir als Einzelne und als Gesellschaft in der von uns gestalteten Zukunft am besten profitieren können.
Der elektrische Strom – eine Kraft, die zunächst nur zu Unterhaltungszwecken in Form publikumswirksamer Tricks und Experimente geschätzt wurde – hat die moderne Zivilisation fraglos geprägt und erst möglich gemacht. In einer Welt, in der ein garantierter Anschluss an das Stromnetz als selbstverständlich gilt, vergisst man leicht, wie lang und mühsam der Weg war, bis sich die Elektrizität durchgesetzt hatte. Von Benjamin Franklins berühmtem Drachenexperiment im Jahr 1752 vergingen ganze 127 Jahre, bis Thomas Edison schließlich 1879 seine Glühbirne perfektioniert hatte. Danach beschleunigte sich die Entwicklung. Noch im selben Jahr schuf im Vereinigten Königreich der Liverpool Electric Light Act die Voraussetzungen für die erste elektrische Straßenbeleuchtung des Landes. Nur drei Jahre später nahmen sowohl die Pearl Street Power Plant in New York als auch die Edison Electric Light Station in London den Betrieb auf. Doch 1925 verfügte erst rund die Hälfte der Haushalte in den Vereinigten Staaten über einen Stromanschluss. Es bedurfte noch mehrerer Jahrzehnte und des Rural Electrification Act von Franklin Roosevelt, bis Strom zu der allgegenwärtigen Versorgungsleistung wurde, wie wir sie heute kennen.
Für alle, die in einem Industrieland leben, gibt es praktisch nichts, was nicht in irgendeiner Form vom Zugang zu Strom berührt oder dadurch erst ermöglicht wird. Der Strom stellt vermutlich das beste und sicherlich das beständigste Beispiel für eine Basistechnologie dar – anders formuliert: für eine Innovation, die jeden Aspekt der Wirtschaft und der Gesellschaft erfasst und verändert. Zu solchen Basistechnologien zählt auch die Dampfkraft, die die industrielle Revolution hervorbrachte, doch inzwischen auf wenige Anwendungen wie Atomkraftwerke zurückgefahren wurde. Eine transformative Wirkung hatte sicherlich auch der Verbrennungsmotor, doch mittlerweile ist durchaus eine Zukunft denkbar, in der Benzin- und Dieselmotoren praktisch vollständig ersetzt werden, vermutlich durch Elektromotoren. Außer in einem dystopischen Katastrophenszenario ist eine Zukunft ohne Elektrizität im Grunde gar nicht vorstellbar.
Dass sich künstliche Intelligenz zu einer Basistechnologie von ähnlicher Tragweite und Leistung entwickeln wird wie die Elektrizität, ist daher eine recht steile These. Dennoch gibt es gute Gründe, anzunehmen, dass es so kommen könnte: Ganz ähnlich wie der elektrische Strom wird auch KI früher oder später praktisch alle Aspekte des Lebens berühren und verändern.
Es gibt bereits keinen Wirtschaftssektor mehr, auf den sich die künstliche Intelligenz nicht auswirkt, Landwirtschaft, Produktion, Gesundheitswesen, Finanzbranche, Einzelhandel und praktisch sämtliche übrigen Industriezweige eingeschlossen. Die Technologie dringt sogar schon in Bereiche vor, die wir als zutiefst menschlich erachten. KI-fähige Chatbots bieten bereits rund um die Uhr Zugang zu psychologischer Beratung. Deep-Learning-Technologie bringt neue Formen bildender Kunst und Musik hervor. Eigentlich sollte uns nichts davon überraschen. Immerhin ist im Grunde jede Wertschöpfung durch den Menschen ein direktes Produkt unserer Intelligenz – unserer Fähigkeit, zu lernen und innovativ und kreativ zu sein. Verstärkt, erweitert oder ersetzt KI unsere eigene Intelligenz, so wird sie sich unweigerlich zur einflussreichsten, am breitesten verwendbaren Technologie überhaupt entwickeln. Möglicherweise wird sich künstliche Intelligenz sogar letztlich als eines der effektivsten Instrumente erweisen, die uns zur Verfügung stehen, wenn wir versuchen, uns von der Krise zu erholen, die das Coronavirus ausgelöst hat.
Außerdem dürfte sich die künstliche Intelligenz mit hoher Wahrscheinlichkeit schneller durchsetzen als der elektrische Strom. Der Grund dafür: Die für den Einsatz von KI erforderliche Infrastruktur – wie Rechner, das Internet, mobile Datendienste und vor allem die von Unternehmen wie Amazon, Microsoft und Google vorgehaltenen immensen Cloud-Computing-Kapazitäten – ist bereits vorhanden. Stellen Sie sich vor, wie schnell man die Welt hätte elektrifizieren können, wenn es die meisten Kraftwerke und Leitungen bereits gegeben hätte, als Edison die Glühbirne erfand. Künstliche Intelligenz ist im Begriff, unsere Welt zu verändern – und zwar möglicherweise viel früher, als wir es erwarten.
Die Analogie zur Elektrizität trifft insofern zu, als sie den Eindruck vermittelt, dass künstliche Intelligenz allgegenwärtig und universell zugänglich sein und letztlich fast jeden Aspekt unserer Zivilisation berühren und verändern wird. Es bestehen jedoch entscheidende Unterschiede zwischen den beiden Technologien. Beim Strom handelt es sich um eine fungible Ware, die örtlich wie zeitlich statisch ist. Ungeachtet Ihres Standorts oder des Unternehmens, das Sie mit Strom versorgt, ist die Ressource, auf die Sie über das Stromnetz Zugriff nehmen, im Grunde dieselbe. Ebenso gilt: Der heute angebotene Strom unterscheidet sich kaum von dem 1950 verfügbaren. Künstliche Intelligenz ist dagegen längst nicht so homogen und sehr viel dynamischer. KI wird eine Fülle von Möglichkeiten und Anwendungen bieten, die sich ständig verändern, und je nachdem, wer genau die Technologie bereitstellt, kann sie auch selbst drastisch variieren. Wie wir im fünften Kapitel erfahren werden, wird die künstliche Intelligenz unaufhaltsam voranschreiten, an Potenzial gewinnen und immer näher an eine Intelligenz auf menschlichem Niveau herankommen – möglicherweise sogar irgendwann darüber hinaus.
Während der Strom die Kraft für den Betrieb anderer Innovationen liefert, stellt KI direkt Intelligenz bereit – unter anderem die Fähigkeit, Probleme zu lösen, Entscheidungen zu treffen und aller Wahrscheinlichkeit nach früher oder später auch logisch zu denken, innovativ zu werden und auf neue Ideen zu kommen. Strom kann vielleicht eine arbeitssparende Maschine antreiben, doch KI ist selbst eine arbeitssparende Technologie, und je mehr Bereiche unserer Wirtschaft sie erfasst, desto gewaltiger werden die Auswirkungen auf die menschliche Erwerbsbevölkerung und die Struktur von Unternehmen und Organisationen sein.
Da sich künstliche Intelligenz kontinuierlich zu einem universellen Versorgungsgut entwickelt, wird sie die Zukunft ganz ähnlich prägen, wie die Elektrizität die Grundlagen für die moderne Zivilisation schuf. Genau wie Gebäude und andere Infrastruktur so konzipiert und konstruiert werden, dass sie das bestehende Stromnetz nutzen, wird künftige Infrastruktur von Grund auf so gestaltet werden, dass sie sich der Kraft der KI bedient. Dieses Konzept wird sich nicht auf die physischen Strukturen beschränken, sondern das Design fast aller Aspekte unserer Wirtschaft und Gesellschaft verändern. Neue Unternehmen oder Organisationen werden gegründet werden, um von Anfang an von KI zu profitieren. Künstliche Intelligenz wird eine entscheidende Komponente jedes künftigen Geschäftsmodells sein. Unsere politischen und sozialen Institutionen werden sich ebenfalls so weiterentwickeln, dass sie dieses allgegenwärtige neue Versorgungsgut einbeziehen und sich darauf stützen.
Das alles läuft darauf hinaus, dass KI letztlich zwar dieselbe Reichweite erlangen wird wie Elektrizität, doch nie deren Stabilität oder Prognostizierbarkeit. Sie wird stets eine weitaus dynamischere und disruptivere Kraft bleiben, die fast alles auf den Kopf stellen kann, mit dem sie in Berührung kommt. Intelligenz ist schließlich die ultimative Ressource – die fundamentale Fähigkeit, die allem zugrunde liegt, was der Mensch je geschaffen hat. Eine folgenreichere Entwicklung als die Umwandlung dieser Ressource in ein universell verfügbares, bezahlbares Versorgungsgut ist kaum vorstellbar.
Wie jedes Versorgungsgut braucht auch KI eine Infrastruktur zu ihrer Bereitstellung – ein Leitungsnetz, das es ermöglicht, die Technologie überall hinzuliefern. Das fängt natürlich mit der umfassenden Computerinfrastruktur an, die bereits vorhanden ist – darunter Hunderte Millionen Laptops und PCs sowie Server in gewaltigen Rechenzentren und ein rasch expandierendes Universum immer leistungsfähigerer mobiler Geräte. Die Effektivität dieser verteilten Rechenplattform als Methode zur Bereitstellung von KI wird noch drastisch gesteigert durch die Einführung eines Spektrums von Hardware und Software zur Optimierung tiefer neuronaler Netze.
Diese Entwicklung setzte ein mit der Entdeckung, dass spezielle Grafik-Mikroprozessoren, die in erster Linie eingesetzt wurden, um schnelle Action-Videospiele zu ermöglichen, Deep-Learning-Anwendungen effektiv beschleunigen konnten. Grafikprozessoren (Graphic Processing Units oder kurz GPUs) wurden ursprünglich entwickelt, um die für die nahezu unverzögerte Wiedergabe hochauflösender Grafik erforderlichen Berechnungen quasi mit Turbo durchzuführen. Seit den 1990er-Jahren haben diese speziellen Computerchips vor allem für High-End-Videospiele-Konsolen besondere Bedeutung erlangt – für Produkte wie die PlayStation von Sony und die Xbox von Microsoft. GPUs sind daraufhin optimiert, eine immense Zahl von Berechnungen in raschem Tempo parallel auszuführen. Während der Prozessor Ihres Laptops vielleicht über zwei, vielleicht auch über vier Rechenkerne verfügt, dürfte ein aktueller High-End-GPU Tausende spezialisierter Kerne aufweisen, die alle gleichzeitig in Hochgeschwindigkeit rechnen. Als Forscher entdeckt hatten, dass die für Deep-Learning-Anwendungen erforderlichen Berechnungen den zur Wiedergabe von Grafik benötigten sehr ähnlich waren, griffen sie eifrig zu GPUs, die sich rasch zur primären Hardware-Plattform für künstliche Intelligenz entwickelten.
Tatsächlich war diese Umstellung eine wesentliche Voraussetzung für die Deep-Learning-Revolution, die Anfang 2012 Fuß fasste. Im September desselben Jahres brachte ein Team von KI-Forschern der University of Toronto Deep Learning auf den Radarschirm der Technologiebranche – und zwar durch seinen Erfolg bei der ImageNet Large Scale Visual Recognition Challenge, einer richtungweisenden jährlich stattfindenden Veranstaltung mit Schwerpunkt auf maschinellem Sehen. Hätte das Siegerteam nicht auf GPU-Chips zurückgegriffen, um seine tiefen neuronalen Netze zu beschleunigen, hätte es kaum die Leistung bringen können, um den Wettbewerb für sich zu entscheiden. Doch auf die Geschichte des Deep Learning wollen wir im vierten Kapitel noch näher eingehen.
Das Team der University of Toronto nutzte GPUs des Herstellers Nvidia, eines 1993 gegründeten Unternehmens, dessen Geschäft sich ausschließlich auf die Entwicklung und Herstellung modernster Grafikchips fokussierte. Im Nachgang zum ImageNet-Wettbewerb von 2012 und der anschließenden breiten Anerkennung der gewaltigen Synergie zwischen Deep Learning und GPUs veränderte sich der Kurs des Unternehmens drastisch. Es verwandelte sich in einen der führenden Technologieanbieter im Zusammenhang mit dem Aufstieg der künstlichen Intelligenz. Die Deep-Learning-Revolution manifestierte sich unmittelbar im Marktwert des Unternehmens: Von Januar 2012 bis Januar 2020 explodierte der Kurs der Nvidia-Aktien um über 1.500 Prozent.
Mit der Migration von Deep-Learning-Projekten zu GPUs begannen KI-Forscher in führenden Tech-Unternehmen mit der Entwicklung von Softwaretools, die die Umsetzung tiefer neuronaler Netze auf Touren bringen sollten. Google, Facebook und Baidu brachten allesamt auf Deep Learning ausgerichtete quelloffene Software heraus, die sich jedermann herunterladen, verwenden und aktualisieren konnte. Die bekannteste und meistverwendete Plattform ist TensorFlow von Google. Sie wurde 2015 veröffentlicht. TensorFlow ist eine umfassende Softwareplattform für Deep Learning, die Wissenschaftlern und Technikern bei der Arbeit an praktischen Anwendungen optimierten Code zur Umsetzung tiefer neuronaler Netze zur Verfügung stellt und ebenso etliche Tools, die eine effizientere Entwicklung konkreter Anwendungen gestatten. Pakete wie Tensor-Flow und PyTorch, eine konkurrierende Entwicklungsplattform von Facebook, ersparen Forschern Programmier- und Testaufwand, um unbedeutende technische Details zu lösen. Stattdessen können sie sich bei der Entwicklung ihrer Systeme auf anspruchsvollere Aufgaben konzentrieren.
Im Zuge der Deep-Learning-Revolution verlegten sich Nvidia und eine Reihe von Mitbewerbern auf die Entwicklung noch leistungsfähigerer Mikroprozessor-Chips, die spezifisch für Deep Learning optimiert waren. Intel, IBM, Apple und Tesla entwickeln mittlerweile ausnahmslos Computerchips mit Schaltungen, die die für tiefe neuronale Netze erforderlichen Berechnungen beschleunigen sollen. Deep-Learning-Chips bahnen sich ihren Weg in eine Fülle von Anwendungen wie Smartphones, selbstfahrende Autos und Roboter sowie High-End-Computerserver. Das Ergebnis ist ein ständig wachsendes Gerätenetz, das eigens dafür entwickelt wurde, künstliche Intelligenz zu liefern. Google stellte 2016 seinen eigenen spezifischen Chip vor, der Tensor Processing Unit oder TPU genannt wurde. TPUs sind speziell dafür konzipiert, Deep-Learning-Anwendungen, die auf der TensorFlow-Softwareplattform des Unternehmens entwickelt wurden, zu optimieren. Zunächst setzte Google die neuen Chips in seinen eigenen Rechenzentren ein, doch ab 2018 wurden die TPUs in die Server integriert, die den Cloud-Computing-Funktionen des Unternehmens zugrunde liegen. Für Kunden, die den Cloud-Computing-Dienst des Unternehmens nutzten, wurden damit modernste Deep-Learning-Kapazitäten leicht zugänglich. Diese Entwicklung trug zur Dominanz dessen bei, was sich zum wichtigsten Einzelkanal für die starke Verbreitung von KI-Kapazitäten entwickelt.
Der Wettbewerb zwischen den etablierten Herstellern von Mikroprozessor-Chips und einer neuen Gattung von Start-ups um Anteile am rasch wachsenden Markt für künstliche Intelligenz hat der Branche einen kräftigen Innovations- und Energieschub versetzt. Manche Forscher drängen mit dem Chipdesign in ganz neue Richtungen. Die spezialisierten Deep-Learning-Chips, die sich aus GPUs entwickelt haben, werden optimiert, um die anspruchsvollen mathematischen Berechnungen zu beschleunigen, die von der Software ausgeführt werden, von der tiefe neuronale Netze implementiert werden. Eine neue Klasse von Chips kommt der Nachahmung des Gehirns schon sehr nahe. Sie verzichtet weitgehend auf die ressourcenhungrige Softwareschicht und implementiert neuronale Netze in Hardware. Dieses neue „neuromorphe“ Chipdesign instanziiert Hardware-Versionen von Neuronen direkt im Silizium. Sowohl IBM als auch Intel investieren maßgeblich in Forschung über neuromorphes Computing. Intels experimentelle Loihi-Chips implementieren beispielsweise 130.000 Hardware-Neuronen, von denen sich jedes mit Tausenden anderen vernetzen kann.1 Werden keine Software-Berechnungen in immensem Umfang mehr benötigt, so hat das unter anderem den maßgeblichen Vorteil der Energieeffizienz. Das menschliche Gehirn, das weit leistungsfähiger ist als jeder bisher verfügbare Computer, verbraucht lediglich rund 20 Watt – deutlich weniger als eine durchschnittliche Glühbirne. Deep-Learning-Systeme, die mit GPUs betrieben werden, haben dagegen einen gewaltigen Stromverbrauch, wie wir im fünften Kapitel noch erfahren. Eine Hochskalierung dieser Systeme, in deren Folge sie noch mehr Ressourcen verbrauchen, dürfte kaum nachhaltig sein. Neuromorphe Chips, deren Design sich unmittelbar am neuronalen Netz des Gehirns orientiert, sind längst nicht so energiehungrig. Intel behauptet, seine Loihi-Architektur sei bis zu 10.000 Mal so energieeffizient wie traditionelle Mikroprozessor-Chips in manchen Anwendungen. Werden Designs wie Loihi erst kommerziell produziert, dürften sie rasch Eingang finden in mobile Geräte und andere Anwendungen, für die Energieeffizienz eine wichtige Rolle spielt. Manche KI-Experten lassen sich sogar zu der Prognose hinreißen, dass neuromorphe Chips die Zukunft der künstlichen Intelligenz darstellen. Eine Analyse des Research-Unternehmens Gartner projiziert beispielsweise, dass neuromorphe Designs GPUs als primäre Hardwareplattform für KI bereits 2025 weitgehend abgelöst haben werden.2
Die heutige Cloud-Computing-Industrie nahm ihren Anfang 2006 mit der Markteinführung von Amazon Web Services oder AWS. Amazon verfolgte die Strategie, die Kompetenzen im Aufbau und im Management gewaltiger Rechenzentren zu nutzen, die seinem Onlineshopping-Dienst zugrunde lagen, indem es einem breiten Kundenstamm flexiblen Zugang zu Rechenressourcen bieten wollte, die in ähnlichen Anlagen untergebracht waren. 2018 betrieb Amazon Web Services über 100 Rechenzentren an Standorten in neun verschiedenen Ländern weltweit.3 Die von Amazon und seinen Mitbewerbern angebotenen Cloud-Dienste expandieren in atemberaubendem Tempo. Einer aktuellen Studie zufolge wird Cloud-Computing inzwischen von ganzen 94 Prozent aller Organisationen genutzt, von multinationalen Konzernen bis zu Kleinbetrieben und Mittelständlern.4 2016 wuchs AWS so schnell, dass die neuen Rechenressourcen, um die Amazon sein System täglich aufstocken musste, mehr oder minder der Gesamtkapazität entsprachen, über die das Unternehmen Ende 2005 verfügte.5
Vor dem Einzug der Cloud-Anbieter mussten Unternehmen und Organisationen eigene Server und Software anschaffen und warten sowie ein Team hochbezahlter Technologen beschäftigen, um die Systeme laufend zu pflegen und zu aktualisieren. Durch das Cloud-Computing kann ein Großteil dieser Arbeit an Anbieter wie Amazon ausgelagert werden, die, weil sie von Skaleneffekten profitieren, ein brutales Effizienzniveau erreichen können. Anlagen, in denen Cloud-Computing-Server untergebracht sind, sind in aller Regel gewaltige Bauten auf Zigtausenden von Quadratmetern, die mit über einer Milliarde US-Dollar zu Buche schlagen und mehr als 50.000 Hochleistungsserver beherbergen können. Cloud-Computing-Ressourcen werden oft als Abrufdienst angeboten, sodass Kunden nur die Rechenleistung, den Speicherplatz und die Software-Anwendungen nutzen und zahlen, die sie gerade brauchen.
Die Anlagen, in denen Cloud-Server untergebracht sind, sind zwar physisch enorm groß, aber so stark automatisiert, dass dort erstaunlich wenige Menschen arbeiten. Hoch entwickelte Algorithmen, die quasi alles steuern, was innerhalb dieser Mauern stattfindet, ermöglichen eine Präzision, wie sie unter direkter menschlicher Verwaltung nie möglich wäre. Selbst Faktoren wie der immense Stromverbrauch dieser Anlagen und die nötige Kühlung, um die gewaltige Wärmeentwicklung auszugleichen, die Zigtausende von Servern verursachen, werden oft punktgenau optimiert. Tatsächlich war eine der ersten praktischen Anwendungen der KI-Forschung von DeepMind ein Deep-Learning-System, das die Kühlanlagen in Googles eigenen Rechenzentren optimieren konnte. Nach Angaben von DeepMind ist es ihrem neuronalen Netz (das anhand einer von über Googles Hosting-Anlagen verteilten Sensoren erfassten Datenfülle trainiert wurde) gelungen, den für die Kühlung erforderlichen Energieverbrauch um bis zu 40 Prozent zu senken.6 Die Steuerung durch Algorithmen hat realen Nutzen gebracht. Eine im Februar 2020 veröffentlichte Studie ergab, dass „von 2010 bis 2018 zwar die erbrachte Rechenleistung in Rechenzentren um rund 550 Prozent gestiegen ist, der Energieverbrauch der Rechenzentren im selben Zeitraum aber nur um 6 Prozent zugenommen hat“.7 So viel Automatisierung hat natürlich Auswirkungen auf den Arbeitsmarkt. Durch die Umstellung auf Cloud-Computing ist eine hohe Zahl von Arbeitsplätzen für qualifizierte Techniker weggefallen, die vordem die Rechenressourcen Tausender von Einzelorganisationen betreuten. Das trug vermutlich in erheblichem Maße dazu bei, den Boom bei Technologiejobs zu dämpfen, der Ende der 1990er-Jahre eingesetzt hatte.
Das Cloud-Computing-Geschäftsmodell ist ausgesprochen lukrativ und der Wettbewerb zwischen den Schwergewichten der Branche hart. AWS ist mit großem Abstand das rentabelste Geschäftsfeld von Amazon – mit deutlich höheren Margen, als sie von der E-Commerce-Sparte des Unternehmens erzielt werden. 2019 erhöhte sich der auf AWS entfallende Umsatz um 37 Prozent auf 8,2 Milliarden US-Dollar. Der Anteil des Cloud-Dienstes am Gesamtertrag des Unternehmens lag bei rund 13 Prozent.8 Mit einem Anteil am Gesamtmarkt für Cloud-Computing von rund einem Drittel dominiert AWS von Amazon nach wie vor. Microsofts 2008 eingerichteter Azure-Service und die 2010 eingeführte Google Cloud Platform beanspruchen ebenfalls erhebliche Marktanteile. Weitere maßgebliche Akteure sind IBM, der chinesische E-Commerce-Riese Alibaba und Oracle.
Regierungen wie Unternehmen setzen inzwischen stark auf Cloud-Computing. 2019 fiel ein Schlaglicht auf die Komplexitäten und parteipolitischen Spannungen, die mit dieser Abhängigkeit verbunden sind. Damals wurde das JEDI-Projekt des Pentagon zum politischen Spielball. JEDI, ein Akronym für das Projekt Joint Enterprise Defense Infrastructure, ist ein auf zehn Jahre ausgelegter, zehn Milliarden US-Dollar schwerer Auftrag über die Bereitstellung gewaltiger Datenmengen sowie Software- und KI-Kapazitäten für das US-amerikanische Verteidigungsministerium. Ersten Wirbel gab es bei Google, als die Belegschaft – deren politische Einstellungen tendenziell eher am linken Rand anzusiedeln sind – gegen Pläne des Unternehmens protestierte, sich an der Ausschreibung für ein Militärprojekt zu beteiligen. Die Proteste der Beschäftigten veranlassten Google schließlich dazu, sich aus dem Rennen zu nehmen. Drei Tage vor Ablauf der Ausschreibungsfrist zog das Unternehmen sein Angebot für den JEDI-Auftrag zurück.9
Den Zuschlag für das Projekt erteilte das Pentagon schließlich Microsoft Azure, doch Amazon, das wegen seiner Führungsstellung in dem Sektor als aussichtsreicher Bewerber gegolten hatte, wandte unverzüglich ein, dass die Entscheidung politisch motiviert sei. Im Dezember 2019 reichte Amazon eine Klage ein, in der es die Entscheidung wegen Präsident Donald Trumps offener Abneigung gegen Amazon-CEO Jeff Bezos als ordnungswidrig parteiisch bezeichnete. Bezos ist auch Eigentümer der Washington Post, die der Regierung Trump sehr kritisch gegenüberstand. Im Februar 2020 erließ ein US-Bundesrichter eine Anordnung, die die Auftragsvergabe an Microsoft vorerst verhinderte.10 Einen Monat später äußerte das Verteidigungsministerium, es werde seine Entscheidung überdenken.11
Das alles macht mehr als deutlich, wie heftig und manchmal auch politisch brisant auf dem Markt für Cloud Computing sicherlich künftig gekämpft werden wird. Und im Mittelpunkt dieser Wettbewerbsdynamik steht die KI-Kapazität, die sich zu einer immer entscheidenderen Komponente der von führenden Cloud-Computing-Anbietern gebotenen Dienstleistungen entwickelt. Die kommerzielle Bedeutung von Deep Learning offenbarte sich bereits ganz zu Anfang in den Anstrengungen der Tech-Giganten, jeweils eigene zukunftsweisende Dienste für Verbraucher und Unternehmen anzubieten. So werden etwa Alexa von Amazon, Siri von Apple und der Assistant und Übersetzungsdienst von Google mithilfe neuronaler Netze betrieben, die in internen Rechenzentren auf spezieller Hardware laufen. Von da aus sind die Deep-Learning-Kapazitäten inzwischen vollständig in die von denselben Unternehmen angebotenen Cloud-Dienste migriert und haben sich inzwischen zu einem der wichtigsten Parameter für die Differenzierung der Anbieter entwickelt. So hat beispielsweise Google die Popularität seiner Tensor-Flow-Plattform genutzt, um seinen Cloud-Kunden direkten Zugriff auf die leistungsfähige Hardware zu offerieren, die auf der Grundlage seiner TPU-Chips entwickelt wurde. Amazon seinerseits bietet Deep-Learning-Kapazitäten, die die neuesten GPUs einsetzen, und lässt seine Kunden Anwendungen nutzen, die unter Einsatz von TensorFlow oder verschiedenen anderen Plattformen für maschinelles Lernen erstellt wurden. Amazon behauptet sogar, dass 85 Prozent aller Cloud-KI-Anwendungen, die mit TensorFlow von Google entwickelt wurden, de facto auf Amazons AWS-Dienst laufen.12
Die großen Cloud-Anbieter stehen unter unablässigem Druck, mehr Flexibilität und die besseren Tools anzubieten und auf jeden Vorteil, den ein Konkurrent für sich verbucht, umgehend zu reagieren. Ein Beispiel für Innovation an vorderster Front der Technik: Intel stellte im März 2020 über die Cloud ein experimentelles neuromorphes Rechensystem zur Verfügung. Dieses unter Einsatz von 768 der dem menschlichen Gehirn nachempfundenen Loihi-Chips von Intel entwickelte System umfasst 100 Millionen Hardware-Neuronen, was in etwa dem Gehirn eines Kleinsäugers entspricht.13 Sollten sich derartige Architekturen als effektiv erweisen, dürfte mit ziemlicher Sicherheit in Kürze eine neuromorphe Schlacht zwischen den großen Cloud-Anbietern entbrennen. Die Unternehmen bemühen sich, sich gegenseitig zu überbieten und sich einen immer größeren Anteil des ständig wachsenden Marktes für KI-orientierte Rechenressourcen zu sichern. Dadurch entsteht eine Cloud-Ökosphäre, die von Grund auf aufgebaut wird, um künstliche Intelligenz zu liefern.
Dass Microsoft 2019 Milliarden in das KI-Forschungsunternehmen OpenAI investiert hat – das neben DeepMind von Google einer der führenden Deep-Learning-Pioniere ist –, ist eine Fallstudie für die natürlichen Synergien zwischen Cloud Computing und künstlicher Intelligenz. OpenAI wird in der Lage sein, die gewaltigen Rechenressourcen zu nutzen, die Microsofts Azure-Dienst bereitstellt – angesichts von dessen Fokus auf dem Aufbau immer größerer neuronaler Netze eine Grundvoraussetzung. Nur Cloud Computing kann Rechenleistung in dem Umfang liefern, wie sie OpenAI für seine Forschungsarbeit benötigt. Microsoft wiederum erhält dadurch Zugang zu praktischen Innovationen, die aus den laufenden Bestrebungen von OpenAI hervorgehen, eine starke künstliche Intelligenz zu entwickeln. Das dürfte zu Anwendungen und Kapazitäten führen, die sich in Azures Cloud-Dienste integrieren lassen. Möglicherweise ähnlich bedeutsam: Die Marke Azure wird von einer Verbindung zu einer der führenden KI-Forschungsorganisationen weltweit profitieren und Microsoft im Wettbewerb mit Google besser aufstellen, dem zum Teil deshalb vielfach die Spitzenposition im KI-Segment zugeschrieben wird, weil DeepMind zum Google-Konzern gehört.14
Die Synergieeffekte beschränken sich aber längst nicht auf dieses Beispiel. Praktisch jede maßgebliche Initiative in der KI-Sphäre, von Forschungslaboren an Universitäten über KI-Start-ups bis hin zu praktischen Anwendungen für maschinelles Lernen, die von großen Konzernen entwickelt werden, stützt sich zunehmend auf diese quasi universelle Ressource. Cloud Computing ist wohl die wesentliche Einzelvoraussetzung für die Weiterentwicklung künstlicher Intelligenz zu einem Versorgungsgut, das eines Tages so allgegenwärtig sein könnte wie elektrischer Strom. Fei-Fei Li, Architektin des ImageNet-Datensatzes und -Wettbewerbs, der zum Katalysator für die Deep-Learning-Revolution werden sollte, ließ sich von ihrer seinerzeitigen Position in Stanford für ein Sabbatjahr freistellen, um von 2016 bis 2018 als wissenschaftliche Leiterin von Google Cloud zu fungieren. Sie formuliert das so: Wenn „man über die Verbreitung einer Technologie wie KI nachdenkt, ist die Cloud die beste und größte Plattform, weil es nichts von Menschen Erfundenes gibt, das für so viele Menschen verfügbar ist. Allein Google Cloud wird zu jedem beliebigen Zeitpunkt von Milliarden Menschen genutzt.“15
Die Weiterentwicklung Cloud-gestützter künstlicher Intelligenz zum allgemeinen Versorgungsgut wird durch die Herausbildung neuer Tools beschleunigt, die die Technologie breiten Bevölkerungsgruppen zugänglich machen – auch solchen, die nicht unbedingt über einen ausgeprägten technischen Hintergrund verfügen. Plattformen wie TensorFlow und PyTorch erleichtern den Aufbau von Deep-Learning-Systemen, werden aber im Großen und Ganzen noch von hochqualifizierten Experten genutzt, die häufig promovierte Informatiker sind. Neue Tools wie AutoML von Google, das im Januar 2018 eingeführt wurde, automatisieren viele der technischen Details weitgehend und senken die Einstiegsbarrieren erheblich. Dadurch bekommen weit mehr Menschen Gelegenheit, Deep Learning zu nutzen, um praktische Probleme zu lösen. Bei AutoML handelt es sich im Grunde um den Einsatz künstlicher Intelligenz zur Entwicklung weiterer künstlicher Intelligenz. Das ist Bestandteil eines Trends, den Fei-Fei Li als „die Demokratisierung der KI“ bezeichnet.
Wie immer ist der Wettbewerb zwischen den Cloud-Anbietern ein starker Innovationstreiber. Amazons Deep-Learning-Tools für die AWS-Plattform werden ebenfalls benutzerfreundlicher. Neben den Entwicklungstools bieten sämtliche Cloud-Dienste vorgefertigte Deep-Learning-Komponenten, die jederzeit einsetzbar sind und in Anwendungen integriert werden können. So offeriert beispielsweise Amazon Pakete für Spracherkennung und die Verarbeitung natürlicher Sprache sowie ein „Empfehlungsmodul“, das Vorschläge machen kann – so wie die für Onlinekäufer oder Filmkonsumenten eingeblendeten Alternativangebote, die ebenfalls für sie von Interesse sein könnten.16 Das umstrittenste Beispiel für derartige „Fertigfunktionen“ ist der AWS-Dienst Rekognition, der es Entwicklern erleichtert, Gesichtserkennungstechnologie einzusetzen. Amazon geriet unter Beschuss, weil es Rekognition Strafverfolgungsbehörden zur Verfügung gestellt hat: Manche Tests lassen nämlich vermuten, dass das Paket möglicherweise anfällig für hautfarbe- oder geschlechtsbedingte Vorurteile ist – eine ethische Frage, die wir im siebten und achten Kapitel noch eingehender beleuchten.17
Ein zweiter maßgeblicher Trend ist das Aufkommen von Online-Schulungsplattformen, die es jedem mit dem nötigen Antrieb und ausreichenden mathematischen Fähigkeiten ermöglichen, sich Grundkompetenzen in Deep Learning anzueignen. Beispiele dafür sind unter anderem deeplearning.ai, das über die Online-Bildungsplattform Coursera angeboten wird, und fast.ai, das absolut kostenlose Onlinekurse und Softwaretools bietet, die Deep Learning leichter zugänglich machen.18 In einem Arbeitsmarkt, in dem der Weg in die obere Mittelschicht fast immer offizielle Qualifikationen erfordert, die einigen Zeit- und Geldaufwand voraussetzen, ist die Entwicklung zum Deep-Learning-Fachmann eine seltene Ausnahme – zumindest im aktuellen Umfeld, in dem die Nachfrage nach solchen Kräften weit höher ist als das Angebot. Jeder, der den Onlinekurs erfolgreich absolviert und nachweist, dass er sich mit tiefen neuronalen Netzen auskennt, hat gute Aussichten auf den Start in eine lukrative, erfüllende Karriere.
Je besser die Schulungen und Tools und je häufiger Entwickler und Unternehmer KI-Anwendungen einsetzen, desto wahrscheinlicher dürften wir eine Art kambrischer Explosion erleben, wenn die Technologie auf verschiedenste Weise eingesetzt wird. Ähnliches passiert auf anderen bedeutenden Computing-Plattformen. In den 1990er-Jahren, als sich Microsoft Windows als dominante PC-Plattform herauskristallisierte, leitete ich ein kleines Softwareunternehmen im Silicon Valley. Die Entwicklung von Windows-Anwendungen war anfangs eine sehr technische Angelegenheit, für die man die Programmiersprache C beherrschen und tausendseitige Handbücher voller obskurer Details studieren musste. Weil anwenderfreundlichere Tools entwickelt wurden, darunter leicht erlernbare Programmiersprachen wie Visual Basic von Microsoft, konnten bald viel mehr Menschen unter Windows programmieren, was die Zahl der Anwendungen prompt explodieren ließ. Die mobile Computertechnik hat sich ganz ähnlich entwickelt – und sowohl der App Store von Apple als auch der Android Play Store bieten inzwischen eine scheinbar unbegrenzte Zahl von Apps für so ziemlich jeden vorstellbaren Zweck. Eine derartige Explosion dürfte sich auch bei der künstlichen Intelligenz ereignen, insbesondere in Bezug auf Deep Learning. Die Entwicklung der KI zum neuen Strom wird vorerst mehr von einem laufend wachsenden Spektrum konkreter Anwendungen getragen als von einer stärkeren maschinellen Intelligenz.
Das letzte Puzzleteilchen der „künstlichen Intelligenz als neuer Elektrizität“ ist die drastisch verbesserte Konnektivität. Der wichtigste Treiber dafür ist vermutlich die flächendeckende Einführung der fünften Mobilfunkgeneration (5G) in den kommenden Jahren. 5G dürfte die mobile Datenübertragungsgeschwindigkeit um mindestens den Faktor 10 – vielleicht sogar 100 – steigern und dabei die Netzkapazität deutlich erhöhen, sodass Engpässe weitgehend ausgeräumt werden.19 Dies wird unvermeidlich zu einer noch weit stärkeren Vernetzung der Welt führen, in der Kommunikation quasi unverzögert stattfindet. Wir können uns das folgendermaßen vorstellen: Praktisch alles – einschließlich Haushalts- und sonstiger Geräte, Fahrzeuge, Industriemaschinen und sehr viele Elemente unserer physischen Infrastruktur – wird dann vernetzt sein und vielfach durch intelligente Algorithmen überwacht und gesteuert werden, die in der Cloud laufen. Diese Zukunftsvision wird auch als das „Internet der Dinge“ bezeichnet und dürfte eine Welt einläuten, in der beispielsweise die Sensoren in Ihrem Kühlschrank oder anderswo in Ihrer Küche feststellen, dass Ihnen beispielsweise die Milch ausgeht, diese Information dann an einen Algorithmus weitergeben, der Sie darauf aufmerksam macht oder vielleicht sogar automatisch online Milch nachbestellt. Funktioniert der Kühlschrank nicht richtig, kann dieses Problem vermutlich automatisch oder per Fernwartung von einem anderen Algorithmus gelöst werden. Ausfallsgefährdete Teile werden rechtzeitig erkannt und ihr Austausch veranlasst. Die Ausweitung dieses Modells auf unsere gesamte Wirtschaft und Gesellschaft dürfte gewaltige Effizienzsteigerungen bewirken, wenn Maschinen, Anlagen und Infrastruktur Probleme automatisch erkennen und häufig selbstständig beheben, sobald sie entstehen. Das Internet der Dinge wird in vieler Hinsicht quasi dieselben Algorithmen auf die große weite Welt loslassen, die derzeit auf übermenschlichem Effizienzniveau Cloud-Rechenzentren betreiben. Das alles wird jedoch mit bestimmten ausgesprochen realen Risiken einhergehen, insbesondere in den Bereichen Sicherheit und Datenschutz. Auf diese kritischen Fragen werden wir uns im achten Kapitel fokussieren.
Die immer stärker vernetzte Welt wird sich zu einer leistungsfähigen Plattform für die Bereitstellung künstlicher Intelligenz entwickeln. Auf absehbare Zeit werden die wichtigsten KI-Anwendungen auf die Cloud konzentriert sein. Doch nach und nach wird sich die maschinelle Intelligenz breiter verteilen. Geräte, Maschinen und Infrastruktur werden immer intelligenter werden, wenn ihnen die neuesten spezialisierten KI-Chips eingesetzt werden. An diesem Punkt dürften Innovationen wie neuromorphes Computing einen gewaltigen Effekt haben. Das alles läuft darauf hinaus, dass es ein leistungsfähiges neues Versorgungssystem geben wird, über das maschinelle Intelligenz bei Bedarf praktisch überall zur Verfügung gestellt wird.
Da die großen Cloud-Anbieter über den Preis und die Leistungsfähigkeit ihrer Technologie konkurrieren, dürften die Kosten für den Zugang zu der Hard- und Software, die künstliche Intelligenz ermöglichen, mit ziemlicher Sicherheit fallen. Gleichzeitig werden die über die Cloud verfügbaren KI-Dienste laufend verbessert, da Tech-Riesen um Wettbewerbsvorteile wetteifern, indem sie die neuesten Innovationen einbauen, die von Spitzenforschern entwickelt werden. Im Zuge dieser Entwicklung werden auch die fortschrittlichsten KI-Technologien immer mehr zur Massenware werden und zu Kosten zur Verfügung stehen, die gar nicht oder nur geringfügig über das hinausgehen, was Cloud-Computing-Kunden ohnehin für die Bereitstellung ihrer Daten zahlen. Dafür gibt es bereits erste Belege. Unternehmen wie Google, Facebook und Baidu haben ihre Deep-Learning-Software in quelloffener Form veröffentlicht. Man könnte auch sagen, sie verschenken sie. Das Gleiche gilt für das Gros der von Organisationen wie DeepMind und OpenAI durchgeführten Spitzenforschung. Beide veröffentlichen ihre Ergebnisse offen in führenden wissenschaftlichen Fachblättern und stellen ihre Deep-Learning-Systeme bis in alle Einzelheiten der Allgemeinheit zur Verfügung.
Eines gibt jedoch kein Unternehmen kostenlos preis: seine Daten. Das bedeutet, dass die starke Synergie zwischen KI-Technologie und den riesigen Datenmengen, die sie verbraucht, unweigerlich in eine Richtung kippen wird. Nahezu die gesamte Wertschöpfung fällt demjenigen zu, dem die Daten gehören. Diese weithin anerkannte Tatsache lässt viele annehmen, dass die Tech-Riesen jeden Bereich absolut dominieren werden, der sich mit Big Data oder künstlicher Intelligenz überschneidet. Dabei wird aber übersehen, dass das Eigentum an den Daten von der Industrie und der Wirtschaft eindeutig vertikalisiert wird. Unternehmen wie Google, Facebook und Amazon kontrollieren natürlich unvorstellbare Datenschätze. Diese beschränken sich jedoch generell auf Bereiche wie Onlinesuche, Interaktionen in sozialen Medien und Onlineeinkäufe. In diesen Segmenten dürften die etablierten Anbieter vermutlich dominant bleiben, doch in der Wirtschaft und der Gesellschaft kursieren weit mehr Daten gänzlich anderer Art, die von Staaten, Organisationen und Unternehmen aus anderen Branchen kontrolliert werden.
Daten seien das neue Öl, heißt es oft. Bedienen wir uns dieser Analogie, könnte man durchaus sagen, dass die Tech-Unternehmen in vieler Hinsicht eine ähnliche Rolle spielen wie beispielsweise der Öldienstleister Halliburton: Sie liefern die Technik und das Know-how, die für die Wertschöpfung aus der betreffenden Ressource erforderlich sind. Natürlich kontrollieren die Tech-Giganten auch selbst riesige Datenvorräte, doch noch liegt der Löwenanteil dieser ständig wachsenden globalen Ressource in anderen Händen. Unternehmen wie Krankenversicherungen, Kliniknetze und natürlich staatliche Gesundheitsdienste haben Zugriff auf Daten von immensem Wert. Natürlich werden sie die neueste KI-Technologie einsetzen, die große Technologieunternehmen entwickeln und über die Cloud bereitstellen, doch den aus ihren Daten gewonnenen Wert werden sie überwiegend für sich behalten. Dasselbe gilt für die gewaltigen Datenmengen, die durch Finanztransaktionen, Reisebuchungen, Onlinebewertungen, Kundenverhalten im stationären Einzelhandel und die Betriebsdaten erzeugt werden, die unzählige in Fahrzeuge und Industriemaschinen eingebaute Sensoren liefern. In jedem Fall wird das allgegenwärtige neue Versorgungsgut der maschinellen Intelligenz auf bestimmte Datenarten angewandt werden, die im Eigentum von über die gesamte Wirtschaft gestreuten Körperschaften stehen.
Eine maßgebliche Folge ist, dass ein großer Teil der Wertschöpfung durch die Anwendung künstlicher Intelligenz auf andere Stellen entfällt als die offensichtlichen potenziellen Nutznießer aus dem Technologiesektor. Der gewaltige Nutzen aus dem Einsatz von KI wird breit gestreut sein. Wieder bietet sich der Vergleich mit der Stromversorgung an. Wer zieht den größten Wert daraus? Die Stromversorger? Die Kernkraftindustrie? Nein, es sind Unternehmen wie Google und Facebook, die ungeheure Mengen Strom verbrauchen und Wege gefunden haben, aus diesem allgegenwärtigen Versorgungsgut unvorstellbar viel Wert zu realisieren. Natürlich hinkt der Vergleich. Zweifelsohne werden die Innovationspioniere an vorderster Front der künstlichen Intelligenz und die Bereitsteller dieser fortlaufend optimierten Ressource enormen Wert und große Macht auf sich vereinen. Doch der aus der Anwendung von KI entstehende Nutzen – vor allem, wenn sich diese zunehmend zum Massenversorgungsgut entwickelt – dürfte zum größten Teil anderswo anfallen.