Erhalten Sie Zugang zu diesem und mehr als 300000 Büchern ab EUR 5,99 monatlich.
Das Jahr 2084 liegt für uns noch weit in der Zukunft. Doch wie wird die Welt, wie wir sie kennen, dann aussehen? Welche technischen Neuerungen werden dann unser Leben bestimmen? Was wird für uns normal sein, was jetzt noch utopisch klingen mag? Der bekannte Mathematikprofessor John Lennox zeigt, was künstliche Intelligenz, Biotechnik und neueste technologische Entwicklungen jetzt schon leisten, was Nutzen und Gefahren sind und wohin sie uns führen können.
Sie lesen das E-Book in den Legimi-Apps auf:
Seitenzahl: 305
Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:
SCM R. Brockhaus ist ein Imprint der SCM Verlagsgruppe, die zur Stiftung Christliche Medien gehört, einer gemeinnützigen Stiftung, die sich für die Förderung und Verbreitung christlicher Bücher, Zeitschriften, Filme und Musik einsetzt.
ISBN 978-3-417-27034-1 (E-Book)
ISBN 978-3-417-24174-7 (lieferbare Buchausgabe)
Datenkonvertierung E-Book: CPI books GmbH, Leck
Dieses Buch erscheint in der Reihe Glaube und Wissenschaft des INSTITUTS FÜR GLAUBE UND WISSENSCHAFT.
Herausgeber der Reihe ist Dr. Alexander Fink.
© der deutschen Ausgabe 2022
SCM R.Brockhaus in der SCM Verlagsgruppe GmbH
Max-Eyth-Straße 41 · 71088 Holzgerlingen
Internet: www.scm-brockhaus.de | E-Mail: [email protected]
Originally published in English under the title of 2084: Artificial Intelligence and the Future of Humanity.
Copyright © 2020 by John C. Lennox
Published by arrangement with Thomas Nelson, a division of HarperCollins Christian Publishing, Inc.
Soweit nicht anders angegeben, sind die Bibelverse folgender Ausgabe entnommen:
Neues Leben. Die Bibel, © der deutschen Ausgabe 2002 und 2006
SCM R.Brockhaus in der SCM Verlagsgruppe GmbH Witten/Holzgerlingen.
Textstand 21|11
Weiter wurde verwendet:
Elberfelder Bibel 2006, © 2006 by SCM R.Brockhaus in der SCM Verlagsgruppe GmbH Witten/Holzgerlingen (ELB)
Lektorat: Dr. Alexander Fink, Tabea Tacke
Umschlaggestaltung: Daniel Salewski, SCM Bundes-Verlag gGmbH Witten
Titelbild: gettyimages.de / iStock / Anhelina Lisna
Satz: Burkhard Lieverkus, Wuppertal
Allen Enkelkindern dieser Erde, meine eigenen eingeschlossen – Janie Grace, Herbie, Freddie, Sally, Lizzie, Jessica, Robin, Rowan, Jonah und Jesse –, in der Hoffnung, dass dieses Buch ihnen helfen wird, den Herausforderungen einer von künstlicher Intelligenz beherrschten Welt zu begegnen.
Über den Autor
Vorwort
Kapitel 1: Das Territorium abstecken
Was ist KI?
Kapitel 2: Die erste große Frage: Woher kommen wir?
Kapitel 3: Die zweite große Frage: Wohin gehen wir?
Kapitel 4: Schwache KI: Bringt sie uns eine wunderbare Zukunft?
Kapitel 5: Schwache KI: Vielleicht ist die Zukunft doch nicht ganz so wunderbar?
2084 – Big Brother und Big Data
Überwachungskapitalismus
Überwachungskommunismus
KI im Militär: Autonome Waffen
Kapitel 6: Den Menschen verbessern
Was steht hinter diesem Wunsch?
Hararis Agenda für das 21. Jahrhundert
Transhumanismus
Kapitel 7: Künstliche Intelligenz: Sieht die Zukunft finster aus?
Sind Gehirne Computer?
Evolution neu vorgestellt
Szenarien der Weltherrschaft durch AGI
Kapitel 8: Die Genesis-Akte: Was ist der Mensch?
Die biblische Geschichte
Menschliches Leben basiert auf Materie
Menschen haben einen Sinn für Ästhetik
Menschen sind neugierig und interessiert
Intelligenz und Bewusstsein entkoppeln
Den Menschen wird eine Aufgabe gegeben
Menschen und Sprachfähigkeit
Gott schuf die Beziehung zwischen Mann und Frau
Kapitel 9: Der Ursprung des menschlichen Moralempfindens
KI und Moral
Die Jagd nach Unsterblichkeit
Der Traum der Humanisten
Kapitel 10: Der wahre Homo Deus
Die biblische Sicht auf Superintelligenz
Der körperliche Tod ist nicht einfach ein technisches Problem: Die Bedeutung der Auferstehung Christi
Die Menschheit wird triumphieren
Kapitel 11: Der Mann, der Gott ist, kehrt zurück
Was Christus über die Zukunft lehrte
Yuval Hararis »technisches Problem« und die wirkliche Lösung
Biblische Perspektiven zum Auftritt eines Menschen, der von sich behauptet, der Homo Deus zu sein
Kapitel 12: Homo Deus in der Offenbarung
Ein bemerkenswertes Zukunftsszenario in einer uralten Vision
Weltregierung?
Kapitel 13: Endzeit
Eine Vorwegnahme von Hararis Homo Deus?
Grund zur Hoffnung
Zum Schluss
Anmerkungen
JOHN LENNOX (Jg. 1943) ist emeritierter Mathematikprofessor an der Universität Oxford und Autor zahlreicher Bücher zum Verhältnis von Glaube, Ethik und Wissenschaft. Durch Vorträge auf Tagungen und Konferenzen ist er auch in Deutschland bekannt.
Dieses Buch stellt den Versuch dar, der Frage nachzugehen, welchen Weg die Menschheit im Hinblick auf technologischen Fortschritt, Bioengineering und vor allem Künstliche Intelligenz (KI) einschlägt. Werden wir einmal in der Lage sein, künstliches Leben und superintelligente Wesen zu erschaffen? Werden sich Menschen einmal so modifizieren können, dass aus ihnen etwas völlig anderes wird? Und wenn ja: Welche Auswirkungen haben Fortschritte in der KI dann auf unsere Weltanschauung im Allgemeinen und auf die Gottesfrage im Besonderen?
Ich hoffe, dass der Titel dieses Buchs, der sich an den gleichnamigen Roman von George Orwell anlehnt, nicht zu anmaßend klingt. Denn erstens ist mein Buch kein dystopischer Roman und zweitens bin ich nicht George Orwell. Den Titel schlug mir mein Kollege Prof. Peter Atkins aus Oxford auf dem Weg zu einer Universitätsveranstaltung vor, bei der wir unter dem Titel »Kann die Wissenschaft alles erklären?« als Debattengegner einander gegenüberstanden. Ich bin ihm zu Dank verpflichtet – nicht nur für diese Idee, sondern auch für verschiedene lebhafte Begegnungen, bei denen wir uns vor Publikum über Themen rund um Gott und Wissenschaft ausgetauscht haben.
Auch anderen gilt mein Dank, vor allem Dr. Rosamund Picard vom MIT Media Laboratory für ihre höchst scharfsinnigen Anmerkungen. Auch David Cranston, Prof. Danny Crookes, Prof. Jeremy Gibbons, Dr. David Glass sowie meinem wie immer äußerst hilfreichen wissenschaftlichen Assistenten Dr. Simon Wenham möchte ich meinen Dank aussprechen.
Beruflich beschäftige ich mich mit Mathematik und Wissenschaftsphilosophie – nicht mit KI –, und mancher Experte mag ein wenig verwirrt sein, dass ich in sein Terrain eindringe. Doch meine Absicht ist eine andere: Es gibt, so habe ich den Eindruck, verschiedene Ebenen, auf denen man sich auf KI einlassen kann. Es gibt die Vordenker und Menschen, die die Software schreiben, die in KI-Systemen eingesetzt wird. Dann gibt es die Ingenieure, die KI-Hardware bauen. Dann haben wir die Leute, die verstehen, wozu KI in der Lage ist, und neue Anwendungen entwickeln. Schließlich gibt es Autoren – manche mit wissenschaftlicher Ausbildung, manche ohne –, die sich dafür interessieren, welche Auswirkungen KI in soziologischer, ökonomischer und ethischer Hinsicht hat.
Natürlich muss man nicht wissen, wie man ein autonomes Fahrzeug oder eine selbstlenkende Waffe baut, um zu einem sachkundigen ethischen Urteil zu dieser Thematik zu kommen. Man muss nicht wissen, wie man einen KI-Einkaufstracker programmiert, um eine fundierte Meinung dazu zu vertreten, wie so etwas unsere Privatsphäre verletzen kann.
Tatsächlich besteht in all diesen Gruppen, die sich auf ganz unterschiedlichem Niveau mit KI befassen, ein großes Interesse an populärwissenschaftlichen Büchern für den nachdenklichen Leser. Auch dieses Buch fällt in diese Kategorie, und ich danke allen, die bereits Bücher zu diesem Thema verfasst haben und Experten auf unterschiedlichen Gebieten sind.
Wir Menschen haben eine unstillbare Neugier. Von Anbeginn stellen wir Menschen Fragen, vor allem die großen Fragen des Lebens nach unserem Ursprung und unserer Bestimmung: Wo komme ich her und wo gehe ich hin? Dass diese Fragen wichtig sind, liegt auf der Hand. Unsere Antwort auf die erste Frage prägt unser Selbstbild, die Antwort auf die zweite gibt uns ein Lebensziel. Zusammengenommen tragen die Antworten auf beiden Fragen dazu bei, unsere Weltanschauung zu prägen zu einem Narrativ, das unserem Leben einen Sinn gibt.
Das Problem ist, dass es keine einfachen Fragen sind, was wir schon daran erkennen, dass uns viele und sich widersprechende Antworten gegeben werden. Doch im Großen und Ganzen haben wir uns davon nicht abschrecken lassen. Im Laufe der Jahrhunderte haben Menschen ganz unterschiedliche Antworten vorgeschlagen, die aus der Naturwissenschaft, manchmal auch aus Philosophie und Religion stammen.
Zwei der bekanntesten futuristischen Szenarios sind die Romane Schöne neue Welt von Aldous Huxley aus dem Jahr 1932 sowie 1984, den Orwell 1949 veröffentlichte. Beide gelten als äußerst einflussreiche englische Romane. Orwells Buch wurde 2005 im Time-Magazine zu einem der besten englischsprachigen Romane zwischen 1923 und 2005 gekürt. Beide Romane sind Dystopien; laut Definition des Oxford English Dictionary (OED) »schildern sie einen unvorstellbar furchtbaren imaginären Ort oder eine unvorstellbar furchtbare imaginäre Zeit«. Diese unglaublich furchtbaren Orte, die die beiden Autoren schildern, sehen ganz unterschiedlich aus, und diese Unterschiede, die uns hilfreiche Einsichten liefern, die uns später nützen können, werden vom Soziologen Neil Postman in seinem mittlerweile zum Klassiker avancierten Buch Wir amüsieren uns zu Tode kurz und knapp erklärt:
Orwell warnt davor, dass wir von einer von außen kommenden Macht unterdrückt werden. Aber in Huxleys Vision braucht man keinen großen Bruder, um die Menschen ihrer Autonomie, Vernunft und Geschichte zu berauben. Er glaubte, dass die Menschen ihre Unterdrückung lieben und die Technologien bewundern werden, die ihnen ihre Denkfähigkeit nehmen.
Was Orwell fürchtete, waren diejenigen, die Bücher verbieten würden. Was Huxley befürchtete, war, dass es keinen Grund geben würde, ein Buch zu verbieten, denn es würde niemanden geben, der eines lesen wollte. Orwell fürchtete diejenigen, die uns Informationen vorenthalten würden. Huxley fürchtete diejenigen, die uns so viel geben würden, dass wir auf Passivität und Egoismus reduziert würden. Orwell befürchtete, dass die Wahrheit vor uns verborgen bleiben würde. Huxley befürchtete, dass die Wahrheit in einem Meer der Irrelevanz ertrinken würde. Orwell befürchtete, dass wir eine Gesellschaft der Gefangenen werden würden. Huxley befürchtete, dass wir eine triviale Kultur werden würden …
Kurz gesagt, Orwell hatte Angst, dass das, was wir fürchten, uns ruinieren würde. Huxley fürchtete, dass das, was wir uns wünschen, uns ruinieren würde.1
Orwell zeigt uns einen totalitären Staat mit einem lückenlosen Überwachungssystem, »Gedankenkontrolle« und »Neusprech« – Vorstellungen, die heute zunehmend in Verbindung mit neuen Entwicklungen in der KI gebracht werden, insbesondere mit Computertechnologien, die Dinge tun können, zu denen sonst nur der menschliche Verstand in der Lage ist – kurz: die Schaffung eines Verstandes, der den des Menschen nachahmt. Milliarden von Dollar werden heute in die Entwicklung von KI-Systemen gesteckt, und es überrascht daher nicht, dass sich viele Menschen fragen, wohin das führen wird: auf der einen Seite zu einer besseren Lebensqualität durch digitale Unterstützung, medizinischen Innovationen und dem sogenannten Human Enhancement, also der Verbesserung und Erweiterung für den Menschen durch technologische Mittel, auf der anderen Seite zu Angst vor Verlust des Arbeitsplatzes und dem orwellschen Überwachungsstaat.
Sogar der Papst mischt sich ein. Im September 2019 warnte er davor, dass der Wettlauf um Fortschritte in der KI und andere digitale Entwicklungen das Risiko sozialer Ungleichheit mit sich bringen, wenn man nicht gleichzeitig untersuche, ob das dem Allgemeinwohl unter ethischen Gesichtspunkten zuträglich sei: »Wenn technologischer Fortschritt die Ursache von zunehmender und in die Augen fallender Ungleichheit würde, wäre das kein wirklicher und wahrer Fortschritt. Wenn der sogenannte technologische Fortschritt der Menschheit zum Feind des Gemeinwohls würde, würde das einen bedauernswerten Rückschritt in eine Form von Barbarei bedeuten, die uns vom Gesetz des Stärkeren aufgezwungen würde.«2
Die meisten Erfolge, die bisher in der KI erzielt wurden, drehen sich um Systeme, die etwas können, was normalerweise dem menschlichen Verstand vorbehalten ist. In Zukunftsspekulationen malen wir uns heute vor allem aus, wie man die ehrgeizige Aufgabe anpacken könnte, Systeme zu bauen, die alles können, wozu menschliche Intelligenz in der Lage ist. Das bedeutet eine sogenannte künstliche allgemeine Intelligenz (»artificial general intelligence«, AGI) zu schaffen, die nach Auffassung mancher Fachleute innerhalb relativ kurzer Zeit menschliche Intelligenz übertreffen wird – ganz sicher jedenfalls bis 2084 oder noch früher, wenn man manchen Spekulationen Glauben schenken mag. Der eine oder andere stellt sich vor, dass AGI, wenn wir sie jemals erschaffen, die Funktion eines Gottes übernehmen wird, während andere sie als totalitären Despoten betrachten.
Als ich darüber nachdachte, wie ich eine Einführung in diese immer wichtiger werdenden Themen und auch die Ängste und Hoffnungen, die damit verknüpft sind, schreiben könnte, kamen mir drei Bestseller der letzten Zeit in den Sinn. Die beiden ersten wurden von dem israelischen Historiker Yuval Noah Harari verfasst: Eine kurze Geschichte der Menschheit befasst sich, wie bereits im Titel anklingt, mit der ersten unserer beiden Fragen, dem Ursprung der Menschheit, und Homo Deus – Eine Geschichte von Morgen befasst sich mit der Zukunft der Menschheit. Das dritte Buch, Origin von Dan Brown, ist ein Roman so wie die Bücher von Huxley und Orwell. Im Mittelpunkt steht die Anwendung von KI, und zwar in Form eines Thrillers, den man nicht aus der Hand legen mag und der von Millionen von Lesern verschlungen wird, so wie es auch bei den schwindelerregenden Verkaufszahlen seiner bisherigen Bücher war. Sein Buch wird viele Menschen in ihrem Denken beeinflussen, vor allem auch junge Leute. Weil sich in diesem Roman die Fragen des Autors widerspiegeln, ist das Buch auch ein spannender Ausgangspunkt, um selbst ein wenig Forschungsarbeit zu betreiben.
Darüber hinaus bin ich mir bewusst, dass Science-Fiction-Literatur den einen oder anderen dazu angeregt hat, selbst einen naturwissenschaftlichen Beruf zu ergreifen. Allerdings muss ich an dieser Stelle zu Vorsicht raten. Brown behauptet, dass er mithilfe echter wissenschaftlicher Argumente zu seinen Schlussfolgerungen gekommen ist. Obwohl sein Roman eine erfundene Geschichte bleibt, müssen wir seine Argumente und Schlussfolgerung dennoch auf den Prüfstand stellen und auf ihren Wahrheitsgehalt hin untersuchen.
Das ist vor allen Dingen deshalb wichtig, weil ihn eigenen Angaben zufolge vor allem die Frage »Wird Gott die Wissenschaft überleben?« zum Schreiben dieses Romans motiviert hat. Das ist dieselbe Frage, die mich selbst bewegt hat, einige meiner Bücher zu verfassen. Dieses Buch jedenfalls lässt mich zu dem Schluss kommen, dass Gott die Wissenschaft mehr als nur überleben wird, und es lässt mich auch ernsthaft bezweifeln, dass der Atheismus die Wissenschaft überleben wird.3
Zu den Hauptfiguren in Origin gehört Edmond Kirsch, Milliardär, Informatiker und Experte für KI. Er behauptet, die Antwort auf die Fragen nach dem Ursprung und Ziel des Lebens gefunden zu haben. Seine Ergebnisse will er dafür einsetzen, sein Lebensziel zu verwirklichen, nämlich »mittels wissenschaftlicher Wahrheit die Mythen der Religion zu zertrümmern«4. Damit meint er in erster Linie die drei abrahamitischen Religionen Judentum, Christentum und Islam. Vielleicht lässt es sich nicht vermeiden, dass er dabei in erster Linie das Christentum vor Augen hat. Die Lösungen, die er der Weltöffentlichkeit vorlegt, verdankt er seinem Fachwissen im Bereich der KI. Für die Zukunft rechnet er damit, dass Menschen durch technologische Modifikationen verbessert werden.
An dieser Stelle sollte man gleich darauf hinweisen, dass nicht nur Historiker und Science-Fiction-Schriftsteller, sondern auch manche unserer geachtetsten Wissenschaftler glauben, dass die gesamte Menschheit durch Technologie verändert werden wird. Der britische Astronom Lord Rees etwa behauptet, wir könnten keineswegs damit rechnen, dass in ein paar Jahrhunderten die intelligenten Wesen, die dann die Erde beherrschen, uns emotional irgendwie ähnlich sind – obwohl sie möglicherweise mit einem Algorithmus verstehen, wie wir uns damals verhalten haben.5
In die gleiche Kerbe schlägt er, wenn er sagt: »Abstraktes Denken mit einem biologischen Gehirn liegt aller Kultur und Wissenschaft zugrunde. Doch diese Aktivität – die höchstens einige Zehntausend Jahre umfasst – wird nur ein kurzlebiger Vorläufer des viel mächtigeren Intellekts der nicht organischen nachmenschlichen Ära sein. In der fernen Zukunft wird es also nicht der menschliche Verstand, sondern der von Maschinen sein, der den Kosmos umfassend versteht.«6
Dieses Thema wird nicht einfach verschwinden. Es ist nicht nur für Menschen interessant, die unmittelbar in der KI-Forschung arbeiten, sondern auch für Mathematiker und andere Wissenschaftler, deren Arbeit in zunehmendem Maße davon beeinflusst wird. Weil die Forschungsergebnisse und Ideen, die mit KI zusammenhängen, unweigerlich auf uns alle Auswirkungen haben werden, denken ebenso viele Nicht-Naturwissenschaftler darüber nach und schreiben etwas dazu. Ihre Aussagen verdeutlichen, wie wichtig es ist, dass sich zum Beispiel Philosophen, Ethiker, Theologen, Kulturwissenschaftler, Romanschriftsteller und Künstler an der Debatte beteiligen. Schließlich muss man kein Nuklearphysiker oder Klimatologe sein, um mitreden zu können, wenn es um Kernenergie oder die Auswirkungen des Klimawandels geht.
Reden wir zunächst einmal über Roboter. Der Begriff stammt von dem tschechischen (und russischen) Wort für Arbeit robota. Ein Roboter ist eine Maschine, die von einem mit Intelligenz ausgestatteten Menschen entworfen und programmiert wurde, um typischerweise eine bestimmte Aufgabe zu erledigen, die physische Interaktion mit ihrem Umfeld erfordert – eine Aufgabe also, mit der man normalerweise einen mit Intelligenz ausgestatteten Menschen betrauen müsste. In diesem Sinne ahmt ein Roboter mit seinem Verhalten menschliche Intelligenz nach. Deshalb wird intensiv darüber diskutiert, ob man Roboter in gewissem Sinne als intelligent bezeichnen sollte, selbst wenn diese Art von Intelligenz nichts mit dem zu tun hat, was wir unter menschlicher Intelligenz verstehen – und was menschliche Intelligenz ausmacht, ist eine andere große Frage.
Der Begriff Künstliche Intelligenz wurde 1956 auf einem Sommerkurs des Fachbereichs Mathematik an der Dartmouth University geprägt, der von John McCarthy organisiert worden war. Er sagte: »KI ist die Wissenschaft und die Konstruktion von intelligenten Maschinen.«7
Heute wird der Begriff für die intelligenten Maschinen selbst und für die Wissenschaft und Technologie, die zu diesem Ziel führen, gebraucht.
Die Forschung in diesem Bereich hat zwei unterschiedliche Richtungen eingeschlagen. Grob gesagt versucht man erstens, menschliche Denkprozesse zu verstehen und sie mit Computertechnologie zu modellieren. Zweitens sieht man sich menschliches Verhalten genau an und versucht, Maschinen zu konstruieren, die dies nachahmen. Das ist ein wichtiger Unterschied: Es ist eine Sache, eine Maschine zu konstruieren, die zum Beispiel eine menschliche Hand nachahmt, die etwas hochhebt. Aber es ist etwas völlig anderes, eine Maschine zu konstruieren, die die Gedanken eines Menschen simulieren kann, während dieser etwas hochhebt. Ersteres ist viel leichter, und wenn man nur auf Nützlichkeit aus ist, reicht das auch aus. Schließlich beschäftigt sich der Flugzeugbau auch nur damit, Maschinen zu konstruieren, die fliegen können, aber nicht damit, ein elektronisches Hirn zu konstruieren, das einen Vogel simuliert, damit das Flugzeug genauso fliegen kann wie ein Vogel – nämlich, indem es mit den Flügeln schlägt.8
Die Idee, Maschinen zu konstruieren, die bestimmte Aspekte menschlichen und auch tierischen Verhaltens imitieren können, hat eine lange Geschichte. Vor 2000 Jahren konstruierte der griechische Mathematiker Heron von Alexandria ein Becken, das mit mechanischen singenden Vögeln und einer Eule bestückt war, die den Kopf drehen und so die anderen Vögel zum Schweigen bringen konnte. Im Laufe der Jahrhunderte waren Menschen immer wieder fasziniert davon, Automaten zu bauen, also Maschinen, die irgendeinen Aspekt des Lebens imitieren. Eine eindrucksvolle Sammlung von solch ausgefeilten Automaten kann man sich zum Beispiel im London Science Museum, im Wiener Kunsthistorischen Museum oder im Museum Speelklok in Utrecht ansehen. Das Interesse an der Konstruktion solcher Maschinen nahm im 19. Jahrhundert ab, lebte aber in der erzählenden Literatur weiter, wie zum Beispiel in dem 1818 von Mary Wollstonecraft Shelley veröffentlichten Roman Frankenstein. Er gehört zum Urgestein der Science-Fiction-Literatur, seit es dieses Genre gibt.
Zahlen zu berechnen ist im Alltag wichtig, und man hat viel Aufwand betrieben, um diesen Prozess zu automatisieren. Im 17. Jahrhundert baute der französische Mathematiker Blaise Pascal eine mechanische Rechenmaschine,9 mit der er seinen Vater, einen Steuerinspektor, bei seinen langwierigen Berechnungen unterstützen wollte. Im 19. Jahrhundert legte Charles Babbage die Grundlagen der Programmierung, als er die erste Differenzmaschine erfand – eine automatische Additionsmaschine – und später die analytische Maschine, den ersten programmierbaren Rechner. Babbage wird zu Recht als Vater des modernen Computers betrachtet.
Während des Zweiten Weltkriegs nutzte der brillante britische Computerwissenschaftler Alan Turing ausgefeilte elektronische Computertechnologie, um Geräte zu bauen – hier ist vor allem die sogenannte Turing-Bombe zu nennen –, die es ihm und seinem Team in Bletchley Park ermöglichte, den Code der deutschen Enigma-Chiffriermaschine zu knacken, die im militärischen Nachrichtendienst genutzt wurde. Turings Erfindungen und theoretische Arbeiten führten zu seinem Vorschlag einer »lernenden Maschine«. Ihm zufolge würde eine Maschine, die sich mit Menschen unterhalten konnte, ohne dass der Gesprächspartner wusste, dass es sich um eine Maschine handelte, das »Imitatitionsspiel« gewinnen und als »intelligent« gelten. Heute unter der Bezeichnung »Turing-Test« bekannt, lieferte diese Definition einen praktischen Test, ob man einer Maschine Intelligenz zusprechen könne. Wie wir später sehen werden, wurde dieser Ansatz von Philosophen infrage gestellt.
Etwa um dieselbe Zeit im Jahr 1951 bauten Marvin Minsky, Mitgründer des KI-Forschungslabors am MIT, und Dean Edmond den ersten Neurocomputer. Weitere bedeutende Schritte auf dem Weg, die auch in der Öffentlichkeit wahrgenommen wurden, waren der Deep-Blue-Rechner von IBM, der 1997 den Schachweltmeister Garry Kasparov besiegte, und 2016 das AlphaGo-Programm von Google, das erstmals einen menschlichen Go-Spieler schlug und dafür maschinelles Lernen nutzte. Wie wichtig KI ist, wurde 2018 durch den Turing Award – gewissermaßen der »Nobelpreis der Informatik« – noch einmal herausgestellt. Er wurde drei Forschern verliehen, die die Grundlage für den aktuellen KI-Boom legten, vor allem im Bereich Deep Learning.
Die ersten Roboter und KI-Systeme beherrschten das heute sogenannte »maschinelle Lernen« noch nicht. Der Schlüssel zu diesem maschinellen Lernen liegt in Algorithmen von ganz unterschiedlicher Art – zum Beispiel symbolischen oder mathematischen.10 Der Begriff Algorithmus leitet sich vom Namen des berühmten persischen Mathematikers, Astronomen und Geografen Muhammad ibn Musa Chwa-rizmı- (ca. 780–850) ab, der in Latein »Algorismi« heißt.11
Heute meint ein Algorithmus eine »genau definierte Menge von mathematischen oder logischen Operationen für die Durchführung einer bestimmten Aufgabe« (OED). Die Idee dahinter kann man bis auf das alte Babylonien in der Zeit zwischen 1800 und 1600 v.Chr. zurückverfolgen. Der Informatiker Donald Knuth veröffentlichte einige dieser alten Algorithmen und kam zu dem Schluss: »Die Rechnungen, die auf babylonischen Tontafeln notiert wurden, sind nicht nur Lösungen für ganz spezielle Probleme, sondern allgemeine Verfahren, mit denen man eine ganze Klasse von Aufgabenstellungen lösen kann.«12 Und das ist die entscheidende Eigenschaft eines Algorithmus: Wenn man einmal weiß, wie er funktioniert, kann man damit nicht nur eine spezielle Aufgabe, sondern eine ganze Reihe von Aufgaben lösen.
Einer der bekanntesten Algorithmen, den viele von uns schon in der Schule kennengelernt haben, ist der euklidische Algorithmus, mit dem man den größten gemeinsamen Teiler (ggT) zweier natürlicher Zahlen bestimmen kann. Zuerst wurde er von Euklid in seinem Werk Die Elemente beschrieben, das um 300 v.Chr. verfasst wurde. Es handelt sich um einen sehr effizienten Algorithmus, der in der ein oder anderen Form noch heute bei Computern benutzt wird. Dabei werden wiederholt Divisionen mit Rest durchgeführt, bis man das erwünschte Ergebnis erhält. Wie der Algorithmus funktioniert, kann man am besten mit einem Beispiel nachvollziehen – obwohl er für jedes Paar natürlicher Zahlen funktioniert.
Nehmen wir an, wir möchten den ggT von 56 und 12 berechnen. Dann würden wir folgende Schritte machen:
Es ist nicht schwer, das in ein Programm umzusetzen und auf dem Computer ablaufen zu lassen. Ein Blick ins Internet zeigt, dass es Tausende von unterschiedlichen Algorithmen gibt, die wir heute in jedem nur vorstellbaren Bereich von Wissenschaft, Ingenieurwesen und Medizin einsetzen. Das bedeutendste Beispiel ist der Bereich der Robotik, denn Roboter wurden eigens dazu entworfen, eine einfache Aufgabe immer und immer wieder zu wiederholen.
In einem typischen KI-System von heute werden die relevanten Algorithmen in eine Computersoftware eingebettet, die die eingegebenen Daten sortiert, filtert und auswählt. Ein Ansatz verfolgt dabei das Ziel, die neuronalen Funktionen des menschlichen Cortex (neuronale Netzwerke) zumindest in einem gewissen Maße zu simulieren. Allgemein gesprochen kann solch ein System Trainingsdaten nutzen, um (durch maschinelles Lernen13) zu »lernen«, wie man digitale Muster wie Bilder, Klänge, gesprochene oder geschriebene Sprache und Daten erkennt, identifiziert und interpretiert. Ein anderer Ansatz nutzt Computeranwendungen, die auf der Bayesschen Wahrscheinlichkeitslogik basieren, um die verfügbaren Informationen aus einem statistischen Blickwinkel zu analysieren, um davon ausgehend die Wahrscheinlichkeit einer bestimmten Hypothese abzuschätzen. Kurz: Ein System, das mit maschinellem Lernen arbeitet, nimmt Informationen über die Vergangenheit auf und trifft Entscheidungen oder macht Vorhersagen, wenn es mit neuen Informationen gefüttert wird.
An dieser Stelle ist der Hinweis wichtig, dass Algorithmen ausdrücklich so programmiert sind, dass sie Funktionen approximieren, normalerweise mittels numerischer Optimierung, und in den meisten Fällen werden sie auch mit beispielhaften Datensätzen von Ein- und Ausgaben gefüttert sowie mit Kriterien, wann dieser Prozess abgebrochen werden soll, um Leitlinien für die Optimierung zu liefern. Sie verarbeiten aber nicht einfach Daten, ohne dass irgendwo in der Schleife ein Mensch sitzt, der den gesamten Prozess leitet (selbst wenn das in der Form geschieht, dass ein Mensch einen »kritischen« Algorithmus entwirft und ihn in die Schleife einbaut usw.). Der Mensch handelt bewusst. Die Maschine nicht.
In der Frühphase der KI ersonnen Menschen Algorithmen, die bestimmte Probleme lösen sollten. Heute ist das anders. Man entwirft einen allgemeinen lernfähigen Algorithmus, der dann die Lösung eines Problems »erlernt«. Häufig kennt der menschliche Entwickler keinen speziellen Algorithmus für die Lösung des betreffenden Problems und weiß nicht, wie das System zu seinen Schlussfolgerungen gelangt. Die frühen Schachprogramme gehörten zum ersten Typ (sogar Deep Blue ist eher dieser Kategorie zuzurechnen), die moderne Go-Software dagegen zum zweiten.
Hier sind einige Beispiele von KI-Systemen, von denen viele in der Öffentlichkeit bekannt sind:
• Amazon setzt Algorithmen ein, die die Produkte, die Sie und Millionen anderer Kunden online kaufen, zurückverfolgen. Dann wird diese gewaltige Datenbank durchforstet und die Listen werden mit ähnlichen Produkten verglichen, die Sie noch nicht besitzen könnten. Zuletzt werden statistische Methoden eingesetzt, um diejenigen Produkte auszuwählen, die Leute »wie Sie« gekauft haben und die dann auf Ihrem Bildschirm eingeblendet werden.
• Ein computerbasierter Algorithmus kann eine Datenbank mit Bewerbungen durchkämmen und die am besten geeigneten Kandidaten identifizieren. Stellenausschreibungen, die Tausende von Bewerbern anziehen, werden nun von KI-Systemen ausgewertet. Sie führen die ersten Bewerbungsgespräche, wo nicht nur die Antworten der Bewerber auf die gestellten Fragen gesammelt, sondern auch ihre emotionalen Reaktionen gefilmt werden, um zu sehen, wer im Bewerbungsprozess weiterkommt.
• KI wird mit Erfolg bei der Konstruktion energieeffizienter Gebäude, bei Haushaltsgeräten, die mit dem Internet der Dinge verbunden sind, und bei integrierten Transportsystemen eingesetzt.
• Schon heute gibt es KI-Systeme, die mit Datenbanken arbeiten, in denen Tausende Röntgenaufnahmen gespeichert sind, beispielsweise von Lungen in unterschiedlichem Gesundheitszustand, jede mit einer erstklassigen medizinischen Analyse. Das System vergleicht dann eine Röntgenaufnahme Ihrer Lunge mit der Datenbank, um zu überprüfen, ob Sie zum Beispiel an einer bestimmten Form von Krebs leiden oder nicht. Genauer gesagt extrahiert es statistische Daten über visuelle Muster in der Röntgenaufnahme und vergleicht sie mit anderen extrahierten Mustern in der Datenbank. Solche Systeme können in manchen Fällen genauere Diagnosen stellen als die besten menschlichen Ärzte.
• Astronomen setzen KI und maschinelles Lernen ein, um schnelle Radioblitze aus weit entfernten Galaxien zu identifizieren, und zwar auf Grundlage einer gewaltigen Datenbank, in der Signale von Radioteleskopen gesammelt werden. Bis September 2018 wurden zum Beispiel 72 neue Signale gefunden, die nun im Rahmen des SETI-Projekts untersucht werden. KI wird auch für die automatisierte Erkennung von Galaxien eingesetzt.
• Autonome Fahrzeuge werfen als Maschinen ohne Ichbewusstsein sofort ethische Fragen und Probleme auf, weil man sie auch für kritische Situationen programmieren muss, was sie wiederum vermeiden sollten. Interessanterweise agiert der Autopilot in einem Flugzeug nicht völlig autonom, obwohl man mit einigem Recht behaupten könnte, dass Flugzeuge einfacher zu steuern sind als selbstfahrende Autos. Der Grund könnte durchaus darin liegen, dass die Fluggesellschaften im Geschäft bleiben wollen, denn im Grunde wirft es keine ethische Frage auf, wer im Falle eines Flugzeugabsturzes die Verantwortung trägt, ganz egal, ob dabei einige Menschen bewusst geopfert würden, um andere zu retten.
• Gesichtserkennung befindet sich heute auf einem hohen Entwicklungsstand. Sie kommt unter anderem auch in Kneipen zur Anwendung. Dort wird überprüft, wer als Nächstes an der Reihe ist, damit sich niemand vordrängelt. Überwachungskameras sind heute überall anzutreffen und werden von der Polizei eingesetzt, um kriminellen Aktivitäten auf die Spur zu kommen. Man kann solche Überwachungssysteme allerdings auch für soziale Kontrolle missbrauchen. Später werden wir uns die ethischen Fragestellungen, die sich dadurch ergeben, noch einmal genauer anschauen.
• Autonome Waffen und die damit verbundenen ethischen Probleme werden international diskutiert.
Schon diese kurze Liste macht deutlich, dass viele, vielleicht sogar alle der genannten Entwicklungen ethische Fragen aufwerfen – von Finanzmanipulation über Betrug bis hin zu Verletzung der Privatsphäre und sozialer Kontrolle. Die Gefahr liegt darin, dass sich viele Menschen von ihrer Begeisterung für neue Technologien mitreißen lassen und sich sagen: »Wenn man das tun kann, sollte man es auch tun« –, ohne die sich daraus ergebenden ethischen Probleme zu durchdenken. Man muss jedoch einräumen, dass ethische Fragestellungen für die treibenden Kräfte in der Welt der KI immer wichtiger werden. Die große Frage, der man sich stellen muss, lautet:
Wie kann man in einen Algorithmus, der weder Herz, Seele noch Verstand besitzt, eine ethische Dimension einbauen?
Man muss wissen, dass die meisten KI-Systeme, wie etwa die oben erwähnten, in der Regel entworfen werden, um eine einzige Aufgabe zu erledigen, wie zum Beispiel ein Fahrzeug zu steuern, eine Krankheit zu diagnostizieren oder auf Grundlage von Informationen aus der Vergangenheit Voraussagen für die Zukunft zu treffen. Um das im Hinterkopf zu behalten, spricht man oft von schwacher KI. Weil bis heute sämtliche KI-Anwendungen »schwach« sind, wird manchmal der Begriff kognitive Technologien bevorzugt, um das abzudecken, was bisher auf der Suche nach intelligenten Maschinen erreicht wurde.
Nick Bostrom und Eliezer Yudkowsky merken dazu an:
Die heutigen KI-Algorithmen, die mit dem Menschen vergleichbare oder bessere Leistungen abliefern, werden bewusst so programmiert, dass sie nur ein einziges begrenztes Gebiet beherrschen. Deep Blue wurde Schachweltmeister, kann aber nicht Dame spielen und schon gar kein Auto lenken oder wissenschaftliche Entdeckungen machen. Solche modernen KI-Algorithmen ahmen alle Formen biologischen Lebens nach, ausgenommen den Homo sapiens. Eine Biene ist in der Lage, Waben zu bauen, ein Biber kann Dämme konstruieren; eine Biene aber baut keine Dämme und ein Biber kann niemals lernen, eine Wabe zu konstruieren. Ein Mensch kann durch Beobachtung beides lernen, doch das ist eine Fähigkeit, die keine andere biologische Lebensform besitzt.14
Es kann auch (zusätzlich) zur Verwirrung beitragen, dass manche Informatiker alltägliche Begriffe wie lernen, planen, denken und Intelligenz als Fachbegriffe gebrauchen, um leblose Maschinen zu beschreiben. Dadurch klingt es so, als besäßen KI-Systeme sehr viel umfassendere Fähigkeiten, als es tatsächlich der Fall ist, weil diese Begriffe hier viel enger gefasst sind als in der Umgangssprache. Die Folge davon ist, dass in den Medien KI-Forschungsergebnisse oft aufgebauscht werden und die betreffenden Artikel übertrieben optimistisch oder ängstlich sind. Danny Crooks, Professor für Computerwissenschaften an der Queens University Belfast, schreibt:
Die heutigen Technologien, vor denen sich die Menschen allmählich fürchten, weil sie ganze Landstriche überwachen und manipulieren können, sind im Grunde nicht besonders intelligent. Das müssen sie auch nicht sein. Ihre Stärke liegt darin, gewaltige Datenmengen zu sammeln, Profile einzelner Menschen zu erstellen und Muster zu erkennen, entweder innerhalb eines solchen Persönlichkeitsprofils oder innerhalb der gesamten Bevölkerung. Die Nationalsozialisten und auch die kommunistischen Länder taten genau das, wenn auch in kleinerem Maßstab. Heute verfügen wir über die Technologie, das im globalen Maßstab zu machen. Das ist beängstigend oder beeindruckend, doch eigentlich nicht intelligent. Das sogenannteDeep Learning ist gerade der letzte Schrei in der KI-Forschung, aber eigentlich überhaupt nichts Neues: Es ist einfach so, dass Computer heute so viel Rechenleistung besitzen, dass sie die mehrschichtigen neuronalen Netzwerke betreiben können, die auf dem Papier schon seit Jahrzehnten existieren.15
Joseph McRae Mellichamp, Professor an der University of Alabama, hielt einen Vortrag an der Yale University, bei dem auch der Nobelpreisträger Sir John Eccles, bekannt für seine Entdeckung der Synapsen, im Publikum saß, zusammen mit einigen anderen KI-Pionieren. Er sagte: »Ich habe den Eindruck, dass viele völlig unnötige Debatten vermieden werden könnten, wenn KI-Forscher einräumen würden, dass es einige grundlegende Unterschiede zwischen Maschinenintelligenz und menschlicher Intelligenz gibt – Unterschiede, die man auch mittels Forschungsarbeit nicht aus der Welt schaffen kann. Mit anderen Worten, um den griffigen Titel von Mellichamps Vortrag zu zitieren: »›das Künstliche‹ an der Künstlichen Intelligenz ist wirklich künstlich.«16
Professor Crookes betont, wie wichtig es sei, realistisch zu bleiben:
Wir sind noch sehr weit davon entfernt, wirklich menschliche Intelligenz zu erschaffen. Dass Computer in der Lage sind, riesige Datenmengen zu verarbeiten (wie weiter oben geschildert), verführt uns zu dem Fehlschluss, dass wir uns damit dem Niveau menschlicher Intelligenz nähern. Meiner Meinung nach trennen uns noch Welten davon. Man könnte sogar behaupten, dass sich der Fortschritt in der KI-Forschung in den letzten Jahren verlangsamt hat, weil die meisten Gelder in die Werbung fließen! Und Wissenschaftler folgen der Spur des Geldes.
Wir haben das menschliche Denken immer noch nicht verstanden. Ich persönlich sehe zwei große Probleme, die wir noch zu knacken haben: (1) Selbst wenn wir wüssten, nach welchen Regeln der menschliche Verstand funktioniert, wie können wir dann aus dem physisch vorhandenen Gehirn abstrakte Formeln ableiten, sodass wir die allgemeinen Regeln des Denkens anwenden können? (2) Wie kann ein Computer ein inneres Modell aufbauen und nutzen, das die äußere Welt abbildet? Denken Sie einmal daran, wie ein Blinder die Welt um ihn herum visualisiert und verarbeitet. Menschen besitzen die umfassende Fähigkeit, Dinge zu visualisieren und über Objekte und Prozesse nachzudenken, die nur in unserem Kopf existieren. Diese Fähigkeit, die Menschen auf jeden möglichen Prozess allgemein anwenden können, ist phänomenal: Sie ist eine Schlüsselbedingung für wirkliche Intelligenz, fehlt KI-Systemen jedoch grundsätzlich. Es gibt Grund zur Annahme, dass wir dieses Stadium niemals erreichen.
Der springende Punkt ist meiner Meinung nach, dass wir vorsichtig sein müssen, wenn wir glauben, dass der Mensch die intellektuelle Fähigkeit besitzt, eine Art von Intelligenz zu erschaffen, die mit menschlicher Intelligenz konkurrieren oder sie sogar übertreffen kann, ganz egal, wie viel Zeit uns zur Verfügung steht.17
Das müssen wir im Hinterkopf behalten, wenn wir uns anschauen, wie Dan Brown in seinem Roman (schwache) KI einsetzt, um seinen beiden großen philosophischen Fragen nachzugehen.
Professor Edmond Kirsch, eine Figur aus Dan Browns Roman Origin, griff das berühmte »Ursuppen«-Experiment von 1953 der beiden Chemiker Stanley Miller und Harold Urey noch einmal auf, das ihnen den Nobelpreis eintrug. Sie hatten eine Reihe von Chemikalien wie Wasserstoff, Methan und Ammoniak, von denen man glaubte, dass sie sich kurz nach Entstehung der Erde in der Atmosphäre befanden, in einem Glaskolben miteinander vermischt, und setzten sie elektrischer Entladung aus. Als sich die Mischung absetzte, fanden sie darin einige der Aminosäuren, die man häufig als Bausteine des Lebens bezeichnet. Eine Zeit lang wurde ihre Arbeit hoch gelobt, weil man sie für die wissenschaftliche Lösung der Frage nach dem Ursprung des Lebens hielt. Doch im Laufe der Zeit merkte man, dass ihr Experiment eigentlich kein Ergebnis geliefert hatte – es waren bei Weitem nicht alle der notwendigen Aminosäuren dabei entstanden.
Die für den Versuch benutzten Kolben wurden aufbewahrt, und über 50 Jahre später schaute man sich den Versuchsaufbau noch einmal an. Daraufhin wurden die Ergebnisse in der Oktoberausgabe 2008 der Zeitschrift Science von sechs Autoren veröffentlicht, und zwar unter dem Titel »The Miller Volcanic Spark Discharge Experiment« (deutsch: »Das Miller-Experiment über vulkanische Funkenentladung«). Wir merken an dieser Stelle an, dass Dan Brown hier wahrheitsgemäß sagt, dass es sich hier wirklich um eine wissenschaftliche Veröffentlichung handelt, nicht um eine erfundene Romanhandlung. Hier die Zusammenfassung dieser Arbeit:
In Millers Experiment aus den 1950er-Jahren wurde bei dem in Lehrbüchern beschriebenen Versuchsaufbau auch ein Gerät benutzt, das in dem Kolben mit den eingesetzten Elektroden einen Heißwassernebel erzeugte und so einen Vulkanausbruch mit hohem Wasserdampfanteil simulierte. Wir fanden das ursprüngliche Kondensat in Millers Proben und analysierten es noch einmal. Der »vulkanische Apparat« erzeugte eine größere Palette an Aminosäuren als der klassische. Auf der damals noch jungen Erde geschah es wahrscheinlich häufig, dass bei von Blitzen begleiteten Vulkaneruptionen reduzierte Gase freigesetzt wurden. Präbiotische Verbindungen, die in dieser Umgebung synthetisiert wurden, könnten sich lokal akkumuliert haben, und hier könnten sie weiteren Veränderungsprozessen unterworfen gewesen sein.18
Diese Forschungsarbeit gab Dan Brown den Anstoß, diesen Gedanken in seinem Roman weiterzuspinnen. Das Miller-Urey-Experiment war eine Simulation im Labor, bevor man Modelle am Computer berechnen konnte. Browns fiktiver KI-Experte erstellte nun ein mathematisches Modell des Miller-Urey-Experiments, in das die neuen Informationen aus dem Jahr 2008 einflossen. Den Vorgängen auf molekularer Ebene schenkte er sehr viel mehr Aufmerksamkeit und konnte auf diese Weise große Datenmengen speichern, die KI-Systeme hervorragend verarbeiten können. Er führte es als Virtual-Reality-Experiment durch. Zunächst hatte er damit keinen Erfolg, dann aber änderte er die Versuchsbedingungen, um auch die Entropie zu berücksichtigen – also die Tendenz, dass alles im Universum auf ein Gleichgewicht zusteuere: Ihr Becher mit heißem Kaffee gibt Wärme an die Umgebung ab und kühlt sich ab, ohne sich jemals wieder zu erhitzen. Die erneute Durchführung des Experiments brachte – man höre und staune! – die DNA-Doppelhelix hervor. Das Leben entstand durch natürliche Prozesse, ohne dass eine übernatürliche Macht eingreifen müsste. Problem gelöst.
Jedenfalls wird das Problem im Roman gelöst, und zwar so spannend, dass viele Leser das Buch kaum aus der Hand legen konnten. Die Frage aber nach dem Ursprung des Lebens ist eine reale Frage von solcher Tragweite, dass wir uns viel mehr mit ihr beschäftigen müssen, um Fantasie und Realität auseinanderzuhalten. Zunächst einmal, weil wir es hier im Roman (und oft auch im wirklichen Leben) nicht mit reiner, unverfälschter Wissenschaft zu tun haben, sondern mit einem Wissenschaftler, dessen Wissenschaft von seiner Weltsicht beeinflusst wird – in Kirschs Fall ist das der Atheismus. Er drückt das folgendermaßen aus: »Das Zeitalter der Religion neigt sich dem Ende zu. Das Zeitalter der Wissenschaft aber hat gerade erst begonnen.«19 Und diese Sicht der Dinge scheint sich, was nicht besonders überraschend ist, mit Dan Browns eigener Sicht zu decken.