Erhalten Sie Zugang zu diesem und mehr als 300000 Büchern ab EUR 5,99 monatlich.
›Technologische Singularität‹ bezeichnet den Zeitpunkt, an dem von künstlicher Intelligenz gesteuerte Maschinen sich fortlaufend selbst so zu verbessern imstande sind, dass sie sich der Beherrschung durch Menschenhand entziehen. Der Robotikspezialist Murray Shanahan beschreibt die unterschiedlichen derzeit weltweit vorangetriebenen technologischen Entwicklungen, die zu einem solchen Ereignis führen können. Er führt auf verständliche Weise in die komplexen Forschungen ein, die unsere nächste Zukunft verändern werden. Aus der Perspektive eines Praktikers beschäftigt er sich mit der Frage, ob künstliche Intelligenz über Bewusstsein verfügen kann, und entwickelt moralische Ansätze zu einem verantwortlichen Umgang mit dieser zumeist als Katastrophenszenario gezeichneten Zukunftsfantasie.
Sie lesen das E-Book in den Legimi-Apps auf:
Seitenzahl: 294
Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:
Murray Shanahan
Aus dem Englischen von Nadine Miller
Diese Gedanken kommen manchen Lesern vielleicht fantastisch vor; dem Autor allerdings erscheinen sie sehr real, von hoher Dringlichkeit und auch außerhalb der Science-Fiction bedenkenswert zu sein.
I. J. Good, Speculations Concerning the First Ultraintelligent Machine (1965)
Echtes Motivproblem, bei einer KI. Eben kein Mensch.William Gibson, Neuromancer (1984)
Vorwort
Einleitung
1. Wege zur künstlichen Intelligenz
2. Gehirnemulation
3. Die technische Realisation künstlicher Intelligenz
4. Superintelligenz
5. KI und Bewusstsein
6. KI und ihre Folgen
7. Himmel oder Hölle
Glossar
Anmerkungen
Literatur
Register
Wie viele andere, die ihr berufliches Wirken der Erforschung der künstlichen Intelligenz gewidmet haben, bin ich als Kind von der Science-Fiction inspiriert worden. Die Heldin meiner jungen Jahre war keine reale Person, sondern Susan Calvin, die Wissenschaftlerin in Asimovs I-Robot-Geschichten (der Bücher, nicht der Verfilmung), eine Vorreiterin auf dem Gebiet der Roboterpsychologie. Wenn ich einmal groß wäre, wollte ich unbedingt so werden wie sie; heute, da ich (einigermaßen) erwachsen bin und im echten Leben den Titel eines Professors für Kognitive Robotik trage, ist meine Beziehung zur Science-Fiction allerdings etwas komplexer geworden. Zwar betrachte ich sie noch immer als Inspirationsquelle und als ein Medium, in dem wichtige philosophische Fragen erörtert werden können, doch die von ihr untersuchten Gegenstände verdienen eine eingehendere Behandlung. Das Hauptziel der Science-Fiction ist Unterhaltung, wenn auch auf eine intellektuell anregende Art und Weise. Es wäre jedoch verfehlt, sie als eine Denkanleitung zu betrachten.
Das vorliegende Buch ist daher weder als Werk der Science-Fiction noch als ein Beitrag zur sogenannten Futurologie zu verstehen. Sein Ziel ist nicht die Voraussage, sondern die Untersuchung einer Reihe von möglichen Zukunftsszenarien, ohne sich dabei auf das Eintreten eines bestimmten davon oder auf einen spezifischen zeitlichen Horizont dafür festzulegen. Tatsächlich ist es manchmal lohnend, auch höchst unwahrscheinliche oder abseitige Zukunftsszenarien näher zu betrachten. Dies gilt zum Beispiel dann, wenn es um eine besonders dystopische Entwicklung geht. In diesem Fall könnten wir nämlich versucht sein, sehr genau darüber nachzudenken, wie wir die Wahrscheinlichkeit ihres Eintretens verringern können. Eine genauere Untersuchung unwahrscheinlicher oder abseitiger Szenarien lohnt sich außerdem auch dann, wenn sie interessante philosophische Fragen aufwirft, die uns etwa zum Nachdenken darüber nötigen, was wir als Spezies eigentlich wirklich wollen. Ganz gleich also, ob man glaubt oder nicht glaubt, dass wir schon bald eine künstliche Intelligenz auf menschlichem Niveau erschaffen werden oder dass die Singularität kurz bevorsteht – der Gedanke als solcher verdient es, ernsthaft in Erwägung gezogen zu werden.
Dies ist ein kurzes Buch über ein sehr großes Thema. Es kann daher höchstens als eine Einführung gelten, die viele wichtige Fragen nur anreißt. So werden hier zum Beispiel verschiedene Positionen in Bezug auf das Bewusstsein vorgestellt, zu denen es wohlbekannte Gegenpositionen gibt, die es ihrerseits verdienen, mit weiteren Gegenpositionen konfrontiert zu werden. Doch ein einführendes Werk muss solche Feinheiten übergehen. Sein Schwerpunkt liegt zudem eindeutig auf der Zukunft der künstlichen Intelligenz; einige wichtige damit zusammenhängende Themen wie Nanotechnologie und Biotechnologie werden jedoch nur am Rande angeschnitten. Das Buch soll einen neutralen Überblick über das konzeptuelle Territorium ermöglichen, und ich war bemüht, in strittigen Fällen die Positionen beider Seiten des Streits zu skizzieren. Allerdings wird es wohl, all meinen Bemühungen zum Trotz, unvermeidlich sein, dass einige meiner eigenen Ansichten durch den Schleier der Neutralität hindurchschimmern werden.
Ich möchte mich bei den vielen, vielen Menschen bedanken, die mit mir über die Jahrzehnte hinweg das Thema der künstlichen Intelligenz diskutiert haben, und zwar nicht nur bei den Wissenschaftlern und Studenten, sondern auch bei denjenigen Vertretern der breiteren Öffentlichkeit, die meine Vorträge besucht haben. Gern würde ich jedem Einzelnen meinen Dank namentlich aussprechen, doch das ist natürlich nicht möglich. Deshalb werde ich meine explizite Danksagung ein paar Kollegen vorbehalten, deren Einfluss besonders in jüngster Zeit von besonderer Bedeutung gewesen ist. Ich danke also Stuart Armstrong, Nick Bostrom, Andrew Davison, Daniel Dewey, Randal Koene, Richard Newcombe, Owen Holland, Huw Price, Stuart Russell, Anders Sandberg und Jaan Tallinn. Alle, die ich hier zu erwähnen vergaß, bitte ich um Verzeihung. Abschließend möchte ich mich bei MIT Press bedanken, besonders bei Bob Prior, der mich ursprünglich dazu ermutigt hat, dieses Buch zu verfassen.
Murray ShanahanNorth Norfolk und South Kensington, Oktober 2014
In den letzten Jahren ist die Vorstellung, dass sich die Menschheitsgeschichte aufgrund des immer schnelleren technologischen Fortschritts einer »Singularität« nähere, aus dem Reich der Science-Fiction in das der ernsthaften Diskussion gerückt. In der Physik bezeichnet »Singularität« einen bestimmten Punkt in Raum oder Zeit, etwa das Zentrum eines Schwarzen Lochs oder den Augenblick des Urknalls, an dem die Mathematik – und mit ihr unsere Fähigkeit zu begreifen – kollabiert. Analog dazu käme es in der menschlichen Geschichte zu einer Singularität, wenn ein exponentieller Fortschritt in der Technologie derart dramatische Veränderungen herbeiführen würde, dass die menschliche Existenz, wie wir sie heute verstehen, an ein Ende käme.1 Die Institutionen, die wir für selbstverständlich halten – die Wirtschaft, die Regierung, das Rechtssystem und der Staat –, würden in ihrer jetzigen Form nicht überleben, die fundamentalsten menschlichen Werte – die Unantastbarkeit des Lebens, das Streben nach Glück, die Entscheidungsfreiheit – würden verdrängt werden, ja unsere ganze Auffassung davon, was es heißt, ein Mensch zu sein – nämlich ein Individuum zu sein, das lebendig, mit Bewusstsein ausgestattet und Teil einer sozialen Ordnung ist –, wäre radikal infrage gestellt, und das nicht etwa im Modus einer distanzierten philosophischen Betrachtung, sondern durch die Wucht der Umstände, ganz unmittelbar und real.
Welcher technologische Fortschritt könnte nun eine solche Umwälzung auslösen? In diesem Buch werden wir die Hypothese untersuchen, dass eine technologische Singularität dieser Art durch signifikante Fortschritte auf einem von zwei miteinander zusammenhängenden Gebieten (oder auf beiden) herbeigeführt werden könnte, nämlich dem der KI-Forschung und dem der Neurotechnologie. Wir wissen bereits, wie wir am Stoff des Lebens, den Genen und der DNA, herumbasteln können, und die Auswirkungen der Biotechnologie sind für sich genommen schon gewaltig; wenn wir aber erst einmal gelernt haben, den »Stoff des Geistes« zu manipulieren, werden die möglichen Konsequenzen alles Vorangegangene in den Schatten stellen.
Der Intellekt ist heute in einem wichtigen Sinne erstarrt, was sowohl den Umfang als auch das Tempo des technologischen Fortschritts begrenzt. Natürlich wächst der menschliche Wissensschatz seit Jahrtausenden stetig an, und parallel dazu wächst dank der Erfindung der Schrift, des Buchdrucks und des Internets auch unsere Fähigkeit, dieses Wissen zu verbreiten. Dennoch ist das Organ, das Wissen produziert, nämlich das Gehirn des Homo sapiens, während dieser ganzen Zeit im Wesentlichen unverändert geblieben, und seine kognitiven Fähigkeiten sind nach wie vor unübertroffen.
Das wird sich allerdings ändern, wenn die Forschung auf dem Gebiet der künstlichen Intelligenz und der Neurotechnologie hält, was sie verspricht. Wenn der Intellekt nämlich nicht mehr nur Produzent der Technologie ist, sondern auch selbst zu ihrem Produkt wird, kann dies eine Feedbackschleife mit unabsehbaren und potenziell explosiven Konsequenzen zur Folge haben. Denn wenn das hergestellte Ding die Intelligenz selbst ist, also genau jene Entität, die diese Herstellung durchführt, dann kann sie sich anschicken, Verbesserungen an sich selbst vorzunehmen. Und der Singularitätshypothese zufolge ist der gewöhnliche Mensch denn auch bald aus dem Spiel, indem er entweder von KI-Maschinen oder von einer kognitiv verbesserten biologischen Intelligenz überholt wird und nicht mehr mithalten kann.
Verdient es die Singularitätshypothese, dass wir sie ernst nehmen, oder ist sie nur eine mit viel Fantasie ersonnene Fiktion? Ein Argument dafür, sie ernst zu nehmen, gründet auf dem von Ray Kurzweil sogenannten Gesetz vom steigenden Ertragszuwachs [law of accelerating returns]: Ein technologischer Bereich untersteht diesem Gesetz, wenn das Tempo, mit dem die Technologie sich verbessert, sich proportional zu ihrer Qualität verhält. Mit anderen Worten, je besser die Technologie ist, umso schneller wird sie noch besser, was im Laufe der Zeit zu einer exponentiellen Verbesserung führt.
Ein prominentes Beispiel für dieses Phänomen ist das Moore’sche Gesetz, wonach sich die Anzahl der Transistoren, die auf einem einzigen Chip verfertigt werden können, etwa alle 18 Monate verdoppelt.2 Es ist bemerkenswert, dass es der Halbleiterindustrie tatsächlich gelungen ist, dem Moore’schen Gesetz mehrere Jahrzehnte lang zu entsprechen. Andere Kennzahlen zur Bestimmung des Fortschritts in der Informationstechnologie, etwa die CPU-Taktfrequenz oder die Netzwerkbandbreite, haben sich ähnlich exponentiell entwickelt. Die IT ist jedoch nicht das einzige Gebiet, auf dem wir einen sich beschleunigenden Fortschritt beobachten können. In der Medizin etwa sind die Kosten für die DNA-Sequenzierung exponentiell gesunken, während ihre Geschwindigkeit exponentiell zunimmt, und die Hirnscantechnologie hat eine exponentielle Erhöhung der Bildauflösung zu verzeichnen.3
Auf einer historischen Zeitachse betrachtet präsentieren sich diese Trends zur Beschleunigung im Zusammenhang mit einer Reihe von technologischen Meilensteinen, die in immer kürzeren Abständen erreicht werden: Ackerbau, Buchdruck, elektrische Energie, der Computer. Vor einem noch längeren, evolutionären Zeithorizont gesehen ging dieser Abfolge von technologischen Entwicklungen jedoch selbst schon eine Reihe evolutionärer Meilensteine voraus, die ebenfalls in immer kürzeren Abständen entstanden waren: Eukaryoten, Wirbeltiere, Primaten, der Homo sapiens. Angesichts dieser Tatsachen sind manche Experten der Meinung, dass die Entwicklung der menschlichen Gattung auf einer drastisch ansteigenden Komplexitätskurve voranschreitet, die bis in die fernste Vergangenheit zurückreicht. Doch wie dem auch sei, wir müssen nur denjenigen Abschnitt der Kurve ein wenig in die Zukunft weiterdenken, auf dem die Technologie angesiedelt ist, um an einen entscheidenden Kipppunkt zu gelangen, den Punkt nämlich, an dem menschliche Technologie den normalen Menschen in technologischer Hinsicht obsolet werden lässt.4
Natürlich erreicht jeder exponentielle technologische Trend irgendwann ein Plateau, einfach aufgrund der Gesetze der Physik, und es gibt zahllose ökonomische, politische oder wissenschaftliche Gründe, weshalb ein exponentiell verlaufender Trend ins Stocken geraten könnte, bevor er an sein theoretisches Limit gestoßen ist. Aber nehmen wir einmal an, dass die für die KI-Forschung und die Neurotechnologie relevantesten technologischen Trends ihre beschleunigte Dynamik beibehalten und uns die Fähigkeit verleihen, den »Stoff des Geistes« technisch zu erschaffen und die eigentliche Maschinerie der Intelligenz damit zu synthetisieren und zu manipulieren. An diesem Punkt unterläge die Intelligenz selbst, ob künstlich oder menschlich, dem Gesetz vom steigenden Ertragszuwachs, und um von dort aus zur technologischen Singularität zu gelangen, braucht es dann nur noch ein wenig Vertrauen in den Prozess.
Einige Autoren prophezeien voller Zuversicht, dass sich diese Zäsur Mitte des 21. Jahrhunderts ereignen wird. Doch auch abgesehen von der ohnehin unzuverlässigen Wahrsagerei gibt es gute Gründe, die Idee der Singularität ernsthaft zu durchdenken. Erstens ist von einem intellektuellen Standpunkt her betrachtet das Konzept als solches bereits hochinteressant, ganz unabhängig davon, ob oder wann sie jemals eintreten wird. Zweitens verlangt ihre bloße Möglichkeit – wie entfernt sie auch zu sein scheint – schon aus rein pragmatischen und gänzlich rationalen Gründen bereits heute nach einer Untersuchung. Auch wenn die Argumente der Futuristen nämlich nicht schlüssig sein sollten, es genügt schon, wenn wir dem vorhergesagten Ereignis auch nur die geringste Eintrittswahrscheinlichkeit zusprechen, damit es unsere gesamte, ungeteilte Aufmerksamkeit beanspruchen darf. Denn würde eine technologische Singularität tatsächlich eintreten, dann hätte dies für die Menschheit erdrutschartige Folgen.
Welches sind diese potenziell erdrutschartigen Folgen? Was für eine Welt, was für ein Universum entstünde, wenn sich eine technologische Singularität tatsächlich einstellte? Sollten wir ihr Eintreten fürchten oder es begrüßen? Was, wenn überhaupt, können wir heute oder in naher Zukunft tun, um den bestmöglichen Ausgang der ganzen Sache zu gewährleisten? Dies sind die wichtigsten der Fragen, die auf den folgenden Seiten behandelt werden. Diese Fragen sind zwar groß, doch die Aussicht auf die Singularität, ja sogar ihr bloßer Gedanke verspricht, uralte und vielleicht sogar noch größere philosophische Fragen in ein neues Licht zu rücken: Was ist der Kern unseres Menschseins? Welches sind unsere grundlegendsten Werte? Wie sollten wir leben, und worauf sind wir dabei bereit zu verzichten? Denn die Möglichkeit einer technologischen Singularität stellt sowohl ein existenzielles Risiko als auch eine existenzielle Chance dar.
Ein existenzielles Risiko ist sie, weil sie für das schiere Überleben der menschlichen Gattung potenziell bedrohlich ist. Das klingt vielleicht übertrieben, aber die heute neu entwickelten Technologien verfügen über ein nie zuvor gesehenes Potenzial. So fällt es zum Beispiel nicht schwer, sich vorzustellen, dass ein hochgradig ansteckendes und arzneimittelresistentes Virus gentechnisch erzeugt werden könnte, das tödlich genug wäre, um eine solche Katastrophe herbeizuführen. Zwar würde nur ein Verrückter so etwas mit voller Absicht herstellen, aber möglicherweise braucht es nur etwas Leichtsinn, um ein Virus zu erschaffen, das in der Lage wäre, zu einem solchen Monster zu mutieren. Eine fortgeschrittene KI könnte nun aus analogen, aber weitaus subtileren Gründen eine existenzielle Gefahr darstellen. Wir werden zu gegebener Zeit auf diese zu sprechen kommen. Für den Moment genügt es uns festzustellen, dass es absolut vernünftig ist, über die Möglichkeit nachzudenken, dass irgendein Konzern, eine Regierung, eine Organisation oder sogar eine Einzelperson in der Zukunft eine sich exponentiell selbstverbessernde, ressourcenhungrige KI erschafft und dann die Kontrolle über sie verliert.
Aus einem etwas optimistischeren Blickwinkel betrachtet könnte eine technologische Singularität aber auch als eine existenzielle Chance im eher philosophischen Sinne des Wortes existenziell angesehen werden. Die Fähigkeit, den »Stoff des Geistes« technisch herzustellen, verschafft uns nämlich die Möglichkeit, unser biologisches Erbe zu transzendieren und dabei die mit ihm verbundenen Limitierungen zu überwinden. An erster Stelle dieser Limitierungen steht die Sterblichkeit. Der Körper eines Tieres ist ein empfindliches Gebilde, das anfällig ist für Krankheiten, Verletzungen und Verfall, und das biologische Gehirn, an das das menschliche Bewusstsein (gegenwärtig noch) gebunden ist, ist einfach nur eines seiner Teile. Sollten wir aber einmal der Mittel habhaft werden, um Beschädigungen an ihm gleich welchen Schweregrads reparieren und das Gehirn schließlich von Grund auf (womöglich in einem nichtbiologischen Substrat) nachbauen zu können, stünde einer unbegrenzten Erweiterung des Bewusstseins nichts Grundsätzliches mehr im Wege.
Die Verlängerung des Lebens ist ein Aspekt eines Trends, der als Transhumanismus bezeichnet wird. Doch warum sollten wir uns mit dem menschlichen Leben in der Form, in der wir es kennen, zufriedengeben? Wenn wir das Gehirn nachbauen können, wieso sollten wir dann nicht auch in der Lage sein, es umzugestalten und zu verbessern? (Die gleiche Frage könnte man übrigens auch mit Blick auf den menschlichen Körper stellen, aber unser Thema hier ist der Intellekt.) Konservative Optimierungen der Gedächtnisleistung, der Lernfähigkeit und der Aufmerksamkeit lassen sich bereits jetzt mit pharmazeutischen Mitteln erzielen; das Vermögen, das Gehirn von Grund auf umzubauen, deutet allerdings auf Möglichkeiten für radikalere Formen der kognitiven Verbesserung und Umstrukturierung hin. Was könnten oder sollten wir mit solchen transformativen Kräften anfangen? Nun, zumindest würden sie, wie manchmal behauptet wird, die existenzielle Gefährdung durch superintelligente Maschinen reduzieren. Sie würden es uns also ermöglichen, mit der Entwicklung Schritt zu halten, obwohl wir uns im Laufe des Prozesses vielleicht bis zur Unkenntlichkeit verändern würden.
Um den umfassendsten – und provokantesten – Sinn zu erfassen, in dem eine technologische Singularität eine existenzielle Chance darstellen könnte, müssen wir uns gänzlich von der menschlichen Perspektive verabschieden und einen eher kosmologischen Standpunkt einnehmen. Es ist sicherlich die Krönung des anthropozentrischen Denkens anzunehmen, dass die Geschichte der Materie in dieser unserer Ecke des Universums in der menschlichen Gesellschaft und den unzähligen darin eingebetteten lebendigen Gehirnen gipfelt, so wunderbar diese auch sein mögen. Vielleicht steht der Materie auf der Komplexitätsskala noch ein langer Weg nach oben bevor. Vielleicht gibt es Formen des Bewusstseins, die erst noch entstehen werden und die dem unsrigen in gewissem Sinne überlegen sind. Sollten wir vor dieser Aussicht zurückschrecken oder sie bejubeln? Könnten wir einen solchen Gedanken überhaupt gänzlich begreifen? Diese Fragen verdienen es, erörtert zu werden, ganz gleich, ob die Singularität nahe ist oder nicht – zumal der Versuch ihrer Beantwortung ein neues Licht auf uns selbst und auf unsere Stellung in der Ordnung der Dinge wirft.
1950 veröffentlichte Alan Turing, der während des Zweiten Weltkriegs als Codebrecher tätig war und als Pionier der Informatik gilt, in der Zeitschrift Mind einen Aufsatz mit dem Titel »Computing Machinery and Intelligence« [»Kann eine Maschine denken?«].5 Dies war die erste ernsthafte, wissenschaftliche Abhandlung über das Konzept der künstlichen Intelligenz. Turing sagte voraus, dass man im Jahr 2000 »widerspruchslos von denkenden Maschinen reden kann«, und stellte sich vor, dass Maschinen zu jenem Zeitpunkt die Prüfung würden bestehen können, die wir heute als den Turing-Test kennen.
Der Turing-Test ist eine Art Spiel. Zwei »Spieler«, ein Mensch und eine Maschine, kommunizieren dabei mit einem Dritten, dem »Schiedsrichter«, vermittels Tastatur und Bildschirm. Der Schiedsrichter führt nacheinander mit jedem der Spieler ein Gespräch und versucht zu erraten, welcher von beiden der Mensch und welcher die Maschine ist. Die Aufgabe der Maschine ist es, den Schiedsrichter davon zu überzeugen, dass sie ein Mensch ist – eine Leistung, die, wie es heißt, gewiss eine Intelligenz auf menschlichem Niveau erfordert. Kann der Schiedsrichter den Menschen nicht von der Maschine unterscheiden, dann hat sie den Test bestanden. Und als Turing dies im Jahre 1950 schrieb, antizipierte er eine Welt, in der Maschinen, die seinen Test bestehen könnten, etwas Alltägliches sein würden, »Denkmaschinen« im Haushalt und am Arbeitsplatz also völlig normal wären.
Turings Prognose zum Trotz gab es bis zum Jahr 2000 allerdings weder eine KI auf menschlichem Niveau noch Anzeichen dafür, dass sie in absehbarer Zeit zu erwarten wäre. Keiner Maschine gelang es auch nur annähernd, den Turing-Test zu bestehen. Dennoch hatte man unlängst einen wichtigen Meilenstein in Sachen künstliche Intelligenz erreicht. Denn im Jahr 1997 hatte Deep Blue, ein IBM-Computer, den damaligen Schachweltmeister Garry Kasparow besiegt. Anders als bei früheren Schachprogrammen, die er geschlagen hatte und die ihm berechenbar und mechanisch erschienen waren, soll Kasparow über Deep Blue gesagt haben, er habe im Spiel eine »fremde Intelligenz« auf der anderen Seite des Schachbretts wahrgenommen.6
Es ist aufschlussreich, kurz innezuhalten und diesen Augenblick in der Geschichte der KI zu reflektieren. Denn auf diesem Gebiet war etwas erreicht worden, das ein halbes Jahrhundert zuvor vielleicht als sein krönender Abschluss gegolten hätte: Der Mensch war von einer Maschine überflügelt worden. Natürlich fährt auch ein Auto schneller, als der schnellste menschliche Sprinter laufen kann, und ein Baukran bewegt weit mehr Kilogramm in die Höhe als ein Weltmeister im Gewichtheben. Es sind aber seine intellektuellen Fähigkeiten, die den Menschen von der übrigen Tierwelt abheben, und das Schachspiel ist nun mal ein ausgesprochen intellektuelles Unterfangen.
Das Computerschach war also geknackt, und doch schien es so, als wären wir einer KI auf menschlichem Niveau in keiner Weise nähergekommen als zu Turings Zeit. Wie konnte das sein? Das Problem mit Deep Blue war seine Spezialisierung. Der Computer konnte nichts anderes als Schach spielen. Man vergleiche ihn mit einem typischen erwachsenen Menschen, zum Beispiel mit jener Büroangestellten, die gerade am Fenster des Cafés vorbeigegangen ist, in dem ich mit meinem Laptop sitze. Ihr Tag ist zweifellos ein buntes Sammelsurium aus allen möglichen Aktivitäten – das Lunchpaket einpacken, die Hausaufgaben der Kinder überprüfen, ins Büro fahren, E-Mails schreiben, den Fotokopierer in Ordnung bringen und so weiter. Bei näherem Hinsehen zeigt sich, dass jede dieser Tätigkeiten die Ausübung einer ganzen Reihe von sensomotorischen Fähigkeiten erfordert. Nehmen wir die Vorbereitung des Lunchpakets. Diese Aktivität beinhaltet es, diverse Utensilien und Zutaten von verschiedenen Orten herbeizuholen, Verpackungen zu öffnen, Dinge zu zerhacken, kleinzuschneiden, zu bestreichen und so weiter.
Kurzum, der Mensch ist ein Generalist, ein Alleskönner. Ein menschlicher Schachweltmeister ist zu viel mehr in der Lage als nur zum Schachspielen. Überdies ist der Mensch anpassungs- und lernfähig, denn Fotokopierer richten zu können ist keine angeborene, sondern eine erlernte Fähigkeit. Wäre die Büroangestellte in ein anderes Jahrhundert oder in eine andere Kultur hineingeboren worden, so hätte sie ein ganzes Konglomerat an anderen Fähigkeiten erworben, und sollte sie das Pech haben, ihren jetzigen Job zu verlieren, so kann sie sich umschulen lassen und einer anderen Art von Arbeit nachgehen. Die Errungenschaften der KI-Forschung auf einer Vielzahl von Spezialgebieten (von denen das Schachspiel nur eine Erfolgsgeschichte unter vielen geworden ist) stehen in krassem Gegensatz zu ihrem Scheitern bei der Herstellung einer Maschine mit einer lernfähigen Allzweckintelligenz. Wie also könnten wir eine allgemeine künstliche Intelligenz erzeugen? Bevor wir informierte Spekulationen über eine maschinelle Superintelligenz anstellen können, müssen wir zunächst einmal diese Frage beantworten.7
Ein wesentliches Merkmal biologischer Intelligenz ist ihre Verkörperung [embodiment]. Im Gegensatz zu Deep Blue ist ein Mensch ein Tier mit einem Körper, und sein Gehirn ist ein Teil dieses Körpers. Das tierische Gehirn hat sich dahingehend entwickelt, dass es das Wohlbefinden des Körpers zu bewahren und dessen Gene weiterzugeben sucht. Der Körper verfügt über eine Muskulatur, die ihm Bewegung ermöglicht, und Sinne, damit seine Bewegungen an seine Umweltbedingungen angepasst werden und somit seinen Absichten dienen können. Das Gehirn steht im Zentrum dieser sensomotorischen Schleife und bestimmt die Aktionen des Tieres entsprechend seinen Sinneswahrnehmungen. Die menschliche Intelligenz ist nun, all ihren glorreichen Errungenschaften zum Trotz, im Grunde nur eine erweiterte tierische Intelligenz, und die menschlichen Vermögen von Sprache, Rationalität und Kreativität haben allesamt eine sensomotorische Grundlage.
Während im Bestreben, eine allgemeine künstliche Intelligenz zu erzeugen, also auf vieles verzichtet werden könnte, was für das biologische Leben wesentlich ist (etwa auf den Stoffwechsel oder die Fortpflanzung), könnte die Verkörperung ein methodisches Erfordernis darstellen. Denn möglicherweise liegt aller Intelligenz die Notwendigkeit zugrunde, sich mit einer chaotischen, dynamischen, physischen Umwelt voller komplexer und unterschiedlicher Gegenstände sowohl belebter als auch unbelebter Art auseinanderzusetzen. Der Turing-Test ist in dieser Hinsicht ein schlechter Maßstab, da er sich nur um Sprache dreht. Der einzige Weg zu einer zuverlässigen Beurteilung der Intelligenz eines Artefakts bestünde aber darin, sein Verhalten in einer Umwelt wie der unsrigen zu beobachten, und der einzige Weg zur Entwicklung einer KI auf menschlichem Niveau wäre demnach die Robotertechnik. Später werden wir uns mit Problemen befassen, die das Prinzip der Verkörperung infrage stellen, nehmen es bis dahin aber erst einmal als gegeben an. Unsere Grundfrage lässt sich somit wie folgt umformulieren: Wie können wir einen Roboter mit allgemeiner Intelligenz ausstatten?
Vielleicht ist eine allgemeine Intelligenz schlichtweg die Summe vieler spezialisierter sensomotorischer Fertigkeiten, und das Problem liegt einfach darin, dass die KI diese noch nicht ausreichend repliziert hat; hat man den Robotern aber erst einmal eine bestimmte kritische Masse an Fertigkeiten eingebaut, dann wird daraus, so der Gedanke, irgendwie eine allgemeine Intelligenz hervorgehen. Doch selbst wenn wir die vielen Fragen der technischen Umsetzung außer Acht lassen, die dieser Ansatz aufwirft, ist er letztlich nicht überzeugend. Denn seine Ergebnisse könnten vielleicht kurzfristig den Anschein allgemeiner Intelligenz erwecken, würden aber auf lange Sicht niemanden hinters Licht führen. Der Multiexperte würde nämlich sofort ins Schleudern kommen, sobald er mit einem Problem konfrontiert ist, das außerhalb seiner einzelnen Spezialgebiete liegt – ein Ereignis, das in einer sich ständig verändernden Welt unvermeidlich ist.
Möglicherweise reicht es, hier auf eine Lernfähigkeit zu setzen, um die Lücke zu schließen – in einer neuartigen Situation könnte eine neue Spezialkompetenz eben einfach erlernt werden. Nun, eine Fähigkeit zu lernen ist zwar gewiss vonnöten, um ein Repertoire von Fähigkeiten aufzubauen und zu erhalten; tatsächlich bildet das Lernen die Grundlage für jegliche Form von Intelligenz. Aber es ist zeitaufwendig und riskant. Das Kennzeichen einer echten allgemeinen Intelligenz ist ihre Fähigkeit, ein vorhandenes Repertoire von Verhaltensmustern an neue Herausforderungen anzupassen, und zwar ohne dabei auf ein systematisches Erproben im Sinne von Versuch und Irrtum oder auf Anleitung durch Dritte zurückzugreifen.
Was wäre also erforderlich, um die mit der Spezialisierung verbundenen Limitierungen zu überwinden und eine Maschine mit einer allgemeinen Intelligenz im eigentlichen Sinne auszustatten? Die wichtigsten Anforderungen an eine solche Maschine sind womöglich Common Sense und Kreativität. Common Sense bezeichnet in diesem Zusammenhang das Unterbeweisstellen einer Einsicht in die Funktionsprinzipien der Alltagswelt, besonders was ihre physische und soziale Dimension angeht. Eines dieser Prinzipien ist beispielsweise das, dass man, wenn man ganz um ein Ding herumgeht, wieder am Ausgangspunkt ankommt, und ein anderes das, dass man, wenn man einen eben beschrittenen Weg zurückgeht, auf dieselben Landmarken stößt, nur in umgekehrter Reihenfolge. Solche Prinzipien sind nützlich, weil ihre Anwendung nicht auf bestimmte eng umrissene Bereiche beschränkt ist. Vielmehr sind sie universell und immer wieder anwendbar.
Was bedeutet es, ein Common-Sense-Prinzip zu beherrschen? Um diese Frage zu beantworten, muss man nichts über Mechanismen sagen; vor allem besteht kein Grund zu der Annahme, dass die interne Repräsentation des Prinzips in irgendeiner sprachähnlichen Form für seine Beherrschung erforderlich wäre. Vielmehr wird sie sich im Verhalten manifestieren – oder, was noch wahrscheinlicher ist, das Fehlen einer Facette des Common Sense wird sich im Verhalten manifestieren. So flattert zum Beispiel der junge Hahn, der hinter unserem Haus wohnt, gern in die Höhe und über das Tor hinweg, um seiner Einzäunung zu entkommen. Aber er ist nie lange draußen, bevor es ihn wieder zu seinen Hennen zurückzieht. Er braucht eigentlich nur wieder über das Tor zu flattern. Doch genau dies kommt ihm nie in den Sinn. Stattdessen läuft er aufgeregt davor hin und her. Ihm geht also offensichtlich das Common-Sense-Prinzip ab, dass bestimmte Handlungen umkehrbar sind.
Man könnte einem Tier durchaus Common Sense zusprechen, solange sein Verhalten keine derartigen toten Winkel des Begreifens aufweist. Diese Überlegungen gelten natürlich auch für den Menschen und andere Tiere dort, wo sie die Sphäre des Sozialen betreffen. Besonders dem Wesen der Sprache liegt ein geteiltes Verständnis der Alltagswelt zugrunde. Angenommen, Sie kommen zur Arbeit, und ein paar Ihrer Kollegen stehen draußen vor dem Gebäude im Regen. »Was macht ihr hier?«, fragen Sie den Nächstbesten von ihnen, und es käme Ihnen seltsam vor, wenn er Ihnen, obgleich wahrheitsgemäß, antworten würde: »Ich stehe hier im Regen.« Stattdessen sagt er: »Feueralarm«, womit er ein Common-Sense-Verständnis des menschlichen Informationsbedürfnisses sowie der Rolle, die der sprachliche Austausch bei der Beschaffung von Informationen spielt, unter Beweis stellt.
Die zweite wesentliche Voraussetzung für allgemeine Intelligenz ist Kreativität. Die, die hier in Rede steht, ist allerdings nicht die Schaffenskraft eines großen Künstlers, Komponisten oder Mathematikers, sondern jene Art von Kreativität, die jeder Mensch besitzt und über die besonders Kinder in einem überreichen Maße verfügen. Gemeint ist die Fähigkeit zur Innovation, zur Ausbildung neuer Verhaltensweisen, zur Erfindung neuer Dinge oder zur Verwendung alter Dinge auf neuartige Weise. Diese Kreativität kann exploratorisch oder spielerisch sein, wie etwa dann, wenn ein Kind einen Tanz improvisiert. Aber sie kann auch durchaus zielorientiert sein, zum Beispiel dann, wenn man die Anlage eines Gartens plant oder Möglichkeiten zur Reduzierung der Haushaltsausgaben erwägt. Kleine kreative Akte solcher Art wirken im Gesamtgefüge des menschlichen Lebens vielleicht nicht besonders innovativ, verlangen von der betreffenden Person jedoch, dass sie über ihr etabliertes Verhaltensrepertoire hinausgeht und dessen Elemente entweder umbildet oder sie in bisher unerprobten Kombinationen neu zusammensetzt.
Kreativität und Common Sense ergänzen einander. Erstere ermöglicht dem Einzelnen zwar das Ersinnen neuer Handlungsweisen, aber es braucht ein Common-Sense-Verständnis der Alltagswelt, um die Konsequenzen dieser Handlungen zu antizipieren. Kreativität ohne Common Sense (in dem hier verwendeten Sinne des Begriffs) ist mithin nur ein Tappen im Dunkeln; Common Sense ohne Kreativität allerdings ist starr und unbeweglich. Eine Intelligenz, die beides beherrscht, ist hingegen ein mächtiges Werkzeug: Sieht sie sich mit einer ungewohnten Herausforderung konfrontiert, kann sie dank ihres kreativen Vermögens eine Vielzahl möglicher Handlungsweisen in Erwägung ziehen und dank ihrer Common-Sense-Einsicht in die Folgen des jeweiligen Tuns jedes wahrscheinliche Ergebnis voraussehen, bevor sie auch nur einen einzigen Muskel angespannt oder einen Motor in Gang gesetzt hat.
Ein schönes Beispiel für eine offenbar spontane Innovation berichtete im Jahr 2002 ein Team von Wissenschaftlern aus Oxford unter der Leitung des Tierkognitionsforschers Alex Kacelnik.8 Sie untersuchten den Werkzeuggebrauch bei gefangenen Exemplaren der Neukaledonischen Geradschnabelkrähe (einer besonders cleveren Spezies), wobei die Versuchsanordnung aus einem kleinen Eimer mit Futter und einem großen senkrechten Rohr bestand. Um die Vögel herauszufordern, wurde der Eimer in das Rohr hinabgelassen, so dass der Griff gerade außer Reichweite war. Den Tieren wurden nun gebogene Drahtstücke bereitgestellt, die sie bald als Haken zu verwenden lernten, mit denen sie den Futtereimer herausziehen konnten. Einmal standen ihnen jedoch keine Haken zur Verfügung, sondern nur ein gerades Stück Draht, das in ihrem Gehege platziert worden war. Ohne dass ihm etwas Derartiges beigebracht worden wäre, klemmte nun einer der weiblichen Vögel namens Betty ein Ende des Drahts in ein Loch in der Apparatur und bog einen Haken daraus, den sie dann dazu nutzte, um den Eimer mit dem Futter aus dem Rohr zu angeln.
Bettys Tun war eine Mischung aus Kreativität und Common Sense. Es brauchte Kreativität, damit sie auf die Idee kommen konnte, ein an sich nutzloses Stück Draht zu verbiegen, während ein Common-Sense-Begriff dieses biegsamen Materials erforderlich war, um das Resultat zu antizipieren. Wenn diese kognitiven Anteile also schon bei nichtmenschlichen Tieren solche beeindruckenden Ergebnisse produzieren können, um wie viel größer dürfte ihr Effekt dann erst beim Menschen sein, der sich der Sprache bedient! Der Schuljunge, der seinem Mitschüler ein originelles Schimpfwort an den Kopf wirft, verbindet sprachliche Kreativität mit einem Common-Sense-Verständnis der menschlichen Psychologie (selbst wenn es ihm an Common Sense gebricht, ein solches Schimpfwort nicht an seinen Lehrer zu richten). Dies ist nur ein triviales Beispiel. Aber jede menschliche Errungenschaft, von den Pyramiden bis zur Mondlandung, ist das Ergebnis einer Unzahl solcher sich schichtförmig überlagernden erfinderischen Handlungen, und eine allgemeine künstliche Intelligenz auf menschlichem Niveau muss eine ähnliche Verschmelzung von Kreativität und Common Sense an den Tag legen, um vergleichbare Spitzenleistungen vollbringen zu können.
Wenn die Anforderungen an eine allgemeine KI also so eindeutig sind – mehr als ein wenig Kreativität und etwas Common Sense braucht es für sie nicht –, wie kommt es, dass man in den ersten 60 Jahren der Forschung auf diesem Gebiet nur so geringe Fortschritte erzielt hat? Gibt es angesichts des ausbleibenden Erfolgs überhaupt Gründe für die Annahme, dass eine KI auf menschlichem Niveau realisierbar ist? Und wenn ihre Herstellung schon so schwierig ist, was für einen Sinn hat es dann, auch noch über eine superintelligente KI zu spekulieren? Wir haben bisher die wesentlichen Verhaltensmerkmale allgemeiner Intelligenz untersucht und es vermieden, die Mechanismen zu untersuchen, durch die sie realisiert werden könnte, sei es im biologischen Gehirn oder in einem Artefakt. Bevor wir uns den genannten Fragen zuwenden können, muss deshalb erst dieses Versäumnis behoben werden. Wir können keine Vision von der Zukunft der KI entwickeln, ohne über ihre konkreten Mechanismen nachzudenken. Oder in der Sprache der Computerwissenschaft ausgedrückt: Wir müssen nicht nur über Spezifikation, sondern auch über Implementierung nachdenken.
In der Informatik gilt es als Binsenweisheit, dass dieselbe Spezifikation auf viele verschiedene Arten implementiert werden kann. Das erschwert unsere Aufgabe, denn im Gegensatz zu einer Softwarefirma, die nur ein einzelnes Produkt herzustellen hat, wollen wir uns eine Vorstellung vom gesamten Raum der möglichen künstlichen Intelligenzen verschaffen. Außerdem wird nach unserem jetzigen Wissensstand schon in naher Zukunft irgendeine revolutionäre Technologie entwickelt werden, die die Erschaffung einer allgemeinen künstlichen Intelligenz ermöglichen wird, wie wir sie uns heute noch kaum ausmalen können.
Dennoch bleibt uns keine andere Wahl, als mit den verschiedenen Schulen der aktuellen KI-Forschung zu beginnen und anschließend von dort aus die Entwicklung weiterzudenken.
Ein Gradmesser, der sich sinnvollerweise an den Raum der möglichen Formen künstlicher Intelligenz anlegen lässt, ist der der biologischen Fidelität: Wie exakt ahmt die Funktionsweise einer KI die des biologischen Gehirns nach? Dabei finden wir am einen Ende dieses Maßstabs künstliche Intelligenzen, die vollkommen autonom nach Prinzipien entworfen worden sind, die sich erheblich von denen unterscheiden, die der biologischen Intelligenz zugrunde liegen, und am anderen Ende auf neuronalen Netzwerken basierende Maschinen, die biologische Gehirne in all ihren physischen Einzelheiten kopieren. Und zwischen diesen beiden Polen waren im Laufe der Geschichte der KI diverse methodologische Schulen angesiedelt, die die Erforschung aller möglichen Zwischenpositionen auf diesem Spektrum propagiert haben. Die Popularität der einzelnen Schulen schwankte; keine hat sich vollends durchsetzen können, und jede von ihnen kann Argumente vorweisen, die für sie sprechen.
So gibt es zum Beispiel eine altbekannte Analogie aus der Geschichte des Motorflugs, die die erstere Art von Maschine, die technisch autonom konstruierte KI, mit einem Flugzeug vergleicht. Frühe Entwürfe für Flugmaschinen haben den Vogelflug imitiert, indem sie sie mit flatternden Flügeln ausstatteten. Dieser Ansatz scheiterte allerdings. Starre Tragflächen und Propeller erwiesen sich als die beste Möglichkeit, einen großen, schweren, von Menschenhand gefertigten Gegenstand zum Fliegen zu bringen. Und so sollte, jener Analogie zufolge, auch die künstliche Intelligenz nicht versuchen, die Natur zu imitieren, sondern ein gänzlich neues Bündel von Konstruktionsprinzipien erarbeiten, die auf siliziumbasierte Computer zugeschnitten sind.
Die Gegner dieses Standpunkts können (nachdem sie auf den zweifelhaften Status von Analogieschlüssen verwiesen haben) erwidern, dass das biologische Gehirn das einzige Beispiel für eine allgemeine Intelligenz ist, das wir haben. Wir wissen, dass es möglich ist, allgemeine Intelligenz in einem neuralen Substrat zu realisieren, und sofern wir dieses Substrat künstlich nachbilden können, können wir uns des Erfolgs gewiss sein. Tatsächlich besitzt dieser von der Biologie inspirierte Ansatz in seiner extremsten, nämlich Brute-Force-Variante unter bestimmten, recht konservativen wissenschaftlichen und technologischen Prämissen nahezu eine Erfolgsgarantie.
Über die technisch autonome Erzeugung künstlicher Intelligenz gibt es viel zu sagen, und wir werden zu gegebener Zeit wieder auf sie zu sprechen kommen. Einstweilen aber wird unser Fokus auf dem biologisch inspirierten Brute-Force-Ansatz liegen, der als whole brain emulation, zu Deutsch Gehirnemulation, bekannt ist.9 Die Gehirnemulation ist nicht nur ein praktikabler Schritt hin zur Erzeugung allgemeiner künstlicher Intelligenz in der Zukunft, sondern wird auch als der richtige Weg zum Mind uploading angepriesen, einem wichtigen Ziel einiger Spielarten des Transhumanismus. Und schließlich ist schon die Idee der Gehirnemulation als philosophisches Gedankenexperiment von Nutzen. Sie bildet die Grundlage für ein ganzes Cluster gewichtiger philosophischer Argumente in Bezug auf die Ideen der künstlichen Intelligenz generell, des maschinellen Bewusstseins und der personalen Identität, die für das Thema dieses Buches allesamt von großer Bedeutung sind.
Was genau ist Gehirnemulation? Kurz gesagt geht es darum, eine funktionell exakte Kopie (oder mehrere Kopien) eines spezifischen Gehirns in einem nichtbiologischen Substrat (beispielsweise auf einem Computer) herzustellen. Um die Einzelheiten dieses Vorgangs zu verstehen, müssen wir ein wenig über die Grundlagen der Neurowissenschaften wissen. Wie jedes andere Organ im Körper eines Wirbeltiers besteht auch sein Gehirn aus einer Unmenge von Zellen. Viele dieser Zellen sind Neuronen, auch Nervenzellen genannt, erstaunliche elektrische Instrumente, die zu einer ausgeklügelten Signalverarbeitung fähig sind. Ein Neuron besteht aus einem Zellkörper (dem Soma), einem Axon (oder Neuriten) und einem Satz Dendriten. Grob gesprochen kann man sich die Dendriten als einen Signale empfangenden und das Axon als den Signale aussendenden Fortsatz der Nervenzelle vorstellen, während das Soma für die Signalverarbeitung zuständig ist.
Neuronen sind auf vielfältige Weise miteinander verbunden und bilden ein komplexes Netzwerk. Sowohl Axone als auch Dendriten ähneln Bäumen, da sie wie diese zahlreiche Äste ausbilden, die sich fächerförmig ausstrecken und mit den Axonen und Dendriten anderer Neuronen verschlungen sind. An den Stellen, wo ein Axon (der Sender) eines Neurons einem Dendriten (dem Empfänger) eines anderen sehr nahekommt, kann sich eine Synapse bilden, die es durch die komplexe Wechselwirkung chemischer Stoffe ermöglicht, dass Signale von einer Nervenzelle zur anderen übergehen, wodurch die Zellen miteinander kommunizieren können. Das menschliche Gehirn enthält eine gewaltige Anzahl von Neuronen – über 80 Milliarden. Doch Neuronen sind nicht nur im zentralen Nervensystem eines Tieres zu finden, also in seinem Gehirn und seinem Rückenmark; auch das periphere Nervensystem besteht aus Neuronen, die dem Gehirn sensorische Signale des Körpers übermitteln – über die Haut, die Augen, den Magen und so weiter – und dem übrigen Körper – den Muskeln, Drüsen und so weiter – über das Rückenmark motorische Signale vom Gehirn zukommen lassen.
Die Gehirnaktivität ergibt sich somit aus dem Zusammenspiel elektrischer und chemischer Aktivitäten. Das Verhalten einer Nervenzelle wird besonders durch das Vorhandensein chemischer Neurotransmitter wie etwa Dopamin und Serotonin moduliert. Diese chemischen Stoffe werden von besonders spezialisierten Neuronen mit langen, diffusen axonalen Fortsätzen erzeugt, die sie im Gehirn verteilen. Neuromodulierende Chemikalien können dem Gehirn ferner auch über das Blut zugeführt werden, wie es bei den meisten psychoaktiven Substanzen der Fall ist.