Das Geheimnis des menschlichen Denkens - Ray Kurzweil - E-Book

Das Geheimnis des menschlichen Denkens E-Book

Ray Kurzweil

4,4

Beschreibung

Der Wettlauf um das Gehirn hat begonnen. Sowohl die EU als auch die USA haben gewaltige Forschungsprojekte ins Leben gerufen um das Geheimnis des menschlichen Denkens zu entschlüsseln. 2023 soll es dann soweit sein: Das menschliche Gehirn kann vollständig simuliert werden. In "Das Geheimnis des menschlichen Denkens" gewährt Googles Chefingenieur Ray Kurzweil einen spannenden Einblick in das Reverse Engineering des Gehirns. Er legt dar, wie mithilfe der Mustererkennungstheorie des Geistes der ungeheuren Komplexität des Gehirns beizukommen ist und wirft einen ebenso präzisen wie überraschenden Blick auf die am Horizont sich bereits abzeichnende Zukunft. Ist das menschliche Gehirn erst einmal simuliert, wird künstliche Intelligenz die Fähigkeiten des Menschen schon bald übertreffen. Ein Ereignis, das Kurzweil aufgrund der bereits in "Menschheit 2.0" entworfenen exponentiellen Wachstumskurve der Informationstechnologien bereits für das Jahr 2029 prognostiziert. Aber was dann? Kurzweil ist zuversichtlich, dass die Vorteile künstlicher Intelligenz mögliche Bedrohungsszenarien überwiegen und sie uns entscheidend dabei hilft, uns weiterzuentwickeln und die Herausforderungen der Zukunft zu meistern.

Sie lesen das E-Book in den Legimi-Apps auf:

Android
iOS
von Legimi
zertifizierten E-Readern
Kindle™-E-Readern
(für ausgewählte Pakete)

Seitenzahl: 528

Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:

Android
iOS
Bewertungen
4,4 (12 Bewertungen)
8
1
3
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



 

 

RAY KURZWEIL

Das Geheimnis des menschlichen Denkens

Einblicke in das Reverse Engineering des Gehirns

Mit einem Vorwort vonBernd Vowinkel

Mit dem Vorwort zur spanischen Ausgabe vonJosé Luis Cordeiro

Aus dem Englischen vonJens Ole Beckers und Jan Schenkenberger

Copyright © Lola Books GbR, Berlin 2014www.lolabooks.eu

Dieses Werk, einschließlich aller seiner Teile, ist urheberrechtlich geschützt und darf in keinerlei Form ohne schriftliche Genehmigung des Verlages reproduziert oder unter Verwendung elektronischer Systeme verarbeitet, vervielfältigt oder verbreitet werden.

Titel der englischen Originalausgabe:How to create a mind: the secret of human thought revealedCopyright © Ray Kurzweil, 2012All rights reserved including the right of reproduction in whole or in part in any form.This edition published by arrangement with Viking, a member of Penguin Group (USA) Inc.Alle Rechte vorbehalten

Umschlagdesign: Christine WenningCopyright © Christine WenningDruck: Clausen & Bosse, LeckISBN 978-3-944203-06-5eISBN 978-3-944203-16-4

Erste Auflage 2014

Inhalt

Vorwort

Vorwort zur spanischen Ausgabe

Danksagung

Einleitung

KAPITEL 1

Gedankenexperimente über die Welt

KAPITEL 2

Gedankenexperimente über das Denken

KAPITEL 3

Ein Modell des Neokortex:Die Mustererkennungstheorie des Geistes

KAPITEL 4

Der biologische Neokortex

KAPITEL 5

Das Althirn

KAPITEL 6

Transzendente Fähigkeiten

KAPITEL 7

Der biologisch inspirierte digitale Neokortex

KAPITEL 8

Der Geist als Computer

KAPITEL 9

Gedankenexperimente über den Geist

KAPITEL 10

Das Gesetz vom steigendenErtragszuwachs angewandt auf das Gehirn

KAPITEL 11

Entgegnungen

Epilog

Endnoten

Index

Vorwort

Ray Kurzweil genießt im englischsprachigen Raum hohes Ansehen. So erhielt er 19 Ehrendoktortitel und eine ganze Reihe von Auszeichnungen, darunter die „National Medal of Technology“. Er gilt als eine der Leitfiguren des Trans- und des Posthumanismus. Er ist Pionier der optischen Texterkennung, der Sprachsynthese, der Spracherkennung, der Flachbettscannertechnologie und der elektronischen Musikinstrumente (insbesondere Keyboards) und hat in diesen Bereichen eine Reihe von Firmen gegründet. Seit 2012 arbeitet er als leitender Ingenieur bei Google. Sein 2005 veröffentlichtes Buch The Singularity Is Near war ein Bestseller. Im Lola Books Verlag erschien im Mai 2013 eine deutsche Übersetzung unter dem Titel Menschheit 2.0: Die Singularität naht.

Mit dem vorliegenden allgemeinverständlichen Werk konzentriert sich Kurzweil auf die Fortschritte der Erforschung sowohl des menschlichen Denkens als auch der auf diesen Erkenntnissen aufbauenden künstlichen Intelligenz. Das menschliche Denken galt von jeher als wissenschaftlich unergründbar. Gerade auch in der deutschen Philosophie war der Dualismus von Geist und Körper lange Zeit die unabdingbare Grundlage des Menschenbildes. Nach Kurzweil haben die gewaltigen Fortschritte der Naturwissenschaften – und hier insbesondere der Neurowissenschaft – dieses Menschenbild mittlerweile als haltlose Wunschvorstellung entlarvt. Er zeigt, dass menschliches Denken vollständig auf Algorithmen basiert. Es bedarf zu seiner Erklärung, entgegen älteren philosophischen Positionen, weder Religion noch Esoterik noch Metaphysik. Auch die von dem bekannten Physiker Roger Penrose geforderte neue nichtalgorithmische Physik erscheint keineswegs notwendig. Dennoch werden viele konservative Wissenschaftler erst dann ihre liebgewordenen Vorstellungen aufgeben, wenn der erste Computer philosophische Abhandlungen schreibt. Wenn Kurzweil Recht behält, wird das wohl nicht mehr allzu lange dauern.

In der ersten Hälfte des Buches gibt Kurzweil einen zusammenfassenden Überblick über den gegenwärtigen Stand der Hirnforschung. Die grundlegenden Funktionseinheiten des Gehirns sind die Nervenzellen (Neuronen). Sowohl ihre biochemische Funktion als auch der daraus resultierende Prozess der Informationsverarbeitung sind weitestgehend erforscht und es gibt gute Simulationsmodelle dafür. Da als Grundlage dieser Modelle die klassische Physik und die sich daraus ableitende Biochemie ausreichend sind und beide sich vollständig algorithmisch beschreiben lassen, ist damit zwangsläufig auch die Funktion der Neuronen vollständig algorithmisch beschreibbar. Das häufig vorgebrachte Gegenargument, dass Neuronen teilweise analog arbeiten und somit mit einem Digitalcomputer nicht ausreichend simuliert werden können, entkräftet Kurzweil mit dem Hinweis, dass z. B. die analoge Größe der Leitfähigkeit in den Synapsen der Neuronen völlig ausreichend mit 8 Bit verschlüsselt werden kann. Analoge Vorgänge können grundsätzlich mit jeder gewünschten Präzision in Digitalcomputern simuliert werden.

Unser Denken besteht im Wesentlichen aus der Erkennung und der Manipulation von Mustern. Insgesamt können wir bis zu 300 Millionen verschiedene Muster unterscheiden. Zur Speicherung und Verarbeitung werden jeweils ungefähr 100 Neuronen in Anspruch genommen. Obwohl die Verarbeitungsfrequenz in unserem Gehirn nur zwischen 100 und 1000Hz liegt und damit mehr als eine Million Mal niedriger als in unseren Computern ist, schafft unser Gehirn einen Mustererkennungsvorgang innerhalb von Sekundenbruchteilen. Der Grund dafür ist, dass die Datenverarbeitung im Gehirn extrem parallel erfolgt. Nach Kurzweil ist der Algorithmus, nach dem dies geschieht, optimal mit dem sogenannten „hierarchical hidden Markov model“ (HHMM) zu beschreiben. Es handelt sich dabei um ein neuronales Netz, das mit zum Teil statistischen Methoden aus einer Datenmenge bestimmte Muster herausfiltern kann.

Das Material unserer Nervenzellen wird im Zeitrahmen von einigen Monaten vollständig ausgetauscht. Dies hat aber keinen Einfluss auf die Fähigkeiten zur Informationsverarbeitung der Zelle. Denken ist auf der untersten Hierarchieebene nichts anderes als Symbolverarbeitung, so wie sie auch in Computern stattfindet, und ist dabei unabhängig von einer bestimmten Materie. Nach der Church-Turing-These ist die Fähigkeit zur Lösung von algorithmischen Problemen unabhängig vom konkreten Aufbau einer Hardware, solange es sich um eine universelle Rechenmaschine mit genügend Speicherplatz handelt. Daraus und aus der erwähnten Tatsache, dass sich die Abläufe innerhalb der Neuronen algorithmisch beschreiben lassen, resultiert, dass das menschliche Gehirn grundsätzlich nicht mehr Probleme lösen kann als jede andere universelle Rechenmaschine. Im Umkehrschluss heißt das wiederum, dass es prinzipiell möglich sein sollte, einen Computer mit sämtlichen geistigen Fähigkeiten auszustatten, über die der Mensch verfügt, einschließlich eines Bewusstseins.

Naturwissenschaftliche Theorien gewinnen insbesondere dann an Überzeugungskraft, wenn man mit ihrer Hilfe neue Dinge schaffen kann, die in der Wirklichkeit gut funktionieren. Daher zeigt der Autor im zweiten Teil des Buches, wie nun die Erkenntnisse der Hirnforschung dazu genutzt werden können, Computerprogramme zu erstellen, die wie das menschliche Denken funktionieren und auch dessen Leistungsfähigkeit erreichen bzw. sogar überschreiten. Die Hauptanwendungsgebiete liegen derzeit in der Mustererkennung. So basiert das Spracherkennungsprogramm Siri, das auf dem iPhone 4S und dem iPhone 5 installiert ist, auf einem künstlichen neuronalen Netz, das lernfähig ist und sich mit der Zeit auf seinen Nutzer einstellt. Eines der derzeit am weitesten fortgeschrittenen Programme in Bezug auf die Simulation menschlichen Denkens ist Watson von der Firma IBM. Es ist in der Lage, ganze Sätze zu verstehen und darauf sinnvolle Antworten zu geben. Bei der im amerikanischen Fernsehen beliebten Quizshow Jeopardy! hat Watson im Jahr 2011 die besten menschlichen Kandidaten übertroffen. Bei Jeopardy! muss auf einen Satz, der eine Antwort darstellt, die dazugehörige richtige Frage gefunden werden. Watson spielt aber nicht nur Jeopardy!: das Programm kann durch einen Lernprozess für die unterschiedlichsten Aufgaben optimiert werden.

Ray Kurzweil selbst hat jahrzehntelange Erfahrung im Programmieren von lernfähigen Mustererkennungsprogrammen. Nach seiner Erfahrung arbeiten diese Programme dann am besten, wenn man sie in ihrem Aufbau als neuronalem Netz dem menschlichen Gehirn nachempfindet. Für die jeweilige Aufgabe kann man gewisse Grundregeln einprogrammieren. Die Feinheiten erlernt das Programm in der Praxis dann selbstständig. Zusätzlich kann man noch einen evolutionären Optimierungsvorgang einbauen, der die Verschaltung des Netzes für die jeweilige Aufgabe optimiert, so wie das auch im menschlichen Gehirn geschieht. Auf die Frage, wann es gelingt, Computer mit allen geistigen Fähigkeiten des Menschen einschließlich des Ich-Bewusstseins auszustatten, gibt Kurzweil das Jahr 2029 an. Zu diesem Zeitpunkt wird seiner Meinung nach das erste Computerprogramm den sogenannten Turing-Test bestehen. Was danach geschieht, hat er in seinem Buch Menschheit 2.0 ausführlich beschrieben. Es wird zu einer explosionsartigen Vervielfachung der Rechenleistung und der Fähigkeiten der künstlichen Intelligenz kommen, die gewaltige Auswirkungen auf unsere Gesellschaft haben wird.

Wie nicht anders zu erwarten, gibt es auch heftige Kritik an den Positionen von Kurzweil, zumal für viele die mögliche Machbarkeit von künstlichem Bewusstsein eine Kränkung ihres Menschenbildes darstellt. Insbesondere im deutschsprachigen Raum gibt es eine tief greifende Aversion gegen die Ideen von Ray Kurzweil und gegen den Transhumanismus und den Posthumanismus im Allgemeinen. Wahrscheinlich ist einer der Gründe darin zu finden, dass die meisten immer noch einer christlichen Ethik und einem Menschenbild verbunden sind, die ihre Ursprünge in der Bronzezeit haben. Daneben gibt es ein tiefes und zum Teil irrationales Misstrauen gegenüber neuen Technologien. So glauben religiös oder metaphysisch inspirierte Intellektuelle nach wie vor an den Dualismus von Leib und Seele bzw. Geist und Körper. Sie können aber keine wirklich nachvollziehbaren rationalen Argumente für ihre Position anführen. Insofern ist das eine reine Glaubensfrage. Den Naturwissenschaften etwas mehr zugeneigte Geisteswissenschaftler vertreten häufig die Position, dass man zwar womöglich alle geistigen Fähigkeiten des Menschen mit einem Computer simulieren kann, aber die Simulation immer noch etwas anderes ist als die Wirklichkeit, ähnlich wie die Simulation des Wetters etwas anderes ist als das Wetter selbst. Prominenter Vertreter dieser Position ist der amerikanische Philosoph John Searle. In seinem Buch Die Wiederentdeckung des Geistes geht er zwar davon aus, dass das menschliche Gehirn im Rahmen des Naturalismus als eine Art Bio-Computer vollständig beschrieben werden kann, dass aber die Fähigkeiten künstlicher Intelligenz nichtsdestotrotz nicht an die des Menschen heranreichen werden. Der Denkfehler, der dieser Position zugrunde liegt, ist die Ansicht, dass unsere geistigen Fähigkeiten an eine bestimmte Materie gebunden sind. Im Kern aber ist Denken nichts anderes als Informationsverarbeitung. Diese geschieht auf der untersten Ebene als reine Symbolverarbeitung und stellt damit schon hier einen vollständig abstrakten Vorgang dar. Ray Kurzweil schreibt dazu: „Wenn das Verstehen von Sprache und anderer Phänomene über statistische Analysen (wie z. B. bei moderner Spracherkennungssoftware) nicht als wahres Verstehen zählt, dann verfügen auch Menschen nicht über wahres Verstehen.“

Fachleute der künstlichen Intelligenz an deutschen Hochschulen und Universitäten bezeichnen die Ansichten von Kurzweil häufig als überzogen optimistisch in Bezug auf die Machbarkeit der künstlichen Intelligenz und ihrer Auswirkungen auf die Menschheit. Dem steht das Argument gegenüber, dass Kurzweil mit seinen bisherigen Vorhersagen, wie er sie beispielsweise in seinem 1999 erschienenen Buch The Age of Spiritual Maschines machte, zu über 86 % richtig lag. Angesichts dieser Tatsache stellt sich die Frage, wer von den Kritikern oder anderen Experten eine bessere Statistik seiner eigenen Vorhersagen vorlegen kann. Microsoft-Gründer Bill Gates meint jedenfalls dazu: „Ray Kurzweil ist von allen Personen, die ich kenne, am besten geeignet die Zukunft der künstlichen Intelligenz vorauszusagen“.

Notorische Apokalyptiker, die sich insbesondere in deutschen Medien zahlreich zu Wort melden, werden sich fragen, wie man diese technische Entwicklung aufhalten kann. Ray Kurzweil meint dazu, dass sich die neuen Technologien, wenn überhaupt, nur in totalitären Staaten aufhalten lassen. Wir werden die durch die Fortschritte in Wissenschaft und Technik hervorgerufenen zukünftigen Herausforderungen nur meistern, wenn wir ein wissenschaftsfundiertes Weltbild anerkennen und uns von einem metaphysischen bzw. religiösen Menschenbild endlich befreien. Ray Kurzweil hat mit seinen Büchern und seinen Arbeiten einen erheblichen Beitrag dazu geleistet und sich damit als großer Pionier verdient gemacht.

Vom Philosophen Jerry A. Fodor stammt die Erkenntnis: „Manche Philosophen sehen Philosophie als das an, was man mit einem Problem macht, bevor es klar genug ist, um es mit Wissenschaft lösen zu können“. Genau dies trifft auf das Problem des menschlichen Geistes zu. Die Zeit ist nun reif für eine wissenschaftliche Erforschung und Erklärung, und Kurzweil hat dazu mit diesem Buch einen wichtigen Meilenstein gelegt.

Bernd Vowinkel

Dr. Bernd Vowinkel ist Physiker und war bis 2010 als Wissenschaftler am 1. Physikalischen Institut der Universität Köln im Fachgebiet Radioastronomie tätig. Daneben hat er sich intensiv mit den naturwissenschaftlichen und philosophischen Aspekten der künstlichen Intelligenz auseinandergesetzt und dazu 2006 ein Buch mit dem Titel „Maschinen mit Bewusstsein“ veröffentlicht. Der Inhalt dieses Buches deckt Themen ab, die auch Ray Kurzweil in seinen Büchern anspricht. Aufgrund seines Buches und öffentlicher Vorträge gilt Vowinkel im deutschsprachigen Raum als einer der bekanntesten Vertreter des Transhumanismus und des Posthumanismus. Weiterhin ist er aktiver Mitarbeiter und Mitglied des Stifterkreises der Giordano-Bruno-Stiftung, die sich die Verbreitung eines modernen, naturalistisch fundierten Humanismus zum Ziel gesetzt hat.

Vorwort zur spanischen Ausgabe

Ray Kurzweil ist gegenwärtig wahrscheinlich der einflussreichste Futurist der Welt. Darüber hinaus ist Ray aber auch Ingenieur, Erfinder, Unternehmer, Musiker, Erzieher und Schriftsteller. Alle seine Bücher über Technologie waren Bestseller: The Age of Intelligent Machines (1990), The Age of Spiritual Machines (1999) und The Singularity is Near (2005; Menschheit 2.0, Lola Books 2013). Ray veröffentlichte sein neues Buch How to Create a Mind (Das Geheimnis des menschlichen Denkens, Lola Books 2014) im Dezember 2012 und die vorliegende spanische Fassung mit dem Titel Cómo crear una mente erschien im Oktober 2013. Jedes seiner Bücher war zu seiner Zeit beeindruckend, da sie alle wichtige Voraussagen zu großen Ereignissen und Möglichkeiten in der Zukunft machten.

Rays persönliche Geschichte ist erstaunlich, reich an Erfolgen, an Erfindungen und Zukunftsvisionen. Seine Erfindungen reichen von verschiedenen Arten von Scannern und Synthesizern bis hin zu Lesemaschinen für Blinde und Spracherkennungsgeräten. Ray erzählt, dass er seit seinem 5. Lebensjahr Erfinder werden wollte. 1998 wurde er vom Massachusetts Institute of Technology (MIT), seiner Alma Mater, zum Erfinder des Jahres ernannt. Ray erhielt Ehrungen von drei Präsidenten der USA, um die zwanzig Ehrendoktortitel von verschiedenen Universitäten auf der ganzen Welt und die Nationale Medaille der Technologie der Vereinigten Staaten. Überdies findet sich sein Name in der Hall of Fame der Erfinder der Vereinigten Staaten. Zur Unterstützung der kommenden Generationen gründete Ray zusammen mit Peter Diamandis die Singularity University auf dem Gelände des Nasa-Forschungszentrums Ames im berühmten Silicon Valley. Überdies wurde Ray nach der Veröffentlichung von How to Create a Mind zu Googles Engineering-Vizepräsidenten ernannt. Bei Google konzentriert er sich auf die natürliche Sprachverarbeitung, wobei er Computerlinguistik mit künstlicher Intelligenz kombiniert.

Ich verfolgte Rays Ideen über drei Jahrzehnte hinweg und habe das Vergnügen ihn seit fast zwei Jahrzehnten persönlich zu kennen. Als Berater und Gründungsprofessor der Singularity University habe ich seit nunmehr fünf Jahren die Ehre mit ihm zusammen zu arbeiten. Außerdem war ich bei der Nachbearbeitung seiner Vorhersagen für das Jahr 2009 tätig. Die Präzision seiner Vorhersagen ist mit einer Trefferquote von beinahe 90 % tatsächlich beeindruckend. Unter seine berühmtesten Vorhersagen fallen der Zusammenbruch der Sowjetunion, das Entstehen des Internets und die Entwicklung eines Computers mit der Fähigkeit, den Schachweltmeister zu schlagen. In diesem letzten Punk erwies sich Ray sogar als konservativ. Er prognostizierte dieses Ereignis für das Jahr 1998, aber tatsächlich schlug Deep Blue Kasparow bereits im Jahr 1997.

How to Create a Mind, Rays neuester New York Times-Bestseller, erläutert die atemberaubenden Fortschritte der künstlichen Intelligenz und zeigt auf, wie bereits in wenigen Jahren ein vollständiges Reverse Engineering des Gehirns möglich sein wird. Ray meint, dass im Jahr 2029 eine künstliche Intelligenz den Turing-Test bestehen wird. Dieser auf der Idee des englischen Wissenschaftlers Alan Turing basierende Test zeigt, ob ein Mensch fähig ist zu entscheiden, ob er sich – schriftlich oder mündlich – gerade mit einem anderen Mensch oder doch mit einer Maschine unterhält. Ray erklärt, dass die künstliche Intelligenz ihr Niveau sogar verringern werden muss, um nicht sogleich als eine dem Menschen überlegene Intelligenz erkannt zu werden. Sollte sich eine Maschine in jeder Hinsicht intelligent (oder intelligenter als Menschen) verhalten, dann muss diese Maschine als intelligent betrachtet werden.

Ray beginnt sein neues Buch mit einer Reihe von Gedankenexperimenten zum besseren Verständnis des menschlichen Denkens. Danach stellt er ein Modell des Neokortex vor und entwirft seine Mustererkennungstheorie des Geistes (engl. „Pattern Recognition Theory of Mind“; PRTM). Daraufhin fährt Ray mit der Untersuchung der verschiedenen biologischen Teile des Gehirns und dessen Evolution fort. Das führt zur Erörterung der Möglichkeit eines digitalen Neokortex als Ergebnis des sich beschleunigenden technologischen Wachstums.

Das Geheimnis des menschlichen Denkens vertritt die Meinung, dass der menschliche Geist eine emergente Eigenschaft des Gehirns ist. Insofern wird die Schöpfung digitaler Gehirne zur Schöpfung von digitalem Geist führen. Tatsächlich kann das Gehirn, das gegenwärtig das biologische Substrat des menschlichen Geistes bildet, durch sorgfältig designte und weit fortschrittlichere nichtbiologische Substrate wesentlich verbessert werden. Wie der große englische Futurist Sir Arthur C. Clarke sagen würde: Wir Menschen sind lediglich auf Kohlenstoff basierende Zweibeiner (engl. „carbonbased bipeds“). Das Substrat, ob biologisch oder nicht, ist nicht von Bedeutung. Wichtig ist der Geist, und mit Hilfe neuer Technologien verbesserter Geist wird den nicht verbesserten menschlichen Geist von heute weit übertreffen. Ray betrachtet nicht nur den Geist als eine direkte Folge des Gehirns, sondern meint auch, dass künstliche Intelligenz Verstand, Willensfreiheit und eine eigene Identität besitzen wird.

Dieses neue Buch ist vielleicht Rays bestes und wichtigstes Werk, weil es gezielt und ausführlich das menschliche Gehirn bespricht, welches die komplexeste Struktur des bekannten Universums darstellt. Das ist zumindest die Meinung von Marvin Minsky, Pionier der künstlichen Intelligenz am MIT. Vielleicht taucht morgen ein Außerirdischer auf, dessen Gehirn entwickelter ist als das unsere. Aber bis dahin bildet das menschliche Gehirn die komplexeste uns bekannte Struktur. Das menschliche Gehirn ist wiederum nicht so komplex, als dass wir es dank den Fortschritten in der Wissenschaft und dem exponentiellen Wachstum der Technologie und mithilfe des Reverse Engineerings nicht in den nächsten Jahren nachbilden, simulieren und überwinden könnten.

Trotz der enormen Komplexität des menschlichen Gehirns mit seinen hunderttausend Millionen Neuronen, die untereinander durch Billionen von Synapsen verbundenen sind, meint Ray: „Ziel dieses Buches ist es ganz entschieden nicht, in den Chor derjenigen unzähligen Stimmen einzustimmen, die dem Gehirn eine ungeheure Komplexität bescheinigen. Im Gegenteil, ich will zeigen, von welch überraschender Einfachheit es ist. Das hoffe ich durch die Erklärung zu tun, wie ein grundlegender, ausgeklügelter Mechanismus für das Erkennen, das Erinnern und das Vorhersagen von Mustern – im Neokortex Hunderte von Millionen Mal wiederholt – für die großartige Differenziertheit unseres Denkens verantwortlich ist.“

Für diejenigen, die noch heute nicht glauben, dass eine geringere Intelligenz sich in Richtung einer größeren Intelligenz fortentwickeln kann, stellen wir selbst den Beweis, dass dies möglich ist. Vor Millionen von Jahren entwickelten wir uns aus unseren weniger intelligenten Vorfahren, den Affen. Diese wiederum stammten von anderen, noch weniger intelligenten Säugetieren ab (wiewohl Intelligenz in diesem Zusammenhang vielleicht nicht der korrekte Ausdruck ist). Unsere biologischen Gehirne sind bis heute das Ergebnis der zufälligen biologischen Evolution, die willkürlich gute und schlechte Resultate liefert. Die digitalen Gehirne, die wir zukünftig produzieren, werden das Produkt eines Designprozesses sein. Sie werden nicht das zufällige Resultat der biologischen Evolution, sondern auf unserer technologischen Evolution beruhende intelligente Schöpfungen darstellen.

In den wenigen Monaten, die seit der Veröffentlichung der englischen Originalausgabe von How to Create a Mind im Dezember 2012 vergangen sind, haben zwei bedeutende Projekte hinsichtlich des Gehirns ihre Arbeit aufgenommen. Auf einer Seite steht das HumanBrain Project. Dieses von der Europäischen Union finanzierte Projekt verbindet unter der Leitung des südafrikanischen Forschers Henry Markram von der Eidgenössischen Technischen Hochschule Lausanne in der Schweiz Arbeiten aus dem Bereich der Medizin, der Wissenschaft und der Technik. Mit einem Budget von mindestens einer Milliarde Euro verteilt über die nächsten zehn Jahre versucht dieses Projekt das menschliche Gehirn mithilfe von Supercomputern zu simulieren um seine charakteristischen Merkmale technologisch nachzubilden. Auf der anderen Seite steht die BRAIN-Initiative (engl. „Brain Research through Advancing Innovative Neurotechnologies“). Sie wurde vom US-Präsidenten Barack Obama mit dem Ziel, jedes Neuron im menschlichen Gehirn zu kartieren, vorgestellt. Die BRAIN-Initiative beruht auf dem erfolgreichen Humangenomprojekt und sieht über ein Jahrzehnt hinweg finanzielle Mittel von mehr als 300 Millionen Dollar jährlich vor.

Die millionenschweren Forschungen, die in Europa mit dem Human Brain Project und in den Vereinigten Staaten mit der BRAIN-Initiative einsetzten, werden im kommenden Jahrzehnt beeindrukkende Resultate zeitigen. Darüber hinaus fährt Japan mit seiner fortgeschrittenen Gehirnforschung am RIKEN-Institut fort, und auch China, Russland und andere Länder verfolgen wichtige Forschungsprogramme betreffend das Gehirn, Neurowissenschaft und künstliche Intelligenz. Große Technologieunternehmen wie zum Beispiel Amazon, Apple, Ericsson, Facebook, Google, IBM, Microsoft, Nokia, Samsung und Sony verfügen in diesen und ähnlichen Bereichen bereits über Produkte bzw. Projekte. Darüber hinaus existieren neue Start-ups, die sich gleichermaßen mit grundlegenden Aspekten des Gehirns und der Intelligenz, sei sie natürlich oder künstlich, beschäftigen. Aufgrund all des nationalen und internationalen, des öffentlichen und privaten Interesses am Verständnis und der Verbesserung des menschlichen Gehirn habe ich nicht den geringsten Zweifel daran, dass wir in den kommenden Jahren wunderbare Sachen entdecken werden.

Ray erklärt: „Ziel des Projektes ist es, die Funktionsweise des menschlichen Gehirns genauer zu verstehen und die auf diese Weise aufgedeckten Arbeitsweisen zu einem besseren Verständnis unserer selbst zu nutzen. Also etwa dazu, bei Bedarf das Gehirn wieder in Ordnung zu bringen und – für den Gegenstand dieses Buches am wichtigsten – immer intelligentere Maschinen herzustellen.“ Laut Ray werden wir mit unserer Technologie weiter fusionieren und eine sich fortlaufend entwickelnde Mensch-Maschine-Zivilisation bilden.

Wenn auch einige Ideen Science-Fiction zu sein scheinen, sollte man nicht vergessen, dass die Science-Fiction von heute des öfteren zur Wissenschaft von morgen wird. Die Wissenschaft eröffnet dem menschlichen Verständnis kontinuierlich neue Zugänge und Möglichkeiten. Tatsächlich kann, was früher unmöglich schien, zu einem späteren Zeitpunkt Wirklichkeit werden. Die ersten Telefone, Autos, Flugzeuge, Antibiotika, künstliche Satelliten, Rechner oder Computer, Internet, Mobiltelefone – all das schien früher Zauberei zu sein. Heute werden diese Entdeckungen und Erfindungen glücklicherweise von einer neuen Generation als normal wahrgenommen.

Manchmal gelangen die Ideen der Science-Fiction tatsächlich in die reale Wissenschaft. Sir Arthur C. Clarke, ein Ingenieur, der als Autor von Science-Fiction bekannt wurde, schrieb vor einem halben Jahrhundert seine drei berühmten Gesetze der Zukunft:

1.Wenn ein angesehener, aber älterer Wissenschaftler behauptet, dass etwas möglich sei, hat er mit an Sicherheit grenzender Wahrscheinlichkeit recht. Wenn er behauptet, dass etwas unmöglich sei, hat er höchstwahrscheinlich unrecht.

2.Der einzige Weg, die Grenzen des Möglichen zu finden, ist, ein klein wenig über diese hinaus in das Unmögliche vorzustoßen.

3.Jede hinreichend fortschrittliche Technologie ist von Magie nicht zu unterscheiden.

Kurzum: Was heute noch Zauberei zu sein scheint, wird vielleicht schon bald Realität sein. Vom Standpunkt der Informatik haben wir bereits mit der Nachbildung der Komplexität des menschlichen Gehirns begonnen. Es ist tatsächlich möglich, dass wie von Ray prognostiziert im Jahr 2029 eine künstliche Intelligenz den Turing-Test bestehen wird (obwohl dieses Ereignis wahrscheinlich schon früher eintreten wird, wie es die rasanten Fortschritte zweier IBM-Computer nahelegten: Deep Blue im Jahr 1997 und Watson im Jahr 2011). Zu diesem Zeitpunkt wird es unmöglich sein, zwischen einer künstlichen und einer menschlichen Intelligenz zu unterscheiden. Bereits kurz darauf wird die sich weiter verbessernde künstliche Intelligenz die nicht modifizierte menschliche Intelligenz weit übertreffen. Auf dem Weg in die Zukunft wird die Mehrheit der Menschheit die Technologie benutzen, um ihre eigenen Fähigkeiten zu vergrößern, sowie wir das bis heute auch getan haben (von der Brille bis zur Prothese). Später wird es möglich sein, alle unsere Kenntnisse, Erinnerungen, Erfahrungen, Liebschaften und sogar Gefühle auf Rechner oder Computer (im Internet oder in der Cloud) upzuloaden, deren Speicherkapazität ausbaubar und dem aktuellen menschlichen Gedächtnis weit überlegen ist. Der künstliche Speicher wird weiter kontinuierlich besser und größer, ebenso wie die Verarbeitungskapazität und -geschwindigkeit der künstlichen Intelligenz. Dank der kontinuierlichen technologischen Evolution wird all das Teil des beschleunigten Prozesses der Verbesserung der menschlichen Intelligenz sein.

Die Menschheit hat eben erst die ersten Schritte auf dem faszinierenden Weg von der biologischen Evolution hin zur technologischen Evolution unternommen. Diese neue Evolution geht bewusst und intelligent vonstatten. Sowie Ray darstellt, besitzt ein Kilogramm „Computronium“ die theoretische Kapazität um ungefähr 5 x 1050 Berechnungen in der Sekunde durchzuführen (es gibt verschiedene Meinungen hierzu). Das heißt wir besitzen ein enormes Potential von vielen Größenordnungen um erst die menschliche und später die posthumane Intelligenz weiter zu steigern. In diesem Prozess werden wir unsere nicht verbesserten biologischen Gehirne gegen verbesserte postbiologische Gehirne eintauschen. Rays abschließende Folgerung: „Das Universum zu erwecken und – indem wir es mit unserer menschlichen Intelligenz in ihrer nichtbiologischen Form durchdringen – über sein Schicksal zu entscheiden, das ist unsere Bestimmung.“

José Luis Cordeiro, MBA, PhD(www.cordeiro.org)

Direktor, Standort Venezuela, The Millennium Project(www.Millennium-Project.org)

Gründungsprofessor, Singularity University, NASA Ames, Silicon Valley, California(www.SingularityU.org)

Mitgründer, Asociación Transhumanista Iberoamericana(www.TransHumanismo.org)

Gründer, Sociedad Mundial del Futuro Venezuela(www.FuturoVenezuela.net)

Für Leo Oscar Kurzweil.Du betrittst eine außergewöhnliche Welt.

Danksagung

Ich möchte meinen Dank aussprechen:

Meiner Frau Sonya, für ihre liebevolle Geduld während all der Wechselfälle des kreativen Prozesses;

meinen Kindern Ethan und Amy, meiner Schwiegertochter Rebecca, meiner Schwester Enid und meinem neuen Enkel Leo, für ihre Liebe und Inspiration;

meiner Mutter Hannah für ihre Unterstützung meiner frühen Ideen und Erfindungen, die mir die Freiheit gab, schon in jungen Jahren zu experimentieren, und dafür, dass sie meinen Vater während seiner langen Krankheit am Leben erhielt;

meinem langjährigen Verleger bei Viking, Rick Kot, für seine Betreuung, seine zuverlässige und einsichtsvolle Beratung und sein sachkundiges Lektorat;

Loretta Barrett, meiner Literaturagentin seit zwanzig Jahren, für ihre scharfsinnigen und enthusiastischen Ratschläge;

Aaron Kleiner, meinem langjährigen Geschäftspartner, für hingebungsvolle Zusammenarbeit in den letzten zwanzig Jahren;

Amara Angelica für ihre aufopfernde und einzigartige Unterstützung bei der Forschung;

Sarah Black für ihre herausragenden Erkenntnisse und Ideen in der Forschung;

Laksman Frank für seine exzellenten Illustrationen;

Sarah Reed für ihre engagierte Unterstützung in Organisationsfragen;

Nanda Barker-Hook für die gekonnte Organisation meiner öffentlichen Auftritte zu diesem und anderen Themen;

Amy Kurzweil für Ihre Unterweisung in das Handwerk des Schreibens;

Cindy Mason für ihre Forschungsarbeit und Ideen über künstliche Intelligenz und die Geist-Körper-Verbindung;

Dileep George für seine scharfsichtigen Ideen und anregenden Diskussionen via E-Mail und auf anderem Wege;

Martine Rothblatt für ihre Hingabe an all die Technologien, mit denen ich mich in diesem Buch auseinandersetze, und für ihre Zusammenarbeit bei der Entwicklung von Technologien in diesem Bereich;

dem KurzweilAI.net-Team, das in Forschung und Logistik dieses Projekt maßgeblich unterstützt hat, namentlich Aaron Kleiner, Amara Angelica, Bob Beal, Casey Beal, Celia Black-Brooks, Cindy Mason, Denise Scutellaro, John Walsh, Giulio Prisco, Ken Linde, Laksman Frank, Maria Ellis, Nanda Barker-Hook, Sandi Dube, Sarah Black, Sarah Brangan und Sarah Reed;

dem engagierten Team bei Viking Pinguin für ihr umsichtiges Geschick, namentlich Clare Ferraro (Präsidentin), Carolyn Coleburn (Leiterin der Öffentlichkeitsarbeit), Yen Cheong und Langan Kingsley (Publizisten), Nancy Sheppard (Leiterin des Marketings), Bruce Giffords (Verlagslektor), Kyle Davis (Verlagsassistent), Fabiana Van Arsdell (Produktionsdirektorin), Roland Ottewell (Korrektor), Daniel Lagin (Designer) und Julia Thomas (Designerin des Umschlags);

meinen Kollegen an der Singularity University für ihre Ideen, ihren Enthusiasmus und ihre unternehmerische Energie;

meinen Kollegen, die mir ihre inspirierenden Ideen für diesen Band zur Verfügung gestellt haben, namentlich Barry Ptolemy, Ben Goertzel, David Dalrymple, Dileep George, Felicia Ptolemy, Francis Ganong, George Gilder, Larry Janowitch, Laura Deming, Lloyd Watts, Martine Rothblatt, Marvin Minsky, Mickey Singer, Peter Diamandis, Raj Reddy, Terry Grossman, Tomaso Poggio und Vlad Sejnoha;

meinen sachverständigen Begutachtern, namentlich Ben Goertzel, David Gamez, Dean Kamen, Dileep George, Douglas Katz, Harry George, Lloyd Watts, Martine Rothblatt, Marvin Minsky, Paul Linsay, Rafael Reif, Raj Reddy, Randal Koene, Dr. Stephen Wolfram und Tomaso Poggio;

meinen Lektoren, deren Namen oben aufgeführt sind;

schließlich all den kreativen Denkern in der Welt, die mich tagtäglich inspirieren.

Das Geheimnis des menschlichen Denkens

Einleitung

Weiter als Himmel — ist das Hirn —Denn — leg sie Seit an Seit —Nimmt dieses jenen leicht noch aufUnd Dich — wie nebenbei —

Das Hirn ist tiefer als das Meer —Denn — halt sie Blau an BlauWie Schwämme — Eimer absorbiernSaugt eins das andre auf —

Das Hirn wiegt grad soviel wie Gott —Denn — stemm sie — Gramm für GrammDas kontrastiert wenn überhaupt —Wie Silbe hier und Klang —

EMILY DICKINSON

Intelligenz – das wichtigste Phänomen im Universum – kann natürliche Grenzen überwinden und die Welt nach ihrem Bilde umgestalten. In der Hand des Menschen, als menschliche Intelligenz, hat sie uns in die Lage versetzt, die Beschränkungen unseres biologischen Erbes zu überwinden und uns selbst in diesem Prozess zu verändern. Wir sind die einzige Spezies, die dies tut.

Die Geschichte menschlicher Intelligenz beginnt mit einem Universum, das mit der Fähigkeit ausgestattet ist, Informationen zu verschlüsseln. Diese Eigenschaft erst erlaubt es der Evolution, ihren Lauf zu nehmen. Wie das Universum zu dieser Fähigkeit gelangte, ist selbst eine interessante Geschichte. Das Standardmodell der Physik enthält Dutzende von Konstanten, die ganz genau so sein müssen, wie sie tatsächlich sind – ansonsten gäbe es weder Atome, noch Sterne, keine Planeten, Gehirne und auch keine Bücher über Gehirne. Dass die Gesetze der Physik genau in der Weise aufeinander abgestimmt sind, dass sie die Evolution von Information zuließen, ist ganz offensichtlich ein ziemlich unwahrscheinlicher Umstand. Und doch würden wir – gemäß des anthropischen Prinzips – nicht darüber sprechen, wenn es nicht so wäre. Wo manche ein göttliches Walten vermuten, sehen andere ein Multiversum, das eine Evolution von (Parallel-)Universen hervorbringt, in deren Verlauf die langweiligen (diejenigen, die keine Informationen tragen) aussterben. Aber ganz abgesehen davon, wie unser Universum geworden ist, was es ist, können wir unsere Geschichte mit einer Welt beginnen, deren Fundament „Information“ ist.

Die Geschichte der Evolution entfaltet sich auf immer höheren Niveaus der Abstraktion. Atome – vor allem Kohlenstoffatome, die durch ihre Eigenschaft, in vier verschiedene Richtungen Bindungen einzugehen, reichhaltige Informationsstrukturen schaffen – haben immer komplexere Moleküle geformt. Im Ergebnis führten physikalische Prozesse zu chemischen Strukturen.

Eine Milliarde Jahre später bildete sich ein komplexes Molekül – die DNA – heraus, das präzise lange Ketten an Informationen verschlüsseln und Organismen der Art generieren kann, wie es diese „Programme“ festlegen. Im Ergebnis führten chemische Abläufe zu biologischen Strukturen.

Mit zunehmender Geschwindigkeit entwickelten Organismen Kommunikations- und Entscheidungsnetzwerke – das Nervensystem –, die immer komplexere Körperteile wie auch ein Verhalten, das ihr Überleben erleichterte, koordinieren konnten. Die Neuronen, aus denen sich die Nervensysteme zusammensetzten, verbanden sich zu Gehirnen mit der Fähigkeit zu zunehmend intelligentem Verhalten. Auf diesem Wege führten biologische zu neurologischen Strukturen, da nun Gehirne das innovativste Medium zum Speichern und Verarbeiten von Informationen geworden waren. Und so sehen wir eine gerichtete Entwicklung über mehrere Stufen – von Atomen über Moleküle und DNA hin zu Gehirnen. Mit der darauffolgenden Etappe kommt dann eine spezifisch menschliche Eigenschaft ins Spiel.

Das Gehirn von Säugetieren besitzt eine eigentümliche Anlage, die sich in keiner anderen Tierklasse findet. Menschen sind fähig zu hierarchischem Denken – das heißt, wir sind fähig, eine Struktur, die sich aus unterschiedlichen Elementen zusammensetzt, die wiederum nach einem bestimmten Muster angeordnet sind, zu verstehen. Wir können darüber hinaus diese Anordnung durch Symbole repräsentieren und schließlich diese Symbole als Elemente einer noch umfassenderen Konfiguration behandeln. Diese Fähigkeit hat ihren Sitz in einer Gehirnstruktur, dem Neokortex, die beim Menschen ein solches Niveau an Perfektion und Leistungsfähigkeit erreicht hat, dass wir diese Muster Ideen nennen können. Durch einen unendlichen rekursiven Prozess können wir Ideen bilden, die ständig komplexer werden. Wir nennen dieses unermessliche Spektrum an rekursiv miteinander verknüpften Ideen „Wissen“. Nur der Homo sapiens hat einen Bestand an Wissen, der sich selbst entwickelt, exponentiell wächst, und der von einer Generation zur nächsten weitergegeben wird.

Unsere Gehirne führten auch in einem weiteren Bereich zu einer beachtlichen Abstraktionsleistung: Wir bedienten uns unserer Intelligenz im Zusammenspiel mit einem weiteren Ermöglichungsfaktor – dem opponierenden Daumen –, um durch Einwirkung auf die Umwelt Werkzeuge zu erschaffen. Diese Werkzeuge repräsentieren eine neue Form der Evolution – und so führten neurologische Strukturen zu technischer Apparatur. Allein aufgrund unseres Werkzeuggebrauchs hat unser Wissensbestand unbegrenzt wachsen können.

Die erste menschliche Erfindung war die Erzählung: die gesprochene Sprache hat es uns ermöglicht, Ideen in artikulierten Äußerungen zu verkörpern. Mit der später folgenden Erfindung der Schrift wurden bildliche Darstellungen entwickelt, die als Zeichen Ideen symbolisierten. Sammlungen geschriebener Sprache, Bibliotheken, haben die Fähigkeit unserer bis dato auf sich alleine gestellten Gehirne zur Speicherung und Erweiterung unseres rekursiv strukturierten Wissensbestandes enorm gesteigert.

Es gibt Diskussionen darüber, ob auch andere Spezies – etwa Schimpansen – die Fähigkeit besitzen, hierarchische Ideen sprachlich auszudrücken. Schimpansen können eine begrenzte Menge an Zeichensprachensymbolen lernen, die sie in der Kommunikation mit menschlichen Trainern anwenden können. Wie dem auch sei, es ist klar, dass es bestimmte Grenzen der Komplexität von Wissensstrukturen gibt, mit denen Schimpansen umgehen können. Die Sätze, die sie ausdrücken können, beschränken sich auf bestimmte einfache Substantiv-Verb-Abfolgen. Sie sind keinesfalls zu einer unbeschränkten Komplexitätsausweitung, wie sie für die menschliche Sprache charakteristisch ist, in der Lage. Als unterhaltsames Beispiel für die Komplexität der menschlichen Sprache lesen Sie beispielsweise einmal einen jener atemberaubenden, seitenlangen Sätze aus einem Gabriel García Márquez-Roman. Seine sechs Seiten lange Erzählung Die letzte Reise des Gespensterschiffes besteht aus nur einem einzigen Satz, und die Geschichte funktioniert sowohl im Spanischen als auch in der englischen [und deutschen] Übersetzung.1

Die Leitidee meiner drei früheren Bücher über Technologie (The Age of Intelligent Machines, geschrieben in den 1980ern und 1989 veröffentlicht, The Age of Spiritual Machines, geschrieben Mitte der 1990er und 1999 veröffentlicht, und Menschheit 2.0 (Originaltitel: The Singularity Is Near), geschrieben in den frühen 2000ern und 2005 veröffentlicht) ist, dass sich der evolutionäre Prozess von Natur aus beschleunigt (als ein Ergebnis ständig wachsender Stufen der Abstraktion, die in seinem Verlauf auftreten), und dass seine Erzeugnisse exponentiell an Komplexität und Befähigung zunehmen. Ich nenne dieses Phänomen das Gesetz vom steigenden Ertragszuwachs (engl. „law of accelerating returns“; im Folgenden: LOAR). Es gilt sowohl für die biologische als auch die technologische Evolution. Das wohl dramatischste Beispiel für das LOAR ist das auffallend voraussagbare exponentielle Wachstum der Kapazität und des Preis-/Leistungsverhältnisses von Informationstechnologien. Der evolutionäre Prozess der Technologie führte unweigerlich zum Computer, der uns eine ungeheure Entfaltung und Erweiterung unseres Wissensbestandes durch die Möglichkeit der umfangreichen Verknüpfung und Vernetzung verschiedener Wissensgebiete beschert hat. Das Web ist selbst ein schlagendes Beispiel für die Leistungsfähigkeit eines hierarchischen Systems, eine gewaltige Menge an Wissen in sich zu fassen und dabei seine ihm eigene Struktur beizubehalten. Die Welt selbst ist von Natur aus hierarchisch – Bäume haben Ästen, Äste setzen sich u. a. aus Blättern zusammen, und Blätter ihrerseits enthalten Adern. Gebäude bestehen aus Stockwerken, Stockwerke bestehen aus Räumen, und Räume bestehen aus Eingängen, Fenstern, Wänden und Böden usw.

Wir haben sogar Werkzeuge entwickelt, mit deren Hilfe wir unsere eigene Biologie in präzisen Informationsbegriffen verstehen können. Mit zusehends höherer Geschwindigkeit konstruieren wir den Informationsprozess nach, der unserer Biologie zugrunde liegt – eingeschlossen den unserer Gehirne. Wir sind nun in Form des menschlichen Genoms im Besitz des Objektcodes des Lebens. Das ist eine Errungenschaft, die selbst ein herausragendes Beispiel exponentiellen Wachstums ist. Denn die Menge genetischer Daten, die weltweit sequenziert wurden, hat sich im Zeitraum der letzten zwanzig Jahre jährlich annäherungsweise verdoppelt.2 Wir haben nun die Möglichkeit, mit Hilfe von Computern zu simulieren, wie Sequenzen von Basenpaaren zu Aminosäuren werden, die sich in dreidimensionale Proteine zusammenfalten. Aus diesen wiederum baut sich unsere gesamte Biologie auf. Die Komplexität der Proteine, für die eine solche Proteinfaltung simuliert wird, ist stetig angewachsen, da derweil auch die rechnerischen Ressourcen exponentiell gewachsen sind.3 Wir können ebenfalls simulieren, wie die Proteine untereinander in einem komplizierten, dreidimensionalen Tanz atomarer Kräfte interagieren. Unser wachsendes Verständnis der Biologie ist ein wichtiger Aspekt in der Entdeckung der „Geheimnisse der Intelligenz“, die uns die Evolution beschert hat. Diese biologisch inspirierten Paradigmen können wir uns schließlich zunutze machen, um immer intelligentere Technologien zu erschaffen.

Gerade startet ein Großprojekt, in dem Tausende von Wissenschaftlern und Ingenieuren zusammenarbeiten, um das beste Beispiel eines intelligenten Prozesses, das wir überhaupt haben können, zu verstehen: das menschliche Gehirn. Es ist dies wohl die bedeutendste Anstrengung in der Geschichte der Mensch-Maschine-Zivilisation. In Menschheit 2.0 habe ich dafür argumentiert, dass eine Folgerung aus dem Gesetz vom steigenden Ertragszuwachs die ist, dass höchstwahrscheinlich keine anderen intelligenten Spezies existieren. Kurz zusammengefasst ist die Hauptlinie des Argumentes folgende: Wenn andere intelligente Spezies existieren würden, hätten wir sie bemerkt – angesichts der kurzen Zeit, die vergangen ist zwischen einem Zustand der Zivilisation mit primitiver Technologie (bedenken Sie, dass noch 1850 der schnellste Weg, landesweit Nachrichten zu versenden, der Ponyexpress war) und einem, in dem die Technologie unseren Planeten selbst überschreiten kann.4 Aus dieser Perspektive könnte das Reverse Engineering* des Gehirns vielleicht als das wichtigste Projekt im Universum gelten.

Ziel des Projektes ist es, die Funktionsweise des menschlichen Gehirns genauer zu verstehen und die auf diese Weise aufgedeckten Arbeitsweisen zu einem besseren Verständnis unserer selbst zu nutzen. Also etwa dazu, bei Bedarf das Gehirn wieder in Ordnung zu bringen und – für den Gegenstand dieses Buches am wichtigsten – immer intelligentere Maschinen herzustellen. Denken Sie daran, dass das Vermögen des Ingenieurwesens gerade darin liegt, natürliche Phänomene in hohem Maße zu verstärken. Als Beispiel könnte man das eher subtile Phänomen, das in Bernoullis Gesetz beschrieben wird, heranziehen. Es besagt, dass über einer gewölbten Oberfläche ein leicht geringerer Luftdruck besteht als über einer sich bewegenden geraden Oberfläche. Über die mathematischen Formulierungen, wie das Bernoulli-Prinzip Auftriebskräfte für Tragflächen hervorbringt, ist man sich unter Wissenschaftlern noch immer nicht ganz einig, während das Ingenieurwesen bereits diese delikate Einsicht aufgegriffen, ihre Kräfte gebündelt und schließlich die gesamte Welt der Luftfahrt geschaffen hat.

In diesem Buch lege ich eine These dar – ich nenne sie Mustererkennungstheorie des Geistes (engl. „pattern recognition theory of mind“; PRTM) –, die, so meine Argumentation, den grundlegenden Algorithmus des Neokortex (die Region des Gehirns, die für Wahrnehmung, Gedächtnis und kritisches Denken zuständig ist) beschreibt. In den folgenden Kapiteln werde ich darlegen, wie die gegenwärtigen Neurowissenschaften, ebenso wie unsere eigenen Gedankenexperimente, zu der unausweichlichen Schlussfolgerung führen, dass diese Methode durchgängig im gesamten Neokortex angewendet wird. Wenn man nun die PRTM mit dem LOAR kombiniert, folgt daraus konsequenterweise, dass wir künftig diese Prinzipien in einer Weise zu dirigieren fähig sein werden, die die Fähigkeiten unserer Intelligenz immens ausweitet.

Tatsächlich läuft dieser Prozess bereits. Es gibt Tausende von Aufgaben und Tätigkeiten, für die früher allein die menschliche Intelligenz zuständig war, die nun von Computern erledigt werden können – gewöhnlich sogar mit einer größeren Präzision und in einer ganz anderen Größenordnung. Jedes Mal, wenn Sie eine E-Mail verschicken oder einen Mobilfunkanruf entgegennehmen, steuern intelligente Algorithmen die jeweiligen Informationen optimal. Machen Sie ein Elektrokardiogramm, und Sie werden dazu eine Computerdiagnose erhalten, die mit der von Ärzten konkurrieren kann. Dasselbe gilt für Blutzellen. Intelligente Algorithmen spüren automatisch Kreditkartenbetrügereien auf, fliegen und landen Flugzeuge, lenken intelligente Waffensysteme, helfen mit computergestütztem Design Produkte zu entwerfen, behalten Just-in-time-Vorratsmengen im Auge, sammeln Produkte in roboterbetriebenen Fabriken und spielen Spiele wie Schach oder das raffinierte Go auf Großmeisterniveau.

Millionen von Menschen sahen den IBM-Computer Watson Jeopardy! spielen (ein Spiel, das auf einer natürlichen Sprache basiert) und eine höhere Punktzahl erzielen als die beiden besten menschlichen Spieler der Welt zusammen. Man beachte, dass Watson nicht nur die subtile Sprache der Jeopardy!-Fragen (die solche Dinge wie Wortspiele und Metaphern enthielt) las und „verstand“. Er verschaffte sich sogar das Wissen, das er für Antworten brauchte, die das selbständige Verstehen von Hunderten von Millionen Seiten natürlichsprachlicher Dokumente (u. a. Wikipedia und andere Enzyklopädien) voraussetzten. Dazu musste er sich praktisch in allen Bereichen menschlicher intellektueller Anstrengungen auskennen, einschließlich Geschichte, Naturwissenschaft, Kunst, Kultur und mehr. IBM arbeitet momentan mit Nuance Speed Technologies (früher Kurzweil Computer Products, meine erste Firma) zusammen an einer neuen Version von Watson, der medizinische Literatur (im Wesentlichen medizinische Journals und führende medizinische Blogs) lesen und so zu einem kompetenten diagnostischen und medizinischen Berater werden soll, indem er die Nuance-Technologien zum Verstehen klinischer Sprache gebraucht. Manche Beobachter haben eingewandt, dass Watson die Jeopardy!-Fragen oder Enzyklopädien, die er gelesen hat, nicht wirklich „versteht“, weil es sich bei seinen Ergebnissen schlichtweg um statistische Analysen handelt. Ein Kernpunkt, den ich hier ausführen werde, ist, dass die mathematischen Techniken, die auf dem Feld der künstlichen Intelligenz (etwa bei Watson und Siri, dem iPhone-Assistenten) entwickelt worden sind, mathematisch denjenigen Methoden ähnlich sind, die die Biologie in Form des Neokortex hervorgebracht hat. Wenn das Verstehen einer Sprache und anderer Phänomene durch statistische Analyse nicht als wirkliches Verstehen zählt, dann gibt es auch bei Menschen kein richtiges Verstehen.

„Watsons“ Fähigkeit, mit Wissen in natürlichsprachlichen Dokumenten zurechtzukommen, wird in Suchmaschinen auch für Sie erhältlich sein, und zwar bald. Manche Leute sprechen sogar jetzt schon zu ihren Telefonen in natürlicher Sprache (via Siri zum Beispiel, das ebenfalls von Nuance entwickelt worden ist). Die natürlichsprachlichen Unterstützungsprogramme werden schnell immer intelligenter werden, indem sie ähnliche Methoden wie die von Watson benutzen und Watson sich selbst weiter verbessert.

Die selbstfahrenden Google-Autos haben 200.000 Meilen in den geschäftigen Städten und Gemeinden Kaliforniens zurückgelegt. (Eine Zahl, die unzweifelhaft viel höher liegen wird, wenn dieses Buch in den realen und virtuellen Bücherregalen steht.) Es gibt viele andere Beispiele künstlicher Intelligenz in der heutigen Welt, und eine große Zahl weiterer Beispiele zeichnet sich am Horizont bereits ab.

Als weitere Beispiele für das LOAR könnte man die räumliche Auflösung von Gehirnscans und die jährliche Verdoppelung der Datenmenge anführen, die wir über das Gehirn sammeln. Überdies stellen wir unter Beweis, dass wir diese Daten in Arbeitsmodelle und Simulationen der Regionen des Gehirns überführen können. Wir haben Fortschritte gemacht im Reverse Engineering der Kernfunktionen des auditorischen Kortex, in dem wir Informationen über Töne verarbeiten; des visuellen Kortex, in dem wir Informationen, die uns unser Gesichtssinn liefert, verarbeiten; und schließlich des Kleinhirns, das an der Ausbildung unserer motorischen Geschicklichkeit beteiligt ist (etwa einen fliegenden Ball zu fangen).

Das Revolutionäre dieses Projekts, das Gehirn zu verstehen, zu modellieren und zu simulieren, ist die Tatsache, dass hier der zerebrale Neokortex nachkonstruiert werden soll, der für unser rekursives hierarchisches Denken verantwortlich ist. Der zerebrale Kortex, der fast 80 % Prozent unseres Gehirns ausmacht, setzt sich aus hoch repetitiven Strukturen zusammen, die es dem Menschen erlauben, beliebig komplexe Ideenstrukturen zu schaffen.

In der Mustererkennungstheorie des Geistes (PRTM) beschreibe ich ein Modell, das aufzeigt, wie das menschliche Gehirn diese ausschlaggebende Fähigkeit mit Hilfe einer sehr geschickten, im Verlaufe der biologischen Evolution herausgebildeten Struktur entwickeln konnte. Es gibt Einzelheiten in diesen kortikalen Mechanismen, die wir nicht vollständig verstehen, aber wir wissen genug über die Funktionen, die sie ausführen müssen, so dass wir nichtsdestotrotz Algorithmen entwerfen können, die denselben Zweck erfüllen. Wenn wir den Neokortex zu verstehen beginnen, sind wir in einer Position, in der wir unsere Möglichkeiten in hohem Maße erweitern können, ganz wie die Luftfahrt die Kräfte, mit denen das Bernoulli-Prinzip ursprünglich arbeitete, bei weitem übertroffen hat. Das Funktionsprinzip des Neokortex ist wohl die wichtigste Idee in der Welt, ist es doch sowohl in der Lage, alles bestehende Wissen und alle Fertigkeiten zu repräsentieren, als auch neues Wissen zu schaffen. Es ist schließlich der Neokortex, der verantwortlich ist für jede Erzählung, jedes Lied, jedes Gemälde, jede wissenschaftliche Entdeckung, und die vielgestaltigen weiteren Produkte des menschlichen Denkens.

Es besteht auf dem Feld der Neurowissenschaften ein dringender Bedarf an einer Theorie, die die extrem ungleichartigen und ausufernden Beobachtungen, die täglich vermeldet werden, zusammenführt. Eine vereinheitlichte Theorie ist ein essentielles Erfordernis in jedem größerem Gebiet der Wissenschaft. In Kapitel 1 werde ich erzählen, wie zwei Tagträumer die Biologie und die Physik vereinheitlichten, Gebiete, die vorher ebenso mannigfaltig wie hoffnungslos ungeordnet zu sein schienen. Daraufhin werde ich mich damit befassen, wie eine solche Theorie auf den Bereich des Gehirns Anwendung finden kann.

Es scheint heute fast üblich zu sein, die beachtliche Komplexität des Gehirns zu feiern. Wenn man eine Suchanfrage mit diesem Stichwort bei Google eingibt, erhält man etwa 30 Millionen Links. (Es ist aber unmöglich, diese Zahl in die tatsächlichen Nennungen zu übersetzen, weil manche der Websites mehrfache Nennungen aufweisen, manche gar keine.)

James D. Watson selbst schrieb 1992: „Das Gehirn ist die letzte und größte biologische Grenze, die komplexeste Sache, die wir in unserem Universum bis jetzt entdeckt haben.“ Er fährt fort zu erklären, warum er glaubt, dass „es Hunderte von Milliarden Zellen umfasst, vernetzt durch Trillionen von Verknüpfungen. Das Gehirn haucht dem Geist Leben ein.“5

Ich stimme mit Watson darin überein, dass das Gehirn die größte biologische Grenze darstellt. Aber die Tatsache, dass es Milliarden von Zellen und Trillionen von Verknüpfungen einschließt, macht seine grundlegende Vorgehensweise nicht notwendigerweise zu einer komplexen, wenn wir leicht verstehbare (und re-konstruierbare) Muster in diesen Zellen und Verknüpfungen identifizieren können, besonders solche, die in hohem Maße redundant sind.

Lassen Sie uns aber zunächst einmal darüber nachdenken, was Komplexität bedeutet. Wir könnten beispielsweise fragen, ob ein Wald komplex ist. Nun, die Antwort hängt von der Perspektive ab, die Sie einnehmen. Sie könnten hervorheben, dass es in einem Wald Tausende von Bäumen gibt und jeder einzelne von diesen verschieden ist. Sie könnten in dieser Richtung weiter gehen und feststellen, dass jeder Baum Tausende von Zweigen hat und jeder dieser Zweige verschieden ist. Überdies könnten sie noch die verschlungenen Einzelheiten jedes einzelnen Zweiges beschreiben. Sie könnten demnach zu dem Schluss kommen, der Wald besitze eine Komplexität, die unser Vorstellungsvermögen bei weitem übersteigt.

Ein solcher Ansatz hieße aber buchstäblich, den Wald vor lauter Bäumen nicht zu sehen. Gewiss gibt es eine ganze Menge an fraktalen Variationen unter Bäumen und Zweigen, aber um die Prinzipien des „Waldes“ korrekt zu verstehen, wäre es wahrscheinlich ein besserer Ausgangspunkt, die unterschiedlichen Redundanzmuster als stochastische (d. h. zufällige) Variationen zu identifizieren, die sich in diesem Bereich finden. Es ist nur fair zu sagen, dass das Konzept des Waldes einfacher ist als das Konzept eines Baumes.

Dasselbe gilt für das Gehirn, das eine ähnlich umfangreiche Redundanz aufweist, besonders im Neokortex. Wie ich in diesem Buch deutlich machen werde, ist es nur fair zu sagen, dass ein einzelnes Neuron eine größere Komplexität aufweist als die gesamte Struktur des Neokortex.

Ziel dieses Buches ist es ganz entschieden nicht, in den Chor derjenigen unzähligen Stimmen einzustimmen, die dem Gehirn eine ungeheure Komplexität bescheinigen. Im Gegenteil, ich will zeigen, von welch überraschender Einfachheit es ist. Das hoffe ich durch die Erklärung zu tun, wie ein grundlegender, ausgeklügelter Mechanismus für das Erkennen, das Erinnern und das Vorhersagen von Mustern – im Neokortex Hunderte von Millionen Mal wiederholt – für die großartige Differenziertheit unseres Denkens verantwortlich ist. Ebenso, wie den unterschiedlichen Kombinationen der Werte des genetischen Codes, die sich in der mitochondrialen und Kern-DNA finden, eine erstaunliche Mannigfaltigkeit an Organismen entspringt, bildet sich, gestützt auf die Werte von Mustern (in Verknüpfungen und synaptischen Erregungen), die sich in und zwischen unseren neokortikalen Mustererkennern finden, eine verblüffende Menge an Ideen, Gedanken und Fertigkeiten. Wie der MIT-Neurowissenschaftler Sebastian Seung es ausdrückt: „Unsere Identität liegt nicht in unseren Genen, sondern in den Verknüpfungen zwischen unseren Gehirnzellen.“6

Bisher habe ich vom Gehirn gesprochen. Wie steht es um das Bewusstsein? Zum Beispiel: Wie erlangt der problemlösende Neokortex Bewusstsein? Und weiter, wo wir gerade bei diesem Thema sind: Wie viele „Bewusstseine” haben wir in unserem Gehirn? Es gibt Hinweise darauf, dass es mehr als eines sein könnten.

Graphische Darstellung der Mandelbrot-Menge, einer einfachen Formel, die iterativ angewendet wird. Wenn man die Ansicht vergrößert, verändern sich die Bilder in offensichtlich komplexer Art und Weise.

Eine weitere hierher gehörende Frage über den Geist ist: Was ist der freie Wille? Und besitzen wir ihn überhaupt? Einige Experimente scheinen zu zeigen, dass wir mit der Umsetzung unserer Entscheidungen beginnen, noch ehe wir uns bewusst sind, dass wir sie überhaupt getroffen haben. Bedeutet das, dass der freie Wille bloß eine Illusion ist?

Und schließlich: Welche Eigenschaften des Gehirns sind für die Formung unserer Identität verantwortlich? Bin ich dieselbe Person, die ich vor sechs Monaten war? Selbstverständlich bin ich nicht genau dieselbe Person, die ich damals war. Aber habe ich nicht dennoch dieselbe Identität?

Wir werden zu prüfen haben, was die Mustererkennungstheorie des Geistes für diese uralten (Menschheits-)Fragen bedeutet.

 

* Wörtlich etwa „umgekehrte technische Planung“; der Rückschluss von einem fertigen Produkt auf dessen Bauplan oder das Funktionsprinzip.

KAPITEL 1

Gedankenexperimente über die Welt

Darwins Theorie der natürlichen Selektion betrat erst spät die Bühne der Geschichte des Geistes.

Hatte ihr spätes Auftreten darin ihren Grund, dass sie in Opposition zur Wahrheit religiöser Offenbarung stand? Dass sie einen vollständig neuen Gegenstand in der Wissenschaftsgeschichte darstellte? Weil sie allein für lebende Wesen galt? Oder weil sie von Zwecken und finalen Ursachen handelte, ohne den Akt der Schöpfung vorauszusetzen? Ich denke nicht. Darwin entdeckte ganz einfach die Rolle der Selektion, eine Art der Kausalität, die von den Push-Pull-Mechanismen der damaligen Wissenschaft entscheidend abwich. Der Ursprung der fantastischen Vielfalt der lebendigen Dinge konnte durch den Beitrag von neuartigen Merkmalen, möglicherweise von zufälliger Herkunft, für ihr Überleben erklärt werden. Es gab wenig oder nichts in der physikalischen oder biologischen Wissenschaft, das Selektion als kausales Prinzip erahnen ließ.

B. F. SKINNER

Nichts ist letzten Endes heilig außer der Integrität deines eigenen Geistes.

RALPH WALDO EMERSON

Eine Metapher aus der Geologie

Im frühen 19. Jahrhundert dachten Geologen über eine fundamentale Frage nach. Riesige Höhlen und Schluchten wie der Grand Canyon in den Vereinigten Staaten und Vikos Gorge in Griechenland (angeblich die tiefste Schlucht der Welt) gab es überall auf dem ganzen Erdball. Wie kamen diese majestätischen Formationen dorthin?

Es gab dort stete Wasserströme, die die vorteilhaften Gegebenheiten des Geländes nutzten, um sich ihren Weg durch diese natürlichen Formationen zu bahnen. Aber vor Mitte des 19. Jahrhunderts schien es absurd, dass diese schwachen Ströme die Schöpfer solch riesiger Schluchten und Felswände gewesen sein sollten. Der britische Geologe Charles Lyell (1797–1875) äußerte nichtsdestotrotz die Vermutung, dass es tatsächlich die Bewegung des Wassers gewesen sei, die diese bedeutenden geologischen Änderungen über lange Zeiträume hinweg geformt hätte – im Grunde genommen Kieselstein für Kieselstein. Dieser Vorschlag erntete zunächst Spott, aber innerhalb von zwei Dekaden wurde er von der Mehrheit akzeptiert.

Eine Person, die aufmerksam die Reaktionen der wissenschaftlichen Gemeinschaft auf Lyells radikale These verfolgte, war der englische Naturforscher Charles Darwin (1809–1882). Vergegenwärtigen Sie sich die Situation der Biologie um 1850. Ihr Gegenstandsbereich war unübersehbar vielschichtig. Sie sah sich einer Unmenge von Tieren und Pflanzen gegenüber, von denen jedes für sich eine beachtliche Komplexität darstellte. Wenn überhaupt eine Einigkeit unter den Wissenschaftlern bestand, dann in der Verweigerung des Versuchs, eine einheitliche Theorie für diese überwältigende Mannigfaltigkeit und Vielgestaltigkeit der Natur aufzustellen. Diese Vielfalt diente vielmehr als Zeugnis für die Herrlichkeit der göttlichen Schöpfung – ebenso wie für die Intelligenz derjenigen Wissenschaftler, die imstande waren, dieselbe zu erfassen.

Darwin ging das Problem einer allgemeinen Theorie der Arten durch eine Analogie zu Lyells These an. Auf diesem Wege versuchte er zu erklären, dass es über mehrere Generationen hinweg schrittweise zu Veränderungen in der Gestalt der Arten gekommen sei.

Charles Darwin, Autor von Die Entstehung der Arten, welches die Idee der biologischen Evolution begründete.

Er kombinierte diese Erkenntnis mit seinen Gedankenexperimenten und Beobachtungen, die er in dem berühmten Buch Die Fahrt der Beagle darlegte. Darwin behauptete, dass die Individuen jeder Generation, die am besten in ihrer ökologischen Nische überleben konnten, diejenigen seien, die die Individuen der Folgegeneration zeugen.

Am 22. November 1859 begann der Verkauf von Darwins Die Entstehung der Arten durch natürliche Zuchtwahl. In diesem sprach er deutlich aus, was er Lyell verdankte:

Ich weiß wohl, dass die durch die vorangehenden ersonnenen Beispiele erläuterte Lehre von der natürlichen Zuchtwahl denselben Einwendungen ausgesetzt ist, welche man anfangs gegen Ch. Lyells großartige Ansichten in „The Modern Changes of the Earth, as Illustative of Geology“ vorgebracht hat; indessen hört man jetzt die Wirkung der jetzt noch tätigen Momente in ihrer Anwendung auf die Aushöhlung der tiefsten Täler oder auf die Bildung der längsten binnenländischen Klippenlinien selten mehr als eine unwichtige und unbedeutende Ursache bezeichnen. Die natürliche Zuchtwahl wirkt nur durch Erhaltung und Häufung kleiner vererbter Modifikationen, deren jede dem erhaltenen Wesen von Vorteil ist; und wie die neuere Geologie solche Ansichten, wie die Aushöhlung großer Täler durch eine einzige Diluvialwoge, fast ganz verbannt hat, so wird auch die Zuchtwahl den Glauben an eine fortgesetzte Schöpfung neuer organischer Wesen oder an große und plötzliche Modifikationen ihrer Struktur verbannen.1

Es gibt immer etliche Gründe, warum große neue Ideen auf Widerstand stoßen. Es ist auch nicht schwierig, sie in Darwins Fall auszumachen. Dass wir nicht von Gott, sondern vom Affen abstammen, und (zeitlich) davor von Würmern, passte vielen Kritikern ganz und gar nicht ins Konzept. Die Andeutung, dass von daher unser Haushund so etwas wie unser (evolutionsgeschichtlicher) Cousin sein könnte – genauso wie die Raupe, ganz zu schweigen von der Pflanze, über die diese kriecht (ein Cousin millionsten oder milliardsten Grades vielleicht, aber dennoch immerhin verwandt) –, klang für viele wie Blasphemie.

Aber diese Idee setzte sich schnell durch, weil sie Kohärenz in etwas brachte, was vorher lediglich eine Unmenge von scheinbar beziehungslosen Beobachtungen gewesen war. 1872, in der sechsten Auflage der „Entstehung der Arten“, fügte Darwin die folgende Passage hinzu: „Als Belege für einen früheren Zustand der Dinge habe ich in den vorstehenden Abschnitten und an anderen Orten mehrere Sätze beibehalten, welche die Ansicht enthalten, dass die Naturforscher an eine einzelne Entstehung jeder Spezies glauben: ich bin darüber, dass ich mich so ausgedrückt habe, sehr getadelt worden. Unzweifelhaft war dies aber der allgemeine Glaube, als die erste Auflage des vorliegenden Werkes erschien. […] Jetzt haben sich die Sachen ganz und gar geändert und fast jeder Naturforscher nimmt das große Prinzip der Evolution an.“2

Über das restliche Jahrhundert hinweg wurde Darwins Einheit stiftende Idee noch weiter vertieft. 1869, nur ein Jahrzehnt nach der ersten Veröffentlichung der „Entstehung der Arten“, entdeckte der Schweizer Arzt Friedrich Miescher (1844–1895) eine Substanz im Zellkern, die er Nuklein nannte und von der sich herausstellen sollte, dass es sich um DNA handelt.3 1927 beschrieb der russische Biologe Nikolai Koltsov (1872–1940) etwas, das er „riesiges Erbmolekül“ nannte, und von dem er sagte, das es sich zusammensetze aus „zwei spiegelbildlichen Strängen, die sich in einer semi-konservativen Weise replizieren, indem sie jeden Strang als Vorlage benutzen.“ Seine Entdeckung wurde ebenfalls von vielen Seiten verworfen. Die Kommunisten hielten sie für faschistische Propaganda und sein plötzlicher, unerwarteter Tod ist der sowjetischen Geheimpolizei zugeschrieben worden.4 1953, fast ein Jahrhundert nach der Veröffentlichung von Darwins bahnbrechendem Werk, stellten der amerikanische Biologe James D. Watson (geboren 1928) und der englische Biologe Francis Crick (1916–2004) die erste akkurate Beschreibung der DNA-Struktur vor. Sie beschrieben sie als eine Doppelhelix zweier umeinanderlaufender Stränge.5 Es ist der Erwähnung wert, dass dieser Fund auf dem aufbaute, was heute als „Photo 51“ bekannt ist, aufgenommen von ihrer Kollegin Rosalind Franklin in einer Röntgenstrukturuntersuchung, die das erste Bild einer Doppelhelix wiedergibt. Wegen der auf diesem Bild aufbauenden folgenden Entdeckungen wurde immer wieder von verschiedenen Seiten vorgebracht, dass Franklin zusammen mit Watson und Cricks den Nobelpreis hätte erhalten sollen.6

Mit der Beschreibung eines Moleküls, das das Programm der biologischen Prozesse codieren konnte, gab es nun eine fest verankerte Einheitstheorie der Biologie. Sie konnte eine einfache und elegante Begründung für alle Formen des Lebens liefern. Allein abhängig von den Werten der Basenpaare, die die DNA-Stränge im Nukleus ausmachen (und in geringerem Maße die Mitochondrien), entwickelt sich ein Organismus folglich entweder zu einem Grashalm oder in ein menschliches Wesen. Diese Einsicht zerstörte keinesfalls die herrliche Vielfalt der Natur. Aber wir verstehen jetzt, dass der außergewöhnliche Reichtum der Natur aus einem riesigen Sortiment von Strukturen herrührt, die durch dieses universale Molekül codiert werden können.

Ritt auf einem Lichtstrahl

Zu Beginn des 20. Jahrhunderts wurde die Welt der Physik durch eine weitere Reihe von Gedankenexperimenten auf den Kopf gestellt. 1879 wurde einem deutschen Ingenieur und einer Hausfrau ein Junge geboren. Er sprach kein Wort, bis er drei Jahre alt war, und soll bis ins Alter von neun Jahren Probleme in der Schule gehabt haben. Mit sechzehn träumte er davon, auf einem Mondstrahl zu reiten.

Der junge Mann kannte das Experiment des englischen Mathematikers Thomas Young aus dem Jahr 1803, das den vermeintlichen Erweis erbrachte, dass Licht sich aus Wellen zusammensetzt. Die Folgerung hieraus war zur damaligen Zeit, dass die Lichtwellen sich in einem gewissen Medium bewegen mussten; also ähnlich, wie sich Meereswellen durch Wasser und Schallwellen durch Luft und andere materielle Träger ausbreiten. Die Wissenschaftler nannten das Medium, durch das sich das Licht vermeintlich bewegte, Äther. Der Junge wusste ebenfalls von einem 1887 von den amerikanischen Wissenschaftlern Albert Michelson (1852–1931) und Edward Morley (1838–1923) durchgeführten Experiment, das beweisen sollte, dass Äther tatsächlich existiert. Die grundlegende Idee dieses Experiments lag in der Analogie zur Fortbewegung in einem Ruderboot, das sich auf einem Fluss sowohl stromaufwärts als auch stromabwärts bewegt. Wenn man mit einer konstanten Geschwindigkeit rudert, dann wird die Geschwindigkeit – gemessen vom ruhenden Ufer – größer sein, wenn man mit dem Strom, statt gegen den Strom rudert. Michelson und Morley nahmen an, das Licht würde sich durch den Äther mit einer konstanten Geschwindigkeit fortbewegen (das heißt mit Lichtgeschwindigkeit). Sie überlegten sich, dass die Geschwindigkeit des Sonnenlichts unterschiedlich sein müsste, je nachdem, ob die Erde sich zur Sonne hin bewegt oder sich von ihr entfernt (nämlich die zweifache Geschwindigkeit der Erddrehung). Das Zutreffen dieser Voraussage hätte die Annahme der Existenz von „Äther“ gestützt. Was sie jedoch entdeckten, war, dass es keinen Unterschied in der Geschwindigkeit des Lichts gibt, gleichgültig wo sich die Erde in ihrer Umlaufbahn befindet. Die Forschungsresultate widerlegten die Idee eines Äthers. Aber was geschieht tatsächlich? Dies blieb für fast zwei Jahrzehnte ein Mysterium.

Als dieser deutsche Teenager sich seine Reise an der Seite eines Lichtstrahls vorstellte, dachte er sich, dass dann die Lichtwellen eigentlich in Ruhe verharren müssten, genauso wie wenn ein Zug sich anscheinend nicht bewegt, wenn man sich neben ihm mit gleicher Geschwindigkeit fortbewegt. Doch er erkannte, dass dies unmöglich ist, weil die Lichtgeschwindigkeit unabhängig von der eigenen Bewegung als konstant vorausgesetzt wird. Daher modifizierte er das Gedankenexperiment und stellte sich vor, was passieren würde, wenn er sich neben dem Lichtstrahl mit geringerer Geschwindigkeit bewegte. Was würde passieren, wenn er nur mit 90 Prozent der Lichtgeschwindigkeit vorankäme? Wenn Lichtstrahlen sich genauso wie Züge verhalten, so dachte er, dann müsste er den Lichtstrahl mit einem Zehntel der Lichtgeschwindigkeit sich von ihm wegbewegen sehen. Tatsächlich müsste dies genauso Beobachtern auf der Erde erscheinen. Aber wir wissen, dass die Lichtgeschwindigkeit eine Konstante ist, wie das Michelson-Morley-Experiment zeigte. Daher würde er in seinem Gedankenexperiment den Lichtstrahl vor sich mit der vollen Lichtgeschwindigkeit sich fortbewegen sehen. Dies erschien wie ein Widerspruch. Wie konnte dies also möglich sein?

Die Antwort erkannte der deutsche Junge, dessen Name zufällig Albert Einstein (1879–1955) war, als er sechsundzwanzig wurde. Offenbar – so die Lösung des jungen Einsteins – hat sich die Zeit selbst für ihn verlangsamt. Er legte diese Überlegungen in einer Abhandlung dar, die er 1905 veröffentlichte.7 Wenn Beobachter von der Erde aus einen Blick auf die Uhr des reisenden jungen Mannes werfen würden, dann sähen sie, dass sie zehnmal langsamer schlagen würde. Und tatsächlich würde seine Uhr, wenn er zur Erde zurückkehrte, anzeigen, dass auf seiner Reise nur zehn Prozent der auf der Erde vergangenen Zeit verstrichen wären (Be- und Entschleunigung hier einmal außer Acht gelassen). Aus seiner Perspektive aber würde die Zeit auf seiner Uhr ganz normal vergehen und der Lichtstrahl neben ihm würde sich mit Lichtgeschwindigkeit fortbewegen. Die zehnfache Verlangsamung der Geschwindigkeit der Zeit selbst (relativ zur „Erdzeit“) erklärt vollkommen die offenbaren Unstimmigkeiten in der Beobachtung aus den verschiedenen Perspektiven. Im Extrem würde die Verlangsamung des Zeitablaufs Null erreichen ab dem Zeitpunkt, an dem die Reisegeschwindigkeit gleich der Lichtgeschwindigkeit ist. Daher ist es unmöglich, sich neben einem Lichtstrahl (mit gleicher Geschwindigkeit) fortzubewegen. Obwohl es unmöglich ist, sich mit Lichtgeschwindigkeit zu bewegen, erwies es sich als theoretisch nicht unmöglich, sich schneller als ein Lichtstrahl fortzubewegen. Dann würde allerdings die Zeit rückwärts laufen.

Diese Lösung erschien vielen frühen Kritikern absurd. Wie könnte die Zeit selbst sich verlangsamen, nur aufgrund der Bewegungsgeschwindigkeit von irgendjemandem? In der Tat waren andere Denker achtzehn Jahre lang (seit dem Michelson-Morley-Experiment) nicht in der Lage gewesen, die Schlussfolgerung zu ziehen, die für Einstein ganz naheliegend schien. Die vielen anderen, die sich diesem Problem im späten 19. Jahrhundert gestellt hatten, fielen buchstäblich „vom Stuhl“, als es galt, die Implikationen dieses Prinzips zu Ende zu denken. So sehr waren sie in ihren vorgefassten Meinungen über die Wirklichkeit gefangen. (“Fielen vom Lichtstrahl”, könnte man die Metapher nun auch wenden.)