11,99 €
Der große Bestseller in neuer Ausgabe!
Bücher über Philosophie gibt es viele. Aber Richard David Prechts Buch ist anders als alle anderen. Denn es gibt bisher keines, das den Leser so umfassend und kompetent – und unter Berücksichtigung naturwissenschaftlicher Erkenntnisse – an die großen philosophischen Fragen des Lebens herangeführt hätte: Was ist Wahrheit? Woher weiß ich, wer ich bin? Was darf die Hirnforschung? Prechts Buch schlägt einen weiten Bogen über die verschiedenen Disziplinen und ist eine beispiellose Orientierungshilfe in der schier unüberschaubaren Fülle unseres Wissens vom Menschen: Eine Einladung, lustvoll und spielerisch nachzudenken – über das Abenteuer Leben und seine Möglichkeiten!
*** Die aktualisierte Neuausgabe des großen Bestsellers von Philosophie-Star Richard David Precht ***
Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:
Seitenzahl: 591
Was ist Wahrheit? Woher weiß ich, wer ich bin? Warum soll ich gut sein? Bücher über Philosophie gibt es viele. Doch Richard David Prechts Buch »Wer bin ich …?« ist eine Einführung, die Maßstäbe setzt. Niemand zuvor hat den Leser so kenntnisreich und kompetent und zugleich so spielerisch und elegant an die großen philosophischen Fragen des Lebens herangeführt. Ein einzigartiger Pfad durch die schier unüberschaubare Fülle unseres Wissens über den Menschen. Von der Hirnforschung über die Psychologie zur Philosophie bringt Precht uns dabei auf den allerneusten Stand. Wie ein Puzzle setzt sich das erstaunliche Bild zusammen, das die Wissenschaften heute vom Menschen zeichnen. In der vorliegenden Ausgabe beleuchtet Richard David Precht in drei zusätzlichen Kapiteln die großen Herausforderungen der Gegenwart: Die rasant sich entwickelnde künstliche Intelligenz, der Klimawandel und die Zukunft der Arbeit im 21. Jahrhundert. Eine aufregende Entdeckungsreise zu uns selbst: Klug, humorvoll und unterhaltsam!
Richard David Precht, Philosoph, Publizist und Autor, wurde 1964 in Solingen geboren. Er promovierte 1994 an der Universität Köln und war fünf Jahre Wissenschaftlicher Mitarbeiter in einem kognitionspsychologischen Forschungsprojekt am Lehrstuhl für Schulpädagogik. Im Jahr 2000 wurde er mit dem Publizistikpreis für Biomedizin ausgezeichnet. Mit seinem Philosophiebuch »Wer bin ich – und wenn ja, wie viele?«, das viele Jahre auf der Sachbuch-Bestsellerliste stand, begeisterte er Leser wie Kritiker. Auch seine Bücher »Liebe. Ein unordentliches Gefühl«, »Die Kunst, kein Egoist zu sein« und »Warum gibt es alles und nicht nichts?« waren große Bestsellererfolge. Als Honorarprofessor lehrt er Philosophie und Ästhetik an der Musikhochschule Hanns Eisler Berlin. Seit September 2012 moderiert er die ZDF-Philosophiesendung »Precht«.
Außerdem von Richard David Precht im Programm:
Die Instrumente des Herrn Jørgensen (mit Georg Jonathan Precht)
Die Kosmonauten · Liebe. Ein unordentliches Gefühl · Die Kunst, kein Egoist zu sein · Warum gibt es alles und nicht nichts? · Anna, die Schule und der liebe Gott · Lenin kam nur bis Lüdenscheid · Tiere denken · Erkenne die Welt. Geschichte der Philosophie I · Erkenne dich selbst. Geschichte der Philosophie II · Sei du selbst. Geschichte der Philosophie III · Mache die Welt. Geschichte der Philosophie IV · Jäger, Hirten, Kritiker · Künstliche Intelligenz und der Sinn des Lebens · Von der Pflicht · Freiheit für alle · Das Jahrhundert der Toleranz.
Richard David Precht
Eine philosophische Reise
Erweiterte Neuausgabe
Der Inhalt dieses E-Books ist urheberrechtlich geschützt und enthält technische Sicherungsmaßnahmen gegen unbefugte Nutzung. Die Entfernung dieser Sicherung sowie die Nutzung durch unbefugte Verarbeitung, Vervielfältigung, Verbreitung oder öffentliche Zugänglichmachung, insbesondere in elektronischer Form, ist untersagt und kann straf- und zivilrechtliche Sanktionen nach sich ziehen.
Der Verlag behält sich die Verwertung der urheberrechtlich geschützten Inhalte dieses Werkes für Zwecke des Text- und Data-Minings nach § 44 b UrhG ausdrücklich vor. Jegliche unbefugte Nutzung ist hiermit ausgeschlossen.
Aktualisierte und erweiterte E-Book-Ausgabe Oktober 2024
Copyright © 2024, 2007 der Originalausgabe:
Wilhelm Goldmann Verlag, München, in der Penguin Random House Verlagsgruppe GmbH, Neumarkter Str. 28, 81673 München
Redaktionelle Durchsicht der Neuausgabe: Regina Carstensen
Cover: UNO Werbeagentur, München
Covermotiv: Oliver Weiss
Satz und E-Book-Konvertierung: GGP Media GmbH, Pößneck
KF ∙ CB
ISBN 978-3-641-33179-5V001
www.goldmann-verlag.de
Für Oskar und Juliette,
David und Matthieu
Achtzehn Jahre, eine ganze Kindheit und Jugendzeit, ist es her, dass ich mir überlegt hatte, diese leicht lesbare philosophische Einführung in die großen Fragen der Menschheit zu schreiben; ein Buch, das den Wissensstand in den Naturwissenschaften mit den Einsichten der Philosophie verband. Und natürlich konnte ich nicht wissen, dass das Buch, das Sie gerade in den Händen halten, das erfolgreichste Buch philosophischen Inhalts eines deutschsprachigen Autors mindestens der letzten fünfzig Jahre werden würde und zugleich eines der populärsten aller Zeiten. Der Titel Wer bin ich – und wenn ja, wie viele wurde zu einer stehenden Redewendung. In mehr als vierzig Sprachen übersetzt und millionenfach gelesen, veränderte das Buch mein Leben grundlegend.
Als es geschrieben wurde, war die Welt noch eine weitgehend andere. Angela Merkel war gerade Bundeskanzlerin geworden und Deutschland im Vergleich zu heute nahezu eine Konsensgesellschaft. Das Fußball-Sommermärchen begeisterte die Welt und die Deutschen für sich selbst. Die Verschiebung der geopolitischen Plattentektonik zugunsten des asiatischen Kontinents war gerade mal geahnt, die kommende Klimakatastrophe zwar gewusst, aber nur als Randthema gesehen. Auch die großen Migrationswellen standen noch aus. Und die digitale Revolution hin zum zweiten Maschinenzeitalter künstlicher Intelligenz war zwar schon ausgerufen, aber sie beschäftigte nur die wenigsten Gemüter. Das Smartphone kam gerade auf den Markt, soziale Netzwerke waren noch unbekannt mit Ausnahme des gerade gegründeten studiVZ, und eine rechtspopulistische Partei in Deutschland erschien ebenso undenkbar wie ein Krieg zwischen Russland und der Ukraine.
In dieser Ruhe vor den Stürmen waren Fragen nach dem eigenen Ich, nach Selbstfindung, Glück und Sinn noch um ein vieles bedeutsamer, als sie es heute sind. In einer Bücherwelt, die bis dahin so oft aus Esoterik, fernöstlichen Weisheiten und simplifizierenden Ratgebern bestand, diese Fragen mit wissenschaftlicher Strenge und philosophischem Ernst anzugehen, stellte sich als spannender Weg heraus. Und so sind es eher Nuancen, die mir bei der Besichtigung des lieb gewonnenen Altbaus ein bisschen renovierungsbedürftig erscheinen und an der einen oder anderen Stelle einen frischen Anstrich erfordern. Die Hirnforschung, die in den Nullerjahren die Diskussionen in der Fachwelt wie in den Feuilletons dominierte, ist heute deutlich zurückgetreten. Mancher allzu vollmundigen Ankündigung über die baldige Enträtselung des Gehirns, zur Willensfreiheit oder zur Handlungsmotivation ist nur wenig Spannendes gefolgt. Überlagert wird die Neurobiologie heute durch die Entwicklung künstlicher Intelligenz, deren ethische Risiken und steilste Prognosen inzwischen ebenso kritisch diskutiert werden müssen. Ein entsprechendes Kapitel dazu habe ich eingefügt.
Ebenso ergänzt wurde ein Kapitel über die moralische Herausforderung der drohenden Klimakatastrophe, dem wohl dringlichsten Thema unserer Zeit. Andere Kapitel zu Fragen der Bioethik wurden behutsam aktualisiert, insbesondere das Kapitel zur Sterbehilfe und jenes zur Optimierbarkeit des Menschen durch die moderne Biomedizin. Im dritten Teil, Was darf ich hoffen?, habe ich ein Kapitel über die Arbeit eingefügt. Realisiert das zweite Maschinenzeitalter für Milliarden Menschen den alten Menschheitstraum, irgendwann nur noch das zu arbeiten, was man will? Und zu welchem Glück könnte dies führen?
Auch mit diesen drei neuen Kapiteln ist Wer bin ich? das geblieben, als was es gedacht war: ein Problemaufriss zu jenen Erkenntnis-, Moral- und Sinnfragen, die viele Menschen stark beschäftigen. Für mich selbst war die Lektüre nach achtzehn Jahren eine Reise vor allem in die eigene Vergangenheit. Die im Anfang beschriebene Szene am Strand von Agia Anna ist heute fast vierzig Jahre her und keine zwanzig wie damals, als das Buch geschrieben wurde. Und es hat sicher einen Grund, dass ich niemals nach Agia Anna zurückgekehrt bin. Das Reich der Erinnerung ist eines, aus dem man nicht vertrieben werden möchte. Ich vergegenwärtige mir, dass wir damals am Strand auf der Suche nach Bernstein waren. Heute ist diese Suche selbst ein Schatz, konserviert im Bernstein der Erinnerung.
Düsseldorf
Richard David Precht im Juni 2024
Die griechische Insel Naxos ist die größte Insel der Kykladen im Ägäischen Meer. In der Mitte der Insel steigt die Bergkette des Zas bis auf tausend Meter an, und auf den würzig duftenden Feldern grasen Ziegen und Schafe, wachsen Wein und Gemüse. Noch in den Achtzigerjahren besaß Naxos einen legendären Strand bei Agia Anna, kilometerlange Sanddünen, in denen nur wenige Touristen sich Bambushütten geflochten hatten und ihre Zeit damit verbrachten, träge im Schatten herumzudösen. Im Sommer 1985 lagen unter einem Felsvorsprung zwei junge, gerade zwanzigjährige Männer. Der eine hieß Jürgen und kam aus Düsseldorf; der andere war ich. Wir hatten uns erst vor wenigen Tagen am Strand kennengelernt und diskutierten über ein Buch, das ich aus der Bibliothek meines Vaters mit in den Urlaub genommen hatte: ein inzwischen arg ramponiertes Taschenbuch, von der Sonne ausgebleicht, mit einem griechischen Tempel auf dem Umschlag und zwei Männern in griechischem Gewand. Platon: Sokrates im Gespräch.
Die Atmosphäre, in der wir unsere bescheidenen Gedanken leidenschaftlich austauschten, brannte sich mir so tief ein wie die Sonne auf der Haut. Abends, bei Käse, Wein und Melonen, sonderten wir uns ein wenig von den anderen ab und diskutierten weiter unsere Vorstellungen. Vor allem die Verteidigungsrede, die Sokrates laut Platon gehalten haben soll, als man ihn wegen des Verderbens der Jugend zum Tode verurteilte, beschäftigte uns sehr.
Mir nahm sie – für einige Zeit – die Angst vor dem Tod, ein Thema, das mich zutiefst beunruhigte; Jürgen war weniger überzeugt.
Jürgens Gesicht ist mir entfallen. Ich habe ihn nie wieder getroffen, auf der Straße würde ich ihn heute sicher nicht erkennen. Und der Strand von Agia Anna, an den ich nicht zurückgekehrt bin, ist laut zuverlässiger Quelle heute ein Touristen-Paradies mit Hotels, Zäunen, Sonnenschirmen und gebührenpflichtigen Liegestühlen. Ganze Passagen aus der Apologie des Sokrates in meinem Kopf dagegen sind mir geblieben und begleiten mich gewiss bis ins Altenpflegeheim; mal sehen, ob sie dann immer noch die Kraft haben, mich zu beruhigen.
Das leidenschaftliche Interesse für Philosophie habe ich nicht mehr verloren. Es lebt fort seit den Tagen von Agia Anna. Aus Naxos zurückgekehrt, leistete ich zunächst einen unerquicklichen Zivildienst ab. Es war gerade eine sehr moralische Zeit, NATO-Doppelbeschluss und Friedensbewegung erhitzten die Gemüter, dazu Abenteuerlichkeiten wie US-amerikanische Planspiele über einen begrenzten Atomkrieg in Europa, die man sich ohne Kopfschütteln heute kaum noch vorstellen mag. Mein Zivildienst als Gemeindehelfer jedoch regte nicht zu kühnen Gedanken an; seit ich die evangelische Kirche von innen gesehen habe, mag ich den Katholizismus. Was blieb, war die Suche nach dem richtigen Leben und nach überzeugenden Antworten auf die großen Fragen des Lebens. Ich beschloss, Philosophie zu studieren.
Das Studium in Köln begann allerdings mit einer Enttäuschung. Bislang hatte ich mir Philosophen als spannende Persönlichkeiten vorgestellt, die so aufregend und konsequent lebten, wie sie dachten. Faszinierende Menschen wie Theodor W. Adorno, Ernst Bloch oder Jean-Paul Sartre. Doch die Vision von einer Einheit aus kühnen Gedanken und einem kühnen Leben verflüchtigte sich beim Anblick meiner zukünftigen Lehrer sofort: langweilige ältere Herren in braunen oder blauen Busfahreranzügen. Ich dachte an den Dichter Robert Musil, der sich darüber gewundert hatte, dass die modernen und fortschrittlichen Ingenieure der Kaiserzeit, die neue Welten zu Lande, zu Wasser und in der Luft eroberten, gleichzeitig so altmodische Zwirbelbärte, Westen und Taschenuhren trugen. Ebenso, schien es mir, wendeten die Kölner Philosophen ihre innere geistige Freiheit nicht auf ihr Leben an. Immerhin brachte mir einer von ihnen schließlich doch das Denken bei. Er lehrte mich, nach dem »Warum« zu fragen und sich nicht mit schnellen Antworten zu begnügen. Und er paukte mir ein, dass meine Gedankengänge und Argumentationen lückenlos sein sollten, sodass jeder einzelne Schritt möglichst streng auf dem anderen aufbaut.
Ich verbrachte wunderbare Studienjahre. In meiner Erinnerung vermischen sie sich zu einer einzigen Abfolge aus spannender Lektüre, spontanem Kochen, Tischgesprächen beim Nudelessen, schlechtem Rotwein, wilden Diskussionen im Seminar und endlosen Kaffeerunden in der Mensa mit Bewährungsproben unserer philosophischen Lektüre: über Erkenntnis und Irrtum, das richtige Leben, über Fußball und natürlich darüber, warum Mann und Frau – wie Loriot meinte – nicht zusammenpassen. Das Schöne an der Philosophie ist, dass sie kein Fach ist, das man je zu Ende studiert. Genau genommen, ist sie noch nicht einmal ein Fach. Naheliegend wäre es deshalb gewesen, an der Universität zu bleiben. Aber das Leben, das meine Professoren führten, erschien mir, wie gesagt, erschreckend reizlos. Zudem bedrückte mich, wie wirkungslos die Hochschulphilosophie war. Die Aufsätze und Bücher wurden lediglich von Kollegen gelesen, und das zumeist nur, um sich davon abzugrenzen. Auch die Symposien und Kongresse, die ich als Doktorand besuchte, desillusionierten mich restlos über den Verständigungswillen ihrer Teilnehmer.
Allein die Fragen und die Bücher begleiteten mich weiter durch mein Leben. Vor einem Jahr fiel mir auf, dass es nur sehr wenige befriedigende Einführungen in die Philosophie gibt. Natürlich existieren viele mehr oder weniger witzige Bücher, die von Logeleien und Kniffen des Denkens handeln, aber die meine ich nicht. Auch nicht die klugen nützlichen Bücher, die das Leben und Wirken ausgewählter Philosophen beschreiben oder in ihre Werke einführen. Ich vermisse das systematische Interesse an den großen übergreifenden Fragen. Was sich als systematische Einführung ausgibt, präsentiert zumeist eine Abfolge von Denkströmungen und -ismen, die mir oft zu sehr historisch interessiert sind oder die zu sperrig sind und zu trocken geschrieben.
Der Grund für diese unkulinarische Lektüre liegt nahe: Universitäten fördern nicht unbedingt den eigenen Stil. Noch immer wird in der akademischen Lehre meist mehr Wert auf exakte Wiedergabe gelegt als auf die intellektuelle Kreativität der Studenten. Besonders störend an der Vorstellung von der Philosophie als einem »Fach« sind dabei ihre ganz unnatürlichen Abgrenzungen. Während meine Professoren das menschliche Bewusstsein anhand der Theorien von Kant und Hegel erklärten, machten ihre Kollegen von der medizinischen Fakultät, nur achthundert Meter entfernt, die aufschlussreichsten Versuche mit hirngeschädigten Patienten. Achthundert Meter Raum in einer Universität sind sehr viel. Denn die Professoren lebten auf zwei völlig verschiedenen Planeten und kannten nicht einmal die Namen ihrer Kollegen.
Wie passen die philosophischen, die psychologischen und die neurobiologischen Erkenntnisse über das Bewusstsein zusammen? Stehen sie sich im Weg, oder ergänzen sie sich? Gibt es ein »Ich«? Was sind Gefühle? Was ist das Gedächtnis? Die spannendsten Fragen standen gar nicht auf dem philosophischen Lehrplan, und daran hat sich, soweit ich sehe, bis heute viel zu wenig geändert.
Philosophie ist keine historische Wissenschaft. Selbstverständlich ist es eine Pflicht, das Erbe zu bewahren und auch die Altbauten im Bereich des Geisteslebens immer wieder zu besichtigen und gegebenenfalls zu sanieren. Aber die rückwärtsgewandte Philosophie dominiert im akademischen Betrieb noch immer allzu sehr über die gegenwartsbezogene. Dabei sollte man bedenken, dass die Philosophie gar nicht so sehr auf dem festgegossenen Fundament ihrer Vergangenheit steht, wie manche meinen. Die Geschichte der Philosophie ist weitgehend auch eine Geschichte von Moden und Zeitgeistströmungen, von Wissen, das vergessen oder verdrängt wurde, und von zahlreichen Neuanfängen, die nur deshalb so neu wirkten, weil vieles, was zuvor gedacht wurde, vernachlässigt wurde. Doch das Leben baut selten etwas auf, wofür es die Steine nicht woanders herholt. Die meisten Philosophen haben ihre Gedankengebäude auf den Trümmern ihrer Vorgänger erbaut, nicht aber, wie sie oft meinten, auf der Ruine der ganzen Philosophiegeschichte. Aber nicht nur viele schlaue Einsichten und Betrachtungsweisen gingen immer wieder verschütt, auch viel Seltsames und Weltfremdes wurde immer wieder neu gedacht und wiederbelebt. Und diese Zerrissenheit zwischen Intelligenz und Ressentiment zeigt sich auch an den Philosophen selbst. Der Schotte David Hume im 18. Jahrhundert zum Beispiel war in vielerlei Hinsicht ein unglaublich moderner Denker. Aber seine Sichtweise anderer Völker, vor allem der afrikanischen, war chauvinistisch und rassistisch. Friedrich Nietzsche im 19. Jahrhundert war einer der scharfsinnigsten Kritiker der Philosophie, aber seine eigenen Wunschbilder vom Menschen waren kitschig, anmaßend und albern.
Auch hängt die Wirkung eines Denkers nicht unbedingt davon ab, ob er mit seinen Einsichten tatsächlich richtiglag. Der gerade erwähnte Nietzsche hatte eine ungeheure Wirkung in der Philosophie, obwohl das meiste von dem, was er gesagt hatte, nicht ganz so neu und originell war, wie es klang. Sigmund Freud war mit Fug und Recht ein bedeutender Mann, einer der größten Ideenstifter überhaupt. Dass an der Psychoanalyse im Detail vieles nicht stimmte, ist eine andere Sache. Und auch die enorme philosophische und politische Bedeutung von Georg Wilhelm Friedrich Hegel steht in einem spannenden Missverhältnis zu den vielen Ungereimtheiten seiner Spekulationen.
Wenn man die Geschichte der abendländischen Philosophie im Überblick betrachtet, fällt auf, dass sich die meisten Scharmützel innerhalb weniger recht übersichtlicher Freund-Feind-Linien abspielen: die Fehde zwischen Materialisten und Idealisten (oder im englischen Sprachgebrauch: der Empiristen und Rationalisten). In der Realität treten diese Sichtweisen in allen erdenklichen Kombinationen und in immer neuen Gewändern auf. Aber sie wiederholen sich. Der Materialismus, der Glaube daran, dass es nichts außerhalb der sinnlich erfahrbaren Natur gibt, keinen Gott und auch keine Ideale, kam das erste Mal im 18. Jahrhundert in der französischen Aufklärung in Mode. Ein zweites Mal begegnet er uns in breiter Front als Reaktion auf die Erfolge der Biologie und auf Darwins Evolutionstheorie in der zweiten Hälfte des 19. Jahrhunderts. Und heute feiert er seine inzwischen dritte Hochzeit im Zusammenhang mit den Erkenntnissen der modernen Hirnforschung. Dazwischen aber lagen jeweils Phasen, in denen der Idealismus in allen möglichen Spielarten vorherrschte. Im Gegensatz zu den Materialisten vertraut er der sinnlichen Welterkenntnis nur wenig und beruft sich auf die weitgehend unabhängige Kraft der Vernunft und ihrer Ideen. Natürlich verbergen sich hinter diesen beiden Etiketten der Philosophiegeschichte mitunter ganz verschiedene Beweggründe und Bedeutungsmuster bei den jeweiligen Philosophen. Ein Idealist wie Platon dachte durchaus nicht das Gleiche wie der Idealist Immanuel Kant. Und deshalb lässt sich eine »ehrliche« Geschichte der Philosophie auch gar nicht schreiben: weder als ein logischer Aufbau in der zeitlichen Abfolge der großen Philosophen noch als eine Geschichte der philosophischen Strömungen. Man wäre gezwungen, vieles wegzulassen, das die Wirklichkeit erst wahrhaftig und rund macht.
Die hier vorliegende Einführung in die philosophischen Fragen des Menschseins und der Menschheit geht deshalb auch nicht historisch vor. Sie ist keine Geschichte der Philosophie. Immanuel Kant hat die großen Fragen der Menschheit einmal in die Fragen unterteilt: »Was kann ich wissen? Was soll ich tun? Was darf ich hoffen? Was ist der Mensch?« Sie bilden einen schönen Leitfaden auch für die Gliederung dieses Buchs, wobei letztere Frage durch die ersten drei ganz gut erklärt scheint, sodass ich meine, sie hier getrost weglassen zu können.
Die Frage nach dem, was man über sich selbst wissen kann, die klassische Frage der Erkenntnistheorie also, ist heute nur noch sehr bedingt eine philosophische. Weitreichend ist sie vor allem ein Thema der Hirnforschung, die uns die Grundlagen unseres Erkenntnisapparates und seiner Erkenntnismöglichkeiten erklärt. Die Philosophie erhält hier eher die Rolle eines Beraters, der der Hirnforschung hilft, sich selbst im einen oder anderen Fall besser zu verstehen. Was sie gleichwohl Anregendes zu diesen grundlegenden Fragen beizutragen hatte, führe ich in einer sehr persönlichen Auswahl an der Erfahrung einer Generation vor, die von einem gewaltigen Umbruch geprägt war und die Moderne entscheidend mit vorbereitet hat. Der Physiker Ernst Mach wurde 1838 geboren, der Philosoph Friedrich Nietzsche 1844, der Hirnforscher Santiago Ramón y Cajal 1852 und der Psychoanalytiker Sigmund Freud 1856. Nur sechzehn Jahre trennen diese vier Vorreiter des modernen Denkens, deren Nachwirkung kaum überschätzt werden kann.
Der zweite Teil des Buchs beschäftigt sich mit der Frage: »Was soll ich tun?«, also mit Ethik und Moral. Dabei geht es ebenfalls zunächst darum, die Grundlagen zu klären. Warum können Menschen überhaupt moralisch handeln? Inwieweit entspricht gut oder böse zu sein der menschlichen Natur? Auch hier steht die Philosophie nicht mehr allein am Lehrerpult. Die Hirnforschung, die Psychologie und die Verhaltensforschung haben inzwischen ein gehöriges Wörtchen mitzureden, und das sollen sie auch tun. Ist der Mensch einmal als ein moralfähiges Tier beschrieben und damit auch die Anreize im Gehirn, die sein moralisches Handeln belohnen, treten die naturwissenschaftlichen Disziplinen in den Hintergrund. Denn die vielen praktischen Fragen, die unsere Gesellschaft heute beschäftigen, warten tatsächlich auf eine philosophische Antwort. Bei Abtreibung und Sterbehilfe, Gentechnik und Reproduktionsmedizin, Umwelt und Tierethik: Überall entscheiden Normen und Abwägungen, plausible und weniger plausible Argumente – die ideale Spielwiese für philosophische Diskussionen und Abwägungen.
Im dritten Teil »Was darf ich hoffen« geht es um einige zentrale Fragen, die die meisten Menschen in ihrem Leben beschäftigen. Fragen etwa nach dem Glück, nach Freiheit, Liebe, Gott und dem Sinn des Lebens. Fragen, die nicht einfach zu beantworten sind, aber die uns so wichtig sind, dass es sich durchaus lohnt, konzentriert darüber nachzudenken.
Die Theorien und Ansichten, die in diesem Buch oft mit recht leichter Hand miteinander verbunden werden, befinden sich in der Praxis der Wissenschaften mitunter in ganz verschiedenen Ordnern in weit voneinander entfernten Regalen. Trotzdem meine ich, dass es sinnvoll ist, sie auf diese Weise aufeinander zu beziehen, auch wenn sie im Kleingedruckten oft viele knifflige Streitereien wert sein dürften. Verbunden sind sie zudem in einer kleinen Weltreise an die Orte des Geschehens. Nach Ulm, wo Descartes in einer Bauernstube die neuzeitliche Philosophie begründete, nach Königsberg, wo Immanuel Kant lebte, nach Vanuatu, wo die glücklichsten Menschen leben sollen und so weiter. Einige der im Buch vorgestellten Akteure habe ich dabei persönlich näher kennenlernen dürfen, die Hirnforscher Eric Kandel, Robert White und Benjamin Libet sowie die Philosophen John Rawls und Peter Singer. Den einen habe ich gelauscht, mit den anderen gefochten und viel dazugelernt. Ich glaube, dabei erkannt zu haben, dass sich der Vorzug der einen oder anderen Theorie nicht unbedingt in einem abstrakten Theorievergleich zeigt, sondern an den Früchten, die man von ihnen ernten kann. Fragen stellen zu können, ist eine Fähigkeit, die man nie verlernen sollte. Denn Lernen und Genießen sind das Geheimnis eines erfüllten Lebens. Lernen ohne Genießen verhärmt, Genießen ohne Lernen verblödet. Sollte es diesem Buch gelingen, beim Leser die Lust am Denken zu wecken und zu trainieren, wäre sein Ziel erreicht. Was sollte es für einen schöneren Erfolg geben, als durch fortschreitende Selbsterkenntnis ein bewussteres Leben zu führen, mithin also Regisseur seiner Lebensimpulse zu werden oder, wie Friedrich Nietzsche (für sich selbst vergeblich) hoffte, »Dichter« des eigenen Lebens zu sein: »Es ist eine gute Fähigkeit, seinen Zustand mit einem künstlerischen Auge ansehn zu können, selbst in Leiden und Schmerzen, die uns treffen, in Unbequemlichkeiten und dergleichen.«
Apropos Dichter. Diese Einleitung wäre nicht vollständig, ohne noch ein Wort zum Titel des Buchs zu sagen. Er ist der Ausspruch eines großen Philosophen, genauer gesagt, meines Freundes, des Schriftstellers Guy Helminger. Wir strichen (und streichen) manchmal gerne lange um die Häuser. Eines Nachts, als wir zu viel getrunken hatten, machte ich mir Sorgen um ihn – obwohl er sicherlich mehr verträgt als ich. Als er eine laute Rede schwingend mitten auf der Straße stand, fragte ich ihn, ob es ihm gut gehe. »Wer bin ich? Und wenn ja – wie viele?«, antwortete er mir mit weit aufgerissenen Augen, den Kopf wild drehend und mit heiserer Kehle. Da wusste ich, dass er noch in der Lage war, eine ordentliche Theater-Performance abzuliefern, und es ihm gut genug ging, um allein nach Hause zu finden. In meinem Kopf aber blieb seine Frage, die wie ein Leitspruch über der modernen Philosophie und Hirnforschung im Zeitalter fundamentaler Zweifel am »Ich« und an der Kontinuität des Erlebens liegen könnte. Ich verdanke Guy so viel wie nur wenigen anderen – nicht nur diesen Satz, sondern, ganz besonders, dass ich durch ihn meiner Frau begegnet bin, ohne die mein Leben nicht das glückliche Leben wäre, das es ist.
Ville de Luxembourg
Richard David Precht im März 2007
Sils Maria
Was ist Wahrheit?
»In irgendeinem abgelegenen Winkel des in zahllosen Sonnensystemen flimmernd ausgegossenen Weltalls gab es einmal ein Gestirn, auf dem kluge Tiere das Erkennen erfanden. Es war die hochmütigste und verlogenste Minute der ›Weltgeschichte‹: aber doch nur eine Minute. Nach wenigen Atemzügen der Natur erstarrte das Gestirn, und die klugen Tiere mussten sterben. – So könnte jemand eine Fabel erfinden und würde doch nicht genügend illustriert haben, wie kläglich, wie schattenhaft und flüchtig, wie zwecklos und beliebig sich der menschliche Intellekt innerhalb der Natur ausnimmt; es gab Ewigkeiten, in denen er nicht war; wenn es wieder mit ihm vorbei ist, wird sich nichts begeben haben. Denn es gibt für jenen Intellekt keine weitere Mission, die über das Menschenleben hinausführte. Sondern menschlich ist er, und nur sein Besitzer und Erzeuger nimmt ihn so pathetisch, als ob die Angeln der Welt sich in ihm drehten. Könnten wir uns aber mit der Mücke verständigen, so würden wir vernehmen, dass auch sie mit diesem Pathos durch die Luft schwimmt und in sich das fliegende Zentrum dieser Welt fühlt.«
Der Mensch ist ein kluges Tier, das sich doch zugleich selbst völlig überschätzt. Denn sein Verstand ist nicht auf die große Wahrheit, sondern nur auf die kleinen Dinge im Leben ausgerichtet. Kaum ein anderer Text in der Geschichte der Philosophie hat auf so poetische wie schonungslose Weise dem Menschen den Spiegel vorgehalten. Geschrieben wurde dieser vielleicht schönste Anfang eines philosophischen Buchs im Jahr 1873 unter dem Titel: Über Wahrheit und Lüge im außermoralischen Sinne. Und sein Verfasser war ein junger, gerade neunundzwanzigjähriger Professor für Altphilologie an der Universität Basel.
Doch Friedrich Nietzsche veröffentlichte seinen Text über die klugen und hochmütigen Tiere nicht. Soeben hatte er schwere Blessuren davongetragen, weil er ein Buch über die Grundlagen der griechischen Kultur geschrieben hatte. Seine Kritiker entlarvten es als unwissenschaftlich und als spekulativen Unsinn, was es wohl weitgehend auch ist. Von einem gescheiterten Wunderkind war die Rede, und sein Ruf als Altphilologe war ziemlich ruiniert.
Dabei hat alles so vielversprechend angefangen. Der kleine Fritz, 1844 im sächsischen Dorf Röcken geboren und aufgewachsen in Naumburg an der Saale, galt als ein hochbegabter und sehr gelehriger Schüler. Sein Vater war ein lutherischer Pfarrer, und auch die Mutter war sehr fromm. Als der Junge vier Jahre alt ist, stirbt der Vater und kurz darauf auch Nietzsches jüngerer Bruder. Die Familie zieht nach Naumburg, und Fritz wächst in einem reinen Frauenhaushalt auf. Auf der Knabenschule und später am Domgymnasium wird man auf sein Talent aufmerksam. Nietzsche besucht das angesehene Internat Schulpforta und schreibt sich 1864 an der Universität Bonn für klassische Philologie ein. Das Theologiestudium, das er ebenfalls beginnt, gibt er schon nach dem ersten Semester wieder auf. Zu gern hätte er der Mutter den Gefallen getan, ein rechter Pfarrer zu werden – allein ihm fehlt der Glaube. Der »kleine Pastor«, als der das fromme Pfarrerskind einst in Naumburg verspottet wurde, ist vom Glauben abgefallen. Die Mutter, das Pfarrhaus und der Glaube sind ein Gefängnis, aus dem er sich gesprengt hat, doch ein Leben lang wird dieser Wandel an ihm nagen. Nach einem Jahr wechselt Nietzsche mit seinem Professor nach Leipzig. Sein Ziehvater schätzt ihn so sehr, dass er ihn der Universität Basel als Professor empfiehlt. 1869 wird der Fünfundzwanzigjährige außerordentlicher Professor. Seine fehlenden Abschlüsse, Promotion und Habilitation, bekommt er kurzerhand von der Uni verliehen. In der Schweiz lernt Nietzsche die Gelehrten und Künstler der Zeit kennen, darunter Richard Wagner und seine Frau Cosima, denen er zuvor bereits in Leipzig begegnet war. Nietzsches Begeisterung für Wagner ist so groß, dass er sich 1872 von dessen pathetischer Musik zu seinem nicht weniger pathetischen Fehlschlag über Die Geburt der Tragödie aus dem Geist der Musik verleiten lässt.
Nietzsches Buch war schnell abgetan. Der Gegensatz vom vermeintlich »Dionysischen« der Musik und dem vermeintlich »Apollinischen« der bildenden Kunst war schon seit der Frühromantik bekannt und gemessen an der historischen Wahrheit eine wilde Spekulation. Außerdem beschäftigte sich die gelehrte Welt in Europa mit der Geburt einer viel wichtigeren Tragödie. Ein Jahr zuvor hat der studierte Theologe und renommierte englische Botaniker Charles Darwin sein Buch über die Abstammung des Menschen aus dem Tierreich veröffentlicht. Obwohl der Gedanke, dass sich der Mensch aus primitiveren Vorformen entwickelt haben könnte, seit spätestens zwölf Jahren im Raum stand – Darwin selbst hat in seinem Buch über die Entstehung der Arten angekündigt, dass hieraus auch auf den Menschen »ein bezeichnendes Licht« fallen werde –, war das Buch ein Reißer. In den 1860er-Jahren hatten zahlreiche Naturforscher die gleiche Konsequenz gezogen und den Menschen ins Tierreich nahe dem gerade erst entdeckten Gorilla einsortiert. Die Kirche, vor allem in Deutschland, bekämpfte Darwin und seine Anhänger noch bis zum Ersten Weltkrieg. Doch von Anfang an war klar, dass es nun kein freiwilliges Zurück zur früheren Weltsicht mehr geben konnte. Gott als persönlicher Urheber und Lenker des Menschen war tot. Und die Naturwissenschaften feierten ihren Siegeszug mit einem neuen sehr nüchternen Bild des Menschen: Das Interesse an Affen wurde größer als das an Gott. Und die erhabene Wahrheit vom Menschen als einer gottgleichen Kreatur zerfiel in zwei Teile: das unglaubwürdig gewordene Erhabene und die schlichte Wahrheit vom Menschen als einem intelligenten Tier.
Nietzsches Begeisterung für diese neue Weltsicht ist groß. »Alles, was wir brauchen«, schreibt er später einmal, »ist eine Chemie der moralischen, religiösen, ästhetischen Vorstellungen und Empfindungen, ebenso wie all jener Regungen, welche wir im Groß und Kleinverkehr der Kultur und Gesellschaft, ja in der Einsamkeit an uns erleben.« Genau an jener »Chemie« arbeiten im letzten Drittel des 19. Jahrhunderts zahlreiche Wissenschaftler und Philosophen: an einer biologischen Daseinslehre ohne Gott. Doch Nietzsche beteiligt sich selbst keinen Deut daran. Die Frage, die ihn beschäftigt, ist eine ganz andere: Was bedeutet die nüchtern wissenschaftliche Sicht für das Selbstverständnis des Menschen? Macht es den Menschen größer, oder macht es ihn kleiner? Hat er alles verloren, oder gewinnt er etwas dazu, dadurch, dass er sich jetzt selbst klarer sieht? In dieser Lage schrieb er den Aufsatz über Wahrheit und Lüge, seinen vielleicht schönsten Text.
Die Frage, ob der Mensch kleiner oder größer geworden war, beantwortete Nietzsche je nach Stimmung und Laune. Wenn es ihm schlecht ging – und es ging ihm oft schlecht –, war er gedrückt und zerknirscht und predigte ein Evangelium des Schmutzes. War er dagegen hochgestimmt, ergriff ihn ein stolzes Pathos und ließ ihn vom Übermenschen träumen. Seine hochfliegenden Fantasien und das donnernde Selbstbewusstsein seiner Bücher standen dabei in einem geradezu haarsträubenden Gegensatz zu seiner Erscheinung: ein kleiner, etwas dicklicher, weicher Mann. Ein trotziger Schnauzbart, eine richtige Bürste, sollte sein weiches Gesicht aufmöbeln und männlicher machen, aber die vielen Krankheiten von Kindertagen an ließen ihn schwach erscheinen und sich schwach fühlen. Er war stark kurzsichtig, litt unter Magenbeschwerden und schweren Migräneanfällen. Mit fünfunddreißig fühlte er sich bereits als ein körperliches Wrack und beendete seine Lehrtätigkeit in Basel. Eine oft vermutete Syphilis-Infektion, so scheint es, gab ihm später den Rest.
Im Sommer 1881, zwei Jahre nach seinem Abschied von der Universität, entdeckte Nietzsche eher zufällig sein ganz persönliches Paradies: den kleinen Ort Sils Maria im schweizerischen Oberengadin. Eine fantastische Landschaft, die ihn sofort begeisterte und inspirierte. Immer wieder fuhr er in den kommenden Jahren dorthin, unternahm lange einsame Spaziergänge und schmiedete neue pathetische Gedanken. Vieles davon brachte er im Winter in Rapallo und an der Mittelmeerküste, in Genua und in Nizza, zu Papier. Das meiste zeigt Nietzsche als einen klugen, literarisch anspruchsvollen und schonungslosen Kritiker, der seine Finger in die Wunden der abendländischen Philosophie legt. Was seine eigenen Vorschläge zu einer neuen Erkenntnistheorie und Moral anbelangt dagegen, begeistert er sich für einen unausgegorenen Sozialdarwinismus und flüchtet sich oft in schwiemeligen Kitsch. Je markiger seine Texte daherkommen, umso mehr sind sie mit großer Geste danebengegriffen. »Gott ist tot« – schreibt er das eine um das andere Mal –, aber das wissen die meisten seiner Zeitgenossen schon von Darwin und anderen.
1887, Nietzsche blickt das vorletzte Mal auf die schneebedeckten Gipfel von Sils Maria, entdeckt er das Thema von seinen klugen Tieren aus dem alten Aufsatz wieder – das Problem von der begrenzten Erkenntnis aller Menschentiere. Seine Streitschrift Zur Genealogie der Moral beginnt mit den Worten: »Wir sind uns unbekannt, wir Erkennenden, wir selbst uns selbst: Das hat seinen guten Grund. Wir haben nie nach uns gesucht – wie sollte es geschehen, dass wir uns eines Tages fänden?« Wie so oft spricht er von sich selbst im Plural, wie von einer sehr speziellen Tierart, die er als Erster beschreibt: »Unser Schatz ist, wo die Bienenkörbe unsrer Erkenntnis stehn. Wir sind immer dazu unterwegs, als geborne Flügelthiere und Honigsammler des Geistes, wir kümmern uns von Herzen eigentlich nur um Eins – Etwas ›heimzubringen‹.« Viel Zeit dafür bleibt ihm nicht mehr. Zwei Jahre später erleidet Nietzsche in Turin einen Zusammenbruch. Seine Mutter holt den vierundvierzigjährigen Sohn in Italien ab und bringt ihn nach Jena in eine Klinik. Später lebt er bei ihr, aber er bringt nichts mehr zu Papier. Acht Jahre darauf stirbt die Mutter, und der geistig schwer umnachtete Sohn kommt in die Wohnung seiner nicht sonderlich geliebten Schwester. Am 25. August 1900 stirbt Nietzsche in Weimar im Alter von fünfundfünfzig Jahren. Nietzsches Selbstbewusstsein, das er sich einredete, indem er es schreibend heraufbeschwor, war groß: »Ich kenne mein Los, es wird sich einmal an meinen Namen die Erinnerung an etwas Ungeheures anknüpfen.« Doch worin besteht Nietzsches Ungeheuerlichkeit, die ihn nach seinem Tod tatsächlich zum wohl einflussreichsten Philosophen des kommenden 20. Jahrhunderts machen sollte?
Nietzsches große Leistung liegt in seiner ebenso schonungslosen wie schwungvoll vorgetragenen Kritik. Leidenschaftlicher als alle anderen Philosophen zuvor hatte er vorgeführt, wie anmaßend und unwissend der Mensch die Welt, in der er lebt, nach der Logik und Wahrheit seiner Art beurteilt: der Logik der menschlichen Spezies. Die »klugen Tiere« glauben, dass sie einen exklusiven Status hätten. Nietzsche dagegen vertrat vehement die Auffassung, dass der Mensch tatsächlich ein Tier ist und dass auch sein Denken dadurch bestimmt wird: durch Triebe und Instinkte, durch seinen primitiven Willen und durch ein eingeschränktes Erkenntnisvermögen. Die meisten Philosophen des Abendlands hatten demnach unrecht, als sie den Menschen als etwas ganz Besonderes betrachtet hatten, als eine Art Hochleistungscomputer der Selbsterkenntnis. Denn kann der Mensch tatsächlich sich selbst und die objektive Realität erkennen? Ist er überhaupt dazu fähig? Die meisten Philosophen hatten nicht daran gezweifelt. Und einige hatten sich noch nicht einmal diese Frage gestellt. Sie hatten ganz selbstverständlich vorausgesetzt, dass das menschliche Denken gleichzeitig so etwas war wie ein universelles Denken. Sie betrachteten den Menschen eben nicht als ein kluges Tier, sondern als ein Wesen auf einer ganz anderen Stufe. Systematisch hatten sie das Erbe aus dem Tierreich geleugnet, das ihnen bei der morgendlichen Rasur vor dem Spiegel ebenso unmissverständlich entgegengrinste wie später, nach Feierabend in den Daunen. Einer nach dem anderen hatten sie an einem großen Graben zwischen Mensch und Tier geschaufelt. Des Menschen Vernunft und Verstand, seine Denk- und Urteilsfähigkeit bildeten den allein selig machenden Maßstab, um die belebte Natur zu bewerten. Und sie verurteilten das »bloß« Körperliche als völlig zweitrangig.
Um sicher zu sein, dass sie mit ihren erlesenen Vorstellungen von sich selbst richtiglagen, mussten die Philosophen annehmen, dass Gott den Menschen mit einem vorzüglichen Erkenntnisapparat ausgestattet habe. Mit seiner Hilfe konnten sie im »Buch der Natur« die Wahrheit über die Welt lesen. Doch wenn es richtig war, dass Gott tot war, dann konnte es auch mit diesem Apparat nicht allzu weit her sein. Dann musste dieser Apparat ein Produkt der Natur sein und wie alles in der Natur irgendwie unvollkommen. Genau diese Einsicht hatte Nietzsche schon bei Arthur Schopenhauer gelesen: »Wir sind eben bloß zeitliche, endliche, vergängliche, traumartige, wie Schatten vorüber fliegende Wesen.« Und was sollte denen ein »Intellekt, der unendliche, ewige, absolute Verhältnisse fasste?« Das Erkenntnisvermögen des menschlichen Geistes, wie Schopenhauer und Nietzsche vorausahnten, steht in einer direkten Abhängigkeit zu den Erfordernissen der evolutionären Anpassung. Der Mensch vermag nur das zu erkennen, was der im Konkurrenzkampf der Evolution entstandene Erkenntnisapparat ihm an Erkenntnisfähigkeit gestattet. Wie jedes andere Tier, so modelliert der Mensch sich die Welt danach, was seine Sinne und sein Bewusstsein ihm an Einsichten erlauben. Denn eines ist klar: All unser Erkennen hängt zunächst einmal von unseren Sinnen ab. Was wir nicht hören, nicht sehen, nicht fühlen, nicht schmecken und nicht ertasten können, das nehmen wir auch nicht wahr, und es kommt in unserer Welt nicht vor. Selbst die abstraktesten Dinge müssen wir als Zeichen lesen oder sehen können, um sie uns vorstellen zu können. Für eine völlig objektive Weltsicht bräuchte der Mensch also einen wahrhaft übermenschlichen Sinnesapparat, der das ganze Spektrum möglicher Sinneswahrnehmungen ausschöpft: die Superaugen des Adlers, den kilometerweiten Geruchssinn von Bären, das Seitenliniensystem der Fische, die seismografischen Fähigkeiten einer Schlange usw. Doch all das können Menschen nicht, und eine umfassende objektive Sicht der Dinge kann es deshalb auch nicht geben. Unsere Welt ist niemals die Welt, wie sie »an sich« ist, ebenso wenig wie jene von Hund und Katze, Vogel oder Käfer. »Die Welt, mein Sohn«, erklärt im Aquarium der Vaterfisch seinem Filius, »ist ein großer Kasten voller Wasser!«
Nietzsches schonungsloser Blick auf die Philosophie und die Religion hatte gezeigt, wie überanstrengt die meisten Selbstdefinitionen des Menschen sind. (Dass er selbst neue Überanstrengungen und Verspanntheiten in die Welt gesetzt hat, ist eine ganz andere Sache.) Das menschliche Bewusstsein wurde nicht durch die drängende Frage ausgeformt: »Was ist Wahrheit?« Wichtiger war sicher die Frage: Was ist für mein Überleben und Fortkommen das Beste? Was dazu nichts beitrug, hatte wahrscheinlich eher wenige Chancen, in der Evolution des Menschen eine bedeutende Rolle zu spielen. Nietzsche hatte zwar die vage Hoffnung, dass vielleicht gerade diese Selbsterkenntnis den Menschen schlauer und möglicherweise zu einem »Übermenschen« machen könnte, der tatsächlich seinen Erkenntnissinn vergrößert. Aber auch hier ist Vorsicht sicher das bessere Rezept als Pathos. Denn auch alle Einsicht in das menschliche Bewusstsein und seine »Chemie«, die, wie wir noch sehen werden, seit Nietzsches Tagen enorme Fortschritte gemacht hat, selbst die ausgeklügeltsten Messapparaturen und sensibelsten Beobachtungen ändern nichts an der Tatsache, dass dem Menschen eine schlechthin objektive Erkenntnis verwehrt bleibt.
Aber ist das eigentlich so schlimm? Wäre es nicht vielleicht viel schlimmer, wenn der Mensch alles über sich selbst wüsste? Brauchen wir eine Wahrheit, die frei und unabhängig über unseren Häuptern schwebt, überhaupt? Manchmal ist der Weg auch ein schönes Ziel, vor allem wenn es ein so spannender Pfad ist wie die verschlungenen Wege, die zu uns selbst führen. »Wir haben nie nach uns gesucht – wie sollte es geschehen, dass wir uns eines Tages fänden?«, hatte Nietzsche in der Genealogie der Moral gefragt. Versuchen wir also, uns so weit, wie es uns gegenwärtig möglich ist, zu finden. Welchen Weg sollen wir nehmen? Welche Methode anwenden? Und wie könnte das aussehen, was man am Ende findet? Wenn all unsere Erkenntnis von unserem Wirbeltiergehirn abhängt und sich darin abspielt, fangen wir doch am besten bei diesem Gehirn an. Und die erste Frage lautet: Wo kommt es her? Und warum ist es so beschaffen, wie es ist?
Lucy in the Sky. Woher kommen wir?Hadar
Woher kommen wir?
Dies ist die Geschichte von drei Geschichten. Die erste lautet so: Am 28. Februar 1967 – die USA bombardierten Nordvietnam mit Napalmbomben und Agent Orange, in Berlin gab es die ersten Studentenproteste, die Kommune I richtete sich gerade ein, und Che Guevara begann seinen Guerillakampf im zentralbolivianischen Hochland, an diesem Tag also schlossen sich Paul McCartney, John Lennon, George Harrison und Ringo Starr in den Abbey Road Studios in London ein. Ergebnis ihrer Aufnahmen war das Album Sgt. Pepper’s Lonely Hearts Club Band, und einer der Songs darauf war »Lucy In The Sky With Diamonds«. Aufgrund des Titels und des surrealen Textes glauben viele Beatles-Fans bis heute, John Lennon hätte das Lied während eines Trips geschrieben und die ganze bunte Traumwelt sei eine Hommage an LSD. Allein, die Wahrheit ist etwas schlichter und anrührender. Denn Lucy ist niemand anders als eine Klassenkameradin von Lennons Sohn Julian, die er seinem Vater auf einem selbst gezeichneten Bild gezeigt hatte, als eben »Lucy In The Sky With Diamonds«.
Und damit beginnt die zweite Geschichte. Donald Carl Johanson war noch keine dreißig, als er 1973 mit einer internationalen Forschergemeinschaft ins staubige und trockene Hochland Äthiopiens unweit der Stadt Hadar kam. Johanson hatte den Ruf, ein Experte für Schimpansenzähne zu sein, ein Image, das er eher als einen Fluch betrachtete. Schon seit drei Jahren saß er nun an seiner Doktorarbeit über die Zahnreihen der Schimpansen, hatte alle europäischen Museen nach Menschenaffenschädeln durchforstet und hatte eigentlich überhaupt keine Lust mehr auf Schimpansenzähne. Doch ein Mann mit seinen Kenntnissen war einigen seiner renommierteren französischen und US-amerikanischen Kollegen Gold wert. Wer nach menschlichen Fossilien suchte, der brauchte einen Experten für Zähne. Denn Zähne sind häufig die am besten erhaltenen Fundstücke, und Menschenzähne und Schimpansenzähne sind sich sehr ähnlich. Johanson selbst war froh, überhaupt dabei sein zu dürfen, denn eine wissenschaftliche Karriere war dem Sohn schwedischer Auswanderer aus Hartford in Connecticut nicht in die Wiege gelegt worden. Sein Vater starb, als Don gerade zwei Jahre alt war, und Johanson verbrachte eine Kindheit in ärmlichen Verhältnissen. Ein Anthropologe in der Nachbarschaft, der sich des kleinen Don als väterlicher Freund annahm, förderte ihn und weckte sein Interesse an der Ur- und Frühgeschichte. Johanson studierte tatsächlich Anthropologie und trat in die Fußstapfen seines Förderers. Er selbst sollte weitaus größere hinterlassen. Doch davon wusste der dunkelhaarige schlaksige junge Mann mit den langen Koteletten noch nichts, der in dem glühend heißen wüstenhaften Landstrich des sogenannten Afar-Dreiecks im Camp nahe dem Awash-Fluss hockte und zwischen Steinen, Staub und Erde nach Überresten urzeitlicher Wesen suchte. Schon nach kurzer Zeit stolperte er über ein paar seltsame Knochen: den oberen Teil eines Schienbeins und den unteren Teil eines Oberschenkels. Beide passten perfekt zusammen. Johanson bestimmte die Knochen als das Knie eines kleinen, etwa neunzig Zentimeter großen aufrecht gehenden Primaten, der vor mehr als drei Millionen Jahren gelebt haben musste. Eine Sensation! Denn dass menschenähnliche Wesen schon vor drei Millionen Jahren aufrecht gingen, war bis dahin weder bekannt noch erahnt. Wer würde ihm, dem jungen unbekannten Schimpansenzahn-Experten so etwas glauben? Er hatte nur eine Wahl: Er musste ein komplettes Skelett finden! Die Zeit lief ab, aber ein Jahr später kehrte Johanson ins Afar-Dreieck zurück. Am 24. November 1974 begleitete er den US-amerikanischen Studenten Tom Gray zu einer Fundstelle. Bevor er ins Camp zurückkehrte, machte er einen letzten Umweg. Dabei entdeckte er einen Armknochen im Geröll. Ringsum lagen noch mehr Knochen, Stücke einer Hand, Wirbel, Rippen, Schädelbruchstücke: die Teile eines urtümlichen Skeletts.
Und dies ist die Verbindung zu der dritten Geschichte – die Geschichte einer kleinen Frau, die in einer Gegend lebte, die dem heutigen Äthiopien entspricht. Sie ging aufrecht, und ihre Hand war zwar kleiner als die heutige Hand eines Erwachsenen, dennoch war sie ihr verblüffend ähnlich. Die Dame war ziemlich kleinwüchsig, aber ihre männlichen Verwandten waren möglicherweise bis zu 140 Zentimeter groß. Für ihre Größe war sie sehr kräftig. Sie hatte stabile Knochen, und ihre Arme waren ziemlich lang. Ihr Kopf glich dem eines Menschenaffen, nicht dem eines Menschen. Sie hatte einen stark vorgeschobenen Kiefer und eine flache Schädeldecke. Vermutlich war sie dunkel behaart, wie die anderen afrikanischen Menschenaffen, aber sicher weiß man das natürlich nicht. Es ist auch schwer zu sagen, wie schlau sie war. Ihr Gehirn hatte ziemlich genau die Größe eines Schimpansengehirns, aber wer will sagen, was darin vor sich ging? Sie starb im Alter von zwanzig Jahren, ihre Todesursache ist unbekannt. 3,18 Millionen Jahre später ist »AL 288 – 1« das bei Weitem älteste halbwegs vollständige Skelett eines menschenähnlichen Individuums, das bisher gefunden wurde. Die junge Dame gehörte zur Spezies Australopithecus afarensis. Australopithecus heißt »Südaffe«, und »afarensis« bezeichnet den Fundort im Afar-Dreieck.
Die beiden Forscher rasten mit ihrem Geländewagen zurück ins Camp. »Wir haben es«, schrie Gray schon von Weitem, »mein Gott, wir haben es. Wir haben das ganze Ding!« Die Stimmung war euphorisch. »In der ersten Nacht nach der Entdeckung gingen wir nicht zu Bett. Wir redeten unaufhörlich und tranken ein Bier nach dem anderen«, wie Johanson sich erinnert. Sie lachten und tanzten. Und hier verknüpft sich die erste mit der zweiten und dritten Geschichte: Der Kassettenrekorder dröhnte in voller Lautstärke immer und immer wieder »Lucy In The Sky With Diamonds« in den äthiopischen Nachthimmel. Irgendwann war bei dem zu 40 Prozent vollständigen Skelett nur noch von »Lucy« die Rede. Und Lucy O’Donnell, Julian Lennons Klassenkameradin, konnte sich freuen. Das Patenkind ihres Namens wurde der wohl berühmteste Fund der gesamten Ur- und Frühgeschichte.
Don Johansons Lucy bewies, was schon zuvor als überaus wahrscheinlich galt: Die »Wiege der Menschheit« liegt in Afrika. Das Bild von der Stammesgeschichte als persönliche Entwicklungsgeschichte bewahrt den Schöpfungsmythos. Doch weniger bildreich weckt die Rede von der Wiege auch gleichfalls die Hoffnung, die Grenze von Tier und Mensch benennen zu können; nicht nur als Angabe des Ortes, sondern zugleich auch der Zeit, in der der Mensch aus der großen geologischen Vulva der ostafrikanischen Gregory-Spalte entstieg und sich aufrechten Ganges faustkeilbewehrt zum sprechenden Großwildjäger mauserte. Doch war das wirklich die gleiche Spezies, derselbe Mensch, der als erster und einziger Primat den aufrechten Gang wählte, Werkzeuge gebrauchte und damit auf Großwildjagd ging?
Fossilfunde der ersten Vertreter der Hominoidea stammen aus der Zeit vor ungefähr dreißig Millionen Jahren. Was man von diesen frühen Affen weiß, ist, dass man eigentlich nichts weiß. Ein paar unvollständige, beschädigte Unterkieferhälften und zwei, drei Schädel: das ist so ziemlich das ganze Material, das Wissenschaftlern für ihre Schlussfolgerungen vorliegt. Auch bei der Einordnung späterer Ur-Affen tappt man weitgehend im Dunkeln. Einen besseren Einblick für die Paläoanthropologie gibt es erst, als sich die Wälder lichteten und offenes Grasland entstand. Gewaltige Kräfte hoben vor fast fünfzehn Millionen Jahren im Osten Afrikas die Erdkruste an und türmten sie bis fast 3000 Meter über den Meeresspiegel. Der kontinentale Felsen wölbte sich, riss über 4500 Kilometer hinweg auf und erzeugte die Bedingungen für eine völlig veränderte Vegetation. Wichtiger als jeder andere Umweltfaktor ermöglichte die Bildung der Gregory-Spalte und mit ihr die des Great Rift Valley die Entstehung neuer Primatenformen, mithin des Menschen. »Hätte die Gregory-Spalte sich nicht an diesem Ort und zu dieser Zeit gebildet«, vermutet der berühmte kenianische Paläoanthropologe Richard Leakey, »wäre es durchaus möglich, dass die Spezies Mensch überhaupt nicht entstanden wäre.«
Im Westen des großen Grabens boten nahrungsreiche Urwälder klettertüchtigen Affen einen idealen Lebensraum. In den neuen abwechslungsreichen Lebensräumen im Osten hingegen, wo das Waldsterben Halbwüsten, Savannen, kleine Auwälder und sumpfige Flusslandschaften erzeugte, bevorzugten vor sechs oder sieben Millionen Jahren einige frühe Hominiden aus der erweiterten Verwandtschaft der Ardipithecinen und Australopithecinen zum ersten Mal den aufrechten Gang. Manche von ihnen starben irgendwann aus, andere entwickelten sich weiter. Vor etwa drei Millionen Jahren entwickelten die Australopithecinen verschiedene Gattungen; darunter eine vermutlich vegetarische mit robustem Schädel und sehr großen Backenknochen, die Paranthropi, deren Spuren sich vor etwa 1,2 Millionen Jahren verlieren, und eine Gattung mit leichter gebautem Schädel und kleineren Zähnen, die »grazilen« Australopithecinen. Aus dieser Linie könnten nach gegenwärtiger Forschungslage Homo rudolfensis, Homo habilis und Homo erectus entstanden sein, die ersten Vertreter der Familie Hominae.
Die Gehirne der Australopithecinen waren typische Affengehirne. Wie bei allen Primaten liegen die Augen vorne im Schädel, was bedeutet, dass Affen immer nur in eine Richtung schauen können. Um ihr Gesichtsfeld zu erweitern, müssen sie den Kopf drehen. Eine Folge davon scheint zu sein, dass Primaten immer nur einen Bewusstseinszustand auf einmal haben können. Da sie verschiedene Dinge nicht simultan wahrnehmen können, kommen diese immer nur nacheinander ins Bewusstsein. Ein solch eingeschränkter Blickwinkel bei Säugetieren ist selten, gar nicht zu reden von anderen Tierklassen, die zum Teil extrem erweiterte Sehfelder haben, wie etwa Fliegen oder Kraken. Was die Sehstärke anbelangt, befinden sich alle Affen im Mittelfeld. Sie sehen besser als etwa Pferde oder Nashörner, aber sie sehen viel schlechter als zum Beispiel Greifvögel. Wie die meisten Wirbeltiere unterscheiden Primaten eine rechte und eine linke Seite der Wahrnehmung. Die Vorstellung von »rechts« und »links« prägt ihre Welterfahrung und auch ihr Denken. Quallen, Seesterne und Seeigel kennen dies nicht, ihre Wahrnehmung besteht nicht aus zwei Hälften, sondern ist kreisförmig. Primaten haben auch kein Gespür für Schwankungen in der Elektrizität, was viele andere Tiere durchaus haben, insbesondere Haie. Im Riechen sind sie ausgesprochen schlecht, Hunde und Bären, aber auch viele Insekten sind ihnen hier weit überlegen. Ihr Gehör ist ganz ordentlich, aber auch dabei sind Hunde und Bären viel besser.
Der spektakuläre Prozess, der bei einigen wenigen Primaten vor etwa drei Millionen Jahren einsetzte, ist der Wissenschaft bis heute ein großes Rätsel. In einer vergleichsweise kurzen Zeit nämlich verdreifachte sich die Größe ihres Gehirns. Hatten die Australopithecinen ein Gehirnvolumen von 400 bis 550 Gramm, so wies Homo habilis vor rund zwei Millionen Jahren schon 500 bis 700 Gramm Gehirnmasse auf. Die vor 1,8 Millionen Jahren auftretenden Homo heidelbergensis und Homo erectus brachten es dann auf ein Gehirnvolumen von 800 bis 1000 Gramm. Und der moderne Mensch Homo sapiens, der vor etwa 400 000 Jahren hervortrat, besitzt ein Gehirn zwischen 1100 und 1800 Gramm.
Wissenschaftler erklärten die starke Zunahme der Gehirnmasse früher gerne mit den neuen Anforderungen an die Vormenschen. Die Savanne des Rift Valley bot andere Lebensbedingungen als vormals der Regenwald, und die Australopithecinen und frühen Homo-Formen stellten sich darauf ein. So weit, so richtig. Aber ein so schnelles Gehirnwachstum als Folge von veränderten Umweltbedingungen ist keineswegs normal, sondern eine völlige Ausnahme. Dass sich Tierarten anpassen, ist nichts Ungewöhnliches. Sie verändern sich, werden größer oder kleiner, aber dass ihre Gehirne dabei regelrecht explodieren, das kommt nicht vor. Auch sind Affen in der Savanne heute keineswegs intelligenter als die Affen im Regenwald. Bei den frühen Menschenformen aber trat ein ganz außergewöhnlicher Vorgang ein: Ihre Gehirne wuchsen schneller als ihre Körper – ein Prozess, der sich, soweit bekannt, nur bei zwei Tierarten jemals entwickelte: bei Menschen und bei Delfinen.
Den Mechanismus für die besondere Gehirnentwicklung des Menschen fanden in den Zwanzigerjahren der Franzose Émile Devaux und der Niederländer Louis Bolk. Unabhängig voneinander entdeckten sie, dass der Mensch nach seiner Geburt noch nicht ausgereift ist, wogegen Menschenaffen ziemlich fertig auf die Welt kommen. Der Mensch verharrt viel länger in seinem Stadium als Fötus und bleibt in dieser Zeit auch entsprechend lernfähig. Die Hirnforschung kann diese Vermutung heute bestätigen. Während das Gehirn bei allen anderen Säugetieren nach der Geburt langsamer wächst als der Körper, entwickelt es sich beim Menschen noch eine ganze Zeit fast im gleichen Tempo weiter wie im Mutterleib. Auf diese Weise wächst das menschliche Gehirn zu einer Größe heran, die diejenige anderer Menschenaffen erheblich übertrifft. Besonders das Kleinhirn und die Großhirnrinde profitieren von diesem fortgesetzten Wachstum. Und innerhalb der Großhirnrinde sind es vor allem die Regionen, die für die Orientierung im Raum, die Musikalität und die Konzentrationsfähigkeit wichtig sind.
So weit der inzwischen bekannte Prozess des Gehirnwachstums.
Doch warum er vor etwa drei Millionen Jahren auf diese Weise einsetzte, darüber lässt sich nur sehr vage spekulieren. So präzise wir wissen, was abläuft, so wenig verstehen wir den Grund. Denn eine so schwerwiegende Veränderung lässt sich nicht durch Anpassungen an die Umwelt erklären, selbst wenn man meint – was keineswegs unumstritten ist –, dass besonders große Umstellungen und Anpassungen an das Savannenleben notwendig waren. Dass der aufrechte Gang das Fluchtverhalten veränderte, ist sicher richtig. Dass die Familienverbände in der Savanne anders zusammenlebten als im Regenwald, mag auch sein. Dass man sich auf andere Nahrung spezialisierte, ist durchaus naheliegend. Aber eine so grundlegende Umstellung wie die Verdreifachung des Gehirnvolumens lässt sich dadurch mitnichten erklären. Für eine solche von außen erzwungene Veränderung ist das menschliche Gehirn viel zu komplex. »Der Mensch«, schreibt der Bremer Hirnforscher Gerhard Roth, »hat keineswegs einen besonders großen Cortex bzw. präfrontalen Cortex, weil er diesen dringend benötigte. Vielmehr erhielt er ihn ›umsonst‹ geliefert.«
Das menschliche Gehirn ist also nicht allein eine Reaktion auf Anforderungen der Umwelt. Wenn im ersten Kapitel die Rede davon war, dass unser Wirbeltiergehirn die Folge von Anpassungen im Evolutionsprozess ist, so muss man einräumen, dass die genauen Zusammenhänge noch immer sehr unklar sind. Die »Optimierung«, wenn man so will, geschah ohne einen bislang erkennbaren Grund. Dazu passt, dass unsere Vorfahren ersichtlich lange Zeit auch nur sehr wenig Gebrauch von den Hochleistungsmaschinen machten, die in ihren Köpfen heranreiften. Denn dass sich das Gehirn in der Entwicklung von Australopithecus zu Homo habilis und Homo erectus in ungeheurem Tempo vergrößerte, führte, soweit offensichtlich, zunächst kaum zu Kulturleistungen, wie etwa zu einem differenzierten Werkzeuggebrauch. Selbst nach weitgehendem Abschluss des Gehirnwachstums vor etwa einer Million Jahren brachten die Hominiden mit ihren Hochleistungsgehirnen über Hunderttausende von Jahren kaum mehr als einen notdürftigen Faustkeil hervor. Noch die Werkzeuge der Neandertaler, die vor gerade mal 40 000 Jahren ausstarben, waren eher schlicht und wenig ausgefeilt. Und das, obgleich das Volumen ihrer Gehirne das des heutigen Menschen noch etwas übertraf!
Es besteht wenig Zweifel daran, dass die Größe und Beschaffenheit des menschlichen Gehirns den Ausschlag gab bei der Entwicklung des modernen Menschen und seiner unvergleichbaren Kultur. Doch aus welchem Grund machte der Mensch von seiner durch das Gehirn ermöglichten technischen Innovationsfähigkeit erst so erschreckend spät Gebrauch? Die Antwort ist naheliegend: Offensichtlich hatte das Gehirn weitgehend andere Funktionen zu erfüllen als technischen Fortschritt. Auch heutige Menschenaffen, deren Gebrauch von Werkzeugen ebenso primitiv ist wie derjenige der Australopithecinen, sind ganz offensichtlich intelligenter, als sie für solch simples Hantieren mit Steinen und Ästen sein müssten. Den weit größeren Teil ihrer Intelligenz nutzen Menschenaffen für ihr kompliziertes Sozialleben, und auch für Menschen sind Artgenossen die größte Herausforderung im Alltag (vgl. Das Schwert des Drachentöters). Bei alledem nutzen wir gleichwohl nur einen Bruchteil unserer Kapazität, denn Intelligenz ist das, was man einsetzt, wenn man nicht weiß, was man tun soll. Selbst wenn Primatenforscher Leonardo da Vinci mit dem Fernglas beobachtet hätten, so wie sie heute Affen beobachten, würden sie die meiste Zeit nichts Besonderes zu sehen bekommen haben. In seinem normalen Alltag mit Schlafen, Aufstehen, Anziehen, Essen usw. machte da Vinci nur sehr wenig Gebrauch von seinem Genie, weil geniale Einfälle und Geistesblitze dafür schlichtweg nicht nötig sind.
Das menschliche Gehirn ist beeindruckend. Aber es ist kein Schachcomputer, der ständig auf der höchsten Schwierigkeitsstufe eingestellt ist. Meist läuft er auf einem unteren Niveau, und damit reiht sich der Mensch ein in die Kette seiner Vorfahren. Prägende Instinkte und Verhaltensweisen wie Krieg und Aggression, Triebhaftigkeit, Familien- und Gemeinschaftssinn teilt er mit Affen und insbesondere Menschenaffen. Je mehr wir über das Leben der Tiere lernen, umso stärker erkennen wir uns selbst, das Echo aus den 250 Millionen Jahren der Säugetierentwicklung in unseren Gehirnwindungen.
Nietzsches kluge Tiere sind also tatsächlich Tiere, und ihr beispielloses Erkenntnisvermögen ist und bleibt ein Rätsel. Einige Philosophen des romantischen Zeitalters zu Anfang des 19. Jahrhunderts hatten dem Lauf der Natur einen Sinn unterstellt, an dessen Ende der Mensch steht – jenes Wesen, das dafür geschaffen wurde, den Weltenlauf zu verstehen. Im Menschen, so lautete die stolze Überhöhung, werde die Natur sich ihrer selbst bewusst. In der Realität spricht nichts dafür, dass der Mensch und sein Tun das Ziel der Evolution sind. Doch nicht erst ein solch angenommener Gang der Geschichte, schon der Begriff des »Ziels« ist bereits verdächtig. Ziele sind sehr menschliche Denkkategorien (haben Salamander Ziele?), sie sind an typisch menschliche Zeitvorstellungen gebunden, ebenso wie die Begriffe »Fortschritt« und »Sinn«. Doch die Natur ist eine physikalische, eine chemische und eine biologische Angelegenheit. Und der Begriff »Sinn« hat ganz andere Eigenschaften als etwa Protein.
Die klügeren unter Nietzsches klugen Tieren, die dies verstanden haben, lenken deshalb ihren Forschergeist auch nicht mehr auf das große Ganze, die »objektive« Realität, sondern sie fragen sich: Was kann ich überhaupt wissen? Und wie funktionieren dieses Wissen und dieses Wissen-Können? Philosophen sprechen hier gerne von einer »kognitiven Wende« hin zu den Grundlagen unseres Selbst- und Weltverständnisses. Um dies zu verstehen, möchte ich Sie mitnehmen auf eine Reise zu den Grundlagen unseres Erkennens, die wir in wichtigen Teilen bereits mit Johansons Lucy teilen. Fliegen wir also mit Lucy in einen Kosmos, der aufregender ist als fast alles, was die Philosophen früherer Zeiten bereisen konnten. Entdecken wir unser Fühlen und Denken: Reisen wir ins Innere unseres Gehirns.
Der Kosmos des Geistes. Wie funktioniert mein Gehirn?Madrid
Wie funktioniert mein Gehirn?
Was ist die komplizierteste Sache der Welt? Eine schwierige Frage, aber für die Naturwissenschaft ist die Antwort eigentlich klar. Sie lautet: das menschliche Gehirn! Zugegeben, von außen betrachtet ist es nicht besonders spektakulär. Es wiegt knapp drei Pfund, hat die Form einer aufgeblasenen Walnuss und die Konsistenz eines weichen Eis. Aber darin verbirgt sich der wohl komplizierteste Mechanismus im ganzen Universum. 100 000 000 000 (hundert Milliarden) Nervenzellen funken darin herum mit bis zu einer halben Trillion Verbindungen. Ungefähr so viel, lautet ein bekannter Vergleich, wie die Anzahl der Blätter im Amazonas-Regenwald. Bis vor etwa 120 Jahren war das Innenleben des Gehirns nahezu unbekannt. Wer auch immer etwas über das Gehirn geschrieben und spekuliert hatte, hatte allenfalls mit der Taschenlampe in den Nachthimmel geleuchtet. Umso erstaunlicher, dass jener Mensch, der als Erster die allgemeinen Funktionsabläufe des Gehirns zu deuten wusste und seine grundlegenden Mechanismen entschlüsselte, heute ein nahezu unbekannter Mann ist. Gäbe es eine objektive Aufstellung der bedeutendsten Forscher und Denker des 20. Jahrhunderts – der Name Santiago Ramón y Cajal dürfte nicht darin fehlen. Stattdessen aber gibt es nicht einmal eine deutschsprachige Biografie.
Ramón y Cajal wurde 1852 in Petilla de Aragón in der spanischen Provinz Navarra geboren. Er war acht Jahre jünger als Nietzsche, und zur Zeit von Ramón y Cajals Geburt und seiner frühen Kindheit arbeitete Darwin in Down bei London gerade an seinem großen Buch über die Entstehung der Arten. Dass er selbst etwas mit Biologie zu tun haben sollte, war nicht abzusehen. Schon früh wollte er Maler werden. Um den menschlichen Körper zu studieren, grub er als junger Mann gemeinsam mit seinem Vater Knochen aus einem ehemaligen Friedhof aus. Ramón y Cajals Vater hatte eine Stelle in der anatomischen Abteilung des Krankenhauses von Saragossa und praktizierte dort als Chirurg. Die Beschäftigung mit den Knochen führte Ramón y Cajal schließlich von der Malerei zur Anatomie. Der große Darwin hatte einst sein Medizinstudium abgebrochen, weil er sich davor ekelte, Leichen zu sezieren. Als Ramón y Cajal hingegen daranging, Leichen zu untersuchen, fing er richtig Feuer. Schon mit einundzwanzig Jahren wurde er Arzt. Weil er besonders fasziniert war von Leichen und Skeletten, ging er zur Armee. In den Jahren 1874 bis 1875 nahm er an einer Expedition nach Kuba teil und infizierte sich dabei mit Malaria und Tuberkulose. Nach seiner Rückkehr wurde er Assistenzarzt an der Medizinischen Fakultät der Universität Saragossa. 1877 promovierte ihn die Universität Complutense in Madrid. Als Professor für Beschreibende und Generelle Anatomie an der Universität Valencia entdeckte er nach und nach den Zauber des Gehirns. Wieso hatte sich noch nie jemand nach allen Regeln der Kunst ganz detailliert mit dem menschlichen Gehirn beschäftigt? Was bislang erforscht war, war vor allem die grundsätzliche anatomische Gliederung von Hirnregionen. Ramón y Cajal fasste einen ehrgeizigen Plan: Er wollte die Vorgänge im Gehirn verstehen und eine neue Wissenschaft begründen, die er »rationale Psychologie« nannte. Stück für Stück betrachtete er das Zellgewebe des menschlichen Gehirns unter dem Mikroskop und zeichnete alles, was er dort sah. 1887 wechselte er als Professor für Histologie und Pathologie an die Universität Barcelona und 1892 an die Universität Complutense Madrid, die größte und bedeutendste Universität Spaniens. 1900 wurde er dort überdies Direktor des Nationalen Hygieneinstituts und des Investigaciones Biológicas.
Eine Fotografie zeigt Ramón y Cajal in seinem Madrider Arbeitszimmer mit einer völlig überfüllten Bibliothek. Den Kopf in die rechte Hand gelegt, blickt er mit struppigem Bart andächtig auf ein menschliches Skelett. Ein anderes Foto zeigt ihn in ähnlicher Haltung in seinem Labor in einem orientalisch anmutenden Kittel und mit einer maghrebinischen Mütze. Seine Augen sind tief und dunkel. Man würde ihn tatsächlich eher für einen Maler halten als für einen Wissenschaftler. Im Alter bekam sein Gesicht einen beeindruckend finsteren Zug; eine Erscheinung wie die eines zwielichtigen Hollywood-Schurken, ein Wissenschaftler mit dem Teufel im Bunde. Aber Ramón y Cajal war alles andere als ein Finsterling. Seine Zeitgenossen schätzten und mochten ihn sehr. Er war bescheiden und großzügig mit einem warmen Humor und von großer Gelassenheit. Ramón y Cajal untersuchte ausschließlich tote Gehirne von Menschen und Tieren. Für Forschungen an lebenden Gehirnen war die Zeit Ende des 19. Jahrhunderts noch nicht reif. Natürlich war das eine Krux. Denn wie sollte man wissen, wie das Gehirn funktioniert, wenn man diese Vorgänge gar nicht in Aktion beobachten konnte? Doch Ramón y Cajal schaffte Verblüffendes. Das einzig, wenn man so will, Dämonische an ihm war seine enorme Fähigkeit, tote Nervenzellen zum Leben zu erwecken. In seiner Fantasie war er ein sympathischer Frankenstein, denn er beschrieb die Abläufe in den Gehirnzellen, die er unter dem Mikroskop sah, als ob er ihnen tatsächlich bei der Arbeit zusah. In seinen Aufsätzen und Büchern ist in lebhaften Beschreibungen von einem munteren Geschehen die Rede: Die Nervenzellen fühlen, handeln, hoffen und streben. Eine Nervenzelle »tastete« mit ihrer entstehenden Faser umher, »um eine andere zu finden«. Auf diese Weise beschrieb Ramón y Cajal die Feinstruktur und legte das Fundament für die moderne Erforschung des Nervensystems im Gehirn. In seiner langen Forschertätigkeit schrieb er 270 wissenschaftliche Aufsätze und achtzehn Bücher. Sie machten ihn zum bedeutendsten Hirnforscher aller Zeiten. Im Jahr 1906 erhielt er den Nobelpreis für Medizin.
Ramón y Cajals Forschungen waren deshalb so bedeutend, weil Nervenzellen im Gehirn völlig anders aussehen als normale Körperzellen. Ihre seltsamen unregelmäßigen Formen mit den vielen feinen Fortsätzen waren der Wissenschaft zuvor völlig schleierhaft. Ramón y Cajal zeichnete diese Zellen in sehr genauen Bildern, sorgfältige Skizzen mit seltsamen Spinnwebmustern, und die meisten seiner Gebilde sehen wie kleinteilige Algen aus. Obwohl er keinen der wichtigen und bis heute gültigen Begriffe selbst prägte, beschrieb er die Elemente des Nervensystems im Gehirn so präzise wie niemand zuvor. Er zeichnete und erklärte die Nervenzellen, die Neuronen, und die mehr oder weniger langen Fäden zu beiden Seiten des Neurons, die Axone. Die Verästelungen des Axons, die Dendriten, wurden das erste Mal ganz genau beschrieben, und für die Kommunikationsstellen der Nervenzellen am Ende der Dendriten übernahm er ein Wort seines kongenialen englischen Kollegen Charles Scott Sherrington, die Synapsen. Mit seinen ungemein sorgfältigen Studien hatte Ramón y Cajal