Das neue Lexikon des Unwissens - Kathrin Passig - E-Book

Das neue Lexikon des Unwissens E-Book

Kathrin Passig

0,0
9,99 €

-100%
Sammeln Sie Punkte in unserem Gutscheinprogramm und kaufen Sie E-Books und Hörbücher mit bis zu 100% Rabatt.
Mehr erfahren.
Beschreibung

Ist unsere Welt nicht allmählich komplett erforscht, alles vermessen und geklärt? Von wegen. Es gibt erstaunlich viele weiße Flecken auf der Landkarte des menschlichen Wissens. Warum es Links- und Rechtshänder gibt, ist ebenso ungeklärt wie die Entstehung von Braunen Zwergen, das Gewicht eines Kilogramms oder die Frage, woher die seltsamen Geräusche aus der Tiefsee stammen. Ob Dunkle Energie, weiblicher Orgasmus oder Erdbebenvorhersage: Die Welt ist voller Rätsel. Ein faszinierender Blick auf Dinge, von denen wir lediglich wissen, dass wir sie nicht wissen. «Unterhaltsam, geistreich, witzig.» Süddeutsche Zeitung über «Lexikon des Unwissens»

Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:

EPUB
MOBI

Seitenzahl: 392

Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



Kathrin Passig • Aleks Scholz • Kai Schreiber

Das neue Lexikon des Unwissens

Worauf es bisher keine Antwort gibt

Rowohlt Digitalbuch

Inhaltsübersicht

VorwortAußerirdisches LebenBenfords GesetzBraune ZwergeBrüsteDunkle EnergieErdbebenvorhersageErnährungFunktionelle MagnetresonanztomographieHot HandKilogrammKriegLebenserwartungLinks und rechtsLochMathematikMegacryometeoreNaturkonstantenOrgasmus, weiblicherQualiaRadioaktivitätRechts und linksSchocktodSpace RoarTiefseelauteÜbergewichtWalkrebsWissenWissenschaftZeitZitteraalDas Unwissen von 2007QuellenDanksagungen
[zur Inhaltsübersicht]

Vorwort

Most ignorance is vincible ignorance. We don’t know because we don’t want to know.

Aldous Huxley, «Beliefs», 1958

«Das meiste Unwissen», so schreibt Aldous Huxley, «ist besiegbar.» Wir werden geboren als hilflose Bündel, die keines der Phänomene, die sie umgeben, erklären können. Die Bündel reagieren mit Hilfe eines komplexen Apparates aus Instinkten und Reflexen, der über mehrere Milliarden Jahre in biologischen Organismen entstanden ist, so wie ein Igel sich zusammenrollt, wenn Gefahr droht. Die nächsten 15 bis 30 Jahre verbringen wir damit, uns zusätzlich zu diesem Igelwissen abstrakte Kenntnisse über die Welt anzueignen. Dabei bewegen wir uns in den Fußstapfen vieler anderer vor uns, die mühevoll herausgefunden haben, wie die Dinge zusammenhängen, und ihr Wissen irgendwo für uns hinterlassen haben, zum Beispiel in Form von Symbolen auf Steinplatten, als dicke Bücher oder im Internet.

Wie weit man dabei geht, bleibt jedem selbst überlassen. Viele geben auf, bevor die Grenzen des menschlichen Wissens in Sicht kommen. Für das, was danach an Unwissen übrig bleibt, ist jeder selbst verantwortlich, oder, um Huxleys Feststellung umzudrehen: Wir wissen nur das, was wir wissen wollen. Den Weg zur Steinplatte oder zum Internet kann man niemandem ersparen. Ein paar von uns erreichen irgendwann den Punkt, an dem keine Steinplatte der Welt mehr weiterhelfen kann, den Punkt, an dem aus privaten Wissenslücken echtes Unwissen wird: die Sorte Fragen, bei der selbst Experten mit den Achseln zucken und «Wissen wir nicht» sagen. Um diese Fragen wird es in diesem Buch gehen.

Auf eine Art gilt Huxleys Ansage auch bei diesen Problemen. Es gibt immer einen großen Sack voll ungelöster Fragen. Welche wir davon in Angriff nehmen und wie wir mit ihnen umgehen, hat damit zu tun, was wir (alle zusammen) herausfinden wollen, und das wiederum wird von vielen unwägbaren Faktoren bestimmt: von den persönlichen Vorlieben der Forscher und ihrer Geldgeber, den intellektuellen Fähigkeiten der Wissenschaftler, aktuellen Trends, gesellschaftlichen Umständen, technischen Entwicklungen und nicht zuletzt von dem, was die Vorgänger uns an Wissen beziehungsweise Unwissen hinterlassen haben.

Die Handhabung von Unwissen

Taucht ein bisher unbekanntes Phänomen vor einem auf, hat der Wissenschaftler mehrere Möglichkeiten, damit umzugehen. Der Philosoph Godehard Brüntrup beschreibt fünf Strategien:

Steht die Forschung erst am Anfang, kann man einfach abstreiten, dass das Phänomen existiert. Eine beliebte Strategie, beispielsweise bei den Themen «Kugelblitz» und «Weibliche Ejakulation» im «Lexikon des Unwissens» oder →Hot Hand in diesem Buch. Mal wird man damit am Ende recht behalten (den Äther, den Animalischen Magnetismus und das Ungeheuer von Loch Ness gibt es nach heutigem Wissensstand wirklich nicht), mal steht man dumm da, etwa wenn sich – wie im 19. Jahrhundert – herausstellt, dass es sehr wohl Steine gibt, die unter Blitz und Donner aus dem Weltall auf die Erde herabfallen.

Zweitens kann man sich auf den Standpunkt stellen, dass das Phänomen zwar existiert, aber egal ist. Diese Strategie spielt im Kapitel →Megacryometeore eine Rolle: Es gibt zu viele Zeitungsfotos von Eisbrocken in Vorgärten, als dass man das Thema leugnen könnte, aber wenn dieses Eis einfach von Flugzeugen abfällt, handelt es sich nur um ein wissenschaftlich nicht besonders interessantes Kuriosum.

Eine dritte Möglichkeit: Man behauptet, das Phänomen sei real und wichtig, lasse sich aber mit den vorhandenen Theorien erklären. Im Zusammenhang mit dem Thema →Übergewicht wäre das etwa folgende Haltung: Es gibt tatsächlich eine Übergewichtsepidemie, die nicht nur durch wirtschaftliche Interessen, Leichtgläubigkeit und schlampige Statistik zustande kommt, und diese Übergewichtsepidemie gefährdet unsere Gesundheit und die Kalkulation der Krankenkassen. Aber es handelt sich dabei um individuelles Versagen, die Leute fressen halt einfach zu viel, und wenn sie sich gleich ab morgen diszipliniert und korrekt ernähren, kommt alles wieder in Ordnung.

Die vierte Strategie besteht darin, genau das Gegenteil zu behaupten: Das Phänomen lasse sich ohne wissenschaftlichen Paradigmenwechsel nicht zufriedenstellend erklären. Dieser Ansatz erzeugt viel Unbehagen und schlechte Laune. Die vorhandenen Theorien werden deshalb noch nicht verworfen; oft nennt man das Phänomen eine «Anomalie» oder ein «Paradoxon» und wartet ansonsten erst mal ab, bis jemand mit einer guten Idee kommt. Das Thema →Dunkle Energie, die rätselhafte Beschleunigung der Expansion des Universums, wird zum Beispiel häufig so behandelt. Ein mysteriös klingender Name ist schon mal gefunden, aber bisher fehlt das Genie, das die richtige Lösung an die Tafel schreibt.

Die fünfte Strategie ist besonders kostengünstig, denn ihr zufolge ist das beobachtete Phänomen für den menschlichen Geist prinzipiell unergründbar. Diese Vorgehensweise ist bei den optimistischen Naturwissenschaftlern unbeliebt, bei Philosophen dagegen findet man sie häufiger, zum Beispiel bei Themen wie →Qualia oder →Wissen.

Viele Unwissensfragen bleiben lange in einem dieser Stadien stecken. Für diese Haltbarkeit von Problemen gibt es ganz unterschiedliche Gründe, soziologische, ökonomische, und hin und wieder ist es wohl einfach nur Zufall. Manche Themen sind untererforscht, weil sie als albern gelten, wobei sich der Grad der Albernheit im Laufe der Zeit ändern kann. 2005 erschien das Buch «Freakonomics», das unter anderem von den wirtschaftlichen Feinheiten des Drogenhandels, der legalen Abtreibung und der Wahl von Kindernamen handelte. Seit es über vier Millionen Käufer fand, gilt im Bereich der Wirtschaftswissenschaften praktisch keine Frage mehr als erforschungsunwürdig. Auch die ansonsten vernachlässigte Sexualforschung hat wenigstens in einigen Teilbereichen durch die Erfindung von Viagra Auftrieb erfahren. Ein Forschungsgebiet, in dem sich Milliarden durch Patente verdienen lassen, bleibt nicht lange albern. Und die Glücksforschung, die in ihren Anfangszeiten als frivoler Forscherspaß galt, hat sich so weit durchgesetzt, dass mittlerweile mehrere Länder an der Einführung eines «Bruttonationalglücks» arbeiten. Noch lachen wir über James Wards vor kurzem erstmalig ausgerichtete Konferenz «Boring 2010», aber wer weiß, welche Summen in fünfzig Jahren für Langeweileforschung ausgeschrieben werden.

Was ist neu am «Neuen Lexikon des Unwissens»?

Dieses Buch ist der Nachfolgeband zum «Lexikon des Unwissens», das im Jahr 2007 erschien. «Das Unwissen, mit dem wir uns hier beschäftigen», schrieben wir damals im Vorwort, «muss drei Kriterien erfüllen: Es darf keine vorherrschende, von großen Teilen der Fachwelt akzeptierte Lösung des Problems geben, die nur noch in Detailfragen Nacharbeit erfordert. Das Problem muss aber zumindest so gründlich bearbeitet sein, dass es entlang seiner Ränder klar beschreibbar ist. Und es sollte sich um ein grundsätzlich lösbares Problem handeln. Viele offene Fragen aus der Geschichte etwa werden wir – wenn nicht doch noch jemand eine Zeitmaschine erfindet – nicht mehr beantworten können.»

Das letzte Kriterium, die grundsätzliche Lösbarkeit, haben wir für dieses Buch schweren Herzens aufgegeben. Es gibt zwar auch dieses Mal jede Menge Kapitel, an die man eines Tages ein sauberes Häkchen wird machen können, dazu gehören vermutlich →Außerirdisches Leben, →Megacryometeore, →Tiefseelaute und der →Zitteraal. Aber es wäre ein Fehler, sich auf solche Themen zu beschränken. Zum einen, weil viele andere interessante Probleme so unscharf umrissen sind, dass man über ihre Lösbarkeit diskutieren kann. Konzepte wie →Wissenschaft und →Krieg zum Beispiel würde man gern verstehen, aber sie sind derart glitschig, dass sie einem immer wieder aus der Hand rutschen, wie ein Stück Seife in der Badewanne. Zum anderen lässt sich darüber streiten, ob und auf welche Art wir überhaupt jemals irgendetwas über Megacryometeore, Tiefseelaute, Zitteraale und alles andere herausfinden können. Ob diese Frage, die im Kapitel →Wissen diskutiert wird, grundsätzlich beantwortet werden kann, ist, man ahnt es, ebenso umstritten.

Abgesehen von dem neuen Sortiment an Themen wird man in diesem Buch mehr über Formen und Entstehung von Unwissen erfahren. Wer das «Lexikon des Unwissens» bereits besitzt, bekommt also nicht einfach nur 30 weitere Kapitel derselben Bauart, sondern quasi ein Unwissenslexikon für Fortgeschrittene. Wer es nicht besitzt und sich bei der Lektüre des vorliegenden Buchs nach eindeutig zu klärenden Fragen, nach Tausendfüßlerinvasionen, schnurrenden Katzen und sich einemsenden Igeln sehnt, dem sei der Vorgängerband empfohlen.

Die Suche nach Unwissen

Wahrscheinlich wird es kein drittes «Lexikon des jetzt noch größeren Unwissens» geben. Das bedeutet, dass die über 200 offenen Fragen, die es auch diesmal wieder nicht ins Buch geschafft haben, endgültig in unseren Archiven digitalen Staub ansetzen werden. Selbst aus der Liste der Themen, über die wir unbedingt schreiben wollten, sind einige auf der Strecke geblieben: Altern, Vogelflug, Altruismus und Pubertät («bloß nicht noch mehr Themen mit Evolution!»), Bewusstsein (zu viel Arbeit) und die Frage, warum Menschen ihre Babys bevorzugt auf der linken Seite halten (kein Platz mehr im Buch).

Wer sich nach diesem Band immer noch für neues Unwissen interessiert, der wird selbständig weitersuchen müssen. Eine gute Quelle sind die Schlagzeilen der Wissenschaftsseiten in Zeitungen und Magazinen, und zwar paradoxerweise meist genau die, die verkünden, ein Problem sei endlich gelöst. Wissenschaft ist ein langwieriger Prozess. Es kommt selten vor, dass mit einer einzigen Studie ein hartes Problem abschließend und zur allgemeinen Zufriedenheit gelöst wird. Stattdessen handeln die meisten Artikel mit solchen Überschriften von einer neuen möglichen Erklärung für ein rätselhaftes Phänomen. Man wird dann nachsehen müssen, was andere Leute zu dieser Erklärung sagen und ob es alternative Erklärungen gibt, die vielleicht genauso plausibel sind.

Ein anderer Startpunkt ist die englischsprachige Wikipedia, die für viele Fachbereiche lange Listen von ungelösten Problemen bereithält, zum Beispiel für die Physik, Mathematik, Neurowissenschaft und Biologie. Aber Vorsicht, manche offenen Fragen halten sich lange im öffentlichen Bewusstsein, obwohl sie in Fachkreisen längst als gelöst gelten. In der Wikipedialiste der ungeklärten Probleme in der Astronomie taucht zum Beispiel das «Hipparcos-Paradoxon» auf, bei dem es darum geht, wie weit der Sternhaufen Plejaden entfernt ist. Das Problem gilt mittlerweile als gelöst, der Satellit «Hipparcos» hatte sich bei der fraglichen Messung vertan. Die Lektion: Man darf Unwissen genauso wenig unkritisch hinnehmen wie Wissen.

Und schließlich ist kurz vor der Fertigstellung dieses Buches eine neue Fachzeitschrift zum Thema entstanden, das «Journal of Unsolved Questions» (junq.info). Das von Doktoranden der Graduiertenschule «Materials Science» an der Johannes-Gutenberg-Universität Mainz gegründete Wissenschaftsmagazin «veröffentlicht Forschungsprojekte, deren Aufbau nicht aufgegangen ist, deren Daten keine oder keine eindeutigen Schlüsse zulassen oder auch unvollendete Untersuchungen, die mehr Fragen aufwerfen als beantworten». Ein paar Jahre dauert es sicher noch bis zur Einrichtung von Unwissenslehrstühlen, aber die Forschung kommt voran.

Recherche und Fehlerkorrektur

Wenn jemand vor zwanzig Jahren auf die Idee gekommen wäre, dieses Buch zu schreiben, dann hätte ihn die Recherche grob geschätzt hundertmal so viel Mühe gekostet wie uns. Zunächst hätte der hypothetische Autor viel Zeit in Bibliotheken verbringen müssen. Ohne Internet wäre es viel Arbeit gewesen, die für das jeweilige Thema relevanten Bücher und Übersichtsartikel zu finden. Mit großer Wahrscheinlichkeit hätte nicht jede Bibliothek alle relevanten Texte vorrätig gehabt; als Nächstes hätte man also die Fernleihe bemühen müssen. Dann warten, bis die gewünschten Texte per Post eintreffen, und dann zurück in die Bibliothek. Realistisch gesehen hätte man sich bei jedem Thema auf zwei, drei Publikationen beschränkt und sich Sorgen gemacht, ob nicht zufällig in, sagen wir, Australien gerade die entscheidende Veröffentlichung zum Thema erschienen ist, die den gesamten Text über den Haufen wirft. Die Recherche wäre also nicht nur mühselig gewesen, sondern mit hoher Wahrscheinlichkeit auch lückenhaft.

Natürlich könnten auch wir wichtige Publikationen übersehen haben, und natürlich machen auch wir uns Sorgen über Australien. Aber verglichen mit dem hypothetischen Autor in internetlosen Zeiten ist es jetzt deutlich einfacher, sich einen einigermaßen ausgewogenen Überblick zu einem Thema zu verschaffen. Es ist schwer verständlich, warum das Internet, wenn es um die Recherche zu Sachthemen geht, immer noch als unzuverlässig gilt, vor allem im Vergleich zu gedrucktem Papier. In Wahrheit ist das Internet für Sachbuchautoren erfunden worden. Das hat zwei Gründe: Zunächst gibt es mächtige Suchmaschinen, die deutlich mehr können als die Zettelkataloge der Bibliotheken. Dazu gehört unter anderem Google mit dem für unsere Zwecke hilfreichen Suchwerkzeug «Google Scholar» für wissenschaftliche Literatur. Außerdem gibt es in diversen Fachbereichen Spezialsuchmaschinen, für die Astronomie zum Beispiel das «Astrophysics Data System», das vom Center for Astrophysics an der Universität Harvard betrieben wird. Solche Systeme kennen alle Publikationen in wissenschaftlichen Fachzeitschriften und erlauben unter anderem eine Volltextsuche nach bestimmten Begriffen.

Wenn man dank dieser Suchmaschinen ungefähr weiß, was man braucht, macht sich der zweite Vorteil des Internets bemerkbar: Ein Großteil der wissenschaftlichen Literatur, zumindest aus den letzten Jahrzehnten, liegt ebenfalls im Netz. Vieles davon ist frei zugänglich, zum Beispiel auf dem Archivserver arxiv.org, oder wurde von den Autoren selbst ins Internet gestellt. Der Rest ist zwar leider nicht kostenlos, aber immerhin schnell zu bekommen.

Und noch ein Vorteil: Wenn man nicht mehr weiterweiß, dauert es oft nur wenige Stunden oder Tage, bis der Experte, den man per E-Mail befragt hat, weiterhilft. Weil es heute so viel einfacher ist, ein «Lexikon des Unwissens» zu schreiben, hoffen wir, dass es dadurch auch besser ist als seine hypothetischen Vorgängerversionen. Einen Wettbewerb gegen nicht existierende Bücher zu gewinnen – wie schwer kann das schon sein.

Recherchetechniken sind aber nur dann von Nutzen, wenn man sie auch einsetzt. Was wir im Vorwort zum «Lexikon des Unwissens» vermuteten, hat sich bewahrheitet: Das Buch enthielt mindestens 21 Fehler, die wir unter lexikondesunwissens.de zusammen mit ihren Entdeckern aufgelistet haben. Mit Hilfe dieser Sammlung können wir empirische Ursachenforschung betreiben. Die Fehler beruhen nämlich allesamt auf unserem Versäumnis, überhaupt irgendwo nachzuschlagen. Man hätte sie durch Google ebenso gut vermeiden können wie durch ein Papierlexikon – wenn man denn hineingesehen hätte. Wahrscheinlich ist die Wahl der falschen Recherchetechnik ein zwölftrangiges Problem gemessen an der Überzeugung, man wisse schon Bescheid und brauche nirgends nachzuschlagen. Mit einer Einschränkung: Das gilt nur für konkrete Faktenfehler. Vielleicht ist das Buch voller schiefer Einordnungen und falsch verstandener Konzepte, über die uns niemand informiert hat, weil das mehr Arbeit verursachen würde als ein einfacher Schreibfehlerhinweis. Vielleicht seufzen die paar Fachleute, denen solche Fehler auffallen, nur still und resigniert und schreiben keine Mails an die Autoren.

Garantiert enthält auch dieses Buch brandneue Qualitätsfehler. Die →Erdbebenvorhersage weiß, dass es in einem bestimmten Gebiet zu Erdstößen kommen wird, sie kann nur nicht genau sagen, wann. Ähnlich verhält es sich mit den Fehlern in diesem Buch: Wir wissen, dass sie da sind, wir wissen nur noch nicht, wo. Wenn Sie einen davon entdecken, sehen Sie bitte unter lexikondesunwissens.de nach, ob der Fehler dort bereits aufgelistet ist. Wenn nicht, könnten Sie uns unter [email protected] darauf aufmerksam machen. Wir werden uns zwar nicht freuen und Sie unter uns womöglich als Erbsenzähler und Oberstudienrat bezeichnen, aber insgeheim wissen wir, dass Sie recht haben. Wir werden uns einen halben Tag lang schämen und vielleicht in Zukunft gründlicher nachdenken, bevor wir Behauptungen in die Welt setzen. Falls Sie beklagen, dass Ihre Lieblingstheorie zu einem unserer Themen fehlt, können wir allerdings keine Reue versprechen. In fast allen Kapiteln fehlen wesentliche Theorien, teils aus Platzgründen, teils, weil sie uns nicht besonders interessant schienen oder einfach zu kompliziert waren.

Ein Wort der Warnung

Dieses Buch appelliert an Ihre niederen Triebe als Wissenschaftskonsument. Unerklärliche oder wenigstens unerklärte Fakten sind aufregender als geklärte. Kontroversen sorgen für die besseren Geschichten, und Halbwissen auf einem entlegenen Gebiet gibt als Gesprächsthema mehr her als solide Kenntnisse über ein vor hundert Jahren geklärtes Problem. Die eigentlichen Geschäfte der Wissenschaft finden aber nicht in den Schlagzeilen statt. Sobald sich ein Sachverhalt zu solidem Wissen verdichtet, lässt das journalistische Interesse nach. Was auf den Wissensseiten der Zeitungen, in Wissenschaftsblogs und in diesem Buch steht, zeichnet sich, gerade weil es neu und umstritten ist, durch seine dürftige Faktenlage aus und wird sich mit ziemlich hoher Wahrscheinlichkeit schon bald als falsch erweisen.

Falls Sie also nach der Hälfte des Buchs das Gefühl haben, Ihr Blick für das Unwissen zwischen den Zeilen wissenschaftlicher Nachrichten sei jetzt hinreichend geschärft, dann legen Sie es bitte zur Seite und schlagen stattdessen, sagen wir, ein Mathematikbuch für die siebte Klasse oder den Wikipediaeintrag über Granit auf. Was darin steht, wird Ihnen – wie jedem normalen Erwachsenen – ebenso neu sein wie Nachrichten von der vordersten Front des wissenschaftlichen Fortschritts. Aber es ist mit relativ hoher Wahrscheinlichkeit (siehe →Wissen) auch noch richtig.

[zur Inhaltsübersicht]

Außerirdisches Leben

Wenn die Beschaffenheit eines Himmelskörpers der Bevölkerung natürliche Hindernisse entgegen setzet: so wird er unbewohnt seyn, obgleich es an und vor sich schöner wäre, daß er Einwohner hätte.

Immanuel Kant, «Allgemeine Naturgeschichte und Theorie des Himmels», 1755

Wenn auf der Erde irgendwas Seltsames auftaucht, dauert es geschätzte drei Minuten, bis jemand auf die Idee kommt, dass Außerirdische im Spiel sind. Außerirdische haben Stonehenge gebaut, sie erzeugen kuriose Leuchterscheinungen am Himmel, sie werfen mit komischen Dingen auf die Erde, haben Hitler und Elvis verschleppt und werden sich zudem für den Untergang der Menschheit zu verantworten haben (hinterher).

Warum wir Außerirdische immer wieder so hart rannehmen, ist klar: Sie bieten deshalb eine so gute Erklärung für alles, was man nicht erklären kann, weil wir nichts über sie wissen. Wir verwenden sie als Unwissensstrohmann und setzen sie überall dort ein, wo es nicht weitergeht – die große vereinheitlichende Erklärung für diese ganzen kleinen dreckigen Details, an denen in Wissenschaftlerhirnen zurzeit gearbeitet wird. Dabei verliert man manchmal aus den Augen, dass eine nicht unbeträchtliche Anzahl von Wissenschaftlerhirnen sich unmittelbar mit der Suche nach außerirdischem Leben befasst. Mit bemerkenswerten Fortschritten – ein Lexikoneintrag über extraterrestrisches Leben sollte eigentlich nur als Loseblattsammlung (oder im Internet) veröffentlicht werden, damit man wöchentlich Updates vornehmen kann.

Leider ist es hier nicht mit einer einzigen schlauen Idee getan. Am einfachsten wäre es vermutlich, wenn morgen ein paar Aliens bei uns landen würden. Vorteilhaft natürlich, wenn sie ein wenig so sind wie wir, damit wir sie erkennen können, aber nicht exakt so wie wir, damit wir sie von uns unterscheiden können. So eine Invasion aus dem All passiert zwar in schöner Regelmäßigkeit, aber nur in Kontexten, die im wissenschaftlichen Diskurs eher wenig geschätzt werden, zum Beispiel in Kinofilmen oder Verschwörungstheorien.

Notgedrungen machen wir uns selbst auf die Suche nach Spuren von Leben im All, das nicht auf der Erde entstanden ist. Weil alles im Weltall weit weg ist und alles weit Entfernte kriminell klein erscheint, suchen wir die meiste Zeit nicht nach konkreten Lebewesen, denn die sind für uns unsichtbar. Es sei denn, die Lebewesen sind so groß wie Galaxien (oder sie sind Galaxien). Stattdessen suchen wir nach den Rahmenbedingungen für die Entstehung von Leben, nach Orten, die die richtige Temperatur oder die richtigen chemischen Elemente haben. Wer bei dem Wort «richtig» im letzten Satz schlucken musste, hat vollkommen recht.

Es ist nämlich so: Wir müssen uns erst einmal darauf einigen, wonach wir eigentlich Ausschau halten. Man kann keine Pilze suchen, ohne eine Idee davon zu haben, was Pilze sind und was sie vom Rest das Waldes unterscheidet. Genauso wenig kann man Leben suchen, ohne eine Vorstellung davon zu haben, was belebte Materie von unbelebter unterscheidet. Würden wir ein Megalebewesen von der Größe einer Galaxie noch als solches erkennen? Was ist mit Leben, das aus unerfindlichen Gründen im Innern von Sternen stattfindet, wo die Temperatur mehrere Millionen Grad Celsius beträgt? Oder im Innern eines Pulsars (einer schnell rotierenden Sternenleiche), wo der Druck so groß ist, dass Atome zerquetscht werden?

Fragen, auf die wir keine endgültigen Antworten wissen. Zum Glück ist die Wissenschaft nicht dazu da, endgültige Antworten zu geben. Fürs Erste reicht es aus, sich plausible Argumente auszudenken, warum Leben so und so sein muss und eben nicht ganz anders. Diese Argumente sind unter Astrobiologen – Wissenschaftler, die sich mit Leben im Universum befassen – hart umkämpft. Definieren klingt einfach, man beschließt etwas, und so ist es dann eben, aber damit eine Definition brauchbar ist, muss sie die Phänomene, die sie zu definieren versucht, einigermaßen treffend beschreiben. Mit anderen Worten: Es geht nicht darum, diktatorisch festzulegen, was Leben ist, sondern es zu verstehen.

Eine beliebte Art, Leben zu definieren, ist folgende: Man sieht sich an, welche gemeinsamen Eigenschaften alle Lebewesen auf der Erde aufweisen, und baut daraus eine Checkliste zusammen. Wenn man dann irgendwas Lebensähnliches im Universum findet, muss man einfach nur diese Liste abarbeiten: Fortpflanzung (check), Stoffwechsel (check), Anpassung (check), Organisation (check) usw. Es ist ziemlich klar, dass so eine Kriterienliste, wenn sie nur lang genug ist, ganz gut funktioniert, um ein Ding als Lebewesen zu identifizieren. Man muss sich allerdings fragen, ob wirklich alle diese Kriterien notwendig sind. Man kann sich leicht Wesen ausdenken, die eindeutig leben, aber zumindest eines der Kriterien nicht erfüllen, zum Beispiel wenn man fürs Fernsehen arbeitet. Das Rauchmonster aus der amerikanischen Fernsehserie «Lost» manifestiert sich als schwarzer, dichter Nebel, der unter anderem die Fähigkeit hat, die Gestalt von verstorbenen Menschen anzunehmen. Aber fortzupflanzen scheint es sich nicht, und von Stoffwechsel ist auch nichts bekannt.

Ein Komitee der amerikanischen Raumfahrtbehörde NASA hat sich in den 1990ern probeweise auf eine Definition anderer Art festgelegt: Leben ist ein «selbsterhaltendes chemisches System, das zu Darwin’scher Evolution fähig ist». Das ist viel kürzer und klingt auch besser. Wer möchte nicht gern ein selbsterhaltendes chemisches System sein? Aber auch hier wieder dasselbe Problem: Irgendein Rauchmonster, das eventuell weder chemisch ist, noch Interesse an Evolution hat, könnte schon morgen erscheinen, und wir müssten die Definition wegwerfen.

Die Definition der NASA illustriert, dass Definieren immer auch Erklären heißt. Sie postuliert, dass Leben immer an Chemie gebunden ist und sich notwendigerweise durch Evolution entwickelt, nicht nur auf der Erde, sondern überall im Weltall. Die Astrobiologie nimmt wenig Rücksicht auf die Phantasien von Science-Fiction-Produkten, weil sie insgeheim nicht an die Existenz von Dingen wie dem Rauchmonster glaubt – eine Eigenschaft, die wir an Wissenschaftlern normalerweise schätzen: Wenn man an etwas nicht glaubt, dann gibt man auch keine Steuergelder aus, um danach zu suchen.

Besonders praktisch ist die Definition allerdings nicht, jedenfalls nicht für die ersten Schritte auf der Suche nach Leben. Die meisten ernsthaften Unternehmungen, die in irgendeiner Weise nach Leben im All suchen, beruhen implizit auf noch viel stärkeren Annahmen. Große Anstrengungen werden unternommen, um Planeten zu finden, die so ähnlich sind wie die Erde. Insbesondere sucht man nach Planeten in der sogenannten «habitablen Zone» – jene Bereiche im Planetensystem, in denen Wasser flüssig ist und nicht gefroren oder gasförmig. Das Vorhandensein von flüssigem Wasser wird als eine wesentliche Voraussetzung von Leben angesehen. Ob das wirklich so ist, wissen wir nicht hundertprozentig, aber es ist eine vernünftige Annahme. Zum einen steht zweifelsfrei fest, dass es auf Planeten mit flüssigem Wasser Leben geben kann, zum anderen verfügt Wasser über einzigartige chemische Eigenschaften, die die Entwicklung von Leben unterstützen. Ein wenig mehr dazu steht im «Lexikon des Unwissens» im Kapitel «Wasser».

In den letzten Jahren hörte man einige Male, jetzt sei endlich ein «Zwilling» der Erde gefunden, und erst im Kleingedruckten las man dann, dass es sich doch eher um eine Stiefschwester handelte – entweder befindet sich die versprochene zweite Erde nicht in der habitablen Zone, oder sie ist in Wahrheit zehnmal größer oder überhaupt ein Messfehler. Was diese zwiespältigen Nachrichten in Wahrheit sagen wollen: Es geht voran. Wir mögen noch nicht ganz da sein, aber wir kommen der zweiten Erde näher.

Der nächste große Durchbruch beim Jagen nach Exoplaneten, wie man die Planeten nennt, die einen anderen Stern als unsere Sonne umkreisen, steht unmittelbar bevor. Im März 2009 schoss die NASA einen nach Johannes Kepler benannten Satelliten ins All, an Bord ein Teleskop, das drei Jahre lang mehr als 100 000 Sterne anstarren soll. «Kepler» sucht nach sogenannten Transits: Der Planet bedeckt einmal pro Umlauf einen kleinen Teil der Oberfläche des Sterns, um den er kreist – er bewegt sich aus unserer Sicht vor seinem Stern entlang. Diese «Verfinsterung» des Sterns, Transit genannt, lässt sich beobachten – der Stern leuchtet für ein paar Stunden ein klein wenig schwächer. Wenn man den Transit mehrfach in regelmäßigen Abständen sieht, hat man eventuell einen neuen Planeten entdeckt.

Mit der Transit-Methode wurden mittlerweile mehr als 100 Exoplaneten gefunden, von der Erdoberfläche aus. «Kepler» ist gerade dabei, diese Zahl drastisch nach oben zu treiben. Im Unterschied zu den bodenstationierten Transitteleskopen kann «Kepler» nicht nur sogenannte «Hot Jupiters» finden – Riesenplaneten, die sehr dicht an ihrem Mutterstern stehen –, sondern auch Planeten, deren Größe und Bahn der Erde ähnelt. Wenn «Kepler» im Jahr 2012 fertig ist mit seiner Arbeit und wenn alle seine Daten ausgewertet sind, werden wir wissen, wie oft es Planeten wie unseren in der Milchstraße gibt.

Aber schon jetzt ist klar, dass ein großer Anteil, eventuell mehr als die Hälfte der sonnenähnlichen Sterne, von Planeten umkreist werden, von denen wiederum ein beträchtlicher Anteil erdähnlich ist – vielleicht ein paar Prozent. Mit diesen Erkenntnissen bewaffnet, können wir versuchen, die Anzahl der Zivilisationen in der Milchstraße abzuschätzen. Ein Hilfsmittel für diese Übung ist die «Drake-Formel», benannt nach dem US-amerikanischen Astronomen Frank Drake, der die erfreulich einfache Gleichung im Jahr 1961 vorstellte. Drake zufolge berechnet sich die Anzahl der Zivilisationen in unserer Galaxie, mit denen Kommunikation möglich ist, als Produkt von sieben Faktoren: die Anzahl der Sterne, die pro Jahr entsteht; der Anteil der Sterne, die Planetensysteme haben; die Zahl der Planeten, die sich für die Entwicklung von Leben eignen (pro Stern mit Planetensystem); der Anteil dieser Planeten, der tatsächlich Leben entwickelt; der Anteil davon, der intelligentes Leben entwickelt; der Anteil, der Lebensformen hervorbringt, die mit uns kommunizieren können; und die durchschnittliche Lebensdauer dieser kommunikationsbereiten Zivilisationen.

Der erste Faktor verursacht am wenigsten Probleme. Aktuellen Schätzungen zufolge entstehen jedes Jahr in der Milchstraße etwa sieben neue Sterne. Je mehr Sterne entstehen, desto mehr Chancen auf gesprächsbereite Wesen im All. Die beiden nächsten Faktoren haben mit der Häufigkeit von Exoplaneten zu tun, die wir jetzt immerhin einigermaßen abschätzen können. Ab da wird die Drake-Formel zum Problem. Der Anteil der bewohnbaren Planeten, die tatsächlich auch Leben entwickeln, wurde von Drake in den 1960ern optimistisch mit 100 Prozent angesetzt. Schon in unserem eigenen Sonnensystem ist die Sache nicht ganz klar: Zwar gibt es auf dem Mars zurzeit kein flüssiges Wasser, aber in der Vergangenheit war das offenbar anders. Demnach liegt der Anteil der «habitablen» Planeten, die Leben entwickeln, nur bei 50 Prozent – jedenfalls solange wir keine Spuren von Leben auf dem Mars entdecken.

Man müsste wissen, ob Leben wie ein Kuchen funktioniert: Wenn man alle Zutaten korrekt zusammenrührt und die richtige Temperatur am Ofen einstellt, kommt dann immer das Gleiche heraus? Beim Kuchenbacken ist das aus zwei Gründen leichter vorherzusagen: Zum einen haben es schon mehrere Leute ausprobiert. Leben kennen wir jedoch nur einmal. Zum anderen verstehen wir die Prozesse, die aus Zutaten einen Kuchen machen, ganz gut. Beim Leben gibt es an der Stelle, wo die ersten Organismen aus der Ursuppe steigen, noch viele offene Fragen, die zum Teil im «Lexikon des Unwissens» besprochen werden.

Es wird nicht einfach sein, direkte Hinweise auf die Existenz von Leben auf Exoplaneten zu finden. Man könnte nachsehen, ob diese Planeten Atmosphären haben und ob diese Atmosphären über eine chemische Zusammensetzung verfügen, die man als Spuren von Leben interpretieren könnte, etwa einen hohen Sauerstoffanteil. Wiederum ist nicht klar, ob man mit so einer begrenzenden Annahme wirklich jedes Rauchmonster im Universum findet, aber es ist zumindest ein Ansatz. Atmosphärische Gase verschlucken Licht bei bestimmten Wellenlängen und hinterlassen daher einen spezifischen «Fußabdruck» im Licht des Planeten. Man muss also irgendwie Licht von den Planeten einfangen, was kompliziert ist, weil sie erstens sehr schwach leuchten und zweitens direkt neben einem sehr hellen Ding stehen, nämlich dem Stern. Es geht zum Beispiel so: Man misst das Licht des Sterns, wenn der Planet sich gerade aus unserer Sicht hinter dem Stern befindet. Dann misst man das Licht von Stern und Planet, wenn beide sichtbar sind. Jetzt subtrahiert man beide Messungen, und was übrig bleibt, ist das Licht vom Planeten, das man genauer untersuchen kann.

Zurück zu Drakes Formel. Die Faktoren 5 und 6 sind harte Brocken. Wie wahrscheinlich ist es, dass am Ende der langen und mühseligen Evolution ein intelligentes Lebewesen steht, das mit uns reden oder sonst wie kommunizieren kann? Drake schätzte im Jahr 1961, dass 1 Prozent aller Planeten mit Leben auch intelligente Lebensformen hervorbringen, von denen wiederum 1 Prozent in der Lage wären, mit uns zu kommunizieren, also weit genug entwickelt sind, um zum Beispiel Radiowellen ins All zu senden. Das heißt, von 10 000 Planeten, die sich für Leben eignen, entwickelt einer die Art Lebensform, mit der wir in Kontakt treten könnten. Andere Experten sehen die Erfolgsquote mehrere Zehnerpotenzen darüber oder darunter.

Der letzte Faktor in der Drake-Formel schließlich eignet sich weniger für exakte Wissenschaft, dafür umso besser für haltlose Behauptungen in Kneipenrunden: Wie lange überleben intelligente Zivilisationen? Wie lange wird es die Menschheit noch geben? Der Kosmologe Richard J. Gott berechnete im Jahr 1993, dass die Menschheit mit 95-prozentiger Wahrscheinlichkeit noch mindestens 5000, aber höchstens knapp 8 Millionen Jahre existieren wird. Sir Martin Rees, Hofastronom des englischen Königshauses, behauptet, dass die Menschheit nur mit einer Wahrscheinlichkeit von 50 Prozent das 21. Jahrhundert überleben wird. Allen diesen Vorhersagen ist gemein, dass sie sich nicht ordentlich überprüfen lassen, solange wir es nur mit einer einzigen Zivilisation zu tun haben.

Baut man alle Faktoren der Drake-Gleichung zusammen, könnte das Endergebnis – die Anzahl der kommunikationsbereiten Zivilisationen in der Milchstraße – irgendwo zwischen null und einer sehr großen Zahl liegen. Null ist schon mal falsch, so viel glauben Wissenschaftler nach eingehender Betrachtung des Lebens auf der Erde herausgefunden zu haben.

Vielleicht versucht man doch besser, gleich Kontakt aufzunehmen, ohne vorher herauszufinden, ob es überhaupt etwas zu kontaktieren gibt. Das ist die Grundidee des Unternehmens SETI – «Search for Extraterrestrial Intelligence». Das Prinzip ist einfach: Man belauscht das Weltall mit Hilfe von Radioteleskopen. Typischerweise stellt man die Teleskope auf Wellenlängen von 18 bis 21 Zentimetern ein, weil in diesem Bereich die Kontaminierung durch andere Strahlungsquellen gering ist. Zum Vergleich: Mikrowellenöfen emittieren bei etwa 12 Zentimetern und sehen auch ganz anders aus, als man sich Außerirdische vorstellt. Die Radioteleskope selbst sehen aus wie große Satellitenschüsseln; das größte der Welt steht im Dschungel in Puerto Rico, hat einen Durchmesser von 300 Metern und ist abgesehen von seinen SETI-Einsätzen bekannt geworden durch eine Szene im James-Bond-Film «Golden Eye», die mit der Zerstörung der Antenne endet.

Bisher blieben die Bemühungen erfolglos. Das vielleicht vielversprechendste Ergebnis ist das sogenannte «Wow-Signal», das der amerikanische SETI-Forscher Jerry R. Ehman im August 1977 fand. Irgendwo aus dem Sternbild Schütze erreichte ihn ein Signal, das im ersten Moment so aussah, als könnte es von außerirdischen intelligenten Wesen stammen. Aufgeregt schrieb Ehman mit rotem Stift «Wow!» an den Rand des Computerausdrucks vom Radioteleskop. Allerdings umsonst, weil alle weiteren Versuche, in dieser Himmelsgegend das Signal wiederzufinden, vergeblich blieben. Ehman selbst spekulierte später, es habe sich vermutlich um Strahlung von der Erde gehandelt, die von Weltraumschrott zurück zur Erde reflektiert wurde. Wieder nichts.

Während SETI-Aktivitäten in ihrem Charakter passiv sind und nur aus Lauschen bestehen, sind andere Bestrebungen darauf ausgerichtet, aktiv mit Aliens in Kontakt zu treten, indem wir selbst Botschaften ins All senden. So wurden den Raumsonden Pioneer 10, Pioneer 11 sowie Voyager 1 und 2 Botschaften mitgegeben – eine Art Flaschenpost fürs Weltall. Nach ihrer eigentlichen Mission, der Erkundung der äußeren Planeten, werden die Sonden das Sonnensystem verlassen. Schon nach circa 40 000 Jahren fliegen die Voyager-Sonden dann in der Nähe von fremden Sternen vorbei und werfen dort ihre Nachricht in den Briefkasten.

Schneller könnten Radiobotschaften zum Erfolg führen. Neben den ganzen Radio- und Fernsehprogrammen, die wir sowieso ganz ohne wissenschaftliche Absicht ständig ins All senden, wurden seit 1974 sieben Botschaften für Aliens abgeschickt. Der Inhalt der Nachrichten reicht von einfachem «Hallo» bis hin zu eher sonderbaren Begrüßungen. Unter anderem sendete eine russische Gruppe unter der Führung des Astronomen Aleksandr Leonidovich Zaitsev eine Sammlung von Musikstücken ins All, gespielt auf dem Theremin, auch Ätherwellengeige genannt, einem elektronischen Instrument, dessen Klang sich besonders gut zur Übertragung über große Entfernungen eignen soll.

Der Sinn und Zweck solcher Nachrichten ist umstritten. Kritiker wie der Science-Fiction-Autor David Brin wünschen sich eine Diskussion über die Vorgehensweise und die Inhalte der Botschaften, bevor irgendetwas ins All gesendet wird. Brins Hauptargument ist wiederum, dass wir so wenig über potenzielle Außerirdische wissen. Es könnte genauso gut sein, dass die anderen da draußen wenig friedfertig sind und wir sie mit unseren Nachrichten unnötig früh auf uns aufmerksam machen. Zaitsev nennt diese Vorwürfe ein «Darth-Vader-Szenario» und führt ins Feld, dass ein aggressiver, kriegsbereiter Darth Vader uns ohnehin von alleine finden würde. Die Entdeckung von Neuem sei immer mit Risiken verbunden, meint Zaitsev und vergleicht seine Unternehmungen mit denen von Kolumbus, der sich ins Ungewisse begab und dann seinerseits auf «Aliens» traf – die amerikanischen Indianer. Wobei Kolumbus sich im Nachhinein als eine Art Darth Vader herausstellte, der die Ausrottung der Aliens in Gang brachte, also vielleicht kein so gelungener Vergleich.

Am Ende bleibt nach all den Jahren nur ein einziges Resultat übrig: Bisher haben wir sie nicht gefunden. Wenn das Weltall voll ist mit Intelligenz, wovon die Optimisten unter den SETI-Forschern ausgehen, warum haben wir dann keinerlei Hinweise auf ihre Existenz? Für dieses Problem, das unter dem Namen Fermi-Paradoxon bekannt geworden ist, gibt es eine einfache Lösung: Die Optimisten haben unrecht. Es gibt gar keine Außerirdischen oder zumindest nur sehr wenige. Abgesehen davon kann man ihr Ausbleiben aber auch anders erklären. Einige der vorgeschlagenen Lösungen des Fermi-Paradoxons: 1. Wir haben einfach noch nicht lange genug gesucht. 2. Wir suchen mit der falschen Methode. 3. Die Größe des Weltalls verhindert eine erfolgreiche Kontaktaufnahme. 4. Außerirdische Wesen sind zu verschieden von uns, um mit uns zu kommunizieren. 5. Sie haben uns bereits gefunden, lassen uns aber in Ruhe, um unsere Entwicklung nicht zu stören, in etwa so, wie wir seltene Tierarten in Ruhe lassen sollten. 6. Sie sind in Wahrheit schon auf der Erde, geben sich aber nicht zu erkennen. 7. Die Außerirdischen sind technisch weit fortgeschritten und haben das Universum so umgebaut, dass es uns vorkommt, als seien wir allein. Zum Beispiel, indem sie unsere Gehirne geklaut haben – dazu mehr an anderer Stelle (→Wissen).

[zur Inhaltsübersicht]

Benfords Gesetz

«Obvious» is the most dangerous word in mathematics.

Eric Temple Bell

Der Amerikaner Simon Newcomb (1835–1909) war hauptberuflich so etwas wie ein «Ausrechner», also das, was man heute Computer nennt. Im Unterschied zum Computer musste er sich selbst ausdenken, wie man am besten komplizierte Rechnungen durchführt. Ohne Computer ist natürlich fast jede Rechnung kompliziert. In diesen harten Zeiten waren ein wesentliches Hilfsmittel beim Rechnen die Logarithmentafeln – Bücher, die nichts enthielten außer langen Listen mit Logarithmen. Zur Erinnerung: Der Logarithmus einer Zahl X ist die Zahl, mit der man eine festgelegte Basis potenzieren muss, um X zu erhalten. Zum Beispiel ist 3 der Logarithmus von 8 zur Basis 2 (oder log28 = 3), denn man muss 2 hoch 3 nehmen, um 8 zu erhalten.

Logarithmen haben praktische Eigenschaften, die den Umgang mit großen Zahlen erleichtern, speziell wenn man mit ihnen Sachen anstellen will, die schwieriger sind als einfache Addition, etwa Multiplizieren, Dividieren, Potenzieren oder Wurzelziehen. Ein Beispiel: Der Logarithmus eines Produkts zweier Zahlen ist gleich der Summe der Logarithmen dieser Zahlen. Will man also zwei große Zahlen multiplizieren, so schlägt man ihre Logarithmen in einer Tabelle nach, addiert sie und sucht dann in einer anderen Tabelle, welche Zahl diese Summe als Logarithmus hat. Das Ergebnis ist das gesuchte Produkt.

Im Jahr 1881 fiel Newcomb an diesen Logarithmentafeln etwas Seltsames auf: Die ersten Seiten waren deutlich abgegriffener als der Rest. Bei jedem anderen Buch bedeutet das einfach, dass den Leuten das Buch nicht gefällt und sie es nach ein paar Seiten weglegen. Aber niemand «liest» Logarithmentabellen von vorne bis hinten, man schlägt sie dort auf, wo man sie braucht. Logarithmentafeln enthalten auf den ersten Seiten die Logarithmen für Zahlen mit 1 am Anfang und arbeiten sich dann zu den größeren Anfangsziffern durch. Wenn die ersten Seiten abgenutzt sind, die letzten aber nicht, dann schlagen die Benutzer der Tafeln Zahlen, die mit 1 anfangen, viel häufiger nach als solche, die mit 9 anfangen. Aus irgendeinem Grund fangen die meisten Zahlen, die da draußen frei rumlaufen, mit 1 an. Naiv würde man erwarten, dass alle neun Ziffern gleich häufig vorkommen, aber offenbar mag die Welt die 1 lieber als die 9. Was geht hier vor? Es handelt sich um eine dieser absurden Erkenntnisse, die man zunächst auf einen dummen Zufall schiebt und dann vergisst.

Bis 57 Jahre nach Newcomb ein amerikanischer Physiker namens Frank Benford dasselbe bemerkte, ebenfalls an Logarithmentafeln. Benford testete den Zusammenhang ausgiebig an mehr als 20 000 Zahlen, die er aus diversen Quellen zusammengesammelt hatte, unter anderem aus Baseball-Statistiken, mathematischen Tabellen, Postadressen und Zeitungsartikeln. Eine Mammutarbeit, denn in Zeiten ohne Internet war das Sammeln von Zahlen mühseliger als das Sammeln von Pilzen. Egal, wo Benford seine Daten fand, die 1 war immer die häufigste Anfangsziffer. Benford gab dem Problem seinen Namen, und jetzt wurden allmählich auch andere stutzig. Gerade noch rechtzeitig, denn ein paar Jahrzehnte später wurden elektronische Taschenrechner erfunden, und die Zeit der Logarithmentafeln ging ihrem Ende entgegen.

Newcomb und Benford liefern für die Häufigkeit von Anfangsziffern gleich eine mathematische Formel, die auch nicht ohne Logarithmus auskommt: P(d) = log(1 + 1/d). «P(d)» steht für «Probability(digit)», die Wahrscheinlichkeit, dass eine bestimmte Ziffer «d» am Anfang einer Zahl auftaucht; «log» ist in diesem Fall der Logarithmus zur Basis 10. Mit einem Taschenrechner kann man innerhalb weniger Sekunden ausrechnen, dass P(1) = 0,301 (also 30,1 Prozent) ergibt. Etwa 30 Prozent aller Zahlen fangen mit 1 an, etwa 18 Prozent mit 2 und nur knapp 5 Prozent mit 9. Mit Logarithmentafeln hätte diese Rechnung sicherlich ein wenig länger gedauert.

Zwei Dinge sind bei Benfords Gesetz erklärungsbedürftig: Warum folgen überhaupt viele Zahlengruppen dem Gesetz? Und welche Eigenschaften muss eine Gruppe aus Zahlen haben, um Benfords Gesetz zu genügen? Im Idealfall würde man gern vorhersagen können, ob eine gegebene Liste von Zahlen dem Gesetz genügt oder nicht, und zwar, bevor man die ersten Stellen abgezählt hat. Danach wäre es einfach.

Theodore «Ted» Hill, emeritierter Professor für Mathematik an der Georgia Tech University in Atlanta, ist ein langjähriger Freund von Benfords Gesetz. In seiner Online-Datenbank finden sich mehr als 600 Artikel zu diesem Thema. Oft liest man, es sei nichts Geheimnisvolles an Benfords Gesetz, der Zusammenhang sei vollkommen klar und jedes weitere Nachdenken über seinen Ursprung Zeitverschwendung. Ted Hill hält von solchen Aussagen nichts. Seine letzte Arbeit zum Thema, in Zusammenarbeit mit dem Österreicher Arno Berger geschrieben, heißt: «Benfords Gesetz schlägt zurück: keine einfache Erklärung in Sicht.»

Die zahlreichen Vermutungen über Benfords Gesetz fallen in drei unterschiedliche Gruppen. Zwei davon versuchen die Herkunft der Zahlenkolonnen zu simulieren. Die erste hat etwas mit Zählen zu tun. Wenn man von 1 bis 9999 zählt, dann haben genau 11 Prozent (ein Neuntel, weil keine Zahl mit 0 anfängt) der so erzeugten Zahlen eine 1 am Anfang. Zählt man weiter bis 19 999, so steigt der Anteil der mit 1 anfangenden Zahlen auf 55 Prozent. Macht man weiter bis 99 999, dann sinkt die Wahrscheinlichkeit, eine 1 am Anfang einer Zahl zu finden, wieder auf 11 Prozent. Je nach Obergrenze liegt die Häufigkeit für die Anfangsziffer 1 in einer Menge aus Zahlen, die man durch Zählen erzeugt, irgendwo zwischen 11 und 55 Prozent. Rechnet man genauer nach, kommt man im Mittel auf circa 30 Prozent, genau wie das Benford’sche Gesetz behauptet.

Ein paar der Zahlenkolonnen, die Benfords Gesetz folgen, entstammen tatsächlich einer Art Zählvorgang. In Benfords Liste finden sich zum Beispiel die Gewichte der Atome des Periodensystems. Ein kleiner Ausschnitt aus dieser Zahlenreihe: 10,81 (Bor), 12,01 (Kohlenstoff), 14,01 (Stickstoff), 16,00 (Sauerstoff), 19,00 (Fluor). Die Reihe überspringt ein paar Zahlen, aber ansonsten arbeitet sie sich gleichmäßig von kleinen zu großen Zahlen vor. Aber besonders viel kann diese Art Erklärung nicht, denn leider gibt es genug andere Benford’sche Zahlenansammlungen, die überhaupt nichts mit Zählen zu tun haben, die Flächen von Flüssen zum Beispiel.

Die zweite Gruppe der Erklärungen behauptet in etwa Folgendes: Vielleicht entstehen die meisten Zahlen durch Multiplikation von vielen anderen Zahlen. Hier ein einfacher Weg, diesen Vorgang zu simulieren: Wie schon erwähnt, ist das Multiplizieren von Zahlen genau dasselbe wie das Addieren ihrer Logarithmen. Das Addieren von ein paar willkürlich ausgewählten Zahlen erzeugt wiederum eine ziemlich willkürliche Zahl. Man nehme eine Dartscheibe, auf der eine Reihe von Zahlen abgedruckt ist, werfe einen Pfeil irgendwo auf diese Scheibe, ohne zu zielen, und man hat eine willkürliche Zahl erzeugt. Jetzt der entscheidende Punkt: Die Zufallszahl von der Dartscheibe wäre der Logarithmus der gewünschten Zahl, das heißt, man muss 10 mit dieser Zahl potenzieren, um zum Ergebnis zu kommen. Dieser Vorgang jedoch erzeugt in etwa 30 Prozent der Fälle eine Zahl, die mit 1 anfängt, eine Eigenschaft der Logarithmusfunktion. Ausprobieren ist in diesem Fall hilfreich. Die zehn Logarithmen 2,0, 2,1, 2,2 usw. bis 2,9 ergeben, wenn man 10 mit ihnen potenziert, vier Zahlen, die mit 1 anfangen, eine mit 2, zwei mit 3, eine mit 5, eine mit 6, eine mit 7. Wirft man nur lange genug auf die Dartscheibe mit Logarithmen, ergibt sich tatsächlich Benfords Gesetz.

Diese Art Erklärung ist plausibel und schwieriger zu verwerfen, aber sie ist trotzdem nicht ideal. Sie sagt einfach: «Wenn die Benford’schen Zahlenreihen so und so entstehen, dann müssen sie dem Gesetz folgen.» Ob eine bestimmte Zahlenreihe wirklich so entsteht, darüber weiß sie nichts. Außerdem liefert sie keine Handhabe, um unterscheiden zu können zwischen Zahlenansammlungen, die dem Gesetz folgen, und eben den anderen. Eine saubere Herleitung sieht jedenfalls anders aus.

Der dritte Ansatz, Benfords Gesetz zu erklären, fängt von hinten an. Anstatt zu fragen, wie die Zahlen, die ihm folgen, entstehen könnten, untersucht man das Gesetz selbst. Wenn so ein Gesetz wirklich irgendeinen universalen Charakter hat, dann sollte es nicht nur bei uns gelten, sondern auch bei →Außerirdischen, egal, welche Einheiten und welches Zahlensystem sie verwenden. Wenn Börsenkurse dem Benford’schen Gesetz folgen, dann sollten sie das tun, egal, ob man sie in Dollar oder Euro oder Arkturischen Peseten angibt, denn universale Gesetze wissen nichts von Wechselkursen. Und die Zahlenreihe sollte immer noch dem Gesetz folgen, wenn man sie zum Beispiel ins Binärsystem umwandelt, das nur die Ziffern 1 und 0 kennt, oder in ein Zahlensystem, das 28 verschiedene Ziffern hat und nicht nur 10.

Diese Matheaufgabe ist nicht einfach, aber wenigstens schon gelöst. Seit Ende der 1990er ist dank der Arbeit von Ted Hill und anderen eins klar: Wenn es ein Gesetz gibt, das die Häufigkeit der Ziffern in der ersten Stelle von Zahlen beschreibt, dann muss es das Benford’sche Gesetz sein, denn es ist das einzige, das nicht von der Wahl der Einheit und des Zahlensystems abhängt. Das ist zwar schön, klärt aber auch wieder nur einen Teil des Problems. Offenbar machen viele Vorgänge in der Welt, die Zahlen erzeugen, keinen Unterschied zwischen großen und kleinen Zahlen. Man kann einfach alle Zahlen mit einer Konstante multiplizieren, und die Welt läuft genauso weiter. Naturgesetzen ist es egal, ob man sie mit großen oder kleinen Zahlen füttert, oder im Mathematikerkauderwelsch: Sie sind «skaleninvariant». Das ist eine wichtige und nicht selbstverständliche Eigenschaft der Welt, aber warum das so ist, bleibt unklar.

Vielleicht ist es einfacher, die Mathematik erst mal wegzulassen, das Gesetz zu behandeln wie eine Laborratte und es gründlich in allen möglichen Situationen durchzutesten. Es ist einfach, sich Zahlenreihen auszudenken, die garantiert nichts mit Benfords Gesetz zu schaffen haben. Berliner Telefonnummern zum Beispiel – alle fangen mit der Vorwahl 030 an, keine einzige mit 1. Oder die Körpergewichte aller Deutschen, die älter als 18 sind, angegeben in →Kilogramm. Die meisten dürften mit 6, 7 oder 8 anfangen und nur wenige mit 2.

Genauso einfach ist es auch, Zahlenreihen zu generieren, die exakt Benfords Gesetz entsprechen. Zum Beispiel kann man die Dartscheiben-Erkenntnis zu Hilfe nehmen und Zufallszahlen miteinander multiplizieren. Multipliziert man eine Serie aus Zufallszahlen zwischen 0 und 1, dann erhält man schon nach 10 Iterationen eine Zahlenfolge, deren Ziffern dem Gesetz recht gut folgen.

Eine andere Variante, Benfordserien zu erzeugen, sind mathematische Reihen. Die Fibonacci-Zahlen zum Beispiel: Man fängt mit 0 und 1 an. Jede folgende Zahl berechnet man, indem man die beiden vorhergehenden zusammenzählt, also 0, 1, 1, 2, 3, 5, 8, 13, 21 und so weiter. Nach einer Weile erhält man einen perfekten Benford-Zahlensatz. Dasselbe gilt für die Serie 2, 4, 8, 16, 32 …, die man erhält, wenn man eine Zahl immer wieder verdoppelt, und viele andere solcher einfachen Zahlenfolgen. Aber es gibt interessante Ausnahmen: Man beginne mit einem Wert X. Die weiteren Zahlen der Serie berechne man, indem man die vorhergehende Zahl mit sich selbst multipliziert und 1 dazuzählt. Die so entstehende Zahlenkolonne folgt Benfords Gesetz – für fast alle Werte von X. Zum Beispiel gibt es eine Wunderzahl X = 9,949623 …, für die alle Zahlen der Serie mit 9 anfangen, keine einzige mit 1. Solche absurden Ausnahmen machen wenig Hoffnung auf eine allgemeine Regel, die alle Fälle abdeckt.

Noch undurchsichtiger wird die Sache, wenn man sich Datensätze ansieht, wie man sie in der freien Wildbahn findet, zum Beispiel, indem man sie aus willkürlichen Zeitungsartikeln abschreibt. Die Informatiker Paul Scott und Maria Fasli von der Universität Essex in England sahen sich im Jahr 2001 unter anderem die 20 Zahlenreihen an, von denen Benford sein Gesetz ableitete, also: P(d) = log(1 + 1/d). Ihre Schlussfolgerung: Nur drei von ihnen sind wirklich dicht an diesem Gesetz dran, acht weitere stimmen einigermaßen. Bei den restlichen ist die 1 zwar immer noch die häufigste Anfangsziffer, aber ansonsten sind sie weit davon entfernt, dem Gesetz vorschriftsmäßig zu folgen. Benford hat offenbar mit der Statistik geschludert.

Nach dieser ernüchternden Erkenntnis suchten sich Scott und Fasli ihre eigenen Daten zusammen, um Benfords Gesetz zu testen, was mit Hilfe des Internets angenehm leichtfällt. Sie untersuchten 230 Datensätze mit insgesamt mehr als einer halben Million Zahlen. Die meisten davon stimmen überhaupt nicht mit Benfords Gesetz überein. Von den 30, auf die das Gesetz einigermaßen zutrifft, stammen die meisten übrigens aus den Statistiken des Landwirtschaftsministeriums der USA. Obwohl es einfach ist, Zahlenkolonnen zu finden, in denen die 1 als erste Ziffer am häufigsten vorkommt, sind solche, die wirklich einigermaßen zuverlässig dem exakten Benford-Gesetz entsprechen, gar nicht so weit verbreitet.

Was kann man aus diesen verwirrenden Ergebnissen schließen? Scott und Fasli liefern ein paar einfache Regeln, denen alle Datensätze genügen, die Benfords Gesetz folgen: Sie sollten keine negativen Zahlen enthalten, und sie dürfen nicht nur einen kleinen Zahlenbereich abdecken wie die oben erwähnten Körpergewichte. Natürlich folgen nicht alle Zahlenreihen, die diese Kriterien erfüllen, dem Benford-Gesetz; eine Serie aus Zufallszahlen zwischen 0 und einer Million zum Beispiel hat mit Benford nichts zu tun. Scott und Fasli glauben, das sei nicht so schlimm: Benfords Gesetz sei wirklich nur ein seltsames Feature von bestimmten Datensammlungen, und es gebe keinen Bedarf für weitere Erklärungen. Auf der anderen Seite des Spektrums der Benford-Forscher stehen jedoch Leute wie die Chinesen Lijing Shao und Bo-Qiang Ma, Physiker von der Universität Peking, die 2010 in einer ordentlichen wissenschaftlichen Publikation meinten, das Benford-Gesetz sei womöglich eine tiefgründige Eigenschaft des Universums und verlange nach einer Erklärung.

Aber Benfords Gesetz kann noch mehr, als Angehörige diverser akademischer Disziplinen zu verwirren. Man kann es zum Beispiel einsetzen, um mathematische Modelle zu testen. Wenn man ein Modell hat, das Vorhersagen für, sagen wir, Börsenkurse ausspuckt, und wenn die echten Börsenkurse in der Vergangenheit Benfords Gesetz folgten, dann sollten die Vorhersagen für die Zukunft dies auch tun: «Benford in, Benford out», so die Faustregel. Mark J. Nigrini, heute Professor in New Jersey, zeigte in seiner Doktorarbeit im Jahr 1992, dass viele Zahlenansammlungen, die man in der Buchhaltung von Firmen findet, dem Gesetz genügen, und verwendete dies als Erster, um Betrügereien aufzudecken. Wenn Menschen sich Zahlen einfach so ausdenken, dann neigen sie nicht dazu, 30 Prozent davon mit einer 1