9,99 €
Die Geschichte der Informatik hat sich – zunächst noch bescheiden als eine klassische „Rechentechnik“ – über nur wenige Jahrhunderte „dahingeschleppt“ und erst mit der Erfindung des Computers einschließlich der dafür unverzichtbaren Software als eigenständige Wissenschaft etabliert. Als das Buch „Vom Abakus zum Internet“ geschrieben wurde (2001) waren Internet und WWW noch kein Jahrzehnt auf dem Markt und an Social-Media-Plattformen wie Facebook, Twitter oder YouTube überhaupt nicht zu denken. Das Nachfolgende ist deshalb als historische Reminiszenz zu verstehen, deren zeitlicher Rahmen nur bis zum Ende des 20. Jahrhunderts reicht.
Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:
Seitenzahl: 539
Vom Abakus zum Internet – Die Geschichte der Informatik von Friedrich Naumann
veröffentlicht 2015 von E-Sights Publishing
E-Sights Publishing Dr. Jörg Naumann Altendorfer Straße 61 09113 Chemnitz Deutschland
Verlags-Website: E-Sights Publishing Verlags-Website zum Buch: E-Sights Publishing Fehlermeldungen bitte an [email protected] senden.
Herausgeber: E-Sights Publishing Umsetzung: Dr. Jörg Naumann Covergestaltung: Erika Jansen, jansen.lange GRAFIKdesign
Copyright © 2015 Friedrich Naumann Alle Rechte vorbehalten. Diese Publikation oder Teile der Publikation dürfen weder in irgendeiner Form noch mit irgendwelchen Mitteln, elektronisch oder mechanisch, einschließlich Fotokopieren, Aufnahmen oder Speicherung und Retrieval-System, ohne vorherige schriftliche Genehmigung des Herausgebers reproduziert oder übertragen werden. ISBN: 978-3-945189-42-9
Vorwort
Einführung
Ursprünge der Informatik
Maß, Zahl und Gewicht
Null und indo-arabische Ziffern
Abkehr vom Orbis terrarum
Praktische Rechenkunst
Gegenständliche Darstellung / Fingerrechnen
Kerbhölzer und Knotenschnüre
Zählen mit Knoten
Abakus und Rechenbrett
Rechenschulen, Rechenmeister und Rechenbücher
Adam Ries
Visierbücher
Napier’sche Stäbchen
Maschinen zum Rechnen zwischen Renaissance und Industriezeitalter – Schickard, Pascal, Leibniz, Leupold und andere große Denker und Erfinder
Charles Babbage – das Konzept des ersten Computers
Maschinelle Statistik und Buchhaltung – das Hollerith-Verfahren
Analoges Rechnen, Rechengeräte und -maschinen
Maß und Messen
Instrumentelles und Technisches zum Rechnen
Astronomie
Praxis geometriae und Theatri
Rechenstab, Rechenschieber und andere Geräte
Technik für die Informationsverarbeitung – von der Mechanik zur Elektronik
Nachrichtentechnik – Basis der Informationsverarbeitung
Magnetismus, Strom, Elektrizitätslehre
Elektrische Nachrichtenübermittlung – Telegraphie, Telephonie
Elektronenröhre als Schalt- und Speicherelement
Eine neue Technologie: Halbleitertechnik
Integrierte Schaltungen – Mikroelektronik
Technik zur Speicherung
Vom Ziffernrechner zum Hightech-Computer
Computer-Generationen und ihre Besonderheiten
Der Eintritt ins Informationszeitalter – Konrad Zuse
Die USA und ihre Pionierleistungen
Großbritannien
Frankreich
Weitere europäische Länder
Japan
Die Spezifik der deutschen Entwicklung
Die Staaten des Rates für Gegenseitige Wirtschaftshilfe (RGW/COMECON) – ESER und SK
Zwerg gegen Riese – die Miniaturisierung des Computer
Textverarbeitungssysteme
Mittlere Datentechnik
Minicomputer
Der Weg zum „Volkscomputer“
Software als Startkapital – die Unternehmer
Der späte Start von IBM
Nutzen und benutzen
Das Fenster zu Windows
Algorithmus – Programm – Sprachen – Software
Algorithmus und Programm
Intern gespeicherte Programme
Programmiersprachen
Betriebssysteme
Teilnehmer-Betrieb (time-sharing)
West und Ost im Wettlauf
Internet und World Wide Web
Die amerikanische ARPA – das Computernetzwerk
Erste Erfolge mit dem ARPANet
Auf dem Weg zum Internet
Electronic Mailing
World Wide Web
Informatik als Wissenschaft – Wurzeln und Wege
Logik und Algorithmen
Nachrichtentheorie und Informationstheorie
Die Informatik im initialen Stadium
Texte und Bücher zur Informatik
Wissenschaftliche Veranstaltungen und Vereinigungen
Die
International Federation for Information Processing
(IFIP)
Bildung und Ausbildung
Die Entstehung der Informatik – eine Zusammenfassung
Literatur
Vor einigen Jahren weilte ich in China und hatte das Glück, auf einem der vielen Märkte einen alten suan pan erstehen zu können. Neu war mir dieses von alters her in Gebrauch stehende Kugelrechenbrett keinesfalls, hatte sich doch auf vorhergehenden Reisen in die Sowjetunion bereits hinreichend Gelegenheit geboten, dessen universelle Verwendung bei jederart Geschäft kennen zu lernen. Erneut war ich angetan von Geschwindigkeit und Sicherheit in der Handhabung und fasziniert von dem Gedanken, hiermit Informatik an ihrem Ursprung nachvollziehen zu können. So oder ähnlich mag es vor knapp fünfhundert Jahren auch im erzgebirgischen Annaberg zugegangen sein, wo der berühmte Rechenmeister Adam Ries mit großem Erfolg die „Rechnung auff der linihen“ lehrte und sich damit in die Annalen der Wissenschaftsgeschichte einzubringen wusste.
Auf ganz andere Weise beeindruckt hat mich in den 1960er Jahren der erste Kontakt zu einem schreibtischgroßen Kleinrechner, dessen Programmlochstreifen – seiner immensen Länge wegen – an einem entfernt aufgehängten Kleiderbügel geführt wurde. „Was geht hier eigentlich genau vor?“, fragte ich mich angesichts der vielen Unbekannten. Lang ließ der vielfältige Einsatz der neuen Technik nicht auf sich warten, und bald wurde das Arbeiten an Kartenlochern, Magnetbändern, Gerätesteuereinheiten und Bedienpulten ebenso Realität wie die Suche nach rätselhaften Programmfehlern. Der Fortschritt manifestierte sich fast täglich und mit ihm die Verwunderung über die scheinbare Grenzenlosigkeit dieser neuen Maschinen. Aber auch Rückschläge blieben nicht aus, bedingt durch technische Mängel und ungenügende Erfahrung. So wurde der fortwährende Kampf um hohe Systemverfügbarkeit im Rechenzentrum zum Tagwerk – er gab gleichzeitig Raum für die sonderbare Sucht, den Rechner stets aufs Neue zu „überlisten“. Der unaufhaltsame Aufstieg des Personal Computers im zurückliegenden Dezennium verwies viel zu schnell und unwiederbringlich das Genannte in die Vergangenheit und die materiellen Überbleibsel in den Schrott oder ins Museum.
Unterdessen war mein Appetit geweckt, die skurrile Welt aus Null und Eins in den Zirkel historischer Bewertung zu nehmen, nicht zuletzt weil die Geschwindigkeit des geistigen Verschwindens im Sog der „digitalen Revolution“ mit Nachdruck an Bewahrung gemahnte. So stand ich schon bald einem schier unerschöpflichen Fundus von geistig Akkumuliertem gegenüber, insbesondere aus dem Bereich jener Wissenschafts- und Technikgeschichte, deren Kraft mich seit Jahren gefesselt und in Atem hält.
Ich bin froh, dass daraus nun eine „Geschichte der Informatik“ geworden ist, konnte ich damit doch die Absicht umsetzen, ein Stück Technikgeschichte mit Leben zu erfüllen. Vor allem aber soll dieses Buch zur historischen Aufhellung jener Wissenschaftsdisziplin beitragen, deren Aktualität derzeit kaum zu überbieten ist. Sorgen um Unterlassenes und falsch Bewertetes lege ich einstweilen zur Seite; vielmehr drängt es mich, jenen zu danken, die – wie auch immer – hilfreich waren und zum Ganzen fruchtbar beigetragen haben.
Wie sehr die Arithmetik und die ganze mathematische Wissenschaft vonnöten ist, kann man daraus leicht ermessen, daß nichts auch nur eine geringe Bedeutung haben kann, wenn es nicht aus gewissen Zahlen und Maßen zusammengesetzt ist, daß auch keine Wissenschaft, die man sonst eine freie Kunst nennt, ohne gewisse Maße und Zahlenverhältnisse existieren kann.
Ein halbes Jahrtausend ist es her, dass Adam Ries, zu Recht der „Rechenlehrer des deutschen Volkes“ genannt, diese Behauptung aufstellt und damit die Bedeutung seines intellektuellen Gewerbes hervorhebt. Er spricht bereits von „mathematischer Wissenschaft“ – dies ist bezeichnend und bringt zum Ausdruck, dass sie zu jener Zeit schon einen Stellenwert erreicht hat, der sie als notwendig, ja unverzichtbar ausweist. In der wissenschaftlichen Bilanz steht das Erbe der großen Kulturen, wo mathematisches Denken seinen Ursprung hatte: der Vordere Orient, das Land der Mayas in Mittelamerika, Ägypten, Mesopotamien, Indien und China. Die Dokumente sind spärlich, doch spätestens mit Euklid, Archimedes, Apollonius, Ptolemaios und Diophantos treten jene Gelehrten ins Blickfeld, die der Wissenschaft zu Rang und Namen verhalfen und erste Ergebnisse niederschrieben.
Die „Wissenschaft der Zahlen“ entwickelt sich zunächst nur in Ansätzen und im Kontext zur Philosophie, der überwiegend praktische Umgang macht sie jedoch in zunehmendem Maße zum Allgemeingut und nützlichen Instrumentarium des gesellschaftlichen Lebens. Zu Rieses Zeiten wird sie gar Teil der großen progressiven Umwälzung in Europa, die von Denkkraft, Leidenschaft, Vielseitigkeit und Gelehrsamkeit geprägt ist und in der nicht wenige Ideen geboren werden, die „geistige Handlangerei großer Zahlenrechnungen“ (F.Reuleaux) zu erleichtern. Später dann verfeinern sich die Rechenmethoden, und man ersinnt technische Hilfsmittel, die diesen adäquat sind. Die Erfindung einer „Maschine zum Rechnen“ stellt einen ersten Höhepunkt dar, da damit nachgewiesen ist, dass nicht nur körperliche, sondern auch geistige Operationen durch künstliche Werkzeuge substituierbar sind. Die Realisierung weiterer mathematischer Erfordernisse erzwingt neue und vielgestaltige technische Lösungen, das umfangreiche Arsenal der sich herausbildenden Natur- und Technikwissenschaften nutzend. Das vorläufige Ende bildet der Computer, zunächst als „Rechnen-Maschine“ konzipiert, schließlich ein nahezu universelles Instrument zur Behandlung von Symbolen aller Art, aber auch Agens des Informationszeitalters, angesiedelt im symbiotischen und scheinbar unerschöpflichen Aktionsfeld von Mensch und Technik.
Es wäre Wurzeln daraus bezogen und somit jene Kenntnisse und Erfahrungen absorbiert, die für ihre Formierung erforderlich waren. Heute ist Informatik ein Begriff eigener Art und eigener Geschichte, der in nicht unerheblichem Maße zu oben Umrissenem zurückführt; zugleich steht Informatik für eine ausgereifte Wissenschaftsdisziplin, der eine eindeutige Stellung im System von Wissenschaft und Technik zugewiesen ist. Um tiefer in die Prozesse und deren Wechselwirkungen einzudringen, sind die folgenden theoretischen Positionen insofern nicht entbehrlich, als sie das Verständnis für die Mechanismen der Entstehung einer Wissenschaftsdisziplin erheblich erleichtern.
Eine Wissenschaftsdisziplin ist zu verstehen als gegenstandsorientiertes System wissenschaftlicher Tätigkeit, das Wissensgesamtheiten voraussetzt, die bereits zu einem frühen Zeitpunkt nachweisbar sind und zu einer zunehmenden Akkumulation im Laufe der Zeitgeschichte führen. Auf dem Wege von der Urform wissenschaftlicher Tätigkeit bis zur vollkommenen Reife der Disziplin vollzieht sich eine Vielzahl unterschiedlicher Prozesse, beginnend mit Spuren des wissenschaftlichen Denkens – Beobachtung, Erfahrung und ihre rationale Analyse und begriffliche Aneignung – bis hin zur Verwissenschaftlichung. Auf dem Wege dieses Entwicklungsprozesses lösen evolutionäre und (mehr oder minder deutlich ausgeprägte) revolutionäre Phasen einander ab, nachvollziehbar sind auch qualitative und quantitative Wandlungen sui generis. Die Akkumulation von Erkenntnissen, besser: die Herausbildung eines neuen Systems geistiger Produktion in der Wissenschaft, erreicht schließlich eine Ebene, die vor allem durch Reproduktionsmechanismen und institutionelle Eigenständigkeit charakterisiert ist.
Eine historische Bewertung erfordert das Integral über den gesamten Prozess. Dieser beginnt bereits mit der Vorgeschichte; denn hier wird – wenngleich noch nicht mit Bestimmung für eine neue Wissenschaft – das kognitive und technische „Baumaterial“ erzeugt und entwickelt. Herausbildung und Konsolidierung der Disziplin folgen dann als weitere Stufen im evolutionären Transformationsprozess innerhalb des Systems der Wissenschaften.
Im Allgemeinen lassen sich Wissenschaftsdisziplinen nach ihrem Gegenstand und ihrem Objektbereich charakterisieren, wobei die Objektbereiche entweder natürlich oder künstlich – zum Beispiel technisch – sein können. Diese Zuordnung erleichtert erheblich deren Bewertung im System der Wissenschaften. Mit Reflexion auf die „natürlichen Gegebenheiten“ entwickelten sich beispielsweise die Naturwissenschaften: die Biologie mit Bezug auf die belebte Natur; die Geologie als Interpret der Geschichte und der Strukturen der Erde; die Mineralogie, sich besonders den Kristallen und ihren Ausprägungen widmend; die Physik, befasst mit dem Versuch, die Vorgänge in der unbelebten Natur zu erfassen, zu beschreiben und zu ordnen.
Sämtliche Naturwissenschaften, aber auch die Mathematik – wenngleich aufgrund der Natur ihres Gegenstands ein Sonderfall – machten sich im Laufe der Menschheitsgeschichte beizeiten auf den Weg, da die Objektbereiche als Teil des Universums schon immer vorhanden sind; jedermann hat deshalb eine einigermaßen genaue Vorstellung von deren Inhalt. Die Technikwissenschaften halten diese Leichtigkeit jedoch nicht bereit; denn deren „unnatürliche“ Objekte mussten erst künstlich – also von Menschenhand – geschaffen werden. Die Interaktion zwischen Objektbereich und Gegenstand der Wissenschaft hat hier also gänzlich andere Startbedingungen als bei den Naturwissenschaften. Das Beispiel der am Ende des 18. Jahrhunderts entwickelten Dampfmaschine zeigt, dass sich erst im Zuge der technischen Vervollkommnung die Disziplinen Wärmelehre, Kinetische Gastheorie, Statistische Thermodynamik, Technische Thermodynamik, Theorie der Steuerung und Regelung, Technische Mechanik und Maschinenkunde herausbilden konnten. Ähnliches lässt sich für die Beziehungen zwischen Telegraphie/Telefonie und Nachrichtentechnik oder Elektromotor und wissenschaftlicher Elektrotechnik konstatieren. Die genannten Disziplinen trugen nicht unwesentlich dazu bei, die mit der Industriellen Revolution eingeleitete Umwälzung der gesellschaftlichen Produktion zu forcieren und die Grundlagen der ökonomischen und wirtschaftspolitischen Entwicklung zu schaffen.
Naturgemäß sind Physik und Mathematik bei der Genese technikwissenschaftlicher Disziplinen von besonderem Einfluss und bestimmen deren originäres Profil. Das trifft auch für die Herausbildung der Informatik zu, deren Objektbereich genau dann geschaffen war, als der erste Computer in Funktion trat und die damit verbundene Wissenschaft ihr initiales Stadium begann. Bis zu diesem Zeitpunkt präformierten sich – ausgehend von den ersten kognitiven Strukturen – Systeme der Erkenntnis, des Wissens und der Technik; schließlich vollzog sich eine vieldimensionale Akkumulation unterschiedlicher Wissenskomponenten und technischer Lösungen. Allerdings ist zu beachten, dass diese umfangreiche und vielgestaltige Vorgeschichte nicht einer vektoriellen Größe gleichzusetzen ist, die notwendigerweise in eine neue Disziplin zu münden hatte. Vielmehr ist sie als Summe des historisch Gewordenen und Gereiften anzusehen, durch die schließlich die Schaffung vollkommen neuer Objekte und die damit verbundene Geburt einer Wissenschaftsdisziplin ermöglicht wurden.
Informatik als Begriff ist noch immer unscharf definiert, obwohl ihr Platz im Theoriengebäude der Technikwissenschaften mittlerweile fest zugewiesen ist. Die Unschärfe erklärt sich vor allem daraus, dass am Anfang – der originären Bestimmung gemäß – die Rechenmaschine stand; aus verschiedenen Blickwinkeln nannte man sie auch mathematische bzw. symbolverarbeitende Maschine, (programmgesteuerter) Rechner, Rechenmaschine, Rechenautomat, Kalkulator, Ziffernrechner, Ziffernrechenautomat, digitaler Informationswandler, Digitalrechner und kybernetische Maschine. Für Anwendungen in bevorzugt ökonomischen Bereichen bürgerten sich späterhin die Termini elektronische Datenverarbeitungsanlage (EDVA), (elektronisches) Datenverarbeitungssystem, Universalrechenautomat, Informationsverarbeitungsanlage, Ordinateur und Computer ein. Bei dieser Gelegenheit ist daran zu erinnern, dass während der ersten Hälfte des 19. Jahrhunderts im englischen Sprachraum mit „Computer“ ein Mensch benannt wurde, der ein manuell zu bedienendes Rechenhilfsmittel benutzte. Eine dementsprechende Wissenschaft gab es zunächst nicht, zumal sich die mit diesen „Maschinen“ realisierten Elementaroperationen auf Rechnen sowie Identifizieren, Vergleichen, Sortieren, Zuordnen, Komprimieren, Übersetzen, Verarbeiten usw. beschränkten. In ebensolch unterschiedlicher Ausprägung entstanden die im bevorzugt technologischen Sinne gebrauchten Begriffe Rechentechnik, Nachrichtenverarbeitung, Ziffern- und Zeichenverarbeitung, Datenverarbeitung und Informationsverarbeitung. Zudem waren die mit der Entwicklung, Programmierung und Anwendung von Computern verbundenen Probleme bevorzugt im wissenschaftlichen Bereich von Mathematik, Physik und Elektrotechnik angesiedelt. Erst in den 60er Jahren hatte dieses neue Erkenntnisfeld ein ausgereiftes wissenschaftliches Niveau und damit auch ein solches Maß gesellschaftlicher Relevanz erreicht, dass sich die Institutionalisierung nun schrittweise vollziehen konnte.
In den USA, charakterisiert durch technischen und technologischen Vorsprung vor Europa und anderen Ländern der Welt, existierte für eine dementsprechende Wissenschaftsdisziplin von Anbeginn der Begriff Computer Science. Er setzte sich bereits mit Etablierung erster Institutionen in Szene und beförderte auf diese Weise die Anerkennung als eigenständige wissenschaftliche Disziplin. Aus der Sicht des Mathematikers George E.Forsythe – er gründete 1965 in Stanford eines der ersten Departments for Computer Science und verlieh dieser neuartigen Disziplin damit eine eigene institutionelle Basis – ist Computer Science eine Kunst (art) und Wissenschaft (science) der Informationsdarstellung und -verarbeitung, insbesondere der Informationsverarbeitung mit logischen Maschinen, die automatische digitale Computer genannt werden. Und als Gegenstand der Disziplin werden bestimmt: Entwurf automatischer digitaler Computer und Systeme, Entwurf und Beschreibung von geeigneten Sprachen zur Darstellung von Prozessen und Algorithmen, Entwurf und Analyse von Methoden zur Informationsdarstellung durch abstrakte Symbole und von komplexen Prozessen zur Manipulierung dieser Symbole. Dieser Umfang macht deutlich, dass – im Unterschied zu den klassischen Ingenieurwissenschaften – der Systementwurf durch die Einbeziehung des abstrakten Mediums Information eine wesentlich größere Komplexität einnimmt. Das Aktionsfeld der Computer Science erstreckt sich deshalb auch auf solche Disziplinen wie Codierungs- und Informationstheorie, Logik der endlichen Konstruktion, numerische mathematische Analysis, Kontrolltheorie, Schalttheorie, Automatentheorie, mathematische Linguistik, Graphentheorie und Psychologie der Problemlösung. Natürlich teilt sie ihren Gegenstand auch mit solchen Disziplinen wie Mathematik, Operationsforschung, Philosophie, Psychologie und den Technikwissenschaften.1
Im europäischen Raum wurde der Begriff Computer Science vor allem in Relevanz zu den amerikanischen Entwicklungen, ansonsten aushilfsweise bis zu jenem Zeitpunkt verwendet, wo sich dafür adäquat der Terminus Informatik durchzusetzen begann. Ursprünglich bezeichnete Informatik ausschließlich die Informations- und Dokumentationswissenschaft und zwar insbesondere in den sowjetisch beeinflussten Ländern. Hier wurde relativ viel Mühe darauf verwandt, einheitliche Terminologien zu schaffen, die dann mittels staatlicher Direktiven Verbindlichkeit erhielten. Als „angewandte Aufgaben“ eben dieser Informatik nannte man beispielsweise
die Ausarbeitung effektiver Methoden und Mittel für die Gewährleistung der Informationsprozesse, die Bestimmung der optimalen Formen wissenschaftlicher Kommunikation sowohl in der Wissenschaft als auch in der zwischen Wissenschaft und Produktion liegenden Sphäre.2
Eine Computer-Wissenschaft war damit jedoch nicht gemeint und auch nicht beabsichtigt. Im Unterschied dazu wurde diese sehr viel genauer durch die traditionellen und hauptsächlich von Ingenieuren eingeführten Begriffe erfasst. Steinbuch schreibt beispielsweise 1965:
Typisch für die Nachrichtenverarbeitung sind die programmgesteuerten Rechenautomaten, die in (schlechtem) journalistischem Sprachgebrauch häufig als „Elektronengehirne“ bezeichnet werden […] Mit dem Wort „Nachrichtenverarbeitung“ ist gleichwertig das Wort „Informationsverarbeitung“. Mit dem Wort „Datenverarbeitung“ wird eine Sonderform der Nachrichtenverarbeitung bezeichnet […] Von Datenverarbeitung spricht man besonders bei der Anwendung nachrichtenverarbeitender Systeme auf dem Gebiet der Automatisierung, der Büroorganisation, der Verwaltung usw.3
Bei diesem Sprachgebrauch blieb es über Jahrzehnte, vor allem in den technischen Bereichen. Der Begriff Informatik hingegen wurde als Terminus einer Computerwissenschaft offiziell vermutlich erstmals 1968 genannt; über die Umstände äußerte sich K. Nickel auf der Jahresversammlung der Naturforscher Leopoldina (14.–17. Oktober 1971 in Halle/Saale) wie folgt:
Wenn ich mich recht erinnere, war es während des von Prof. Lehmann (Dresden) einberufenen III. Internationalen Kolloquiums über aktuelle Probleme der Rechentechnik in Dresden vom 18.2.–25.2.1968, daß dieser Name „erfunden“ wurde. Während und außerhalb der Tagung wurden die verschiedensten Namen als Äquivalent für das englische computer science vorgeschlagen, wie etwa „Computer-Theorie“ und „Komputor-Theorie“, „Theorie der Informationsverarbeitung“ („Informationstheorie“ war schon für ein Spezialgebiet verbraucht) usf. Weil alle die vorgeschlagenen Namen nicht zweckmäßig erschienen (zu lang, nicht eindeutig genug) einigte man sich schließlich (wenn ich mich recht erinnere beim Frühstück am letzten Morgen der Tagung) auf „Informatik „.
Obwohl genauere Ausführungen zur Entwicklung der „Wissenschaft vom Computer“ noch ausblieben und man dies mit Bezug auf die „Skepsis des Establishments“ als „Generationsproblem“ zu entschuldigen wusste, versuchte man anlässlich dieser thematischen Tagung erstmals eine genauere Definition des Inhalts und zwar in folgender Weise:
Der Begriff Informatik bedeutet etwa: Wissenschaft und Technik ihrer Verarbeitung. Da die Informationsverarbeitung heute fast ausschließlich über den Computer erfolgt, kann man die Deutung des Begriffs Informatik auch am Computer (und am englischen computer science) orientieren durch: Informatik ist die Theorie der Wirkungsweise und Anwendung von Computern. Der Name „Informatik „ wurde erst vor etwa drei Jahren geprägt als Übersetzung des französischen Ausdrucks informatique. Auch dieser Name ist noch sehr jung. Vor etwa vier Jahren beschloß die Académie Française durch informatique den etwa sieben Jahre alten4 englischen Namen computer science zu übersetzen. Alle diese Worte bedeuten heute dasselbe.5
Der Begriff wurde bald zum Allgemeingut und unter verschiedenen Aspekten verwendet, wobei man sich im Wesentlichen an der 1977 von der International Federation for Information Processing (IFIP) veröffentlichten Definition orientierte:
Unter Informatik werden diejenigen Aspekte der Wissenschaft und Technologie gefaßt, die speziell für die (insbesondere automatische) Datenverarbeitung anwendbar sind. Sie läßt sich als Wissenschaftsdisziplin der informationsverarbeitenden Systeme auffassen, die auf deren theoretische, technische und organisatorische Aspekte gerichtet sein kann.6
Demgegenüber zeigte sich allerdings, dass die allgemeine Akzeptanz einer neuen Wissenschaftsdisziplin – beispielsweise durch begriffliche Integration in die gängigen termini technici – keinesfalls als logische Folge anzusehen war, zwischen der Genese der Disziplin per se und dem Umfang der gesellschaftlichen Reflexion mithin noch erhebliche Differenzen bestanden.
So lassen sich im Buch „Fachausdrücke der Informationsverarbeitung – Wörterbuch und Glossar Englisch-Deutsch/Deutsch-Englisch“ (Umfang 1687 Seiten, 1985 von der IBM Deutschland GmbH herausgegeben) unter den 110.000 Benennungen weder der Begriff Informatik noch die möglichen englischen Entsprechungen finden, obwohl zu jener Zeit die Herausbildung der Disziplin bereits so weit abgeschlossen war, dass eine Einordnung in die disziplinären Strukturen durchaus denkbar gewesen wäre. Auch neuere Wörterbücher7 haben den gleichen Mangel, hier findet man lediglich das dem Schlagwort EDV zugeordnete französische informatique.
Das heute im modernen Sinne verwendete Wort Informatik ist vor allem als das Integral über eine mittlerweile fest etablierte technikwissenschaftliche Disziplin zu verstehen, die zudem unter dem Einfluss aller theoretischen und praktischen Aspekte von Ingenieurwissenschaften, Elektronik, Informationstheorie, Mathematik, Logik und menschlichem Verhalten steht. Entsprechend umfangreich sind der Gegenstandsbereich, mithin die zu behandelnden Themen: Formulierung von Algorithmen, Programmierung, Modellierung und Simulation, Compilerbau, Entwurf technischer Systeme, Computergraphik, Datenbanken, Rechnerarchitektur und Rechnernetze, Betriebssysteme, Softwaretechnologie wie auch Künstliche Intelligenz und Robotertechnik.
Die Zuordnung der neuen Disziplin zu den Technikwissenschaften erfolgte keineswegs einmütig, zumal verschiedene Wissenschaftler den Gegenstand lediglich in „Codierung durch Zeichen, Mechanisierung der Operationen mit Zeichen und programmierter Ablaufsteuerung“ sahen; die „Grundlage des Wissenschaftsinhaltes der Informatik“ erschöpfe sich deshalb in der „Programmierung der Informations-, das heißt Zeichenverarbeitung“. Aus dieser Perspektive entstand auch das Argument, dass das Geschaffene immateriell, also nicht an Stoff und Energie gebunden sei, und die Informatik aus diesem Grunde – wie die Mathematik – zu den Geisteswissenschaften gehöre.
Eine derartige Auffassung ist allein schon deshalb nicht haltbar, weil Stoff und Energie notwendige Voraussetzungen für die – wie immer geartete – Existenz von Informationen sind. Die von Norbert Wiener gemachte Aussage „information is information, not matter or energy“ ist viel diskutiert und interpretiert worden, hilft hier allerdings kaum weiter, da „matter“ nicht eindeutig zu übersetzen ist. Sehr viel konsequenter scheint der von Völz erarbeitete Ansatz, davon ausgehend, dass Informationen über stofflich-energetische Träger ausgetauscht werden, die zwar notwendige Voraussetzung, aber nicht mehr das Wesentliche sind. Er definiert aus diesem Grunde:
Information ist Träger und das, was der Träger trägt. Dann gilt also: Information ist Träger und Getragenes.8
Es ist in diesem Rahmen nicht beabsichtigt, dieser Problematik weiter nachzugehen; denn seit der fundamentalen Arbeit „The Mathematical Theory of Communication“ des amerikanischen Elektroingenieurs und Mathematikers Claude Elwood Shannon (1948), die auch den Begriff bit of information hervorbrachte, sind bereits weit über hundert Ansätze zur Definition der „Information“ gemacht worden – eine einheitliche Aussage gibt es allerdings noch immer nicht.
Das Verständnis zur Informatik als technikwissenschaftliche Disziplin stützt sich vor allem auf das Argument, dass das dafür vorausgesetzte Objekt ein technisches ist. Bei den zum Vergleich genannten Artefakten Dampfmaschine, Telegraph/Telefon und Elektromotor ist die Zuweisung insofern unproblematisch, als über die daran beteiligten Elemente Stoff und Energie Einmütigkeit besteht. Der Computer – und das unterscheidet ihn von den Genannten – verfügt zudem noch über informationelle Elemente. Für das Technische hat sich deshalb der Begriff Hardware, für das Informationelle der Begriff Software eingebürgert; obwohl eindeutig voneinander abgrenzbar, bilden nur beide zusammen den Computer. Betrachtet man den Computer aus historischer Perspektive, dann war zunächst der Mensch Träger der Software. Galt es also mit der kurbelgetriebenen Rechenmaschine eine Operation zu realisieren, blieben die dafür erforderlichen Anweisungen stets Feld seines Handelns. In zunehmendem Maße wurden sie allerdings der Maschine übertragen: zunächst mittels variabel einsetzbarer Datenträger, später dann als fest gespeicherte und damit im Technischen resistente Programme. Genau unter diesen Bedingungen formierte sich der Computer, und in entsprechenden Definitionen wird nicht umsonst das Charakteristikum der Programmsteuerung als Unterscheidungskriterium expressis verbis hervorgehoben.
Diese Dualität war schließlich auch von Einfluss auf die Genese der entsprechenden Wissenschaftsdisziplinen. Zum einen entwickelte sich in Interdependenz zur Hardware die Informationstechnik, wobei die definitorische Bestimmung des Gegenstandes noch immer schwierig ist; Software wurde mithin zum Gegenstand der Informationsverarbeitung – beide zeugten schließlich die Informatik. Die Disziplinen gruppieren sich somit um einen gemeinsamen, interagierenden Objektbereich, den Computer. Diese Gemeinsamkeit widerspiegelt sich folgerichtig auch im jeweiligen Gegenstand, sodass eine historische Bewertung deren Gegebenheiten in notwendigem Umfang Voraussetzung ist.
Für die Beschreibung des Disziplinbildungsprozesses hat es sich als vorteilhaft erwiesen, einen schematischen Rahmen zugrunde zu legen und hinreichend genaue Kriterien einzubeziehen, die jedoch nicht mit dogmatischer Strenge verfolgt werden sollen. Die Besonderheiten in der Genese technikwissenschaftlicher Disziplinen berücksichtigend, leitet sich daraus folgendes Schema ab:
Vorgeschichte: Dominanz der Empirie, Erarbeitung von Teillösungen technischer und wissenschaftlicher Art, vielfältige disziplinäre Einflüsse.
Disziplinbildung: Heranreifen von Widersprüchen im System der beteiligten Wissenschaften, die sich in der Schaffung eines neuen Objektbereiches (auf)lösen und damit die Genese einer neuen Disziplin initiieren; daraus entsteht ein gegenstandsspezifisches System von Erkenntnissen als Voraussetzung für Funktion, Kontinuität und gesellschaftliche Akzeptanz dieses Objektbereiches (= Phase der Etablierung, Kernprozess der Disziplingenese).
Konsolidierung: Der Objektbereich erweist sich als dauerhaft und entwicklungsfähig; die neue Disziplin erhält ihre volle institutionelle Dimension.
Unter den genannten Voraussetzungen soll diese „Geschichte der Informatik“ sowohl die technische Spezifik und ihre Fortentwicklung als auch den mit der Disziplingenese verbundenen wissenschaftshistorischen Prozess und seine Wirkungsmechanismen beschreiben. Vorteilhaft wird sein, kognitive Faktoren wie Probleme des Zusammenhangs zwischen Erkenntnissen der Natur- und Technikwissenschaften, schließlich von gesellschaftlichen Bedingungen ihrer Nutzung und Verwertung in die Betrachtungen einzubeziehen. Aus dieser Perspektive sollte es möglich sein, in die Entwicklungsgesetzmäßigkeiten von Technikwissenschaften Einblick zu nehmen, was insofern wichtig scheint, als Derartiges in den zurückliegenden Jahren ausschließlich in den Naturwissenschaften und der Mathematik angesiedelt war. Die Informatik bietet demgegenüber gute Voraussetzungen und ist zugleich von hoher Aktualität – Neugier und Interesse sollten deshalb eine Triebkraft sein, sich die für viele noch fremde Materie zu erschließen.
Die Geschichte der Menschheit, an deren Beginn die archaische Regulation von Sozialbeziehungen steht, zeigt sich heute als vieldimensionales, nur noch mühsam überschaubares Gebilde. Erkenntnisse, Entdeckungen und Erfindungen begleiteten diesen evolutionären Prozess, in dem sich der Mensch – einem Stoffwechsel gleich – in ständiger Auseinandersetzung mit der Natur befand. Die Befähigung des Menschen, Werkzeuge, schließlich Arbeits- und Kommunikationsmittel zu schaffen, war eng verbunden mit der Herausbildung des Denkens und der Intelligenz. Dafür einen festen Zeitraum zu bestimmen, ist ebenso schwer wie die genauen Umstände jener intellektuellen Differenzierung nachzuempfinden. Dennoch geben uns überlieferte Zeugnisse alter Kulturen reichlich Auskunft über die Vielfalt der Prozesse, und da Sozialbeziehungen zu einem Wesentlichen Teil von Informationen getragen werden, lässt sich genau hiermit ein Zugang zur Thematik finden.
Am Anfang stehen die Kategorien Maß, Zahl und Gewicht. Sie spielen bei der Herstellung einer ersten elementaren Ordnung im sozialen Gefüge des Menschen eine große Rolle und sind zugleich Voraussetzung für die Entdeckung der Welt als eines geordneten Kosmos. Eine der kognitiven Fähigkeiten des frühen Menschen dürfte das Zählen gewesen sein, Messen und Wägen bauten darauf auf. Aus dem Zählen entwickelte sich „rechnendes Denken“, auf einer höheren Stufe dann die Mathematik. In der Vorgeschichte ist die Zahl weniger ein abstraktes Gebilde, sondern mehr eine naturphilosophische Kategorie und damit ein Schlüssel zum Weltverständnis. Die Anschauung „Die Zahl ist die Natur und das Wesen der Dinge“ galt bereits für die Pythagoräer; die Mathematik bildete demnach eine Vorstufe zur Vereinigung mit dem Göttlichen, denn – so Aristoteles – sie hielten besonders „die Anfänge in der Mathematik auch für die Anfänge aller Dinge“. Weiter sagt Aristoteles dazu:
Da nun in dem Mathematischen die Zahlen von Natur das Erste sind, und sie in den Zahlen viel Ähnliches mit den Dingen und dem Werdenden zu sehen glaubten, und zwar in den Zahlen mehr als in dem Feuer, der Erde und dem Wasser, so galt ihnen eine Eigenschaft der Zahlen als die Gerechtigkeit, eine andere als die Seele und so fort für alles Übrige. Sie fanden ferner in den Zahlen die Eigenschaften und die Verhältnisse der Harmonie, und so schien alles andere seiner ganzen Natur nach Abbild der Zahlen und die Zahlen das Erste in der Natur zu sein. Deshalb hielten sie die Elemente der Zahlen für die Elemente aller Dinge und den ganzen Himmel für eine Harmonie und eine Zahl.1
Im „Buch der Weisheit“, zwischen 80 und 30 v. Chr. von einem der Weisheitslehrer Israels verfasst und als Abschluss der alttestamentlichen Weisheitsliteratur aus der jüdischen Diaspora in Ägypten zu bewerten, findet sich im elften Abschnitt die Sentenz Sed omnia in mensura, et numero, et pondere disposuisti – „Aber du hast alles nach Maß, Zahl und Gewicht geordnet“. Ein seither berühmtes Wort, das im Verlaufe der vielhundertjährigen Geschichte genau dann bemüht wurde, wenn es galt, die mathematische Struktur der Welt und alles in ihr Befindliche zu belegen und ihre Geheimnisse zu enträtseln.
Zahlreiche Gelehrte sahen in dieser Formel eine sichere Quelle, zu allen Bereichen der Natur vorzustoßen. Viele Ansätze erscheinen heute kurios und zeugen von der unangemessenen Überschätzung des Instrumentariums der Mathesis universalis. So erwies sich als Irrweg, hinter Zahlen und Buchstaben den verborgenen Sinn der Welt zu suchen und dem Text der Heiligen Schrift verschlüsselte Voraussagen zu entnehmen, wie es die in alter Mystik begründete jüdische Geheimlehre Kabbala tat. Auf diesem Wege konnten Religion und Mathematik nicht in Beziehung gebracht werden. Versuche ähnlicher Art finden sich im „Endchrist“ des Esslinger Pfarrers und Mathematikers Michael Stifel sowie in der Schrift „Himmlische und gehaime Magia“ des Ulmer Rechenmeisters und Ingenieurs Johann Faulhaber. Galileo Galilei versuchte sich bereits im Alter von 24 Jahren an der Berechnung von Lage, Gestalt und Größe der Hölle und hielt sich hierzu – einen alten Streit zwischen zwei Dantekommentatoren aufnehmend – an die Verse des berühmten Italieners. Der Franzose Jean Butéon ermittelte für die Arche Noah mit mathematischen Argumenten genauere Vorstellungen über die hier verwendeten Baumaterialien, den Schiffsanstrich, über Fenster und Türen, die Länge der Elle, über Form und Ausgestaltung, Namen der Tierarten, Menge des Proviants, Verteilung der Ställe u. a.m. Auch der „letzte“ Universalgelehrte Gottfried Wilhelm Leibniz war von Derartigem nicht frei, erkühnte er sich doch, für den Ausgang der 1669 anstehenden polnischen Königswahl die Sicherheit des mathematischen Beweises zu bemühen.
Zahlzeichen verschiedener Kulturvölker. Quelle: Vorndran, S. 13
Die Mathesis universalis läßt sich bis an den Beginn der menschlichen Evolutionsgeschichte zurückverfolgen; dort nahm das (archaische) Denken als früheste Form kognitiver Wechselwirkung des Menschen mit der Natur seinen Anfang. Der Entwicklung des Denkens folgte die Entwicklung von Lautbildung und Sprache als Voraussetzungen für die zwischenmenschliche Kommunikation. Im Zusammenhang mit den notwendigen Regelungen innerhalb der sozialen Systeme der urgeschichtlichen Gemeinwesen und zur Gewährleistung dieser Kommunikation kam es zur Vergegenständlichung der Gedanken durch die Schrift – eines der wichtigsten intellektuellen Werkzeuge des Menschen, denn Schriften schließen Gedanken ein und machen diese reproduzierbar, speichern sie über Zeit und Raum hinweg. Zunächst waren dies ausschließlich Bilderschriften – Pikto- und Ikonogramme –, die Aussagen über das tägliche Leben machten; später wurden diese von Lautzeichen, schließlich von Zeichen eines vereinbarten Alphabets abgelöst. Die ältesten phonetisch lesbaren Zeichen in Gestalt von Täfelchen aus Ton oder Elfenbein hinterließen vor 5500 Jahren vermutlich die Bewohner von Arappa, einem Ort im heutigen Pakistan; andere Funde mit Hieroglyphenschrift verweisen auf Mesopotamien, dem Zweistromland zwischen Euphrat und Tigris, nach Elam und Ägypten und geben der Archäologie weiterhin Rätsel auf. Früher noch als diese formierten sich Zeichensysteme für Zahlen und Zahlenbegriffe; man nimmt an, dass dies vor etwa 25.000 bis 30.000 Jahren, also noch in der der Cro-Magnon-Phase der Menschheitsgeschichte, erfolgte. Die damit in Verbindung stehenden intellektuellen Prozesse sind schwer nachzuvollziehen und werfen bezüglich ihres Ursprungs viele Fragen auf: Wie entstand das Zahlengefühl, der Zahlenbegriff, wann löste sich dieser von der Realität und wurde zum Abstraktum, wann lernte man Zählen und damit die Welt mengenmäßig erfassen? Da Zahlen für Mengen stehen, ist offen, wie viel der Mensch zunächst erfassen konnte; noch heute kennt man im australischen Aranda nur Zahlwörter für eins, zwei, drei, vier und viel.
Fortschritte ließen sich daran ablesen, dass einfache Zeichen für das Eins-Element von Zeichen für beliebige Mengen verkörpernde Anzahlen abgelöst wurden. Wirtschaftliche Faktoren wie Handel, Tausch, Eigentums- und Besitzverhältnisse, Schulden und Guthaben machten Reihung und Bündelung von Zahlen notwendig – so entstanden die Zahlensysteme. Mit der Differenzierung der ökonomischen Beziehungen wuchsen auch Anschaulichkeit und Dimension der Begriffe. Das Paar (Augen, Hände, Füße u. a.) und die diesem adäquate „2“ als Menge wurden schließlich überwunden und erweitert, es entstand das abstrakte Zahlwort zur allgemeinen Charakterisierung von Mengen.
Augen, Finger und Hände bekamen entscheidenden Einfluss auf die Herausbildung von Zahlen; denn entsprechende Zusammenhänge zu den Ziffern 1, 2, 3 und 5 usw. sind unverkennbar. So verwendeten Griechen, Römer, Mayas und Chinesen für ihre Zählsysteme die 5er-Stufung. Und noch heute zählen die Kaufleute des indischen Staates Maharashtra in ihrem Geschäftsalltag auf der Basis 5 – also mit einem quinären Zahlensystem. Aus der Stilisierung der Hand dürfte möglicherweise das römische V, verdoppelt als X (also 5 und 10), hervorgegangen sein. Denkbar wäre auch, dass – wie bei Kerbungen üblich – ein Strich nochmals überkerbt wurde und somit das Zeichen X ergab.
Chinesen und Mongolen, aber auch die indoeuropäischen und semitischen Kulturen, verwendeten frühzeitig die 10er-Stufung und damit das noch heute übliche Dezimalsystem. Die Idee und der fast universale Gebrauch haben sich an die physiognomischen Gegebenheiten des Menschen angelehnt, denn Jeder lernt das Zählen zuerst an seinen Fingern, obwohl das Zählen nach Zehnergruppen kaum Vorteile bietet. Es hat deshalb in der Geschichte nicht an Angeboten gefehlt, andere Zahlen zur allgemeinen Basis zu nehmen: die mathematisch vorteilhafte Zwölf zum Beispiel, da sie vier Divisoren hat (die Zehn hat nur zwei), oder eine Primzahl, bei der Brüche nicht mehr gekürzt werden müssten. Die evolutionäre Herkunft des Dezimalsystems ließ derartigen Vorstellungen kaum eine Chance. So stehen noch heute die gebräuchlichen zehn Ziffern des Dezimalsystems – quasi die atomistischen Grundelemente der Algebra2 – als Nukleus der Mathematik zur Verfügung und bestimmen den weiteren Lauf dieser Kulturleistung.
Inder wie auch Kelten, Mayas und Azteken des präkolumbianischen Mittelamerika verwendeten überdies, ausgehend von der Zahl der Finger und Zehen, eine 20er-Stufung, also ein Vigesimalsystem – dementsprechend gab es 20 Zahlzeichen. Der Maya-Kalender enthielt beispielsweise „Monate“ von 20 Tagen und sah Zyklen von 20, 400 und 8000 Jahren vor; die Sprache enthielt gesonderte Namen für jede Zwanzigerpotenz. Vergleichbares ist auch in anderen Sprachen zu finden: Im Englischen bedeuten one score, two score, three score 20, 40, 60 usw.; das Pfund Sterling als Währungseinheit bestand (bis 1971) aus 20 Shilling. Im Französischen steht quatre-vingt für 80 – also vier Zwanziger, in entsprechender Weise findet sich in anderen Zahlen die Tradition des Zählens nach Zwanzigereinheiten.
Bemerkenswert ist die 60er-Stufung – das Sexagesimalsystem. Zuerst gebrauchten es die Griechen, dann die Araber als wissenschaftliche Zählmethode der Astronomen; auch bei Sumerern und Babyloniern war es bekannt. Der Ursprung lässt sich kaum mehr nachvollziehen, wenngleich archäologische Textfunde auf Keilschrifttafeln durch computergestützte Analysen weitgehend entziffert werden konnten. Außer 60 verschiedenen Zahlzeichen existierten etwa 1000 weitere Symbole zur Kennzeichnung von Gegenständen, Namen, Titeln oder Orten. Das sumerisch-babylonische Zahlensystem kannte nur zwei Zeichen: einen senkrecht stehenden Keil für die Eins und einen nach rechts offenen Winkel für die Zehn. Die entsprechende Zahl konnte durch additive Anordnung der beiden Zeichen gebildet werden. Für das „Schreiben“ – eigentlich ein „Drücken“ in den weichen Ton – verwendete man Griffel mit rundem oder dreieckigem Querschnitt. Ein Zeichen für die Null existierte noch nicht.
Assyrisch-babylonische Ziffern der Zahlen unter hundert, Mischform zweier Zahlensysteme (Basis 10 und 60, senkrechter Nagel: Wert 1, kleines Dreieck: Wert 10). Quelle: Symbolverarbeitende Maschinen, S. 23
Über den Sinn des Sexagesimalsystems lässt sich nur mutmaßen: Die Zahl 60 ist durch die niederen Zahlen 2, 3, 4, 5, 6 leicht teilbar – ein möglicherweise besonders von Gelehrten der Priesterschulen gepriesener Vorteil. Aber auch die Anzahl der Tage eines Jahres, auf 360 abgerundet, und die davon abgeleitete Unterteilung des Kreises in 360 Grad könnten damit in Zusammenhang stehen. Bei Zeit- und Kreisteilung, auch beim Kompass, hat sich das 60er-System bis heute erhalten.
Als Problem erwies sich die Darstellung großer Zahlen; denn Stellenwertsysteme, bei denen gleiche Zahlzeichen in Abhängigkeit von ihrer Position unterschiedliche Mengen repräsentieren, beanspruchten für ihre endgültige Ausprägung 2000 Jahre länger als die alphabetische Gestaltung der Schrift. So blieb zunächst die additive Darstellung einer Menge, d. h. die wiederholte Anordnung eines Zahlzeichens.
Tontafel (1900–1600 v. Chr.) aus der Plimpton-Sammlung, Columbia University, N. Y., unten die Transliteration in arabischen Ziffern. Quelle: Lehmann, S. 97
Eine derartige Notation findet sich im römischen Zahlensystem wieder, dessen älteste Zeugnisse bis ins erste vorchristliche Jahrhundert zurückreichen. Um das schwerfällige und unübersichtliche Rechnen zu erleichtern, half man sich in der Praxis damit, neben den Zehner- zusätzlich Fünfergruppen zu bilden und diesen entsprechende Zahlzeichen zuzuordnen. Aus der Vielfalt römischer Zahlzeichen, die in den verschiedenen Kulturen verwendet worden sind, stehen noch heute
I für 1
V für 5
X für 10
L für 50
C für 100
D für 500
M für 1000
Nach dem additiven Prinzip ist auch die Zahlendarstellung in alphabetischen Systemen aufgebaut, wie sie von Hebräern und Griechen ab dem vierten vorchristlichen Jahrhundert verwendet wurden. Noch heute werden die Daten des jüdischen Kalenders wie auch die Nummerierung der Abschnitte und Verse des Alten Testaments in einer aus Buchstaben des Alphabets bestehenden Zahlschrift angegeben. Eine besondere Kennzeichnung ermöglicht, sie von normalen Buchstaben zu unterscheiden und Verwechslungen zu vermeiden. Das Zahlenalphabet der Griechen stammt wahrscheinlich aus dem achten vorchristlichen Jahrhundert und verfügt über vielfältige, regional bedingte Ausprägungen. Seit der Antike bis fast ins Mittelalter spielte es im Vorderen Orient und im östlichen Mittelmeerraum eine dem lateinischen System in Westeuropa vergleichbare Rolle. Mit dem nachfolgend angeführten Ziffernsystem lassen sich Zahlen mit drei Zeichen bis zum Wert 999 mühelos darstellen.
Alpha
1
Beta
2
Gamma
3
Delta
4
Epsilon
5
Digamma
6
Zeta
7
Eta
8
Theta
9
Iota
10
Kappa
20
Lambda
30
My
40
Ny
50
Xi
60
Omikron
70
Pi
80
Koppa
90
Rho
100
Sigma
200
Tau
300
Ypsilon
400
Phi
500
Chi
600
Psi
700
Omega
800
San
900
Das alphabetische Ziffernsystem der Griechen; die Buchstaben Digamma, San und Koppa wurden frühzeitig aufgegeben.
Nicht zuletzt dienten „gelehrte Zeichen“ dazu, ganz Wörter oder Ideogramme chiffriert darzustellen und bildeten damit einen Teil der Zahlenmystik; die so entstandenen Kryptogramme sind zum Teil heute noch nicht erschließbar. Für die Zahlendarstellung verwendete man schließlich abstrakte Zeichen – solche also, die weder alphabetischen noch numerischen Zeichen zugeordnet werden können und im Allgemeinen keinen Rückschluss auf die Bedeutung zulassen.
Eine gedankliche Revolution in der Zahlendarstellung vollzog sich in jenem Moment, als man begann, Positionssysteme einzusetzen. Praktikabel waren diese allerdings nur, indem für die Leerstelle ein gleichberechtigtes Zeichen vereinbart war, und dieses war die Null. Ihrer Geschichte nachzuspüren, ist nicht ganz einfach; denn möglicherweise ist sie sowohl von den Mayas als auch von den Indern ersonnen worden. Für Indien lässt sie sich erstmals um 200 v. Chr. nachweisen; archäologische Funde, die etwa 600 n. Chr. gemacht wurden, zeigen sie als kleinen Kreis. Als Zahlwort für die Null wurde sunya in der Bedeutung von „leer“ verwendet. Im Arabischen taucht dieses Wort als as-sifr auf, in den Mathematikbüchern dann als cifra oder cephirum, cipher, chiffre, Ziffer usw. Die Bezeichnung „null“ lässt sich bis ins 13. Jahrhundert zurückverfolgen; als figura nihili – die Zahl des Nichts – ist sie erstmals in einer lateinischen Schrift des in Paris ansässigen Lehrers Sacrobosco zu finden. Über die nulla figura mutierte sie schließlich zur „Null“.3
Die Null konnte sich im ostasiatischen Raum rasch verbreiten, sowohl Chinesen als auch Araber integrierten sie in das Gebäude ihrer Mathematik. Viele Gelehrte beherrschten schon das „Rechnen im Sand“ und vermochten, mit großen Zahlenmengen umzugehen. Später verbreitete sich die indo-arabische Mathematik immer weiter in das Abendland hinein und mit ihr auch das gesammelte mathematische und philosophische Wissen der Antike. Daran hatten nicht zuletzt die Entwicklung der Städte und des Handels, die Zunahme des Geldumlaufs, aber auch die Kreuzzüge und die weit verzweigten Mönchsorden ihren Anteil.
Nicht immer war man jedoch den Mathematikern wohlgesinnt; beispielsweise sprach sich der einflussreiche Augustinus, Bischof von Hippo Regius und Doctor ecclesiae, mit unmissverständlicher Strenge gegen die Mathematiker aus:
Der gute Mensch solle sich hüten vor den Mathematikern und all jenen, die leere Vorhersagungen zu machen pflegen, schon gar dann, wenn diese Vorhersagungen zutreffen. Es besteht nämlich die Gefahr, dass die Mathematiker mit dem Teufel im Bunde den Geist trüben und den Menschen in die Bande der Hölle verstricken.
Die Intoleranz der katholischen Kirche dauerte zwar noch geraume Zeit an, konnte jedoch die zunehmende Ausbreitung mathematischen Wissens keinesfalls verhindern. So ist die Geschichte des Franzosen Gerbert de Aurillac – er hat als Erster in Europa die indo-arabischen Ziffern zusammen mit dem Astrolabium allgemein verbreitet – eindrücklicher Beweis dafür, in welch starkem Maße Wissenstransfer durch Schicksal und Lebensweg bestimmter Persönlichkeiten bedingt war.
Gerbert war zunächst Mönch im Kloster von Saint-Géraud in Aurillac (Frankreich), befasste sich dann in Spanien mit Mathematik und Astronomie sowie den von den Arabern übermittelten Rechenmethoden. Als Leiter der Domschule zu Reims nutzte er das Katheder, die Mathematik des Abendlandes populär zu machen. Und er tat dies auch in weiteren Stationen: als Leiter der italienischen Abtei Bobbio, als Erzbischof von Reims und von Ravenna, schließlich nach seiner Wahl zum Papst mit Namen SilvesterII. Auf diese Weise gerieten viele Kulturkreise in Verbindung, sodass neuartige Erkenntnisse leicht weitergegeben werden konnten. Allerdings erfolgte dies weniger durch Handschriften, sondern hauptsächlich durch das Rechnen mit gegenständlichen Hilfsmitteln, da sich die arabische Zahlennotation vorzüglich für deren Entwicklung empfahl. Die hoch entwickelte griechische Mathematik, vertreten durch Thales von Milet, Euklid, Apollonios, Archimedes, griff auf das indische Stellenwertsystem zunächst nicht zurück, was möglicherweise durch eingeschworene Traditionen oder andere Restriktionen begründet war.
Mit der zunehmenden Verbreitung der neuen Rechenkunst finden sich auch die ersten diesbezüglichen Schriften und Anleitungen für fundamentale algoristische Rechenoperationen. Die älteste bekannte Handschrift mit indo-arabischen Zahlzeichen – der „Codex Vigilanus“ – wurde im nordspanischen Kloster Albeida 976 von dem Mönch Vigilia angefertigt. In dieser Kopie sind zwar die neun indo-arabischen Ziffern, aber keine Null zu finden. Eine Erklärung dafür könnte sein, dass sie für das gegenständliche Rechnen – zum Beispiel mit dem Abakus – nicht erforderlich war. Vom beginnenden 11. Jahrhundert an tauchen die Ziffern auch in anderen Schriftstücken auf, zumeist verändert und den verschiedenartigen Schreibgewohnheiten angepasst.
In dieser Zeit wirkte auch der in Bagdad ansässige persische Astronom und Mathematiker Abu Abdellah Muhammed ben Musa el-Chowarezmi (geschrieben auch Chwarezmi, Chwarizmi, Alkharezmi, Khowarizmi), vor allem bekannt durch sein auf indischen Quellen basierendes Buch „Arithmetik“. Das Buch beginnt mit dem Gegenstand des Zählens, erläutert die Ziffern und den Gebrauch der Null und schließt mit einer systematischen Diskussion über die fundamentalen Operationen mit ganzen Zahlen. Über zahlreiche Kopien konnte sich das Werk rasch verbreiten; arabischen Gelehrten diente es zur Grundlage neuer theoretischer Ausarbeitungen.
Ein weiterer einflussreicher Gelehrter war Leonard de Pisa, bekannt auch unter dem Namen Fibonacci. Er zählt zu den besten mittelalterlichen Mathematikern in Europa und machte sich vor allem durch sein 459 Seiten umfassendes Buch „Liber abbaci“ (Das Buch vom Abbacus, 1202) bekannt. Der Abbacus bezeichnete – im Unterschied zum mittelalterlichen Rechenbrett – die neue („indische“) Arithmetik und trug wesentlich zu deren Befruchtung in Europa bei. Arithmetik sowie Algebra der linearen und quadratischen Gleichungen wurden hier in einer noch nicht gekannten Tiefgründigkeit behandelt. Als einer der ersten europäischen Gelehrten führte Fibonacci die negativen Zahlen ein – er nannte sie „Schuld“.
Fibonaccis Erkenntnisse wurden vor allem im „Carmen de algorismo“ (Das Poem des Algorism, ca. 1220) von Alexander de Villa Dei und im „Algorismus vulgaris“ (Allgemeiner Algorism, ca. 1250) von John Hallifax (auch Sacrobosco genannt) fortgeschrieben und dienten als Lehrmaterialien an vielen europäischen Universitäten, so z. B. in Oxford und Paris. Zahlreiche lateinische Kopien wie auch Übersetzungen ins Italienische, Deutsche, Englische, Französische und Isländische sorgten – trotz schwer verständlicher Hexameterverse – für eine schnelle Verbreitung und hatten bis ins 16. Jahrhundert hinein Bestand; selbst Leonhard Euler übernahm noch Aufgaben und Lösungsmethoden für seine berühmte „Algebra“ (1768). Das Mittelalter war also aus mathematikwissenschaftlicher Perspektive eine Zeit des Aufbruchs; denn nach dem Vorbild der Avantgardisten wurden in Italien bereits im 13. Jahrhundert die ersten Abbacus-Schulen gegründet, wo Kinder der Kaufleute und Händler im Alter von zehn bis zwölf Jahren von speziellen Lehrern, den maestri d’abbaco, unterrichtet wurden. Diese Rechenmeister machten sich vor allem um die Entwicklung der Algebra verdient. Beispielsweise gelang ihnen bereits in der ersten Hälfte des 16. Jahrhunderts die Lösung der kubischen und biquadratischen Gleichung in Radikalen. Auch Leonardo da Vinci besuchte eine derartige Schule; möglicherweise hat er hier wesentliche Anregungen erhalten, sich mit dem Problem der Perspektive zu beschäftigen.
Die indo-arabischen Zahlzeichen wurden vom späten 13. Jahrhundert an zunehmend in Europa bekannt; für eine durchgehende Anwendung musste jedoch manches Hindernis überwunden werden. Im Jahre 1299 erließ man beispielsweise in Florenz eine Verfügung, nach der es Kaufleuten und Bankhäusern untersagt war, in ihrer Buchführung das neue Zahlensystem zu verwenden. Zur Begründung führte man an, dass der Gebrauch der Null Betrügern Tür und Tor öffne, da sie sich leicht in eine Sechs oder Neun abändern ließe. Auch die Kirche zeigte sich misstrauisch und bezeichnete die Zahlzeichen als das Werk von Nichtchristen. Als man sich in Südeuropa in zunehmendem Maße um bessere Kontakte zu den arabisch-orientalischen Ländern bemühte und ihre hoch stehende wirtschaftliche und geistige Kultur zu erschließen begann, verschwand auch der Widerstand gegen das neue Zahlensystem. Die Auseinandersetzung zwischen Abacisten (die Anhänger des Abakusrechnens) und Algoristen (die Vertreter des schriftlichen Rechnens) entschied sich jedoch erst mit dem sukzessiven Übergang zur Geldwirtschaft und deren Folgen: Berechnung von Zins und Zinseszins, Einführung der doppelten Buchführung, Aufschwung des Bankwesens und Einführung des bargeldlosen Geschäftsverkehrs. Luca Paciuoli fasste die Situation in seiner großen Arbeit in Venedig 1494 treffend zusammen, indem er verständlich machte, wie allem ein numerischer Wert zuzuweisen ist, selbst solchen Unwägbarkeiten wie „faulen Krediten und gutem Willen, Schmähungen und einem guten Ruf“.
In dem geschilderten Zeitraum nahmen auch die Wissenschaften einen gewissen Aufschwung; denn die Universitäten widmeten sich in zunehmendem Maße den Septem artes liberales (die Sieben Freien Künste) und boten in Gestalt von trivium und quadrivium ein fruchtbares Podium für das Instrumentarium der Mathematik. Bald entrückte der scholastische Lehrbetrieb der christlichen Dogmatik und wandte sich neuen Inhalten und Perspektiven zu. Die Wissenschaft blieb somit nicht länger nur „Magd der Theologie“, sondern konnte sich endlich aus der Umklammerung lösen und schrittweise emanzipieren. Für die Mathematik, speziell für das Rechnen, eröffnete sich damit ein neuer gesellschaftlicher Horizont.
Eine besonders fruchtbare gesellschaftliche Epoche bildete die Renaissance, die nicht nur die Abkehr vom alten Orbis terrarum brachte, sondern die weitere Entdeckung der Erde, vor allem das Aufblühen der vielfältigen mathematischen Prinzipien der Naturphilosophie begünstigte. Dichter, Gelehrte, Publizisten und Philosophen wurden zu Trägern humanistischer Ideale und verkündeten neuartige Lebensanschauungen, aufbauend auf der Reinheit antiken Denkens und Handelns. Für die Mathematik bedeutete dies ebenfalls „Wiedergeburt“, nämlich das Erschließen der Schriften von Archimedes, Ptolemaios, Euklid, Apollonios, Diophantos und anderen Mathematikern der Antike. Für eine rasche Verbreitung sorgte Johannes Gutenbergs epochale Erfindung des Buchdrucks mit beweglichen Lettern; mathematisches Wissen wurde damit der Praxis vermittelt und half auf diese Weise den Wissenschaften bei der Emanzipation von den scholastischen Fesseln des Mittelalters. Bedeutung gewannen auch das Studium und die Bewältigung technischer Probleme: die intensive Nutzung von Wind und Wasser, Verbesserung von Methoden im Bergbau, in der Aufbereitung und Verhüttung von Erzen, im Metallgießen, bei der Keramik-, Glas- und Seifenproduktion. Die Beschäftigung mit Flaschenzügen und Schneckengetrieben, ebenso die Konstruktion nützlicher Maschinen, blieb nicht nur auf die ideenreichen Entwürfe von Leonardo da Vínci oder Agostino Ramelli beschränkt, sondern entwickelte sich zum Allgemeingut aller praktisch Tätigen.
Wissen über die Welt der Natur war also gefragt, und der aus dem sächsischen Leisnig stammende Physiker, Geograph und Astronom Petrus Apianus behauptete sogar, ohne diese Fortschritte „würde das Leben zurückfallen in den Zustand der Menschen in alter Zeit, die ohne Gesetze oder Zivilisation lebten, wie wilde Tiere“. Viele neue Gedanken – z. B. in Kopernikus’ „De revolutionibus orbium coelestium“ (1543), Giordano Brunos „Vom Unendlichen, dem All und den Welten“ (1585) und Keplers „Astronomia nova“ (1609) – richteten sich wider das aristotelische Weltbild und vermochten sich vielfach erst über das Totenbett der kirchlichen Autorität durchzusetzen. Die neuen und revolutionären Erkenntnisse waren jedoch nicht aufzuhalten, zumal sich klassische Naturwissenschaften und Praxis bald an die Hand nahmen, um stufenweise zusammenzuwachsen.
Der englische Philosoph Francis Bacon antizipierte mit klarem Blick die Herrschaft des Menschen über die gesamte Natur und dessen allgemeine Wohlfahrt; was bislang casus war, sollte von nun an ars werden, die ars inveniendi – die Kunst des Erfindens – sollte an die Stelle der zufälligen Entdeckung treten. Bacons „Novum organum scientiarum“, geschrieben 1620, zeigte in beeindruckender Weise auf, wie es möglich wäre, „in den Wissenschaften Entdeckungen zu machen, die dem ganzen menschlichen Geschlecht zugute kommen, denn der Menschen Herrschaft […] über die Dinge beruht allein auf den Künsten und Wissenschaften“.
Damit war gleichermaßen der Weg gewiesen, die jahrhundertelang aufrechterhaltene Schranke zwischen handwerklicher Tradition und Stubengelehrsamkeit, die bis dahin die „mechanischen“ von den „Freien“ Künsten schied, zu Fall zu bringen. Für die Mathematiker bedeutete dies Hinwendung zu den artefici und virtuosi, wie sie in Gestalt der Handwerker, Büchsenmacher, Zeugmeister, Mühlenbauer, Ingenieure und Architekten existierten; denn Entwicklung und Gebrauch von Maschinen forderten in zunehmendem Maße heraus, hieran die moderne Mechanik zu entdecken und deren Gesetze zu bestimmen. Die Vervollkommnung der Uhr als Inkarnation des Universums, noch wichtiger und unentbehrlicher als Hilfsmittel für Astronomie und Navigation, spielte hierbei eine besondere Rolle; und die Mechaniker des Uhrenbaus waren es schließlich auch, die ihre Kenntnisse in den Bau von Rechenmaschinen einbrachten. In diesem Prozess des Zusammenwachsens von Theorie und Praxis spielte die Mathematik eine nicht unbedeutende Rolle, zumal der gesellschaftliche Fortschritt in zunehmendem Maße den Ausbau der Trigonometrie, die Algebraisierung des Rechnens und die Verbesserung der Rechenmethoden erzwang. Infolgedessen gingen die Gelehrten endlich daran, über die Entwicklung dafür geeigneter mechanischer Einrichtungen und Hilfsmittel nachzudenken und fanden auf diese Weise Zugang zur praktischen Rechenkunst und zum instrumentellen Rechnen.
Die Behandlung von Zahlen, das Rechnen und die Mathematik sind nicht denkbar ohne spezifische „Werkzeuge“, es sei denn, alle Operationen spielten sich ausschließlich im menschlichen Gehirn ab. Speicherkapazität wie auch Umfang und Geschwindigkeit der Verknüpfung sind jedoch begrenzt, deshalb sah sich der Mensch frühzeitig genötigt, Entbehrliches auszulagern und für das Speichern und Operieren entsprechende Hilfsmittel einzusetzen.
Noch bevor dazu schriftliche Symbole – also Zeichen für Zahlen und Operationen – vereinbart wurden, versuchte man sich zunächst mit einer gegenständlichen Darstellung. Das Material dafür lieferte die Natur: die Körperteile des Menschen (vor allem Finger und Zehen) sowie Steine, Stäbchen, Knochen, Muscheln, harte Früchte, zu Schnüren gebundene Fasern. So leiten sich beispielsweise vom „kleinen Kieselstein“, dem lateinischen calculus, die Worte Kalkül, kalkulieren und Kalkulator (engl. calculator) ab. Die Verwendung der Gegenstände dürfte insofern relativ einfach gewesen sein, als sie zunächst als Gegenwert für eine bestimmte Menge galten. Rechenoperationen gestalteten sich damit sehr viel leichter, zudem war das Ergebnis bis zu einem gewissen Grade reproduzierbar. Die genannte Vielfalt, die Besonderheiten der jeweiligen Hilfsmittel nutzend, war schließlich Ausgangspunkt spezifischer und in ihrem Umfang mehr oder weniger „komfortabler“ Rechenverfahren.
Die Kenntnis der Zahlen ist nicht nur für den Redner wichtig, sondern auch für den, der schreiben kann; vor Gericht wird häufig davon Gebrauch gemacht, und ein Advokat, der mit einem Ergebnis zögert oder auch nur Unsicherheit oder linkisches Benehmen beim Zählen mit den Fingern zeigt, macht sofort einen schlechten Eindruck hinsichtlich seiner Fähigkeiten.
Gleichwohl lässt sich das Fingerrechnen bei Chinesen, Indern, Persern, Türken, Arabern, den präkolumbianischen Azteken wie auch in den Ländern des Abendlandes als allgemein übliche Praxis nachweisen. Im Laufe der Zeit erreichte man darin ziemliche Präzision, zumal nicht nur Einer, sondern auch Zehner, Hunderter und Tausender dargestellt und verknüpft werden konnten. Die über viele Generationen weitergegebenen Praktiken dürften allerdings regional uneinheitlich gewesen sein. Da sie sich hauptsächlich auf den Bereich des Handels beschränkten, bestand auch kaum Veranlassung, darüber Schriftliches niederzulegen. Der erste Gelehrte, der sich um eine Aufzeichnung bemühte, war der englische Benediktinermönch Beda Venerabilis. In seiner historischen Chronologie „De ratione temporum“ („Über die Berechnung der Zeit“, 725) findet sich eine vollständige Erklärung der Fingerrechnung, auf die in nachfolgenden Jahrhunderten wiederholt Bezug genommen wurde. Die von ihm geordneten Regeln gaben genau Auskunft, wie bei dieser Rechenart zu verfahren ist:
Sagst du eins, so musst du an der linken Hand den Kleinfinger beugen und sein Endglied an die Handfläche legen. Bei zwei musst du den Ringfinger danebenlegen. Bei drei entsprechend den Mittelfinger. Bei vier musst du den Kleinfinger wieder aufrichten. Bei fünf ebenso den Ringfinger.Bei sechs musst du wohl den Mittelfinger strecken, aber dann den Ringfinger allein wieder auf die Handfläche beugen.Bei sieben strecke alle Finger und beuge nur den kleinen Finger über die Handwurzel. Bei acht lege den Ringfinger daneben. Bei neun lege den Mittelfinger daneben.
Für die Darstellung der Einer genügten also Kleinfinger, Ringfinger und Mittelfinger der rechten Hand. Für die Zehner wurden der Zeigefinger und der Daumen der linken Hand herangezogen, für die Hunderter der Daumen und der Zeigefinger der rechten Hand und für die Tausender der Mittelfinger, der Ringfinger und der Kleinfinger der rechten Hand.
Eine weitere Beschreibung stammt aus dem „Farhangi Djihangiri“, einem persischen Wörterbuch des 16. Jahrhunderts, das 1823 von Sylvestre de Sacy ins Französische übersetzt wurde. Interessant ist die auffällige Übereinstimmung mit dem von Beda beschriebenen System, obwohl beide Schriften in großem zeitlichen und räumlichen Abstand zueinander stehen.
Die Verwendung der Finger beschränkte sich jedoch nicht ausschließlich auf das Abzählen oder die Addition bzw. Subtraktion, sondern ermöglichte auch höhere Rechenoperationen. Berichte vom orientalischen Handel beschreiben das Feilschen unter einem ausgebreiteten Tuch, wo geschäftliche Übereinkünfte in entsprechender Weise durch Fingerstellungen signalisiert wurden. In verschiedenen asiatischen Kulturkreisen wird noch heute mit Fingern wie auch mit Fingergliedern und Fingergelenken gerechnet, dabei sind sogar duodezimale und sexagesimale Systeme (Basis 12 bzw. 60) in Anwendung. Mit einer chinesischen Variante, die die Finger dreiteilt, konnte sogar bis 100.000 gezählt werden. Voraussetzung war in jedem Fall eine eindeutige Zuordnung bzw. Vereinbarung zwischen den beteiligten Partnern.
Zahlendarstellung mit Fingern. Aus: „Summa de Arithmetica Geometria Proportioni et Proportionalita“ von Luca Paciuoli, Venedig 1494
Die Fertigkeiten des Fingerrechnens erhielten sich in verschiedenen Kulturkreisen über lange Zeit, im mitteleuropäischen Raum verloren sie sich jedoch mit der Ausbreitung des schriftlichen Rechnens wie auch mit der zunehmenden Anwendung anderer Rechenhilfsmittel. Deshalb findet sich diese Kunst nur noch vereinzelt in den nach der Erfindung des Buchdrucks aufkommenden Rechenbüchern. Petrus Apianus beschrieb sie beispielsweise in seinem Kaufmannsrechenbuch von 1527, allerdings nur als Kommentar zur Additio. In diesem Buch findet sich übrigens auch die älteste aus dem Abendland bekannte Darstellung eines binomischen Dreiecks sowie ein Beispiel zur Tolletrechnung (Dreisatz). Für Apian wie für andere Gelehrte war es reizvoll, das auf sie überkommene, meist fremdländische Wissen in ihre Schriften zu integrieren. Viele Autoren sahen sich zudem veranlasst, das Rechnen mit den Fingern aufgrund der Ähnlichkeit gemeinsam mit dem „Manuloquio oder Sprache mit den Händen“ abzuhandeln. Obwohl damit ausschließlich Darstellung und Vermittlung von Gefühlen – „Die gantze Faust drauet mit Macht“, „Die Hand küssen ist ein Zeichen der Demuth und Ehrerbietung, wie ein Kuss von einer höhern Person ein Merckmahl der Freundlichkeit ist“1 – im Vordergrund stehen, handelt es sich doch auch hier um ein der Zeichendarstellung vergleichbares Segment.
Ein vorzüglicher Weg zur Datenspeicherung war die Technik, in Hölzer oder Knochen Kerben einzubringen und Knoten in Schnüre einzubinden. Damit standen bereits zu einer frühen Zeit relativ moderne Wege für einfache und doppelte Buchführung zur Verfügung. Kerbhölzer und Knotenschnüre als Mittel zur Zahlenspeicherung haben die Menschheitsgeschichte fast unverändert überdauert und lassen sich noch heute an vielen Orten nachweisen. Georges Ifrah schildert dazu ein interessantes Beispiel:
Vor nicht allzu langer Zeit war diese Methode in Frankreich in Bäckereien auf dem Lande noch durchaus üblich, wenn man das Brot auf Kredit verkaufte. In zwei kleine Holzstücke oder -plättchen, tailles (Kerbhölzer) genannt, die aufeinander gelegt wurden, machte der Bäcker jedes Mal eine Kerbe, wenn der Kunde einen Brotlaib mitnahm. Das eine Holz blieb in der Bäckerei, das andere nahm der Käufer mit. Abrechnung und Zahlung erfolgten zu festgesetzten Zeiten, z. B. einmal in der Woche. Eine Reklamation war nicht möglich: Die zwei Holzstücke enthielten die gleiche Anzahl von Kerben gleicher Größe an den gleichen Stellen. Der Kunde konnte keine Kerbe beseitigen und der Bäcker keine hinzufügen. Und hätte er es dennoch gewagt, so wäre er durch den Vergleich der beiden Holzstückchen leicht des Betruges überführt worden.2
Das Kerbholz diente also hier als Schuldenspeicher – ein wichtiges Anwendungsgebiet, zumal ihm zu gewissen Zeiten sogar juristische Beweiskraft zugebilligt wurde. In diesen Fällen verwendete man sicherheitshalber das Prinzip der Doppelhölzer: Das waren in der Länge gespaltene Kerbhölzer, in denen beide Teile gleichzeitig gekerbt wurden. Die englische Staatskasse benutzte im 12. Jahrhundert so genannte exchequer tallies für ihr offizielles Rechnungswesen. Zahlte ein Bürger etwas ein, lieferte er gleichzeitig eine Hälfte eines tallies ab, während die andere Hälfte bei ihm verblieb. Für die vorschriftsmäßige Kerbung dieser Stöckchen aus Ulmenholz waren Kerbmeister verantwortlich, wobei die Summen durch unterschiedliche Breiten dargestellt wurden. Aus diesem Grunde unterschied man in Kerben, Schnitte, Halbkerben, Rundkerben und Schrägkerben. Das englische Schatzamt schaffte die tallies erst im Jahre 1826 ab.
Die relativ große Verbreitung resultierte auch daraus, dass die Materialien – im Gegensatz zu Pergament oder Papier – kostenlos zur Verfügung standen und sehr viel besser als die Finger geeignet waren, Rechenergebnisse aufzubewahren. Die Bedeutung der Kerbhölzer widerspiegelt sich nicht zuletzt in dem Wort „schreiben“ (lat. scribere) und dem damit verwandten althochdeutschen scriban – „graben“, „ritzen“. Auch die Redewendung „etwas auf dem Kerbholz haben“ lebt noch heute fort, obwohl das ursprüngliche Verfahren kaum noch bekannt ist. Zahlenspeicherung mit Knoten auf Bändern oder Schnüren ist den Kerbhölzern insofern vergleichbar, als hier ebenfalls eine Wertezuweisung vorgenommen wird. Sie unterscheidet sich nur dadurch, als sich aus ihnen keine Zahlschrift entwickeln konnte. Formen und Varianten gab es trotz allem viele, wobei nicht nur Stellenwerte, sondern auch bestimmte Bedeutungen markiert wurden.
In der Kultur der Inka, einst angesiedelt in den heutigen Staaten Bolivien, Ecuador und Peru, erreichte das Zählen mit Knoten eine hohe Perfektion. Der quipu („Knoten“), vorwiegend zu Aufzeichnungen in deren Verwaltung eingesetzt, bestand aus einer Haupt- oder Kopfleine, an die verschiedenfarbige Schnüre geknotet waren. Durch Knoten wurden diese zu Gruppen zusammengefaßt und bekamen einen entsprechenden Stellenwert, beginnend mit den Einern am unteren Ende und gefolgt von den höheren Stellenwerten. Mittels farbiger Fäden wurden weitere semantische Zuordnungen möglich: weiß für Geld oder Frieden, gelb für Gold, rot für Blut oder Krieg. Auf diese Weise konnte man konkrete Sachverhalte reproduzierbar speichern und die quipu allumfassend einsetzen. Die große Bedeutung ist auch daran zu erkennen, dass man in Städten, Dörfern und Distrikten die Oberaufsicht einem königlichen Beamten, dem quipucamayoc („Wächter der Knoten“), übertrug. Eine Abart des quipu, der chimpu, ist noch heute in Bolivien und Peru anzutreffen. Auch in China existierte ein System der Knotenschnüre für Buchhaltung und Archivwesen, was nach chinesischer Überlieferung durch den Kaiser Shen Nung eingeführt worden sein soll. Einen entsprechenden Hinweis aus der ersten Hälfte des ersten vorchristlichen Jahrhunderts konnte auch Joseph Needham, profunder Kenner der chinesischen Wissenschafts- und Technikgeschichte, im „I-Ging“ („Buch der Wandlungen“) finden; er schreibt: „In den allerältesten Zeiten wurden die Menschen durch ein System verknoteter Schnüre (Kieh Shêng) regiert.“3 Vergleichbares findet sich auch bei den tibetanischen Mönchen, bei den sibirischen Schamanen oder in Form der Gebetsriemen in den religiösen Bräuchen des Judentums. Auch die in Süddeutschland noch bis ins 20. Jahrhundert hinein gebräuchlichen Müllerknoten zählen dazu; mit ihnen notierten die Müller Menge und Art des an die Bäckereien gelieferten Mehls auf einer Sackschnur. Unterschiedliche Knotenformen garantierten hinreichende Sicherheit und problemlose Abrechnung der Waren.
Die Bewohner der japanischen Ryukyu-Inseln verwendeten bis ins 20. Jahrhundert Knotenschnüre – genannt Warazans – aus Reisstroh, aber auch Rindenbast, Blattfasern der Banane und des Palmfarns, um Steuerabgaben, Lehnsdienste und Teilnahme an Versammlungen zu zählen und zu berechnen.
Die genannten Rechenhilfsmittel waren hervorragend zum Speichern von Daten geeignet, und auch Addition bzw. Subtraktion ließen sich ohne größeren Aufwand durchführen. Für das Rechnen in größeren Bereichen, gegebenenfalls noch unter Berücksichtigung von Zwischenergebnissen, war jedoch ein anderes Instrument sehr viel besser geeignet: der Abakus. Er war vor allem im klassischen Altertum sehr verbreitet und bis über die Renaissance hinaus bedeutsam. Dass man ihn sogar gegenwärtig noch findet, weist ihm eine gewisse Sonderrolle unter den Rechenhilfsmitteln zu.
Der etymologische Ursprung liegt im semitischen Wort abaq („Staub“), denn anfangs erfolgte das Einschreiben der Ziffern in feinen Sand. Das griechische ·‚·Í wie auch das römische und lateinische abacus bedeuteten Tablett, Tisch oder runde Platte: Das Grundprinzip bestand darin, auf einem solchen Gegenstand feste Linien einzuteilen, auf die nach einem vereinbarten System eine entsprechende Anzahl Rechensteine – calculi – oder Münzen („Jetons“) aufgelegt wurde. Voraussetzung für das Rechnen war die einem Stellenwertsystem vergleichbare, definierte Zuordnung zu Währungs-, Gewichts- oder Wareneinheiten. Je nach Verwendungszweck wurde der Abakus in vielfältigen Formen hergestellt: als Münzabakus bei den Griechen, Etruskern und Römern; als Sandabakus bei Griechen und Römern, bekannt auch in Arabien, Persien und Indien; als römischer Handabakus, versehen mit kleinen, zwangsgeführten Kügelchen.
Alte und neue Abakusformen. Quelle: Vorndran, S. 21
In verschiedenen Abakustraktaten sowie in frühesten Nachrichten über diese Rechenhilfe für die praktische Arithmetik lässt sich nachlesen, dass der Abakus in der zweiten Hälfte des 10. Jahrhunderts bereits in Spanien bekannt war. Man rechnete hier mit gemarkten Rechensteinen (caracteres