Wer wob das Web? - Ansgar Warner - E-Book
SONDERANGEBOT

Wer wob das Web? E-Book

Ansgar Warner

0,0
0,99 €
Niedrigster Preis in 30 Tagen: 0,00 €

oder
-100%
Sammeln Sie Punkte in unserem Gutscheinprogramm und kaufen Sie E-Books und Hörbücher mit bis zu 100% Rabatt.
Mehr erfahren.
Beschreibung

Internet und World Wide Web haben eine (Vor-)Geschichte: das "Netz" existierte seit Anfang des 20. Jahrhunderts als Technik-Utopie, nach 1945 wurde es mit der rasanten Entwicklung des Computers Schritt für Schritt gesellschaftliche Realität. Dahinter steckten kreative Vordenker ebenso wie die tatsächlichen Macher. Manche Namen sind in aller Munde, wie etwa Memex-Visionär Vannevar Bush, Hypertext-Pionier Ted Nelson oder Web-Erfinder Tim Berners-Lee. Doch die Zahl der Gründer-Persönlichkeiten und ihrer Querverbindungen ist deutlich größer. Auch zahlreiche Frauen sind Teil der Netz-Geschichte, von visionären Coderinnen wie Radia Perlman bis zu Haecksen-Gründerin Rena Tangens oder Online-Community-Gründerinnen à la Stacy Horn. “Wer wob das Web” erschließt dieses Personen-Netzwerk mit einer chronologischen Darstellung über das gesamte 20. Jahrhundert.

Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:

EPUB
Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



Ansgar Warner

Wer wob das Web?

Kleine Personengeschichte

von Internet & World Wide Web

edition science & culture

 

 

Impressum

Krautpublishing © 2024

Dr. Ansgar Warner

Rungestr. 20 (V)

10179 Berlin

Veröffentlicht über

Tolino Media

 

Die Recherche zu diesem Buch

wurde gefördert mit

einem Neustart-Stipendium

der VG Wort.

> Zum Autor

Als Autor, Journalist und Kulturwissenschaftler bewegt sich Ansgar Warner seit jeher an der Grenze zwischen alten und neuen Medien. Er promovierte zum Radio-Essay der frühen Nachkriegszeit und schrieb Sachbücher u.a. zu Crowdfunding und Crowdpublishing sowie zur Geschichte des E-Books („Vom Buch zum Byte“).

> Vorwort

Es erscheint auf unseren schimmernden Displays wie Strom aus der Steckdose oder Wasser aus der Leitung, wir bewegen uns per Mausklick oder per Fingertipp so selbstverständlich hindurch wie durch unsere Wohnung: das World Wide Web, und eine Schicht darunter das Internet, ist längst fester Teil unseres Alltags.

Hinter diesem vermeintlich so nahen Medium auf unserem Schreibtisch oder in der Jackentasche verbirgt sich ein weltweites Gewebe. Das Netz der Netze ist nämlich vor allem eins: „a series of tubes“, um mit Netzforscher Andrew Blum zu sprechen, eine endlose Abfolge von Kabeln. Innerhalb unserer Städte, zwischen den Städten, zwischen Ländern und Kontinenten. Bloß ist uns dieses Wissen mehr und mehr verloren gegangen.1Wer redet noch von „Cyberspace“, wer von der „Datenautobahn“? Unsere Vorstellung vom Netz gleicht inzwischen einer nebulösen Datenwolke, wie zuletzt etwa Kevin Kellys Crowdsourcing-Projekt „Mapping the Internet“ zeigen konnte.2

Fast noch unvorstellbarer scheint es, dass das allgegenwärtige Netz nicht immer schon da war, erst recht nicht für alle. Noch vor weniger als drei Jahrzehnten haben World Wide Web und Internet im Alltag der meisten Menschen überhaupt keine Rolle gespielt. Sobald man begreift, wie wenig selbstverständlich das Web ist, stellen sich viele W-Fragen: Warum gibt es das Netz überhaupt? Wie kam es so schnell zustande? Vor allem auch: Wer wob das Web? Denn wie die elektronischen Massenmedien, wie der Computer, wie moderne Technik überhaupt standen auch bei Internet und World Wide Web am Anfang Menschen mit Ideen. Ideen darüber, wie die Welt der Zukunft aussehen könnte. In diesem Fall: eine Welt, in der alle Menschen Zugang zu digitalen Kommunikations-Netzwerken hätten. Eine Welt, in der das gesamte Wissen der Menschheit frei zugänglich wäre.

Bei jedem Schritt zur konkreten Umsetzung standen wiederum Menschen im Mittelpunkt, die ihr Wissen und ihre Erfahrung einbrachten, aber auch ihre Zukunftsträume von der vernetzten Menschheit zu verwirklichen suchten. Manche Ideen flossen direkt in die Netzgeschichte ein, manche indirekt, wieder andere Konzepte scheiterten, oder wurden bis heute gar nicht verwirklicht.

Hinter dem World Wide Web, soviel bleibt festzuhalten, steht jedenfalls ein eng vermaschtes Gewebe von Ideen und Personen, von Männern, von Frauen, von Menschen aus Wissenschaft, Wirtschaft, Kunst und Kultur. Wer auf dieses Gewebe blickt, kann besser verstehen, wie und warum die vernetzte Welt, in der wir heute, in den 2020er Jahren leben, eigentlich entstanden ist – und was vielleicht noch zu erwarten ist.

Genau darum geht es auch in „Wer wob das Web“. Mehr als 80 Personen, die maßgeblich für die Web-Geschichte waren, werden im Erzählteil vorgestellt und in den historischen Zusammenhang eingebettet. Wobei die Vorgeschichte in punkto (Wissens-)Netzwerke bereits um 1900 beginnt, die eigentliche technologische Entwicklung um 1945 einsetzt. Die Internetgeschichte wird von 1969 an bis in die frühen 1990er Jahre verfolgt, also den Boomjahren des World Wide Webs.

Als Endpunkt der Frühgeschichte des Webs bot sich die Zeit zwischen der Gründung von Google (1998) und dem Platzen der dot.com-Bubble an (2000): in dieser Periode wurde das Hypertext-Gebilde immer mehr zu dem Medium, das wir heute kennen. Zugleich dämmerte die Erkenntnis, dass es sich dabei nicht um einen vorübergehenden Trend handelte, sondern trotz mancher überspannter Erwartung von Investoren langfristige Auswirkungen in Aussicht standen.

 

Ansgar Warner,

Berlin im Mai 2024

> Teil 1

> Von der Utopie der Wissensmaschine bis zum Netz der Netze

> 1900 – 1966

> Der Traum von der universalen Bibliothek

Wir sind geneigt, beim Thema Netzwerke und Vernetzung an unsere Gegenwart zu denken – doch schon das 19. Jahrhundert war ein Jahrhundert der Netze: die Ausbreitung der Eisenbahn ging damals Hand in Hand mit dem Aufbau von Telegrafenlinien, im städtischen Umfeld entwickelten sich Stromnetz und bald auch das Telefonnetz. Die Menschen erlebten nichts weniger als den Anbruch des Informationszeitalters – nicht nur die Geschwindigkeit der Kommunikation erfuhr eine ungeheure Beschleunigung, auch die Masse an Informationen nahm zu, und damit das Bedürfnis, Wissen zu ordnen und zugleich weltweit verfügbar zu machen. Die neuen technischen Möglichkeiten ließen einen Traum aufscheinen: wäre es möglich, eine universale Bibliothek zu errichten, immer aktuell, von überall aus erreichbar?

Anfangs stand bei diesen Überlegungen allerdings weniger die neueste Technik im Vordergrund als die strukturelle, logistische Durchdringung der Daten. So verwundert es kaum, das als Pionier des Informationsmanagements ein Mann gilt, der vom Berufsstand Jurist und Bibliograph war: nämlich der Belgier Paul Otlet. Zusammen mit dem Pazifisten und Feministen Henri-Marie LaFontaine gründete Otlet gegen Ende des 19. Jahrhunderts das heute beinahe vergessene „Institut International de Bibliographie“, auch „Mundaneum“ genannt – aus heutiger Sicht bereits eine Art World Wide Web des in Bibliotheken gespeicherten Wissens. In Brüssel legte man sich dafür mächtig ins Zeug, auch baulich: In dem 1898 eingeweihten „Palais Mondial“ sollte das gesamte Schrifttum der Welt als Zettelkasten-System erfasst werden. „Die permanente Enzyklopädie“, so Otlet, „soll systematisch alle aktuellen Fakten umfassen“. Dabei gehe um das „Verbinden einzelner Materialien, die über die relevanten Publikationen verstreut sind“, betonte Otlet.3 Tatsächlich konnte man 1934 bereits mehr als 18 Millionen Karteikarten vorweisen. Dazu kam ein Presse- sowie ein Bildarchiv. Eine Art Enzyklopädischer Karteikasten stellte auf 64 x 67 Zentimeter großen Karten möglichst viele Wissensbereiche in standardisierter dreiteiliger Form dar, mit Titel, Inhalt und Verweisen, ähnlich den späteren Webseiten auf Wissensportalen wie Wikipedia. Das Kartenprinzip sollte die ständige Veränderung und Erweiterung ermöglichen, die Bearbeitung der Informationen fand in kollaborativer Form statt. Ähnlich dem standardisierten HTML-Format für Webseiten und deren Verlinkungen gab es auch für den Zettelkasten des Mundaneums ein spezielles Archivierungsformat, genannt „Repertoire Bibliographique Universel“. Bei der Klassifizierung des Wissens half ein eigener Index namens „Classification Decimale Universelle“ mit Ober- und Unterkategorien. In verkleinerter Form, nämlich als „Mondothèque“, sollte das Wissen des Mundaneums in multimedialer Form (Mikrofilm, Radio, Phonograph, etc.) auch schon in die Wohnungen von Privatpersonen gelangen, ähnlich wie später Terminals oder „Personal Computer“. Das Motto von Otlet und La Fontaine lautete: per Wissensmanagement zum Weltfrieden – La Fontaine erhielt 1913 für seine Bemühungen sogar den Friedensnobelpreis.

> Willkommen im drahtlosen Zeitalter

Zu Telefon und Telegrafie stieß Anfang des 20. Jahrhunderts ein weiteres elektronisches Medium – der (Rund-)Funk. Das bot ganz neue Möglichkeiten zur Vernetzung, Kommunikation und Wissensvermittlung als Mikrofilm oder Karteikarte. Das 20. Jahrhundert würde das „drahtlose Zeitalter“ sein („Age of the Wireless“), hatte Funk-Pionier Gulielmo Marconi schon 1899 prophezeit. Für einige Jahre behielt der italienische Erfinder das weltweite Monopol für Funktechnik, die anfangs vor allem zur drahtlosen Kommunikation zwischen Schiffen auf dem Meer oder zur drahtlosen Übermittlung von Nachrichten zwischen Europa und Amerika über den Atlantik genutzt wurde.

Die technische Euphorie dieser Zeit ist auch noch in Bert Brechts Überlegungen zum Radio zu spüren, die der Dramatiker in den 1920er Jahren zu Papier brachte: Die große Chance liege darin, Kommunikation in beide Richtungen zu ermöglichen, einen „großartigen Kommunikationsapparat des öffentlichen Lebens“ zu schaffen, so Brecht, „ein ungeheures Kanalsystem“, dass die Zuhörer „in Beziehung“ zueinander bringen würde.4

Für das System der elektronischen Medien war der Schritt zur drahtlosen Telegraphie und später zum Rundfunk als Massenmedium tatsächlich ein Qualitätssprung – denn neben die Echtzeit-Kommunikation auf große Entfernung mit Hilfe von Kabelnetzwerken trat nun eine völlig neue Möglichkeit: jeder konnte gleichzeitig Sender und Empfänger sein.

In der Frühzeit des Rundfunks war das tatsächlich so, es wurde zum Beispiel in Sprechfunk-Pausen Musik von Schallplatten gesendet. Zudem arbeiteten einzelne Funkanlagen wegen der begrenzten Reichweite als Relais-Stationen. So wurden etwa die Funksprüche der sinkenden Titanic im Jahr 1912 im Nordatlantik zunächst von Schiff zu Schiff weitergeleitet, bis sie auf den amerikanischen Kontinent ankamen.

Als Brecht seine Gedanken zum Radio formulierte, die wir heute als als „Radiotheorie“ kennen, war der Rundfunk als Massenmedium jedoch schon zum Einwegmedium geschrumpft – im Brechtschen Jargon: ein „Distributionsmittel“ –, so wie wir ihn heute kennen. Niemand konnte und durfte mehr auf den offiziellen Wellen „dazwischenfunken“. Brecht selbst adressierte den Hörer deswegen in der Praxis genau wie den Zuschauer im Theater, etwa in dem als Lehrstück gedachten Hörspiel „Der Ozeanflug“. Mitdenken war erwünscht, mitreden dagegen nicht.

> Globales Gehirn gesucht

Die Elektrifizierung der Kommunikation ging einher mit der Entdeckung, dass auch im Gehirn Nervenimpulse mit elektrischen Strömen fließen. Die Idee, dass durch elektronische Medien und die Vernetzung der Menschen nicht nur eine Wissensmaschine, sondern ein globales Gehirn entsteht, lag somit seit Beginn des „drahtlosen Zeitalters“ quasi in der Luft. So prophezeite im Jahr 1926 der Physiker und umtriebige Unternehmer Nikola Tesla: „Wird drahtloser Funk konsequent eingesetzt, verwandelt sich der gesamte Planet in ein riesiges Gehirn.“5

Dabei schienen Wissen und Macht ganz natürlich ineinander überzugehen – in geradezu göttlicher Perfektion. Über den Endzustand spekulierte Mundaneum-Pionier Paul Otlet ein Jahrzehnt später: „Wer bräuchte noch Aktenschränke, wenn der Mensch zu einem allwissenden Wesen verwandelt würde, ganz nach der Art Gottes?“6

Doch auch der Weg dahin versprach schon eine bessere Welt. Nicht zufällig gehörte Otlet in diesen Jahren zu den Befürwortern einer Weltregierung und unterstützte die Bewegung des UN-Vorläufers „Liga der Nationen“ und ihrer Unterorganisation „International Committee on Intellectual Cooperation“. Ähnlich der heutigen UNESCO sollte das ICIC die Zusammenarbeit und den Austausch von Wissenschaftlern, Forschern, Lehrern, Künstlern und Intellektuellen fördern. Der prominenteste Unterstützer einer weltweiten universalen Wissensmaschine war aber wohl der britische Science-Fiction-Autor H.G. Wells, bekannt durch Romane wie „Die Zeitmaschine“ oder „Krieg der Welten“.

Im Jahr 1936 kam mit der Aufsatzsammlung „World Brain“ ein neuer Bestseller dazu. Grundidee dieser Essays: eine ständig erweiterte „Welt-Enzyklopädie“ sollte alle Informationen frei zugänglich machen und dabei helfen, den Weltfrieden zu erhalten. Der „World Knowledge Apparatus“ würde es H. G. Wells zufolge ermöglichen, Wissen zu schaffen und zu verbreiten, etwa mit der Hilfe von Mikrofilm: „Jeder Lernende an jedem Ort der Welt wird ganz bequem in seinem Arbeitszimmer mit einem Projektor jedes Buch, jedes Dokument als eine exakte Kopie studieren können.“7

Der Science-Fiction-Autor Arthur C. Clarke griff Wells Idee nach dem Zweiten Weltkrieg wieder auf, und verband sie mit zeitgemäßer Computertechnologie: Terminals würden bis zum Jahr 2000 die Welt-Bibliothek für alle verfügbar machen, so Clarkes These im Jahr 1962.10 Das Weltwissen würde bis zum Ende des 21. Jahrhunderts Teil des weltweiten Gehirns sein, einer allgemeinen künstlichen Intelligenz, die politisch und gesellschaftlich aktiv in das Geschehen eingreift.8 Als Ort zur Installation des globalen Nervenzentrums schlug Arthur C. Clarke die „ehemaligen“ Kommandozentralen der Supermächte USA und UdSSR vor. „Ehemalig“ natürlich nur in einer denkbaren Zukunft, geprägt von friedlicher Kooperation statt Kaltem Krieg.

> Vom Manhattan-Project zu Memex

Doch schon der historische Startschuss für die modernen digitalen Netzwerke hing viel eher mit Atombombe, Kriegswirtschaft und Supermacht-Strategien zusammen als mit Weltfrieden und friedlicher Koexistenz. Kaum war der zweite Weltkrieg beendet, da präsentierte das amerikanische Life-Magazine seinen Lesern im November 1945 die Abbildung einer futuristischen Apparatur, deren Aussehen an eine Jahrmarktsattraktion erinnerte. Die hybride Mischung aus klobigem Mikrofilm-Lesegerät und archaischem Personal Computer gilt mittlerweile als zentrale Ikone des anbrechenden Informationszeitalters: Die Öffentlichkeit erlebte die Epiphanie eines neuen Mediums, das allerdings erst mehr als dreißig Jahre später seine Inkarnation als gebrauchsfähige Hardware erleben sollte.

Die Abbildung in Life illustrierte einen Essay des Ingenieurs Vannevar Bush, der unter dem Titel „As we May Think“ („Wie wir denken werden“) bereits kurz zuvor in der Zeitschrift Atlantic Monthly erschienen war. Bush taufte seine universelle Wissensmaschine „Memex“, eine Abkürzung für „Memory Extender“. Den Historiografen von Silicon Valley gilt „As we may think“ mittlerweile als eine Art Magna Charta von Hypertext und World Wide Web.

Mit Bush besitzt die Gemeinde der Informatik-Enthusiasten jedoch einen äußerst ambivalenten Gründungsvater. In den Massenmedien war der wortkarge Pfeifenraucher bereits während des Krieges als ebenso kauziges wie geheimnisvolles Genie inszeniert worden. Collier’s Weekly präsentierte ihn Anfang 1942 vollmundig als „the man who may win or lose the war“. Was Bush genau machte, wurde dagegen erst nach dem Krieg bekannt: Er zog hinter den Kulissen die Fäden rund um das geheime „Manhattan Project“ zum Bau der ersten Atombombe. Bush-Biograph G. Pascal Zachary nennt ihn wohl nicht zu Unrecht in einem Atemzug mit dem „Cigarette Smoking Man“ aus der Fernsehserie „X- Files“: Bush könne geradezu als Erfinder des militärisch-industriellen Komplexes gelten.9 Gleich nach der Katastrophe von Pearl Harbour hatte er im Auftrag von Präsident Roosevelt begonnen, natur- und ingenieurwissenschaftliche Fakultäten, das Militär und Industrieunternehmen miteinander zu vernetzen. Doch der Ingenieur im Kriegseinsatz war nicht nur ein guter Kontakteknüpfer. Er interessierte sich sehr früh auch schon für den effektiven Umgang mit dem modernen „information overflow“.

Viele wichtige Erfindungen, so schreibt Bush in seinem Essay, würden oft für lange Zeit nicht weiterentwickelt oder sogar mehrfach gemacht, weil sie in dem Wust an Informationen niemand mehr wahrnehme. In „As we may think“ träumte Bush von einer Technologie, die Informationen in jeder Form durch Assoziative Pfade („associative trails“) verknüpfen und speichern konnte. Nichts sollte im Meer des Wissens mehr verloren gehen – die Hyperlinks des Internetzeitalters lassen grüßen. „Die Dinge miteinander zu verknüpfen, darum geht es“ („The process of tying two items together is the important thing“), postulierte Bush.10 Tatsächlich war es das erste Mal, dass elektronische Datenverarbeitung und assoziative Kreativität gedanklich so konsequent miteinander verbunden wurden. Zur Darstellung der Informationen stellte sich Bush eine Art Sichtschirm vor, der mit zahlreichen Hebeln und Knöpfen gesteuert wurde.

Insofern ist es kein Wunder, dass der Memex-Mythos auch Bushs zentrale Rolle bei der Entstehung der heute üblichen digitalen Arbeitsumgebungen hervorhebt. Die Computerpioniere der nächsten Generation, insbesondere Doug Engelbart und Ted Nelson, berichten jedenfalls, in den Fünfziger- und Sechzigerjahren von „Memex“ inspiriert gewesen zu sein.11 Vannevar Bush dachte jedoch in anderen Dimensionen als die idealistische „Hacker“-Generation, die sich von den Großrechnern des militärisch-industriellen Komplexes emanzipieren wollte. Bereits „As we may think“ bewegt sich in einer Grauzone ziviler und militärischer Anwendung. Bush demonstriert darin so etwa die Leistungsfähigkeit von „Memex“ am Beispiel einer historisch-technischen Recherche zum Thema Bogenschießen. Was zunächst nur skurril wirkt, hat jedoch einen makabren Hintergrund: Bush hatte ein berufliches Interesse an möglichst effizienten militärischen „Wirkmitteln“, ob es nun verbesserte Artilleriegranaten mit Näherungszünder waren oder Methoden zum „silent killing“.

> Grandmother Nerds & weibliche Netzwerke

Prominente Grandfather Nerds gibt es viele, doch was ist eigentlich mit den Grandmother Nerds? Die gibt es auch – allerdings sind sie von der bisherigen Historiographie meist ignoriert worden. Dabei waren sie eigentlich ebenso unübersehbar wie unverzichtbar. Denn als Ende des 19. Jahrhunderts die sogenannten „Hollerith-Maschinen“ per Lochkarte lediglich addieren, subtrahieren und sortieren konnten, verstand man unter dem Begriff „Computer“ in den USA eine menschliche Rechenkraft, die nach vorgegebenem Muster – sprich einem Algorithmus – aufwändige Berechnungen mit Papier und Bleistift durchführen konnte, etwa in der Astronomie, später auch für angewandte Naturwissenschaften.

In der Regel waren die „Rechner“ aber wohlgemerkt „Rechnerinnen“. Parallel zum Einsatz von Frauen als Schreibkräfte und Stenotypistinnen und als Vermittlerinnen für die großen Telefongesellschaften wurden auch diese als monoton geltenden Aufgaben an Frauen delegiert. Auf ganz ähnliche Weise kam Frauen dann eine besondere Rolle zu, als die ersten Rechenmaschinen in Betrieb gingen – sie übernahmen die Bedienung und Dateneingabe.

Welche Bedeutung Frauen zu dieser Zeit für den Wissenschaftsbetrieb hatten, zeigt der inoffzielle Ausdruck „Kilogirl“, mit dem man während des Zweiten Weltkriegs in der US-Forschungseinrichtung National Defense Research Committee (NDRC) eine Menge von 1.000 Stunden manueller Rechenzeit bezeichnete. Die meisten Frauen hantierten allerdings als sehr konkrete „Netzwerkerinnen“ mit Ohrhöhrer und Stöpselbrett, waren doch die Telefongesellschaften zum größten Arbeitgeber für weibliche Arbeitskraft avanciert. Die Zahl weiblicher „telefon operators“ für handvermittelte Gespräche stieg in den USA zwischen 1891 und 1946 von 8.000 auf 250.000 Personen.

„Frauen waren die ersten Computer; zusammengenommen bildeten sie die ersten Informationsnetzwerke“, fasst es US-Historikerin Claire L. Evans in ihrer Studie „Broadband: The Untold Story of the Women who made the Internet“ zusammen. Was eine bemerkenswerte Folge hatte, so Evans weiter: „Der Rechner wie wir ihn heutzutage kennen wurde benannt nach den Menschen, die er ersetzt hat.“12 Zugleich wurde durch diesen Prozess die Vorgeschichte inklusive des Gender-Aspektes unsichtbar. Insofern war eigentlich auch die scheinbar außergewöhnliche Karriere der Mathematikerin und Navy-Leutnantin Grace Hopper in Harvard keine Ausnahme. Im Basement des dortigen Phy-sikfachbereichs wurde in den frühen 1940er Jahren unter der Leitung von Mathematiker Howard Aiken der legendäre Mark I-Computer betrieben, nach Konrad Zuses Z1 der zweite digitale Großrechner überhaupt. Im Vordergrund standen ballistische Berechnungen für das Militär. Die heutige strikte Trennung zwischen Hardware und Software gab es noch nicht. Programme wurden per Hand geschrieben, dann auf ein Lochkartenband übertragen. Handbücher oder Programmiersprachen kannte man ebensowenig. All das wurde zu Hoppers Aufgabe. Sie war nicht nur für die Eingabe von Programmen zuständig, sondern sorgte überhaupt erst für die zur Arbeit mit dem Rechner notwendige Dokumentierung. So entstand ein voluminöses Handbuch mit Schaltkreis-Diagrammen und Codierungshilfen. Von Anfang an suchte Grace Hopper nach Möglichkeiten, strukturierter und effektiver an die Arbeit heranzugehen – und schuf damit die Grundlagen für das moderne „Coden“, von Syntaxregeln über Sub-Routinen bis hin zur Code-Kommentierung.13 Zu den Berechnungen, die mit dem Mark I ausgeführt wurden, gehörten auch spezielle Aufgaben für den Physiker John von Neumann, der im Rahmen des Manhattan Projects an der Herstellung der Atombombe arbeitete. Eine ähnlich wichtige Rolle spielten an der Universität von Pennsylvania gleich sechs Frauen als „computer operators“, darunter Betty Jean Jennings und Elizabeth „Betty“ Snyder, nach dem dortigen Elektronengehirn auch die „Eniac Six“ genannt. Grace Hopper wiederum war es dann, die nach dem Krieg Anfang der 1950er Jahre den ersten „Compiler“ entwickelte. Dank dieser cleveren Anwendung überließ man es nun dem Computer, für Menschen leichter zu benutzenden Programmieranweisungen in maschinenlesbaren Code, auch „Maschinensprache“ genannt, zu übersetzen.14

Als Ende der 1950er Jahre die Programmiersprache Cobol eingeführt wurde, war Grace Hopper noch einmal federführend beteiligt. Zunächst sollte die Sprache eine gemeinsame Grundlage für alle Computer im Umfeld des US-Verteidigungsministeriums und ihrer Forschungseinrichtungen darstellen. Bald jedoch wurde sie zum internationalen Programmier-Standard. Schätzungen zufolge waren bis Ende des 20. Jahrhunderts 80 Prozent aller Programme in COBOL geschrieben.

Der Vorsprung von Frauen im Digitalen Sektor hielt aber nicht sehr lange an, vor allem seitdem die „Computer Sciences“ sich an den Universtäten im Umfeld der traditionell männerdominierten Ingenieurswissenschaften etablierten. Zwar machten Frauen im akademischen „IT“-Bereich um 1960 noch ein Drittel bis die Hälfte aller Angestellten aus, doch zunehmend nur noch als technisches Personal, während die Männer die Karriereleiter nach oben kletterten – darunter viele der späteren „Väter des Internets“.15

> Mensch und Computer im intergalaktischen Netzwerk

JCR Licklider gilt wohl zu Recht als einer von ihnen. Der vielseitig interessierte Psychoakustiker begann sich am MIT schon früh mit dem Verhältnis zwischen Mensch und Maschine, zwischen Vernunft und Computer zu beschäftigen. Im Electrical Engineering Department machte „Lick“ in den 1950er Jahren erste Erfahrungen im Umgang mit Großrechnern, im Kreis um den Kybernetiker Norbert Wiener gelangte er dann zu seinem späteren Lebensthema, der „Mensch-Computer-Symbiose“ („Man-Computer-Symbiosis“). Bereits Wiener vertrat die These, Computer würden den Menschen in Zukunft nicht ersetzen, sondern den menschlichen Geist unterstützen und verstärken. Als am MIT das „Time Sharing“ eingeführt wurde, was erstmals die direkte Interaktion mit dem Computer ermöglichte, machte das erst zu Recht großen Eindruck auf Licklider. Zuvor war der Kontakt mit der Maschine dem autorisierten Bedienpersonal vorbehalten, das die Lochkarten der Benutzer in Empfang nahm. Für das Lincoln Laboratory des MIT, einem militärischen Forschungszentrum, arbeitete Licklider Ende der 1950er Jahre an der Entwicklung des Sage-Systems (Semi Automatic Ground Environment), einer Art grafischen Benutzeroberfläche für die Luftraumüberwachung durch die US Air Force. Damit konnten Radardaten von hunderten Flugzeugen nun von angelernten „Laien“ auf Bildschirmen angezeigt, bewertet und per Lichtgriffel bearbeitet werden. Zu diesem Zweck wurden zahlreiche Großrechner an verschiedenen Orten des Landes miteinander verbunden. Das SAGE-Prinzip ließ sich grundsätzlich natürlich auch auf andere Daten anwenden. Licklider begann, zukünftige „Denkzentren“ („thinking centres“) zu entwerfen, sprich vernetzte Datendisplays, die interaktives Arbeiten am Computer ermöglichten.

In seinem einflussreichen Konzeptpapier „Man-Computer-Symbiosis“ von 1960 heißt es: „Wir hoffen, dass in wenigen Jahren menschliche Gehirne und Rechenmaschinen eng miteinander verknüpft werden. Diese Partnerschaft wird ein Denken ermöglichen, wie es der Mensch alleine nie vollbracht hat, und Datenverarbeitung in einem Maß, wie es heutige Maschinen zur Informationsverarbeitung nicht annäherend erreichen.“16 Mensch und Maschine, so Licklider, würden beim Treffen von Entscheidungen zusammenarbeiten.

Schließlich kam noch der Netzwerk-Gedanke hinzu. In Folge des Sputnik-Schocks ernannte man Licklider zum Leiter des „Command and Control“-Bereichs der ARPA (Advanced Research Projects Administration). Diese Abteilung der Pentagon-Forschungsabteilung war für das Thema Datenverarbeitung zuständig. Dort entstand Lickliders Idee einer leicht ironisch „Intergalactic Computer Network“ genannten Kommunikationsstruktur. Denn für Echtzeit-Interaktion im großen Stil, das hatte das SAGE-Projekt gezeigt, brauchte man ein funktionsfähiges Netzwerk aus vielen Computern, die miteinander Daten austauschen konnten. Nicht zufällig sollte der Impuls zum Aufbau des Internet-Vorgängers ARPAnet dann Mitte der 1960er Jahre genau von diesem Ort kommen, inzwischen auf Lickliders Initiative umbenannt in „IPTO“, „Information Processing Techniques Office“. Ein Jahr bevor der erste ARPAnet-Knoten 1969 eingerichtet wurde, veröffentlichte Licklider ein aktualisiertes Paper: „The Computer as a Communication Device“ – darin fand sich die Prognose, digitale Netzwerke der Zukunft würden ganz neue Formen von „interaktiven Online-Communities“ entstehen lassen, in denen man mit Gleichgesinnten kommunizieren und sich vernetzen könnte. Jeder werde in diesen Netzwerken seinen Interessen nachgehen, die ganz Welt des Wissens würde dort offen für alle zugänglich sein.17

> Digitale Denkwerkzeuge für die Massen

Diese „Denkarbeit“ mit dem Computer war allerdings kaum vorstellbar ohne eine angemessene Nutzererfahrung – sprich die direkte Interaktion mit den Daten, die auf einem Bildschirm angezeigt werden. Prinzipiell hatte Vannevar Bush 1945 in seinem berühmten Essay „As we may think“ bereits so etwas ähnlich im Sinn, allerdings ohne dabei an Computertechnik und Datennetze zu denken. Dass man Daten überhaupt auf eine Bildröhre projizieren könnte, war zu diesem Zeitpunkt selbst für die meisten Fachleute noch unvorstellbar. Beim jungen Radartechniker Doug Engelbart machte es jedoch bereits 1950 „Klick“ im Kopf. Er hatte direkt nach Kriegsende Vannevar Bushs Essay gelesen, und nach einem Elektrotechnik-Studium die Idee assoziativ mit den ihm bekannten Radar-Bildschirmen verknüpft. Denn dort wurden ja bereits Daten in Echtzeit angezeigt. Was Engelbart nun vorschwebte, war nichts weniger als eine neue Technologie zur Erweiterung und Ergänzung der geistigen Fähigkeiten, „augmented intellect“ genannt. Bereits in den 1950er Jahren entstanden so am Stanford Research Institute mehrere Versionen einer Ideenskizze, die im Jahr 1962 schließlich unter dem Titel „Augmenting Human Intellect: A Conceptual Framework“ veröffentlicht wurde. Ähnlich wie Licklider vertrat dabei auch Engelbart die Ansicht, Computertechnik würde das Denken nicht einfach ersetzen, sondern vielmehr unterstützen: „Jeder Mensch, der seine Gedanken mit Hilfe von Symbol-Konzepten in Form bringt (ob nun als Sprache, Piktogramm, formale Logik oder Mathematik) dürfte davon in außergewöhnlichem Maß profitieren.“18

Das ging eindeutig in die Richtung der Mensch-Computer-Symbiose. So war es auch kein Wunder, dass JCR Licklider (inzwischen zum Chef des „ARPA Information Processing Techniques Office“ ernannt), nach der Lektüre von „Augmenting Human Intellect“ prompt Projektgelder an Engelbart vergab. Weitere Finanzhilfe kam von der NASA. Mit dieser Hilfe gründete Engelbart in Stanford sein eigenes „Augmentation Research Center“. Eine der ersten Entwicklungen dort war ein Zeigegerät auf Rollen, das mehrere Knöpfe besaß, und wegen des mäuseschwänzchen-artigen Kabels am oberen Ende bald den Namen „Mouse“ erhielt. Danach entstand bis 1968 ein grafisches Betriebssystem, „Online System“ (NLS) genannt.

Maus und NLS wurden im Dezember 1968 erstmals der Fachöffentlichkeit vorgestellt. Die Präsentation ging als „Mother of all Demos“ in die Geschichte der Datenverarbeitung ein, und ist als 30minütiger Film überliefert.19 Das Publikum erlebte bei diesem Event, wie Engelbart gemeinsam mit anderen Kollegen, die per Telefonleitung mit einem Großrechner verbunden waren, Dokumente mit Hilfe von Copy-Paste bearbeitete, Graphiken einfügte, Layouts veränderte, Audio- und Video-Elemente einfügte und sogar verschiedene Dokumente per Hypertext-Link miteinander verknüpfte. Die Tageszeitung „San Francisco Chronicle“ berichtete am nächsten Tag darüber mit der Überschrift „Fantastic World of Tomorrow's Computer“.

> Auf dem Weg nach Xanadu

Bei dem Wort „Hypertext“ denken Digital Natives sofort an das World Wide Web mit seinen unendlichen Verlinkungen, die per Mausklick von Dokument zu Dokument führen. Die ursprüngliche Idee datiert jedoch viel weiter zurück als dieser durch „Hypertext-Markup-Language“ (HTML) geprägte Teil des Internets. Schon Mitte der 1960er Jahren entwarf Computerpionier Ted Nelson das Konzept der Vernetzung von Texten: „Unter dem Wort Hypertext verstehe ich eine Sammlung von Texten oder Bildern, die auf solch komplexe Weise miteinander verbunden sind, dass man es nicht angemessen in Papierform darstellen könnte. Das Material kann Zusammenfassungen enthalten, den Inhalt und dessen wechselseitige Verbindungen verdeutlichende Karten, Anmerkungen, Zusätze. Solch ein System könnte unbegrenzt wachsen, und dabei mehr und mehr des schriftlich fixierten Wissens unserer Welt enthalten.“20

Informationen mit Hilfe von grafischen Benutzeroberflächen zu recherchieren, zu bearbeiten und zu verknüpfen war kurz darauf tatsächlich bereits technisch möglich, wenn es auch hohen Aufwand erforderte. Im Jahr 1967 entstand an der privaten Brown-University (Rhode Island) ein erster Prototyp namens Hes („Hypertext Editing System“), neben Ted Nelson war daran auch Andries vAn Dam beteiligt, der zugleich als Schöpfer des Begriffs „E-Book“ gilt (tatsächlich sind bis heute die Kapitel von E-Books miteinander verlinkte HTML-Seiten). Die mit HES erzeugten Dokumente gingen über alles hinaus, was es bisher gegeben hatte: am Computer-Bildschirm ließen sich mit Hilfe von Tastatur und Lichtgriffel komplexe Textstrukturen aufbauen und nutzen, die Verweise in Form von Hyperlinks enthielten, denen man folgen konnte. Die Weltraumbehörde NASA nutzte die später in „File Retrieving and Editing System“ (Fress) umbenannte Technologie, um die Datenflut des Apollo-Programms in den Griff zu bekommen.

Nelsons Hypertext-Konzept – in Kombination mit dem dafür notwendigen Computer-Netzwerk „Projekt Xanadu“ genannt – ging sogar noch viel weiter als das Memex-Konzept von Vannevar Bush, es sah so z.B. die Möglichkeit zum Kommentieren vor, die automatische Erfassung aller eingehenden und ausgehenden Verlinkungen (also eine Art „Zwei-Wege-Verlinkung“, die ins Leere laufende Links verhindert), sowie die Vergütung von Urhebern. Das mit Hilfe von Hypertext realisierte Text-Universum nannte Nelson das „Docuverse“. Trotz vieler Versuche, das Konzept in den 1970er und 1980er Jahren mit Unterstützung staatlicher und privater Geldgeber auf den Markt zu bringen, hat sich diese komplexe Hypertext-Variante allerdings nie durchsetzen können.

> Teil 2

> Datennetze werden Wirklichkeit

> 1966 – 1990

> Ad-hoc-Lösung mit Folgen: ARPAnet-Projekt

Doch man sollte sich von hehren Ansprüchen („Zugang zum weltweiten Wissen für alle“) oder technischen Versprechungen („Direkte Interaktion mit dem Computer“) nicht blenden lassen. Nicht nur das World Wide Web, selbst Personal Computer waren Ende der 1960er Jahrer ja noch reine Utopie. Die Motive zur Gründung des Internet-Vorgängers Arpanet stellen sich deutlich prosaischer dar. Wenn auch nicht so direkt militärisch orientiert, wie oft behauptet wird – denn die Unverwundbarkeit der Kommunikationsnetzwerke im Fall eines Atomkriegs stand nicht im Fokus. Allerdings war das ARPAnet eben ein Projekt des US-Verteidigungsministeriums. Die gesamte „Advanced Research Projects Administration“ hatte schließlich zur Aufgabe, die militärische Forschung im Bereich von Zukunftstechnologien voranzutreiben. Computertechnik spielte dabei eine ganz besondere Rolle – innerhalb der ARPA gab es dafür das bereits erwähnte „Büro für Informationstechnik“ (ICPTO).

Dessen Leiter Bob Taylor – Nachfolger von Licklider – trug im Jahr 1966 ARPA-Direktor Charles Herzfeld einen Netzwerk-Pitch vor, der in die Geschichte eingehen sollte als ideeller Startschuss für das Internet. Dabei ging es jedoch nicht um das Überleben im Atomkrieg, sondern viel eher um das Überleben im technisch komplizierten Büroalltag. In Taylors Büro gab es einen „Terminal-Room“ mit drei Bildschirmen und Tastaturen, die per Datenleitung mit drei Großrechnern an verschiedenen Standorten an der Ostküste verbunden waren.

Der ICPTO-Direktor besaß nicht umsonst diesen direkten Draht zur Crème de la Crème der universitären Computerforschung in den USA. Denn fast das komplette jährliche Budget seiner Abteilung, damals knapp 19 Millionen Dollar, floss ein Netzwerk aus etwa 20 Forschern und deren Doktoranden an einer Handvoll Universitäten an Ost- und Westküste. Tatsächlich lief damals auch bereits ein wachsender Teil der internen Kommunikation dieses elitären Zirkels per Chat von Terminal zu Terminal, in der Regel aber nur direkt vor Ort.

Taylors lange Leitung zu den drei Großrechnern war insofern purer Luxus, allerdings nicht ohne Tücken, so beschreiben es Katie Hafner und Matthew Lyon in ihrer Studie „Where Wizards stay up late“ zur Frühgeschichte des Internets: „Da gab es ein modifiziertes IBM Selectric Typewriter Terminal mit Standleitung zum MIT in Cambridge. Ein Model 33 Teletype Terminal, eine Art Metallschrank mit lautem Fernschreiber darin, war mit einem Rechner an der University of California in Berkeley verbunden. Und ein weiteres Terminal, Model 35, gab Zugang zu einem Computer in Santa Monica, Kalifornien. Genannt AN/FSQ 32XD1A, Spitzname Q-32, eine Riesenmaschine, von IBM für das Strategic Air Command gebaut“.21

Das bedeutete drei verschiedene Arbeitsumgebungen, drei verschiedene Programmiersprachen, drei verschiedene Betriebssysteme, und natürlich drei verschiedene LogIn-Prozeduren. Zugleich wuchs der Bedarf der Wissenschaftler, auf unterschiedliche Rechnerkapazitäten zuzugreifen. Könnte man mit einer einheitlichen Vernetzung all dieser Rechner nicht viele Probleme auf einmal beheben? Taylor schlug dem ARPA-Chef also vor, die knappen und teuren Ressourcen zu bündeln. Und behauptete schnell noch: „Es lässt sich leicht umsetzen, und wir wissen auch schon, wie wir es machen können.“

> Von der Idee zum konkreten Netzwerk

Nach 20 Minuten hatte er von Direktor Herzfeld grünes Licht für sein Projekt erhalten, inklusive eines Startbudgets von einer Million Dollar. Dass alles nicht ganz so einfach – und nicht ganz so billig – werden würde, zeigte der weitere Verlauf der Geschichte. Der erste Netzknoten überhaupt wurde erst drei Jahre später, im Jahr 1969 aktiviert. Denn außer der Idee, wie es gehen könnte, hatte Taylor anfangs nichts in der Hand. Doch das sollte sich bald ändern. Denn immerhin wusste Taylor, an wen er die Management-Aufgabe delegieren konnte, nämlich einen gewissen Larry Roberts am Lincoln Lab. Der junge, talentierte Computerwissenschaftler hatte im Auftrag der ARPA bereits einen Feldversuch durchgeführt. Es war demnach grundsätzlich möglich, Informationen von Computer zu Computer zu übertragen. Doch wie verknüpfte man viele unterschiedliche Rechner, und das mit hoher Datenrate und schneller Reaktionszeit?

Von Roberts sind Entwurfszeichnungen für das ARPAnet überliefert, die diverse Universitätsstandorte der Ostküste mit Strichen verbinden, manche Strukturen sind ringförmig, manche sternförmig, andere erinner an die Maschen eines Fischernetzes. Tatsächlich hatten auch bereits andere Wissenschaftler über diesem Problem gebrütet, insbesondere Paul Baran, ein UCLA-Absolvent, der seit 1959 für die RAND Corporation arbeitete, und schließlich ins ARPAnet-Team aufgenommen wurde. In einem seiner frühen Papers ging es Baran um die Überlebensfähigkeit der USA nach einem Atomkrieg, vor allem um die Kommunikationnetze. „Wenn Krieg jenseits von einer Schwarz- Weiß-Logik nicht das Ende der Welt bedeutet, dann folgt daraus dass wir die Grauschattierung dazwischen so hell wie möglich machen sollten. Und das heißt, wir müssen jetzt planen, wie wir das Zerstörungspotential minimieren“, schlussfolgerte Baran damals.22 Er verband in seinen bald darauf im Jahr 1964 vorgestellem Konzeptpapier „On Distributed Communications“23 gleich drei zukunftsweisende Ideen, die zentrale Elemente der Internet-Logik vorwegnahmen:

— den Übergang zu digitaler Datenübermittlung, um

Schwankungen bei der Signalqualität auszugleichen

— die engmaschige Vernetzung, um einzelne Störungen

zu kompensieren

— und nicht zuletzt die Aufteilung der Information

selbst in überschaubare einzelne Pakete, um Datenverluste

weiter zu minimieren.

Damals waren bestehende Netzwerke – wie etwa das AT&T-Telefonnetz – hierarchisch gegliedert, sie hatten ein Zentrum, von dem alle Wege ausgingen, und eine Peripherie, ähnlich wie Nahverkehrssysteme mit zentralem Umsteigebahnhof. Ohne ein funktionsfähiges Zentrum brechen solche Kommunikationsstrukturen schnell zusammen. Barans Netzwerk ging einen neuen Weg, ähnlich wie Larry Roberts: jeder Netzknoten wurde mit mehreren anderen Netzknoten verbunden. Heutzutage nennt man das ein „verteiltes“ Netzwerk. Um herauszufinden, wie engmaschig ein widerstandsfähiges Netzgeflecht sein musste, ließ Baran zahlreiche Simulationen laufen, und bekam am Ende heraus: bereits ein Vermaschungs-Faktor von drei oder vier (d.h. jeder Knoten ist mit drei oder vier anderen verbunden) machte die Verbindungen äußerst robust gegen Störungen. Dieses Konzept wurde dann tatsächlich auch Grundlage der ARPAnet-Planung.

Ein wichtiges Detail zur Verwirklichung der Netzwerk-Idee fehlte jedoch auch 1967, also ein Jahr nach dem Netzwerk-Pitch, immer noch. Wie sollten die Großrechner miteinander sprechen? Eine direkte Verbindung würde bedeuten, dass Teile der knappen Rechenzeit für die Aufrechterhaltung der Kommunikation bereitgestellt werden müssten. Das behagte den Computerwissenschaftlern der einzelnen Universitätsstandorte überhaupt nicht. Ein besonders prominenter unter ihnen war Wesley A. Clark von der Washington University St. Louis, auch bekannt als Entwickler von LINC, einem der ersten Minicomputer. Clark schlug als Alternative vor, den Nachrichtenaustausch an spezielle Netzwerk-Computer zu delegieren. Die Idee kam gut an bei den Kollegen, die solche Relaisstationen bald „Interface Message Processor“ (IMP) tauften. So entstand der erste Plan eines „ARPA net“, das eigentlich ein „Subnetz“ aus lauter miteinander verbundenen IMP-Relaisstationen war. Vier Standorte sollten in einem ersten Schritt auf diese Weise zusammengebracht werden: UCLA (Los Angeles), SRI (Standford), die University of Utah (Salt Lake City), und die University of California (Santa Barbara). Fehlten nur noch die IMPs – im Jahr 1968 wurde schließlich nach einer Ausschreibung das Beratungsunternehmen BBN (Bolt, Beranek & Newman, Cambridge, Mass.) damit beauftragt, solche Netzwerk-Computer zu bauen.

> Auf dem Weg zum Internet-Protokoll

Zeitgleich mit dem Bau der ersten Netzwerk-Computer begann zwischen den Forschern der ersten vier geplanten Arpanet-Standorte die Abstimmung über die technischen Feinheiten, mit denen die Kommunikation zwischen den unterschiedlichen Rechnern ermöglicht werden sollte. Der UCLA-Mathematiker Steve Crocker gab mit einem „Request for Comments“ („RFC“) den Anstoß zu diesem offenen Aushandlungsprozess über die Netzwerkstandards, der bis heute fortdauert. Die inoffizielle Gruppe der Teilnehmenden nannte sich bald „Network Working Group“ (NWG). Auch über Begriffe einigte man sich, allen voran das Wort „Protocol“ (eine Anleihe beim „diplomatischen Protokoll“) – so wurden von nun an alle Standards genannt, auf die man sich einigte.

Der allererste Internetstandard überhaupt, eingeführt im Jahr 1970, war dann das allgemeine „Network Control Protocol“ (NCP), dazu kamen spezielle Funktionen wie etwa das Terminal-Protokoll Telnet (mit dem man sich bis heute in einen entfernten Rechner einloggen kann) sowie das Dateien-Austausch-Programm Ftp (File-Transfer-Protocol) und das Mail Box Protocol/Ftp-Mail (die ersten E-Mail-Standards).

Das Netzwerk war zu diesem Zeitpunkt noch vergleichsweise winzig. Im Herbst 1969 wurden die ersten beiden IMP-Relaisrechner überhaupt aufgestellt, der erste in Los Angeles, der zweite in Stanford. Am 1. Oktober wagte man den ersten Versuch, eine Verbindung aufzubauen: von einem Sigma-7-Rechner in Los Angeles wurde über den ersten ARPA-Link von IMP Nr. 1 zu IMP Nr. 2 in Stanford das Kommando „LOGIN“ an einen dortigen SDS-940-Rechner geschickt. Beim ersten Mal gab es zwar bald einen Computercrash, doch immerhin: die Buchstaben „LOG“ waren übertragen worden. Beim zweiten Anlauf gelang der Login.

Am 1.

---ENDE DER LESEPROBE---