Wie rationale Maschinen romantisch wurden - Philipp Schönthaler - E-Book

Wie rationale Maschinen romantisch wurden E-Book

Philipp Schönthaler

0,0

Beschreibung

Ausgehend von Daniel Kehlmanns Reise ins Silicon Valley und seinem Versuch, mithilfe einer KI eine Erzählung zu schreiben, zeigt Philipp Schönthaler, wie die Romantik als kulturelles Deutungsschema selbst dort noch ihre Wirkmacht entfaltet, wo die Technik am fortschrittlichsten erscheinen will: in Visionen einer Singularität und Superintelligenz. Standen noch in den Sechzigerjahren der in die Gesellschaft Einzug haltende Computer als Agent von Objektivität, Transparenz und Verlässlichkeit und die »Geburt der Poesie aus dem Geist der Maschine« programmatisch für ein antiromantisches Schreiben, gelten die digitalen Techniken heute zunehmend als opak, voreingenommen, vor allem aber als kreativ. Denn längst hat sich der Gegensatz verschliffen zwischen einer natürlichen Poesie, die den Schreibakt in einem lebensweltlich verankerten Ich beginnen lässt, und einer künstlichen Poesie, die ihn in einer radikalen Abkehr davon an das Funktionsprinzip einer regelgeleiteten und rational operierenden Maschine bindet. Wie aber konnte es dazu kommen, dass die seinerzeit noch raumfüllenden Apparate der Spitzentechnologie, die wenig mit der Kultur der schönen Künste zu tun hatten, zur Blaupause des Schreibens wurden? Und was bedeutet es, dass Computer mittlerweile weniger über ihre logisch-mathematischen Funktionsweisen als über ein populärromantisches Muster rezipiert werden? 

Sie lesen das E-Book in den Legimi-Apps auf:

Android
iOS
von Legimi
zertifizierten E-Readern
Kindle™-E-Readern
(für ausgewählte Pakete)

Seitenzahl: 186

Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:

Android
iOS
Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



Wie rationale Maschinen romantisch wurden

Fröhliche Wissenschaft 234

Philipp Schönthaler

Wie rationale Maschinen romantisch wurden

KI, Kreativität und algorithmische Postrationalität

Inhalt

Einleitung: Reise in die Zukunft des Schreibens

Populäre Romantik

Die Anfänge der Computerliteratur

Eine rationale Ästhetik

Zufallsordnungen

Neue Frontstellungen

Wie die Kunst kreativ wurde

Der Computer als Aufklärungsmaschine

1960 vs. 2020

Neue Vertrauensverluste

Das Gespenst der Hermeneutik

Ein neuer Zauber (oder: Hoffen auf ein Wunder)

Die erste Maschine, die originell dachte

Kreative Maschinen

Der maschinelle Wille zur Kunst

Das Jahr der Singularität

Populärromantik vs. Theorie

Dunkle Romantik

Eigenwillige Kräfte

Philosophie nach der Automatisierung

Die Subjekte der Maschine

Romantik schlägt Maschine

Mit der Romantik gegen die Romantik

Dank

Abbildungsverzeichnis

Nachweise

Einleitung: Reise in die Zukunft des Schreibens

In seiner »Stuttgarter Zukunftsrede« Mein Algorithmus und Ich berichtet der deutsch-österreichische Autor Daniel Kehlmann von einer Reise ins Silicon Valley im Februar 2020. Der Anlass dafür war eine Einladung von Open Austria – einer Initiative des Auswärtigen Amts mit Sitz in San Francisco und der Mission, »Österreich und das Silicon Valley auf den Feldern der Wirtschaft, Technologie, des Investments, der Tech-Diplomatie und Künste zusammenzubringen«.1 An der sagenumwogenen Wiege der heutigen Digitaltechnologien sollte mithilfe eines maschinellen Sprachverarbeitungsprogramms, aus einem Ping Pong von Sätzen, die Kehlmann im Wechsel mit dem Computerprogramm zu schreiben beabsichtigte, eine Erzählung entstehen. Zurück auf dem alten Kontinent traf der Schriftsteller allerdings nur mit einer Rede über die erprobte Co-Autorschaft zwischen Mensch und Maschine ein – von einer Erzählung, einem vorzeigbaren Resultat, fehlte bis auf wenige ausgesuchte Beispielsätze jede Spur.

Obwohl Kehlmanns Ausflug an die Westküste als kultureller Vertreter des alten Europas, der für seine Romane international bekannt ist, viel Aufmerksamkeit erregt hat, ist die Bedeutung der Reise selbst, also der Umstand, dass sie überhaupt stattgefunden hat, kaum je zur Sprache gekommen. Das mag auch der ausgestellten Schlichtheit des essayistischen Ichs geschuldet sein, das Kehlmann in Palo Alto2 landen ließ, um es – der Titel seiner Rede Mein Algorithmus und Ich weist das aus – zum Maßstab für die Auseinandersetzung mit der Technik zu nehmen. Die theoretischen Ausführungen bleiben oberflächlich (die Mächtigkeit des Sprachmodells, das man Kehlmann vorsetzte, lässt sich nicht erst mit der Veröffentlichung von ChatGPT im November 2022 anzweifeln), und über eine sechzigjährige Geschichte der computergenerierten Literatur geht der Romancier hinweg, als hätte es diese gar nicht gegeben. Was »echte Literatur« ist, weiß Kehlmann schließlich, bevor er sein »Experiment« mit der Künstlichen Intelligenz (KI) überhaupt beginnt.3

Neben seinem Renommee dürfte Kehlmanns Literatur- und Schreibverständnis zwar einer der Gründe sein, warum dieses Experiment überhaupt stattgefunden hat. Dennoch kann es verwundern, dass es ihm selbst im Nachgang nicht einfällt, danach zu fragen, wie der Computer das Schreiben verändern oder wie eine Literatur aussehen könnte, die sich von der algorithmischen Logik des Computers irritieren oder sogar leiten ließe – zumal die Rede, in der Kehlmann von seinen Erfahrungen berichtet, nach jener Stadt benannt ist, die zwar »die merkwürdige Eigenschaft [hat], dass man sie übersieht«,4 die aber nichtsdestotrotz als Geburtsort der Computerliteratur in Deutschland gelten darf und ihr für ein Jahrzehnt als vitaler Hotspot diente, an dem die Literatur in einer Anpassung sowohl an die neuen Rechenmaschinen als auch an die technokapitalistische Gesellschaftsordnung zukunftstauglich gemacht werden sollte.

Was aber ist nun das eigentlich Bedeutsame an »diesem Ausflug in die Zukunft«5 des Schreibens? Es ist die Tatsache, dass Kehlmann überhaupt in ein Flugzeug steigt und sich auf das Experiment mit der KI einlässt. Denn noch vor sechzig Jahren, als die computergenerierte Literatur sich mit dem theoretischen Flankenschutz von dem an der Technischen Universität Stuttgart lehrenden Physiker, Philosophen, Wissenschaftstheoretiker und Autor Max Bense offensiv in einer Abkehr von der konventionellen Literatur formierte, als die »Geburt der Poesie aus dem Geist der Maschine«6 programmatisch für ein antiromantisches Schreiben stand, wäre es kaum vorstellbar gewesen, dass sich jemand wie Kehlmann, der »nicht an Regeln beim Schreiben« glaubt,7 auf die Zusammenarbeit mit dem Computer einlässt. In den Begrifflichkeiten Benses, der die natürliche von der künstlichen Poesie abgrenzte, wobei letztere ihr Ideal in einer mathematischen, maschinell ausführbaren Texterzeugung fand, ist Kehlmann schließlich ein stereotyper Repräsentant der natürlichen Poesie und das heißt all dessen, was die frühe Computerliteratur, wie sie exemplarisch aus dem Kreis der Stuttgarter Gruppe um Bense hervorging, scheute wie der Teufel das Weihwasser. Insofern erscheint Kehlmanns Reise nur möglich, weil sich die Legitimationserzählungen und Rahmen, wie Computer betrachtet werden, grundlegend gewandelt haben. Seinen Ausdruck findet diese Transformation darin, dass Computer zwar nach wie vor als technische, logisch-mathematisch strukturierte Apparate wahrgenommen werden, doch nicht länger als Garanten der Objektivität, Transparenz, Verlässlichkeit sowie einer analytisch-mathematischen Repräsentation oder Erschließung der Welt gelten – Eigenschaften, die mit Kehlmanns im Kern romantischer Poetik kaum verträglich wären. Aufschlussreich ist die Reise also, weil sie symptomatisch Auskunft gibt über den Wandel der algorithmischen Rationalität und die veränderten Prämissen und Erwartungen, mit denen die Maschinen und ihre Resultate heute rezipiert werden.

Diese Entwicklung – so die Vermutung des vorliegenden Essays –, die ihren Ausgangspunkt Ende der 1950er und Anfang der 1960er genommen hat, als Rechenanlagen erstmals für den zivilen Gebrauch vertrieben wurden, wird in Rückbezug auf die Romantik sinnfällig, denn Computer legen zunehmend ein Verhalten an den Tag, das zwar aus logisch-mathematischen Prinzipien hervorgeht, aber oft nicht mehr auf diese zurückgeführt werden kann, dies in vielen Fällen auch gar nicht mehr soll. Stattdessen wird nach einem maschinellen Verhalten gesucht, das überraschend, kreativ, originell, unergründlich, singulär oder autonom operieren soll, werden die Maschinen und ihr Output verstärkt danach bewertet, ob sie ihr menschliches Gegenüber affektiv, emotional oder menschlich berühren – alles Qualitäten, wie sie für die Beschreibung romantischer Befindlichkeiten und Subjektivitäten typisch sind.

Womit wir es also zu tun haben, ist gewissermaßen eine algorithmische Postrationalität,8 ist eine Verschiebung innerhalb algorithmisch und simulativ erzeugter Resultate, Objekte und Wirklichkeiten, die zwar einerseits logisch, mathematisch und algorithmisch strukturiert und in diesem Sinn rational sind. Andererseits lösen die simulativ erzeugten Objekte aber die traditionell an die Rationalität gerichteten Erwartungen auf Objektivität, Transparenz und eine mathematisch beweisbare Verlässlichkeit nicht mehr ein. Die algorithmische Postrationalität, die hier weniger einen faktischen Tatbestand, sondern einen heuristischen, einen Wandel kenntlich machenden Unterscheidungswert markieren soll, benennt demnach eine wesentliche – empirische und phänomenologische – Voraussetzung, warum die KI entlang romantischer Topoi diskutiert werden kann, anstatt sich länger ins Muster der rationalen Maschine zu fügen.

Der Gegensatz, den Bense damals noch auszumachen meinte zwischen einer natürlichen Poesie, die den Schreibakt in einem lebensweltlich verankerten Ich beginnen lässt, und einer künstlichen Poesie, die ihn in einer radikalen Abkehr davon an den Funktionsprinzipen des Computers als strikt regelgeleiteter, logisch und klassisch mathematisch operierender Maschine festmacht, hat sich dementsprechend heute fast gänzlich verschliffen. Längst steht die maschinelle Textproduktion nicht mehr im Ausschlussverhältnis zu einem romantischen Bewusstsein.

Auf den vorliegenden Seiten interessiert mich dieser Befund zum einen, weil sich darin die Rekonfiguration der algorithmischen Rationalität niederschlägt, wie sie sich exemplarisch in den Debatten um die KI und um die statistischen Large Language Models (LLMs) äußert. Zum anderen, weil sich darin die Mächtigkeit kultureller Deutungsmuster abzeichnet: Erst sie legitimieren die Technik und verleihen dieser ihre sinnhafte Gestalt und soziale Bedeutung. In dieser Hinsicht zeugt die romantische Maschine davon, dass die digitalen Technologien gerade auch dort, wo sie angeblich besonders visionär oder fortschrittlich auftreten, von tradierten Denkmustern zehren, die sich bereits bewährt haben – was dann auch ein Grund ist, warum die Literatur, die einerseits als verlässlicher Speicher für kulturelle Denkformationen dient, diese aber andererseits auch immer wieder befragt, nach wie vor eine lohnende Disziplin darstellt, um selbst die neusten technischen Entwicklungen zu reflektieren.

Mit der Frage nach den kulturellen Konfigurationen, aus denen die digitalen Systeme hervorgehen, ist zugleich auch ein zentraler Anhaltspunkt für eine Kritik an der Technik benannt. Denn die Wirkmächtigkeit der Technik ist niemals nur das Resultat der Leistungsfähigkeit technischer Systeme. Vielmehr sind diese, um ihre Wirkmächtigkeit entfalten zu können, wesentlich auf kulturelle Bedingungen, die ihnen förderlich sind, angewiesen. Folgt man dieser Spur, rückt die romantische Maschine als Ausdruck einer neuen Legitimationserzählung in den Blick, wie die digitalen Systeme in soziale Lebenswelten integriert werden sollen. Notwendig wird die romantische Maschine aus dieser Perspektive, weil sie dafür sorgt, dass die Computer leisten können, was ihnen als Träger einer kalten und rationalistischen Vernunft versagt bleibt: noch tiefer als bisher in das soziale Gewebe der Gesellschaften einzudringen. Nur wo die algorithmischen Maschinen ihren Bund mit den klassischen Werten der Rationalität, Objektivität und Transparenz lockern und zu Boten einer algorithmischen Postrationalität werden, die zwischen den Polen des Rationalen und der Intuition, der Objektivität und Subjektivität, der Kognition und der Emotion, der Transparenz und Opazität, der Passivität und der Aktivität, der Automation (und das heißt der Reproduktion als regelkonformen Verhalten) und der Autonomie (und das kann sich hier auch in der Originalität als regelbrechendes Verhalten äußern) changieren können, kann die KI ihren Wirkungskreis ausdehnen und zusätzliche Sphären erobern – Sphären wie die der Literatur (und Kunst), aber letztlich natürlich weit mehr als das: Denn wie es einem romantischen Bewusstsein entspricht, soll der künstlichen Intelligenz schließlich keine Grenze gesetzt sein. Genau davon erzählt die Geschichte, wie in den letzten sechzig Jahren aus rationalen Maschinen romantische wurden.

Populäre Romantik

Die Romantik hat als historische Epoche und kulturelles Erbe seit einigen Jahren wieder stark an Aktualität gewonnen.9 In ihrer Vielfalt spiegelt die Menge der Publikationen für ein Fach- und Allgemeinpublikum auch die Komplexität und notorische Undefinierbarkeit des Worts, das sich aus dem Gattungsbegriff des Romans ableitet und zugleich für eine Epoche, eine literarische Strömung oder einen Kunststil, eine Theorie oder eine Stimmung stehen kann. Folglich erhebe ich keinerlei Anspruch darauf, der Romantik historisch oder in Bezug auf die Gegenwart gerecht zu werden; im Gegenteil: Ich beschränke mich ausschließlich auf eine Minimaldefinition, die das Romantische in seinem populären Gebrauch ernstnimmt, umfasst dieser schließlich die wesentlichen Aspekte, auf denen meine Beobachtungen aufbauen.

Ein erstes Merkmal dieses stereotypen Romantikbegriffs lässt sich Stefan Matuscheks Aufsatz »Literarischer Idealismus, Oder: Über eine mittlerweile 200-jährige Gewohnheit, über Literatur zu sprechen« entnehmen. Der Germanist geht dem erstaunlichen Fortleben eines »kategorialen literarischen Idealismus« nach, der um 1800 in die Welt gesetzt wurde und seither dafür sorgt, dass die Literatur als »infinite Idee« diskutiert werden kann.10 Dankbar ist Matuscheks Beitrag insbesondere, weil er Kehlmann als stereotypen Vertreter dieses romantischen Idealismus anführt, zu dessen Selbstverständnis – das Matuschek mit einer Wendung Kehlmanns im ›»Primat des scheinbar unstrukturierten, sprudelnden Erzählens‹« identifiziert – es gehört, dass die Literatur nicht produktionsästhetisch über eine erlernbare Regelhaftigkeit des Schreibens, sondern von einem fertigen – eben idealisierten – Produkt her gedacht wird. Als solches ist die Literatur schon immer gegeben und äußert ihr Wesen in allgemeinen, ihrer Geschichtlichkeit enthobenen Ideen. Bei einem Schriftsteller wie Kehlmann schlägt sich das darin nieder, dass er sich im Sprechen über sein Schreiben »in einen Philosophen« verwandelt, der über das »kunstphilosophisch Allgemeine« oder die Literatur als »fundamentale Menschheitsangelegenheit« räsoniert.11 Das gilt für das Reden über die Literatur, es trifft aber auch auf das literarische Schreiben des Autors selbst zu. Dabei dient ihm die Schrift als Medium, um – aus sich selbst schöpfend – sowohl das Individuum als auch die Welt expressiv hervorzubringen. Gleichzeitig gilt der literarische Text als Nachweis jener Menschlichkeit und humanen Welt, als deren Schatzmeisterin die Romantik die Literatur ins Rennen schickt.

Dieser stereotype Begriff eines romantischen Selbstverständnisses, das das Autor-Ich ins Zentrum rückt und das literarische Schreiben zum Pfand einer unverbrüchlichen Menschlichkeit und humanen Welt erhebt, deckt sich mit Benses Begriff einer natürlichen Poesie, die er 1962, drei Jahre, nachdem die maschinelle Textproduktion in Deutschland durch Theo Lutz in dem neu eingerichteten Recheninstitut der TU Stuttgart eingeläutet worden war, von der künstlichen, an die Funktionsweise des Computers angepassten Poesie erstmals absetzte. In der natürlichen Poesie, die Bense mehr oder weniger mit der konventionellen Literatur gleichsetzt, steht das Autor-Ich – ähnlich wie im populärromantischen Verständnis – als »personales poetisches Bewußtsein mit seinen Erfahrungen, Erlebnissen, Gefühlen, Erinnerungen, Gedanken« im Mittelpunkt.12 Dieses lebensweltlich verankerte Bewusstsein des Individuums setzt eine »präexistente Welt« schon immer voraus, sodass der »Weltaspekt der Worte« nahtlos auf ein Ich bezogen werden kann.

Im Gegensatz dazu kappt die künstliche Poesie die Beziehung der Worte einerseits zu einem Ich, andererseits zu einer Welt, die wie im Blick durch ein Fenster transparent in Erscheinung gebracht werden soll. Die künstliche Poesie hat ihren »materialen Ursprung«13 somit in Worten, die selbstreferenziell, als eigenständiges Material nach mehr oder weniger klar definierten Regeln bearbeitet werden. Idealtypisch werden die Regeln von Maschinen – im Fall von Computern also von Algorithmen oder Programmen – ausgeführt, wobei Bense, im Anschluss an die experimentelle Literatur der Nachkriegsavantgarden, das Schreiben für eine händische Bearbeitung durch den Menschen offenhält, sofern dieser seine Schreibweise der Logik der Maschine unterwirft.

Benses Unterscheidung ist auch deshalb aufschlussreich, weil sie deutlich macht, dass das populärromantische Modell von Anfang an als Negativfolie in die Definition der computergenerierten Literatur eingewandert ist. Nur in Bezug darauf konnte sie ihr scharfes Profil gewinnen, eine Idee von Texten in die Welt zu setzen, die angeblich ohne ein »personales poetisches Bewußtsein« und ohne lebensweltliche Bezüge auskommen. Dass die Abkehr dann aber nicht so glatt verläuft, wie Bense und die Informationsästhetik es gerne haben wollen, ist mit ein Grund, warum die computergenerierte Literatur heute wieder ohne größere Turbulenzen in ein romantisches Fahrwasser einscheren kann und das Reden über Computer und die computergenerierte Literatur neuerdings von jenem dominanten Gewohnheitsmuster namens Romantik eingeholt worden ist.

Die Anfänge der Computerliteratur

Im Rückblick sollte es noch immer überraschen, dass Rechenmaschinen ab den Sechzigerjahren überhaupt für die Literatur entdeckt wurden. Als im Herbst 1959 in Deutschland der erste an einer Zuse Z22 generierte Text in der von Bense herausgegebenen Literaturzeitschrift augenblick. zeitschrift für tendenz und experiment neben etablierten Größen des Literaturbetriebs wie Helmut Heißenbüttel und Nathalie Sarraute abgedruckt wird, sind Rechenmaschinen nur an einer Handvoll Hochschulen verfügbar, hinzu kommen einige Institutionen (wie das amerikanische Battelle-Forschungsinstitut in Frankfurt), Unternehmen (wie Banken oder Versicherungen) oder Elektro-Firmen wie die Siemens AG in Erlangen oder die Standard Elektrik Lorenz AG in Stuttgart, die sich auf das junge Feld des Computerbaus vorgewagt haben. Der Zugang zu Rechenmaschinen ist also höchst privilegiert, zudem setzt ihr Gebrauch gute mathematische Kenntnisse und ein nicht-standardisiertes Fachwissen des Programmierens voraus, das erst entwickelt werden muss und das unter Autorinnen und Autoren kaum zu finden ist (was erklärt, warum die Pioniere der maschinellen Textproduktion Ingenieure sind). Selbst Bense wird als promovierter Physiker, obschon er die Programmierung theoretisch zum Goldstandard der Literaturproduktion erhebt, das Programmieren mit seinen handwerklichen Mühen nie erlernen. Dort, wo Bense als Prosaautor einzelne literarische Textpassagen mithilfe eines Computers erstellt, holt er sich stets Hilfe von Fachleuten, die die Arbeit am Computer für ihn erledigen. Für das Verständnis, wie der Computer zu einer literarischen Maschine werden kann, ist das entscheidend: Ihre Bedeutung gewinnen die Rechenanlagen nicht als praktisches Werkzeug, sondern als theoretische Projektion und »ideale Verkörperung abstrakter Funktionen«.14

Wie aber kommt es nun dazu, dass die seinerzeit noch raumfüllenden Apparate der Spitzentechnologie, die wenig mit der Kultur der schönen Künste zu tun haben, zur Blaupause des Schreibens werden konnten? Auch in dieser Hinsicht ist die technische Leistung der neuen Rechenmaschinen weitaus weniger ausschlaggebend als die kulturelle Konstellation des literarischen Schreibens, auf die der Computer in der Nachkriegszeit trifft.

Nach dem Ende des Zweiten Weltkriegs suchen viele Autorinnen und Autoren nach neuen Ansätzen für das Schreiben; unter den literarischen Traditionen, auf die sie zurückgreifen könnten, genießt die Romantik mit Abstand den schlechtesten Ruf. Insbesondere in Deutschland hält sich der Verdacht, dass ein Schicksalszusammenhang zwischen der Romantik, dem Faschismus und Hitler bestehe,15 zählen doch die Nationalisierung der Kultur und Literatur sowie die Beschwörung des Volks und der Volkstümlichkeit fraglos zum Erbe der (restaurativen) Romantik. So erklärte Johann Gottlieb Fichte in seinen Reden an die deutsche Nation (1807/8) etwa, dass die deutsche Einheit, die »als gemeinsames Ganzes fast nur durch das Werkzeug des Schriftstellers, durch Sprache und Schrift«, zusammengehalten werde, zum »heiligsten Amt des Schriftstellers« gehöre.16

Es braucht daher nicht viel, um die Romantik zum Feindbild der westeuropäischen Neoavantgarden werden zu lassen, zum Inbild dessen, was mit der Literatur alles falsch gelaufen ist. Stattdessen sollen in einer vehementen Abkehr von romantischen Prämissen Subjektivität, Expressivität oder die Intuition im produktionsästhetischen Prozess eliminiert und durch objektive und rationale Prinzipien ersetzt werden. Typischerweise übersetzt sich das – in einer zur romantischen Innerlichkeit diametral gegenläufigen Bewegung – in eine Veräußerlichung und Regelhaftigkeit des Schreibakts, wobei die Neoavantgarden hier an die historischen Avantgarden anschließen können. Als Resultat wird die Selbstreferenzialität der Schrift gegenüber lebensweltlichen Sinndeutungen betont.

Beispielhaft dafür ist die Konkrete Poesie, deren Programm Eugen Gomringer 1954 in der Neuen Zürcher Zeitung unter dem Titel »vom vers zur konstellation. zweck und form einer neuen dichtung« präsentiert. Zwar stellt der Versuch, die Sprache zu vereinfachen, zu objektivieren und materialistisch auf sich selbst zurückzufalten, auch einen Reinigungsakt dar, der seinen soziohistorischen Hintergrund im propagandistischen Missbrauch der Sprache durch den Nationalsozialismus hat. Doch so wesentlich sie sind, die Erfahrungen des Faschismus und der Gewalt des Kriegs sind bei Weitem nicht der einzige Grund für das Interesse an objektiven, rationalen und nicht selten mathematisch inspirierten Schreibverfahren. In Gomringers Zuschnitt will die Konkrete Poesie schließlich das literarische Schreiben auch an die »schnellere kommunikation« des elektronischen Zeitalters anpassen (als Referenz der neuen Kommunikationstechniken dienen Gomringer »ferngespräch« und »funk«): Denn »der heutige mensch will rasch verstehen und rasch verstanden werden«. Diesem Gebot einer reibungslosen Kommunikation soll sich nun auch das literarische Schreiben bis ins Schriftbild hinein fügen: »das angenehmste und rationellste schriftbild wird erreicht durch die kleinschrift.«17

Eine rationale Ästhetik

Max Bense steigt in den 1950er-Jahren zum international bestens vernetzten Cheftheoretiker der Konkreten Poesie auf; parallel dazu entwickelt er die Informationsästhetik, mit der er sowohl die Kunst- und Literaturwissenschaft als auch die künstlerische und literarische Praxis auf ein naturwissenschaftlich-mathematisches Fundament stellen will.18 Die computergenerierten Texte sieht er dabei zwar nicht kommen. Als er überraschend von Theo Lutz’ Versuchen im hauseigenen Recheninstitut erfährt, realisiert er aber schnell, dass seine Theorie der Informationsästhetik mit den rechenbasierten Texten »nachträglich auf ihr genuines Objekt« gestoßen ist.19 Hier, in der maschinellen Programmierbarkeit von Texten, erkennt Bense nun das theoretische Ideal einer mathematisch-rationalen Texterzeugung, mit der das individuelle Autorsubjekt ausgeklammert werden kann. Nirgends sonst wird die antiromantische Poetik mit ihrer Maxime einer Literatur, die in »subjektlosen Sätzen subjektloser Poesie« gipfeln soll,20 so konsequent eingelöst wie in einem Konzept des Schreibens, das die Texterzeugung direkt an die Maschine koppelt. Bei Bense führt das zu einer Radikalisierung seiner theoretischen Prämissen. Kaum hat er die Programmierbarkeit zum neuen Maß eines subjektlosen und berechenbaren Schreibens erhoben, hält er konkreten Poeten wie Franz Mon vor, dass ihre Texte noch zu intuitiv – sprich: zu sehr von subjektiven, vor allem auch irrationalen Neigungen geleitet – seien. »Seit Markoff – und das heißt mindestens seit 1914 – wissen wir, dass die materiale Eigenwelt der Texte auf einer statistischen Buchstaben- und Wortverkettung beruht«,21 belehrt Bense seinen Kollegen aus der Stuttgarter Gruppe und verschweigt dabei großzügig, dass auch er selbst erst im Vorjahr durch einen schwäbischen Elektrotechnikstudenten erfahren hat, dass sich Texte nicht nur statistisch-stochastisch analysieren lassen (wie es noch für den russischen Mathematiker Andrej A. Markov gegolten hat), sondern mit den neuen Rechenmaschinen eben auch generieren.

Allerdings verläuft die Einpassung der Literatur ins Schema des Computers nicht komplikationsfrei. Ein wesentliches Dilemma liegt darin, dass sich die deduktive Logik der Computerarchitektur schlecht mit dem Neuen und der Originalität verträgt, Kategorien, an denen die Informationsästhetik trotz ihrer antiromantischen Stoßrichtung emphatisch festhält. Die Lösung dafür bringt erst der Zufall. »Es ist klar«, schreibt Bense, »dass durch die Einführung des Zufalls mit Hilfe der sogenannten Zufallsgeneratoren es auch der Maschine unmöglich ist, ein Produkt identisch zu wiederholen«,22 das heißt: Erst der Zufall garantiert, dass der Output nicht einfach dem Input entspricht. Bense notiert das in einer Quasiformel: »Programm → Computer + Zufallsgenerator → Realisator.«23 Kraft des Zufalls, so Bense, »bleibt der singuläre Charakter auch des maschinell erzeugten ästhetischen Objekts gewahrt, es zeigt seine pseudoindividuelle und pseudointuitive Note.«24 Dass es sich nur scheinbar um Formen der Individualität und Intuition handelt, liegt nicht nur daran, dass diese Begrifflichkeiten in Bezug auf Computer kaum (oder nur metaphorisch) einen Sinn ergeben. Vielmehr lässt die Architektur des Computers auch keinen objektiven (oder ontologischen) Zufall zu, weil die rechenbasierten Prozesse formal-logischen Gesetzmäßigkeiten gehorchen. »Es gibt keine Zufallszahlen, es gibt nur Methoden zur Erzeugung von Zufallszahlen«, so der Mathematiker John von Neumann, nach dem die Architektur der modernen Digitalcomputer benannt ist: »Wer über arithmetische Methoden zur Erzeugung von Zufallszahlen nachdenkt, befindet sich unweigerlich im Zustand der Sünde.«25

Bedeutsam ist demnach auch hier die theoretische und strategische Funktion, die dem Zufall zugeschrieben wird.26 Theoretisch orientiert sich die Informationsästhetik vornehmlich am stochastischen Zufall (das heißt an statistischen Zufallsfolgen, die mit einem Zeitlichkeitsindex versehen sind). In der Praxis gestaltet sich dies jedoch anders: So veröffentlicht Theo Lutz, der für das erste an einem Computer generierte Gedicht in deutscher Sprache verantwortlich ist, seine maschinell erzeugten Zeilen zwar unter dem generischen Titel »Stochastische Texte« (der Titel steht im Plural, obwohl 1959 nur ein einzelnes Gedicht in der augenblick abgedruckt ist). In einem Kommentar, den Lutz den ausgewählten Zeilen voranstellt, räumt er aber ein, dass für die Stochastik ein weiteres »Oberprogramm« notwendig wäre, das es dann zusätzlich ermögliche, dass die Maschine »lernt«.27 Dass Lutz in Bezug auf seine generierten Zeilen durchweg von stochastischen, nicht von simplen (kombinatorischen) Zufallstexten spricht, geht vermutlich auf Bense und seine Bemühungen um eine »statistische und technologische Ästhetik« zurück,28 der sich auch hier für die Theorie interessiert, weniger für die Praxis und das, was damals technisch implementierbar ist. Algorithmen, die stochastische Prozesse modellieren, werden erst später entwickelt.

Zufallsordnungen

Die opportunistische Vermischung kombinatorischer und stochastischer Zufallsprinzipien ist für die frühe Computerliteratur charakteristisch, wobei in der Praxis häufig nur erstere Anwendungen finden, in der Theorie hingegen letztere bevorzugt werden. Theoretisch virulent ist die Stochastik aufgrund ihrer Beziehung zur Informationstheorie. In seiner ebendiese Theorie mitbegründenden Eine Mathematische Theorie der Kommunikation (1948) demonstriert Claude E. Shannon, wie er, beginnend mit einer willkürlichen Buchstabenfolge (»xfoml rxkhrjffjuj zlpwcfwkcyj ffjeyvkcqsghyd qpaamkbzaacibzlhjqd«), durch die Einführung verschiedener statistischer Parameter einen Satz erhält, der grammatikalisch annäherungsweise korrekt ist und einen vermeintlichen Sinn aufweist (»the head and in frontal attack on an english writer that the character of this point is therefore another method for the letters that the time of who ever told the problem for an unexpected«).29 Das stiftet die Vorstellung, dass die Schrift – ohne das Zutun eines menschlichen Subjekts – selbstständig aus statistischen Prozessen hervorgehen könnte, was bereits 1949, im selben Jahr, in dem