Die Automatisierung des Schreibens - Philipp Schönthaler - E-Book

Die Automatisierung des Schreibens E-Book

Philipp Schönthaler

0,0
26,99 €

oder
-100%
Sammeln Sie Punkte in unserem Gutscheinprogramm und kaufen Sie E-Books und Hörbücher mit bis zu 100% Rabatt.
Mehr erfahren.
Beschreibung

Schreiben oder Programmieren? Die Geschichte einer wechselhaften Beziehung und ein leidenschaftliches Plädoyer für die Fähigkeiten der Literatur. Experimente mit computergenerierten Texten sorgen zunächst für Erstaunen, um dann zu beruhigtem Abwinken zu verleiten: Gute Romane, heißt es, schreibt der Computer (noch) nicht. Doch vor dem Hintergrund des Siegeszugs der Künstlichen Intelligenz gerät die Geschichte der Mechanisierung des Schreibens in den Blick. Wie sich Schreiben und Programmieren zueinander verhalten, rekonstruiert Philipp Schönthaler in dieser groß angelegten Studie. Sein überraschender Gang durch die Geschichte der Literatur eröffnet der gegenwärtigen Diskussion einen faszinierenden Tiefenraum, der Alarmismen wie Heilsversprechen fraglich werden lässt. Zu Beginn des 20. Jahrhunderts übersetzen die europäischen Avantgarden die Produktionsweisen der Industriellen Revolution in neue Schreibtechniken und legen damit den Grundstein für eine Literatur aus dem Geist des Computers. Doch Computer und Kybernetik spalten bereits das Feld der Neo-Avantgarden. Gleichzeitig mit den ersten an Rechenanlagen erzeugten Texten entwickeln sie Schreibweisen einer nichtprogrammierbaren Literatur. Sie machen deutlich, dass Schreiben und Programmieren an unterschiedliche Selbstbestimmungen und Modi der Welterschließung anknüpfen. Angesichts der Automatisierung als globalem Prinzip zeigt "Die Automatisierung des Schreibens" Literatur als Gegenentwurf zu einer algorithmisch modellierbaren Realität, der scheinbar keine Grenzen gesetzt sind. Der Herausforderung stellen kann sich das literarische Schreiben aber nur, wenn es sich auf die Allgegenwart des Digitalen einlässt.

Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:

EPUB
Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



Philipp Schönthaler

Die Automatisierungdes Schreibens &Gegenprogramme der Literatur

Inhalt

Siglen

Einleitung

1910/20|1950/60|2010 ff.

TEIL I. DIE MECHANISIERUNG DER HAND

1.Die Hand ins Freie verlängern (Futurismus)

Der gute Schlamm der Werkstätten|Die Schreibhand als Technoorgan

2.Vom Automatismus zur Mechanisierung der Schreibhand

Schreiben im Spiritismus, in der Psychiatrie und Psychologie|Writing for the normal person (Stein)|Ein Riesenarm mit Feenfingern|»Ware für den Tagesmarkt«: Die Ökonomisierung des literarischen Schreibens|Schreiben im Büro|Verhaltenslehren der Maschine (Gilbreth)|Bewegte Hände: Ein Resümee

3.Der Cut mit der Geistestradition

4.Schreiben im Takt der technischen Moderne

Die Konformität mit mechanischen Arbeitsprozessen|Verwissenschaftlichung der Literatur|Der blinde Fleck der Schreibmaschine|Hat die Mechanisierung der Schreibhand ein Gender?|Eine naturnahe Moderne

5.Schreiben in Distanz zur technischen Moderne (Surrealismus)

Die Montagetechnik|Das schnurlose Telefon? Aber hallo!|Die Ruinen des Kapitalismus|Tzara zündet einen letzten Sprengsatz

TEIL II. DIE AUTOMATISIERUNG DES GEISTES

6.Die Geburt der Literatur aus dem Geist des Computers

Schwere Denkapparaturen|Plötzlich war es modern, Rechenanlagen aufzustellen|Bense redet doch immer von rationaler Ästhetik (Stuttgarter Gruppe)|Technokraten der Imagination (USA, Bell Labs)|Der frühe Kanon der digitalen Poesie

7.Die Autorin als Programmiererin (Informationsästhetik, Bense)

Die Enden der Intuition|Ungewohnte Arbeitsteilung|Die Hand als Streitfall der Nachkriegshumanismen

8.Schreiben in einer Welt der Vorhersage (Bense)

Frontal attack on an English Writer (Shannon)|Ein Geist geht um (Pierce)|Mord auf den Bahamas|Wie die Vernunft fast den Verstand verlor

9.Schreiben als Arbeit am Zufall

Programmierung und mathematische Beweisführung|Die Bruchstellen sind erschreckend|Die Intuition kommt bei uns aus dem Zufallsgenerator|Die Computerliteratur ist nie avantgardistisch gewesen|Kreativität als Legitimation|Den Zufall kontrollieren

10. Nichtprogrammierbare Schreibweisen (Wiener Gruppe)

Methodischer Inventionismus|Ein Stellwerk mit Handgriffen|Das Gebrechen im Getriebe der Maschine (Bayer)|Perfekte Modelle|Modell einer nichtprogrammierbaren Literatur|Programmierte vs. poetische Maschinen (Bense vs. Bayer)|Kybernetik für alle (Oswald Wiener)|Das Ich ist unrettbar|Kühe auf gräserner Weide (Bense)

11. Rechenleistungen der Literatur (Beckett)

Vorhersage und Entropie der Sprache|Die Identifikation des Amorphen|Die Erschöpfung des Möglichen|Joyceware

12. Grenzen der Formalisierung (SI, Perec)

Antiökonomische Handlungen (SI, SPUR)|Mit Regelzwängen zur Freiheit (Oulipo)|Alphabet und Autobiografie (Perec)|Maschine vs. Goethe|Ein vorläufiger Schlussstrich

TEIL III. DIE AUTOMATISIERUNG DER AUTOMATISIERUNG

13. Alphabet Inc.

Linguistischer Kapitalismus|Datenwirtschaft|Ein Grammofon auf jedem Grab (Joyce)

14. Emanzipation von der Schrift

Biometrie|Datenbehaviorismus|Die ultimative Kommunikationstechnologie – Telepathie

15. Erzählen in der digitalen Gesellschaft

Wenn das Digitale ein Märchen wäre – Storytelling|I was misty-eyed – Science-Fiction|Ich erzähle Geschichten über Geschichten (Haraway)

16. Für eine kritische Poetik der Verknüpfung

Die avantgardistische Tradition|Programmieren ist nicht gleich schreiben|Das Unbehagen der Programmiererin|Verketten ist notwendig|Die Politik des Verknüpfens|Dunkle Vermittlungen als Bedingung von Subjektivität|Die Automatisierung des Planeten

Dank

Anmerkungen

Abbildungsverzeichnis

Literaturverzeichnis

Siglen

A

Pierce, »Chance Remarks«

B

Ball, Briefe 1904–1927, Bd. 1

BCI

Binnendijk, Brain-Computer Interfaces

C

Ullman, Close to the Machine

DW

Lyotard, Der Widerstreit

F

Bassett u. a., Furious

FL

Munn, Ferious Logics

M

Marinetti, Manifeste des Futurismus

MA

Perec, Die Maschine

MC

Haraway, »Ein Manifest für Cyborgs«

MS

Breton, Die Manifeste des Surrealismus

N

Solomons, Stein, »Normal Motor Automatism«

S

Flusser, Schrift

v

Wiener, die verbesserung von mitteleuropa, roman

T

Bratton, The Terraforming

W

Beckett, Watt

WT

Skinner, Walden Two

Z

Gissing, Zeilengeld

Einleitung

Literarische Texte lassen sich vom Computer herstellen. Zuletzt hat im Sommer 2020 eine Software mit dem unscheinbaren Namen GPT-3 für Aufsehen gesorgt. Der Wirtschaftsmediendienst Bloomberg hat sich sogar zur Prognose hinreißen lassen, dass man sich weniger wegen der Pandemie oder amerikanischen Präsidentschaftswahl, sondern wegen des »Generative Pretrained Transformer« (GPT) an das Jahr erinnern werde.1 Zu diesem Zeitpunkt handelt es sich um die mächtigste Software zur Verarbeitung natürlicher Sprachen: GPT-3 »kann absolut originelle, kohärente und manchmal sogar sachliche Prosa erzeugen«, staunt die New York Times.2 Die Software verwendet sogenannte Deep-Learning-Methoden; ohne Einschränkung auf einen spezifischen Bereich prozessiert sie Buchstaben, Zahlen oder Symbole. Auf ein »Prompt« hin, eine Vorgabe weniger Wörter, erzeugt sie selbstständig Text: »Und nicht nur Prosa – sie kann Gedichte, Dialoge, Memes, Computercode und wer weiß was sonst noch alles schreiben.« Was sonst noch? – Die Süddeutsche Zeitung (SZ) ist eingesprungen: »Kurzgeschichten, Songtexte, Betriebsanleitungen, Bilanzanalysen, juristisch korrekte Abhandlungen oder eine Harry-Potter-Fortsetzung im Stil von Raymond Chandler.«3

Obwohl die Nachricht über einen computergenerierten Roman eigentlich nicht mehr überraschen kann, ist sie nach wie vor schlagzeilentauglich. Neue technische Medien, das ist aus der Geschichte aller Künste vertraut, stellen gewohnte Praxen infrage, wie etwa die Fotografie, die nach ihrer Entwicklung zum Kunstmedium erst in Konkurrenz zur Malerei tritt, bevor die digitale die analoge Fotografie ab den Neunzigern des 20. Jahrhunderts in Legitimationsnöte bringt. Anders als in der Kunst, Fotografie oder Musik lassen sich die semantischen Zeichen des Alphabets, die in syntaktische und statistische Relationen übersetzt werden müssen, bislang allerdings nur eingeschränkt maschinell verarbeiten. Besonders offensichtlich zeigen sich die Unzulänglichkeiten an Inkohärenzen, die längere generierte Texte aufweisen. Dennoch teilt die Literatur mit anderen Künsten, dass die Auseinandersetzung mit dem Computer als technischem Medium zunächst in eine experimentelle Sphäre ausgelagert wird. Während eine Spielart der experimentellen Literatur sich ab den Sechzigern auf die Programmierung einlässt, hat der Mainstream – auch wenn Bücher heute in der Regel am Computer geschrieben werden – unbehelligt von den Errungenschaften der Computertechnologie fortfahren können. Der PC oder das World Wide Web haben zwar neue Genres der elektronischen Literatur hervorgebracht, aber ohne die etablierte Literaturproduktion herauszufordern.

Mit dem Siegeszug der künstlichen Intelligenz (KI) zu Beginn des 21. Jahrhunderts hat die Generierung von Texten jedoch an Schlagkraft gewonnen und lässt einmal mehr fragen, inwieweit sich händische Schreibweisen simulieren lassen. Auf dem Feld des Natural Language Processing (NPL) ist GPT-3 nur eine jüngere Meldung über die wundersamen Versprechen des Digitalen. Längst hat die Software Konkurrenz durch noch größere Sprachverarbeitungsmodelle erhalten. Angesichts dieser Entwicklungen mag es nicht erstaunen, dass in den letzten Jahren vermehrt Autorinnen nicht nur fiktional in Romanen, sondern theoretisch in Bezug auf das eigene Handwerk des Schreibens nach der Bedeutung der KI fragen, darunter der Brite Tom McCarthy oder in Deutschland Ulla Hahn, Ernst-Wilhelm Händler oder Daniel Kehlmann.4 Hahn spekuliert angesichts eines computergenerierten Gedichts, das in die Anthologie des Brentano-Lyrikwettbewerbs aufgenommen wird, ob Computer menschliche Dichterinnen überflüssig machen. Die digitalen Technologien sind in der Mitte der etablierten Literaturproduktion angekommen. Betroffen ist aber letztlich die gesamte Wissensproduktion: »Es gibt kaum einen Aspekt von menschlich ausgeführter Wissensarbeit, der nicht von GPT-3 infrage gestellt wird«, meint Michael Moorstedt in der SZ. Die Ehrfurcht vor der Software schwingt noch in jeder Zeile mit. Ironiefrei spricht er von einer »Schöpfung« und »Magie«, was aber eben auch jene Qualitäten sind, die die eigene Profession des Schreibens erschüttern: »Wer nur ein bisschen Zeit mit dem Programm verbringt, sieht seine Zukunftsaussichten bröckeln.«

Das vorliegende Buch beschäftigt sich mit der Transformation der alphabetischen Schrift in digitalen Code. Ich diskutiere den Wandel vor dem Hintergrund der Automatisierung des Schreibens, wobei die Mechanisierung die Schrift vorab aus einer spezifischen Perspektive thematisiert. Mit der Mechanisierung des Schreibens bezeichne ich zunächst wenig mehr als einen instrumentellen Zugriff auf die Schrift, in dem die Sätze ohne die kognitive Leistung eines Subjekts gebildet werden können. Diese Form der Mechanisierung kann händisch oder mithilfe technischer Apparate ausgeführt werden und bildet die Voraussetzung für eine Automatisierung des Schreibens, in der Prinzipien und Prozesse der Textgenerierung von Computern und Programmen übernommen werden. Innerhalb des breiten Spektrums der Sprache, Schrift, Literatur und Programmierung dient mir die Mechanisierung und Automatisierung auch als heuristisches Mittel, einzelne Bezüge innerhalb dieses Themenfelds gezielt anzusprechen. Das Vokabular Sprache, Schrift oder Schreiben handhabe ich bewusst lose, das Ziel sind weniger bündige Definitionen, sondern es ist die Beantwortung der Frage, wie Vorstellungen in spezifischen soziokulturellen, ökonomischen, medientechnischen oder poetischen Konstellationen wirksam werden.

Als Referenz dient mir die Literatur. Zum einen ist sie das Produkt soziokultureller, ökonomischer und technomedialer Entwicklungen, zum anderen reflektiert sie diese und übersetzt sie in konkrete Poetiken. Ergiebig ist die Literatur, weil sie demonstriert, dass Mechanisierungsprozesse sich niemals auf technische Machbarkeitsfragen beschränken, sondern in soziale und kulturelle Verhältnissen eingelassen sind oder diesen sogar erst entspringen. Deshalb fasse ich das Schreiben mit der Mechanisierung zugleich breiter und gehe über die Literatur hinaus.

Zu den historischen und kulturellen Vorstellungen der Mechanisierung des Schreibens gehört es, dass sie die instrumentellen und technischen Aspekte der Schrift akzentuiert. Anhand der Mechanisierung lässt sich daher besonders gut nachvollziehen, wie die Literatur als spezifische Form des Schreibens an technomedialen Neuerungen partizipiert und dabei auf allgemeine gesellschaftliche Wandlungsprozesse reagiert. Dass Mechanisierungsprozesse das Schreiben über die Literatur hinaus affizieren, illustriert auch GPT-3: Ohne zwischen Romanen oder Börsenbilanzen zu unterscheiden, generiert die Software alle Textgattungen. Auch deshalb erschöpft sich ihre kulturelle Bedeutung nicht in Machbarkeitsfragen, sondern sie liegt vornehmlich in sozioökonomischen und technologischen Entwicklungen, die der Software zugrunde liegen. Hinzu kommen soziokulturelle Zuschreibungen, mit denen Technologien und das Digitale überformt werden, sowie die vielfältigen Beziehungen, die sie – real und imaginär – stiften.

In einer Vorgeschichte der Mechanisierung des Schreibens lassen sich mindestens zwei Stränge unterscheiden: Ein erster findet seinen Ausdruck in Automaten, die zu Reflexionen über die Handlungsfähigkeit und Lebendigkeit von Objekten, Strukturen oder der Materie anregen.5 Ein zweiter lokalisiert die Mechanismen der Texterzeugung in der Schrift selbst. Berühmt für seine Automaten ist das Barock, das zahllose Maschinen hervorbringt, »die (tatsächlich oder scheinbar) aßen, kackten, bluteten, atmeten, hüpften, gingen, sprachen, schwammen, musizierten, zeichneten, schrieben und eine fast unschlagbare Partie Schach spielten.«6 Der »Schreiber« (1774) des Schweizer Uhrmachers Pierre Jaquet-Droz (1721–1790) taucht eine Feder in ein Tintenfass, schüttelt sie ab und setzt sie auf einem Papier auf. Der Android in der Größe eines Kleinkinds gilt als eine der ersten programmierbaren Maschinen der Neuzeit, mit der sich ein bis zu vierzig Zeichen langer Text wiedergeben lässt. Automaten sind zu dieser Zeit keineswegs neu, schon René Descartes dienen die mechanischen und hydraulischen Automaten des Mittelalters und der Renaissance als Anschauungsgegenstand aus dem Alltag, um ein mechanistisches Universum zu entwerfen, das kausalen Gesetzmäßigkeiten gehorcht. Im Barock werden die Ähnlichkeiten allerdings bis in die äußere Erscheinungsform hinein gesucht, zudem werden nun höhere Fakultäten wie das rationale Denken – das Descartes noch einer gesonderten, von der Materie geschiedenen Sphäre zuweist – mechanistisch gedeutet. Bedeutsam ist der barocke Automatenbau ferner, weil die Uhrmacher, deren Androiden auf Jahrmärkten durch Europa tingeln und für Eintrittsgeld bestaunt werden können, Maschinen konstruieren, mit denen die Industrialisierung handwerklicher Gewerbe eingeläutet wird. Jacques de Vaucanson (1709–1782), der mit seinem Flötenspieler und einer defäkierenden Ente die populärsten Automaten der Epoche präsentiert, perfektioniert 1745 den vollautomatischen Webstuhl.

Das wichtigste Beispiel für den zweiten Strang der Mechanisierung, der Mechanismen der Texterzeugung in der Schrift sucht, ist die Kombinatorik (die Anagrammatik, die sich hier ebenfalls nennen lässt, erfährt weitaus weniger Aufmerksamkeit). Zu frühen kombinatorischen Zeichenkünstlern gehören der katalanische Mönch Raimund Llull (1232–1316), der deutsche Jesuit Athanasius Kirchner (1602–1680) oder der Dichter Georg Philipp Harsdörffer (1607–1658). Die Kombinatorik leitet die Regelhaftigkeit des Zeichengebrauchs aus der Schrift selbst ab, wobei sie die Referenzialität zugunsten der Selbstreferenzialität der Zeichen zurückstellt. Die Schrift wird buchstäblich als Technik entdeckt, mit der sich Sätze mechanisch herstellen lassen, ohne dass ein Verständnis für die Verknüpfungsregeln oder den Sinn der Wörter notwendig wäre, um das Verfahren in Gang zu setzen. Werden die Regeln befolgt, können korrekte Sätze ohne kognitive Leistung gebildet oder neue Wortverkettungen gefunden werden. In einer »Schrift, die sich selbst vollzieht«, teilen Zaubersprüche, Kombinatorik und Computerprogramme einen gemeinsamen Kern.7 Llulls Papiermaschine, eine Apparatur, in der konzentrische, mit einem symbolischen Alphabet versehene Kreise sich einzeln drehen lassen, wobei jede Scheibe die Kombinationsmöglichkeiten erweitert, ist deshalb als Antizipation des modernen Computers gedeutet worden: »insofern sie erstens Daten von Algorithmen unterscheidet, zweitens die Daten als tabellarische Datenbank und drittens die Algorithmen als figurae modelliert.«

Im Gegensatz zur poetischen Sprachalgorithmik gehen moderne Rechenmaschinen allerdings aus symbolischen und mathematischen Formalsprachen hervor, die auf dem Gebrauch interpretationsfreier Zeichen beruhen. Als Begründer logischer und mathematischer Kalküle gilt Gottfried Wilhelm Leibniz (1646–1716). Der junge Leibniz studiert Llull. Mit seiner Allgemeinen Charakteristik oder Begriffszeichenschrift (Characteristica universalis) hat Leibniz nicht weniger als ein universal verständliches Zeichensystem im Sinn, mit dem sich alle möglichen Denkinhalte erschöpfend darstellen lassen. Das soll über syntaktische Operationen erfolgen, sodass sich das Wissen der Welt und der Wahrheitsgehalt von Aussagen mechanisch ermitteln lassen. Poetischer Sprachalgorithmik und mathematischen Kalkülsprachen ist gemein, dass sie eine Transformation der Sprache in eine Technik und von Zeichen in »handhabbare Gegenstände« einleiten.8 Sprachalgorithmik und Kalkülsprachen lassen sich deshalb als »symbolische Maschinen« bezeichnen, die händisch auf einem Blatt Papier operationalisiert werden.

Ohne die Entwicklungen weiter zu referieren, verdient in diesem Kontext Alan Turings Entwurf eines Universalcomputers von 1937 Erwähnung, weil er eine Zäsur in der Geschichte der Papiermaschinen darstellt.9 Eine Maschine, die homolog zu einem Menschen agiert, der mit Stift, Radiergummi und Papier ausgestattet ist, soll »jede berechenbare Folge errechnen« können.10 Turing denkt seine Papiermaschine bereits als »›automatische Maschine‹ (oder a-Maschine)«, die vom Prinzip her ohne einen Menschen auskommt, solange die Bewegung der Maschine bei jedem Schritt vollständig bestimmt werden kann. Im selben Jahr entwickelt Claude E. Shannon in seiner Masterarbeit A Symbolic Analysis of Relay and Switching Circuits eine digitale Schaltalgebra, auf deren Grundlage sich die binären Operationen technisch implementieren lassen. Am Vorabend des Zweitens Weltkriegs sind die Voraussetzungen geschaffen, um Turings Papiermaschine wirklich werden zu lassen.

Die Automatisierung des Schreibens erörtere ich vor diesem Hintergrund. Allerdings spare ich die angedeutete Vorgeschichte generierter Texte aus, zu der bereits einschlägige Studien vorliegen. Bedeutsam ist aber, dass ich die gängigen Narrative befrage, die die computergenerierte Literatur weniger in eine Nachfolge der Kombinatorik, sondern vor allem der historischen Avantgarden stellen.11 Demgegenüber betone ich die Brüche und Transformationen, die der Eintritt des Computers ins Feld der Literatur mit sich bringt. Ausschlaggebend sind die Kybernetik und Informationstheorie, die die alphabetische Schrift umformen und der maschinellen Verarbeitung zugänglich machen. Vor diesem Hintergrund thematisiert der erste Teil des Buches die Mechanisierung des Schreibens anhand der europäischen Avantgarden der Zehner- und Zwanzigerjahre. Die Rekapitulation dient als Rahmen für Teil zwei, der mit »Die Automatisierung des Geistes« überschrieben ist. Dort analysiere ich die Anfänge der computergenerierten Literatur in den Fünfzigern und Sechzigern, um daraufhin nachzuzeichnen, wie Computer das Feld der Nachkriegsavantgarden spalten und neben generierten bewusst nichtprogrammierbare Texte entstehen. Der dritte Teil, die Automatisierung der Automatisierung, wendet sich der Gegenwart zu.

1910/20

Für meinen Zugriff auf die Mechanisierung und Automatisierung des Schreibens sind in dem oben skizzierten Aufriss zwei Momente entscheidend: erstens die Überführung der Schrift in formale oder physische Verfahren sowie zweitens die Suspension der Bedeutungsdimension schriftlicher Zeichen. Die europäischen Avantgarden knüpfen daran an. Am Anfang meiner Studie stehen sie aber, weil die Mechanisierung des Schreibens um 1900 als Effekt ökonomischer, industrieller, medientechnischer und sozialkultureller Entwicklungen virulent wird. Die Gründe dafür, dass das Schreiben von den Dynamiken der Industrialisierung ergriffen wird, sind vielfältig. Neben sozioökonomischen Faktoren ist der Aufstieg der Geschwindigkeit zum Leitwert der Epoche entscheidend, im Bereich der Schriftkultur vollzieht sich Letzteres im Rahmen medientechnischer Neuerungen in der Nachrichtenübertragung, im Druckwesen sowie in der Schrift selbst, die durch Schnellschriftsysteme oder die Schreibmaschine den neuen kulturellen Anforderungen angepasst wird. Vor diesem Hintergrund artikulieren die Avantgarden ihre Position in drei miteinander verwobenen Denkfiguren. Indem sie die Mechanisierung erstens in ästhetische Schreibverfahren übersetzen, werten sie sie auf und wenden sie produktiv. Zweitens können sie sich derart von der bürgerlichen Literatur abnabeln. Als Resultat legitimieren sie ihre Poetiken drittens affirmativ über die Nähe zu zeitgenössischen Produktionsweisen, um gemäß der Devise des Dadaisten Raoul Hausmanns die »sogenannten Wissenschaften und Künste auf den Stand der Gegenwart« zu bringen.12

Rückblickend lassen sich die avantgardistischen Verfahren sowohl als Reaktion auf eine Krise bürgerlicher Schreibweisen verstehen als auch als Versuch, sie zu revolutionieren. Zwar durchlaufen die bürgerlichen Schreibweisen schon im 19. Jahrhundert einen signifikanten Wandel. Während sich der Bruch in Frankreich mit der Revolution auf 1848 datieren lässt, steht die deutsche Literatur bis zum Ende des Jahrhunderts in ihrem Bann, die sozialen und kulturellen Umbrüche hinterlassen vergleichsweise geringe Spuren. Der Germanist Heinz Schlaffer findet in seiner Kurzen Geschichte der deutschen Literatur sogar nur eine einzige Ausnahme, Georg Büchner, dessen Werk die »schweren Kränkungen, welche die revolutionären Geister des 19. Jahrhunderts der Menschheit nicht ersparen konnten«, antizipiert: »die Erkenntnis, daß der Mensch vom Tier abstammt (Darwin), daß die Ökonomie das Bewusstsein bestimmt (Marx), und daß das Ich vom Trieb regiert wird (Freud).«13 Im Unterschied zu modernistischen Schreibweisen um 1900, die sich vom literarischen Realismus des 19. Jahrhunderts abkehren, profilieren sich die Avantgarden dadurch, dass sie den Bruch mit der bürgerlichen Literatur im Schreiben als Technik suchen. Nicht im ›Was‹, sondern im ›Wie‹ des Schreibens wollen sie eine Revolutionierung der bürgerlichen Literatur erzwingen. Sie legen das Augenmerk auf die Produktionsweise, nicht das Produkt, die Erneuerung wird in der Praxis und Prozesshaftigkeit des Schreibens, weniger im Resultat individueller Texte gesucht. Der erste Teil der Studie beschreibt diese Umstellung vermittels eines doppelten Cuts: Der Schnitt, mit dem sich die Avantgarden von der Tradition lösen, hat eine Entsprechung in einem zweiten durch das Autorsubjekt, der die Schreibhand vom Kopf entkoppelt und das Schreiben von einer geistigen in eine händische Praxis umwidmet. An die Stelle eines inneren und geistigen Akts tritt das Schreiben als veräußerlichter und materieller Prozess.

Die avantgardistische Mechanisierung des Schreibens ist überdies mit der Frage nach dem Subjekt verzahnt, die ebenfalls leitend für das Anliegen des Buches ist. Seit der Goethezeit wird das Mechanische in der Kunst und Literatur vorwiegend als defizitär beschrieben. In dieser wirkmächtigen Tradition geht die Aufwertung des Individuums mit einer Inthronisierung des Geistes, der Genialität, Expressivität oder des Schöpferischen einher, das Mechanische wird demgegenüber mit Geistlosigkeit, Eintönigkeit, Gleichförmigkeit und Regelzwängen identifiziert. Wo die Nachahmung hingegen gelingt, fällt das Mechanische ins Register der Bedrohung oder des Unheimlichen. Im Gegensatz dazu löse ich die Differenzen zwischen dem Nichtmechanischen und Mechanischen nicht einfach auf, betone aber wechselseitige Abhängigkeiten, Übergänge und Graubereiche, sowohl was die Konzeption der Schrift als auch die des Subjekts betrifft.

Meine Geschichte der Automatisierung des Schreibens mit den Avantgarden zu beginnen, erklärt sich demnach auch aus deren Nobilitierung der Mechanisierung, die die Avantgarden wiederum mit der Subjektproblematik verbinden. Ihre Kritik richtet sich gegen das klassische, liberale Subjekt des Humanismus, darin verfechten sie aber weder ein rein mechanistisches Universum, noch verabschieden sie das Subjekt pauschal. Stattdessen suchen sie den Geist in der Natur, Technik und verkörperten Praxen. Das Ziel ist eine »Synthese des Geistes und der Materie«,14 so Viking Eggeling und Hausmann in der »Zweiten präsentistischen Deklaration« (1923). Das Subjekt soll jenseits cartesianischer Konzeptionen und »des kleinen Individualistischen« bürgerlicher Selbstvergewisserungen erschlossen werden. Das Mechanische ist die Bedingung von Subjektivierungsweisen, um bürgerliche Subjekte fundamental umzugestalten.

Die historischen Avantgarden sind zwar nicht die Ersten, die das Ideal einer vom individuellen Autorsubjekt bereinigten Literatur entwerfen, das vollzieht sich bereits im Modernismus. Sie verfolgen dieses Programm aber auf der Grundlage einer neuen poetischen Agenda. Im Blick auf den französischen Modernismus reserviert Roland Barthes den Begriff einer »Schreibweise im Nullzustand« für eine Linie, die sich von Gustave Flaubert über Stéphane Mallarmé bis zu Albert Camus, Maurice Blanchot oder Alain Robbe-Grillet ziehen lässt: »als ob die Literatur, die seit einem Jahrhundert versucht, ihre Oberfläche in eine Form ohne Erbschaft zu verwandeln, nur noch Reinheit finden könnte durch das Fehlen aller Zeichen.«15 Das autonome Werk des Modernismus markiert eine Abkehr vom genieästhetischen Kunstwerk. Der Modernismus negiert das Autorsubjekt und lässt es in einer absoluten Objektivität des Werks aufgehen. Alternativ spricht Barthes von einer neutralen Schreibweise, die ihr Ideal in Mallarmés Fiktion eines totalen Buches findet. Die Avantgarden stoßen sich einerseits von der romantischen Konzeption des Genies, andererseits vom autonomen Werk des Modernismus ab. Die doppelte Frontstellung gründet darin, dass sie das Schreiben als Technik entdecken. Gegenüber dem Schreiben als schöpferischem Prozess setzen die Avantgarden auf materielle und regelgeleitete Verfahren, das plakative Bild liefern John Heartfield, Georg Grosz oder Hausmann, die im Blaumann auftreten, um auch dem Letzten klar zu machen, dass Monteure am Werk sind, die mit vorgefertigtem Material hantieren, keine Genies, die ihre Sätze aus einer diffusen, inneren Eingebung hinaus spinnen.

Die Avantgarden operieren also auf mehreren Ebenen: Die Abkehr von der Autonomie ist produktionsästhetisch im Schreiben als veräußerlichter Praxis angelegt, dies schlägt sich auch auf der Inhaltsebene nieder, die sich über kein organisches oder sinnhaftes Ganzes mehr definiert. Im Unterschied zum modernistischen Werk, das seine Gesetzmäßigkeit aus sich selbst heraus begründet und darin letztlich ebenso geheimnisumwoben bleibt wie das kolportierte Bild des romantischen Genies, gehen die Avantgarden von einer Regelhaftigkeit des Schreibens aus, für die sich produktionsästhetische Kriterien benennen lassen. Als Resultat rückt es in eine Nähe zur Mechanisierung. Die avantgardistischen Manifeste sind nicht nur ästhetische und weltanschauliche Proklamationen über den Sinn oder Unsinn der Welt, sondern technische Anleitungsmanuale, die praktisch in die Kunst des Schreibens einführen. Bereitwillig geben die Avantgarden das Betriebsgeheimnis ihres Handwerks preis. Geschult in der Diktion und Typografie der schreierischen Werbesprache der Zeit streuen sie ihre Regelwerke öffentlichkeitswirksam im Massenmedium der Zeitung. Die Manifeste sind von starken und streitbaren ästhetischen und weltanschaulichen Normen getragen, übersetzen sich aber stets in konkrete Schreibtechniken. Indem die Avantgarden das Schreiben ausgehend von seinen Produktionsbedingungen als regelgeleiteten Akt entwerfen, liebäugeln sie mit einer Demokratisierung der Kunst. Der autoritäre Gestus der Manifeste, die erbitterten Profilierungsmaßnahmen, die Gruppenausschlüsse sowie die systematische Ausgrenzung der in den Bewegungen beteiligten Frauen spricht hier allerdings eine deutlich andere Sprache.

Der entscheidende Aspekt für meine Rekonstruktion avantgardistischer Verfahren liegt letztlich darin, dass Mechanisches und Nichtmechanisches keine Gegensätze, sondern zwei Pole bilden, zwischen denen das Schreiben in seinem materiellen Vollzug greifbar wird. Das Schreiben entfaltet sich als »offene Prozesslogik«,16 die sich aus einem Wechselspiel von spezifischen Techniken und Automatismen, konkreten Regeln und blinden Handlungsvollzügen speist und Möglichkeitsbedingungen bereitstellt, intentional und subjektiv handlungsfähig zu werden. Vor diesem Hintergrund erhält das Schreiben als Technik sein Gewicht: »Ohne Techne kein menschliches Handeln [agency].«17 Der erste Teil konstruiert die avantgardistischen Verfahren als Techniken, die unter der Prämisse, Geist, Rationalität und Bewusstsein zu umgehen, grundsätzliche Bedingungen von Subjektivierungsprozessen ausbuchstabieren, die es erlauben, dass Subjekt als handlungsfähiges zu konzipieren, indem es als vielfältig vermitteltes in Beziehung zu Gesellschaft, Technik und Natur gesetzt wird.

1950/60

Teil zwei setzt mit den Nachkriegsavantgarden ein, auf die Mechanisierung folgt nun die Automatisierung des Schreibens. Die Begriffe der Mechanisierung und Automatisierung sind nicht trennscharf, selbst in der Fachliteratur werden sie mitunter synonym verwendet. Mit der Differenzierung folge ich der historischen Sachlage: Die »Automation« oder »Automatisierung« wird in der Automobilindustrie der Vierziger geprägt, als Fabriken wie Ford im Zuge der Kriegsökonomie auf die Waffenproduktion umstellen.18 Zum öffentlichen Thema wird sie aber erst eine Dekade später, als Rechenanlagen von militärischen in kommerzielle Maschinen umdeklariert werden. Noch bevor sie von Unternehmen angekauft werden, lösen die Anlagen auf beiden Seiten des Atlantiks heftige Debatten aus. Nach der Ersetzung der Hand, so die Befürchtungen, schaffen die ›elektronischen Gehirne‹ nun die geistige Arbeit ab. Was in der Öffentlichkeit als Bedrohungsszenario diskutiert wird, geht durch die Maschine als positive Vision in die computergenerierte Literatur der Zeit ein.

Das Anliegen, das Subjekt aus dem literarischen Schaffensprozess auszuschließen, vollzieht sich im Schatten des Zweiten Weltkriegs und der nationalsozialistischen Verbrechen, die auch die humanistische Kultur und Sprache diskreditieren. Die historischen Avantgarden liefern ein Vorbild, das der computergenerierten Literatur hilft. Max Bense, der das Schreiben vom Autorsubjekt entkoppelt und auf semiotische und mathematische Grundlagen stellt, kann das Projekt der Avantgarden insofern schlüssig aufnehmen, als er einerseits den Schritt von der Mechanisierung zur Automatisierung des Schreibens vollzieht und andererseits das Phantasma einer autor- und subjektlosen Textproduktion scheinbar realisiert, indem er die Schrift über die Programmierung direkt mit dem Computer verschaltet. Nachdem die Avantgarden den Geist zugunsten der Hand zurückstellen, löst die rechenbasierte Literatur nun Geist und Hand aus dem Schreibprozess heraus.

Die computergenerierte Literatur beruft sich zwar einerseits auf die Poetik der Avantgarden, andererseits markiert die Einführung des Computers in das Feld der Literatur einen Bruch. Entgegen der gängigen Darstellung, die die computergenerierte Literatur in eine lineare Nachfolge der historischen Avantgarden stellt, argumentiere ich, dass der Computer, anstatt zur Literatur hinzuzutreten, sie fortzuführen oder zu ersetzen, das gesamte Feld – Avantgarden und Mainstream – von Grund auf umformt. Anders als die amerikanischen Neoavantgarden, die sich neue Technologien in der Tradition des amerikanischen Pragmatismus praktisch aneignen, erschließt Bense den Computer als theoretisches Objekt. Maßgeblich für seine Theoriebildung sind die Semiotik, Informationstheorie und Kybernetik, über die er eine rationale und numerische Ästhetik entwickelt, die sich von traditionellen Literaturkonzeptionen abwendet.

Über die Kybernetik und Informatik lässt sich anschaulich nachvollziehen, wie Bense zwar an die antisubjektivistische Poetik der Avantgarden anschließt, letztlich aber eine elementare Reformulierung des Schreibens vornimmt. Die Kybernetik meint mit den Schlüsselkategorien des Feedbacks und der Selbstregulierung eine Lösung gefunden zu haben, über den Mechanismus (und Vitalismus) hinaus ein Universum zu denken, das ohne Zuschreibungen von Agency auskommt (oder die sie als sekundären Effekt, nicht als ursächliche Realität begreift).19 Indem sie anthropologische Differenz zwischen Mensch und Maschine kassiert, entwirft sie zudem die Kommunikationsbedingungen für das anbrechende Computerzeitalter. Mensch und Materie werden auf der Grundlage eines einheitlichen und vereinheitlichenden mathematischen Codes adressiert.

Der epistemische Bruch, der die Sprache und das Subjekt betrifft, hat weitreichende Folgen und lässt sich nicht als uniformer Prozess darstellen. Das Verhältnis zwischen Mechanischem und Nichtmechanischem, das die historischen Avantgarden über die Vermittlung des Subjekts offenhalten, ersetzt die Kybernetik durch servomechanische, also sich selbst steuernde Prozesse, die ohne menschliche Agency oder Subjekte auskommen. Außerdem erfährt die alphabetische Schrift eine Reformulierung und wird der Funktionsweise des Computers angepasst. Der digitale Code schmilzt das Alphabet auf zwei Symbole ein, mit der Differenz von 0 und 1, On oder Off, soll es syntaktisch operationalisierbar und technisch implementierbar werden. Shannons Ansatz, die Semantik und Pragmatik der Schrift als technisches Problem der Übertragung auszuklammern, übernimmt Bense. Philologische oder hermeneutische Sinnfragen treten hinter numerischen Kategorien wie der Verteilung oder Auftrittswahrscheinlichkeit von Wörtern zurück. An die Stelle der Sprache als Vermittlung zur Welt rückt die Materialität, Objekthaftigkeit und Selbstreferenzialität des linguistischen Zeichensystems.

Ähnlich wie die Avantgarden operationalisiert die Informationsästhetik das Schreiben als veräußerlichten und materiellen Prozess. Die Avantgarden orientieren sich aber noch am Menschen, die Automatisierung dagegen an der Rechenmaschine. Wo die Avantgarden das Schreiben anschlussfähig an das Nichtmechanische und menschliche Subjekt halten, unterstellt die computerbasierte Literatur die Textproduktion dem Regime algorithmischer Regeln. Das materialisiert sich im Computerprogramm, das als eigenständiger, ästhetischer Akt aufgewertet wird, sodass die Textgenerierung als arbeitsteiliger Prozess an die Maschine delegiert werden kann. Erwähnenswert ist die Programmierung in diesem Kontext auch, weil sie zur Herausbildung von Programmiersprachen führt. Die Bezeichnung des Codierens als Sprache ist keineswegs evident, weil dem Computercode sowohl die semantische als auch die pragmatische Dimension gesprochener und geschriebener Sprachen fehlt. Dennoch setzt sich die Bezeichnung wirkmächtig durch, was wiederum dazu führt, dass sich die »natürliche Sprache« als Fachterminus etabliert, um die menschliche Rede von formalsprachlichen und logischen Notationen zu unterscheiden, wie sie im Computercode gebräuchlich wird. Die Neudefinition des literarischen Schreibens, das rechenmaschinenkompatibel ist, lässt eine gewaltige Begriffsarbeit notwendig werden. Exemplarisch zeigt sich dies an der informationsästhetischen Theoretisierung des Zufalls und der Kreativität, die zur Voraussetzung werden, den Begriff des Schreibens neu zu erfinden. Auch das konterkariert die gängigen Darstellungen, die eine gerade Linie von den historischen über die Neoavantgarden bis zur digitalen Literatur unserer Tage ziehen.

In der frühen computergenerierten Literatur ist der Zufall der einzige Kniff, um aus dem deterministischen Schema der Programmierung auszuscheren. Oder anders formuliert: Wie lässt sich die Verlegenheit umgehen, Texte zu erzeugen, die nicht einfach wiedergeben, was zuvor – wie bei Jaquet-Droz’ Schreiber – im Programm festgelegt wird? Die Lösung bildet der Zufall. Er wird zum Legitimationsprinzip, um rechenbasierte Texte überhaupt als literarische zu identifizieren, die sich im Unterschied zum Industrieprodukt als singuläre Objekte ausweisen lassen. Der Zufall soll erklären, wie aus mechanischen Prozessen Neues entstehen kann, aber nicht nur das: Er wird zusätzlich als anthropologische Kategorie aufgerüstet und soll die Funktionsweise menschlicher Kreativität entmystifizieren. Im Gegenzug zu den Avantgarden, die den Zufall als ordnungssprengendes Prinzip mobilisieren, verwandelt er sich im Übergang von der Kombinatorik zum stochastischen Zufall der Informationstheorie zu einer mathematischen und ordnungsstiftenden Kategorie, die Auskunft über die Ordnung von klassischen und avantgardistischen Kunstwerken gibt. Ein Anliegen des zweiten Teils besteht darin, die Transformationsprozesse nachzuzeichnen, die notwendig sind, um das literarische Schreiben so umzumodeln, dass es sich konfliktfrei mit dem Computer verschalten lässt.

Die schärfste Kritik am Computer, der Kybernetik und Informationsästhetik erfolgt bemerkenswerterweise aus dem Feld der Neoavantgarden, nicht vonseiten der konventionellen Literatur. Im Anschluss an die Informationsästhetik wende ich mich Positionen zu, die sich auf logische Kalküle und die Sprachalgorithmik einlassen, die universale Transformierbarkeit der Schrift in Programmcode aber zurückweisen. Sie tragen der Algorithmik als einer Möglichkeit, die der natürlichen Sprache innewohnt, Rechnung und integrieren sie in ihr Schreiben, ohne Schreiben und Programmierung aber einfach in eins zu setzen. Die Wiener Gruppe, Samuel Beckett und Georges Perec räumen der natürlichen Sprache gegenüber formalen Sprachen die Vorrangstellung ein. Die Pointe ihrer Ansätze liegt allerdings darin, dass sie sich nach zwei Seiten hin abgrenzen: der konventionellen Literatur einerseits, algorithmischen Schreibweisen andererseits. Formalsprachliche Kalküle dienen ihnen dazu, nicht nur literarische Konventionen, sondern die Sprache als epistemologisches Medium und Herrschaftsinstrument zu befragen. Umgekehrt halten sie an konventionellen Mustern wie der Erzählung fest und weisen die Algorithmik als ein Element innerhalb der natürlichen Sprache aus. Indem sie einen natürlichen und formalisierten Sprachgebrauch in ein Wechselverhältnis zueinander setzen, kehren sie die Konflikte beider Systeme – Sprache und Algorithmik – hervor.

Mit ihrem Problembewusstsein reflektieren sie außerdem Subjektivierungsprozesse, die die natürliche Sprache zur Voraussetzung haben, ohne dass sich die Subjektproblematik einseitig in einem formalisierten Sprachgebrauch auflösen ließe. Die Subjekte gehen aus dem Zusammenspiel eines natürlichen und formalisierten Sprachgebrauchs hervor, ihre Fundierung haben sie aber in der natürlichen Sprache. Gegenüber den historischen Avantgarden korrigieren die Nachkriegsavantgarden auch deren Gewichtung auf das Schreiben als materieller gegenüber einer kognitiven, mit bedeutsamen Zeichen operierenden Technik. Obwohl die Wiener Gruppe, Beckett und Perec am Menschen als sprachbegabtem Wesen festhalten, ist weder die Sprache noch das Subjekt jemals gegeben, sondern beide müssen immer wieder neu im Durchgang durch die Schrift gewonnen werden.

Die Wiener Gruppe, Beckett und Perec führen die Sprachskepsis und Humanismuskritik der Avantgarden fort und aktualisieren sie vor dem Hintergrund des Digitalen als kultureller Logik, mit der von Anfang an soziale Verhältnisse zur Disposition stehen. Im Aufbau des Buches kommt ihnen eine Schlüsselfunktion zu. Erst mit ihnen wird der Untertitel, Gegenprogramme der Literatur, vollends greifbar. Im Gegenzug zur computergenerierten Literatur stehen sie für eine Fortführung eines avantgardistischen Problembewusstseins, das die Mechanisierung nicht einfach in die Maschinenkompatibilität des Schreibens münden lässt. Konrad Bayers der vogel singt. eine dichtungsmaschine in 571 Bestandteilen (1957–58), Wieners die verbesserung von mitteleuropa, roman (1969), Becketts Watt (1953) und Perecs Anton Voyls Fortgang (frz. La Disparition, 1969) und sein Hörspiel Die Maschine (1968) lassen sich in diesem Kontext als Modelle einer methodisch nichtprogrammierbaren Literatur lesen. Sie vertreten Poetiken, die die Bestimmung der Literatur in ihrer Einlassung auf logische Kalküle in der natürlichen Sprache lokalisieren, keinem einheitlichen Programmcode. Daraus lassen sich Konstellationen gewinnen, die von den ersten Avantgarden über die Neoavantgarden führen und, so ein Argument im dritten Teil des Buches, Anhaltspunkte liefern, um einen Begriff des Schreibens zu artikulieren, mit dem es sich angesichts der gegenwärtigen technologischen Bedingungen in der bewussten Einlassung auf die Programmierung systematisch von dieser absetzen lässt.

2010 ff.

Der dritte Teil springt ins 21. Jahrhundert. In den Neunzigern verlassen Computer ihre Gehäuse. Seither sind Algorithmen als soziotechnische Objekte in die Umwelt eingewandert und die Technologie ist planetarisch geworden: Satelliten umhüllen die Erde, die Kommunikationsinfrastruktur dehnt sich unter Wasser und über Land aus, hinzu kommt der Abbau seltener Erden, ein enormer Energiebedarf, die Logistik von Warenströmen, die globale Umstrukturierung und Verteilung von Arbeit oder die datenbasierte Produktion von Information und Wissen unter der Regie weniger Konzerne. All das steht hinter dem jüngsten Höhenflug der KI, die diese Entwicklungen gleichzeitig weiter vorantreibt.

In einem enger gefassten Rahmen lassen sich die Leistungssprünge, aus denen eine Software wie GPT-3 hervorgeht, in eine Geschichte der KI seit den Vierzigern stellen, an deren Anfang neuronale Netze stehen, wie sie der amerikanische Psychologe und Informatiker Frank Rosenblatt erstmals mit seinem Perzeptron (der Name spielt auf die Wahrnehmung an) präsentiert.20 Dieser Ansatz wird auch als konnektivistischer bezeichnet, der einer induktiven Logik gehorcht. Gegen Ende der Fünfziger gewinnt die symbolische KI die Oberhand, die deduktiv aufgebaut ist. Die gegenwärtigen Lernarchitekturen markieren eine Rückkehr des Konnektivismus, dessen Einzug in den Mainstream zu Beginn des 21. Jahrhunderts nicht ohne den Ausbau technischer Infrastrukturen und von Daten denkbar wäre, wie sie Smartphones und soziale Medien abwerfen. »Big Data plus Deep Learning plus schnellere Hardware hat sich als Erfolgsformel bewährt.«21 Obwohl die KI ihre Ausrichtung und Faszination von Anfang an aus dem Vergleich mit dem Menschen bezieht, orientieren sich die neuen Architekturen, zu deren bekanntesten als Oberbegriff das Deep Learning zählt, nicht länger am Denken oder dem Gehirn als neuronalem Organ.22 Über die technische Architektur der Programme hinaus wird dies durch ihre Einbettung in geopolitische Technostrukturen und den Plattformkapitalismus verstärkt. Die Kombination aus maschinellen Lernsystemen und großen Datenvolumen macht es möglich, Algorithmen anhand von spezifischen Datensets zu entwickeln, die daraufhin spezifischen (teil-)automatisierten Anwendungen zugeführt werden. In der rasanten Verbreitung der KI in Militär, Finanzwirtschaft, Sicherheitspolitik, Polizei-, Versicherungs- oder Gesundheitswesen kündigt sich eine neue Ära der »Automatisierung der Automatisierung« an.23

Der dritte Teil skizziert die technologischen Bedingungen ausgehend von dem Befund, dass einfache Gegenüberstellungen von programmierten und händischen Prozessen und Verfahren nicht mehr ohne Weiteres dingfest zu machen sind. Traditionell stehen in der Automatisierung Input- und Outputdaten in eindeutigen oder erwartbaren Korrelationen zueinander. In maschinellen Lernsystemen lassen sich die Ergebnisse (der Output) hingegen nicht mehr vollständig nachvollziehen. Die Anzahl der Parameter zur Berechnung der Daten ist zu hoch und die Systeme verändern die Gewichtung ihrer Knoten selbstständig. In der Philosophie wird sogar diskutiert, ob die Automatisierung die Disziplin nicht »aus ihrem Dienst entlässt«, weil die Automatisierung mittlerweile Kriterien der Selbstdetermination aufweise, die sie in die Lage versetze, »das philosophische Programm der Vernunft zu erfüllen oder scheinbar zu erfüllen«.24 Man muss dem nicht folgen.25 Dennoch muss das Schreiben und Denken heute tiefer in der Auseinandersetzung mit Prinzipien der Automatisierung diskutiert werden anstatt über Grenzen, die sich vorab und allzu unbeirrt zwischen natürlichen und formalen Sprachen, psychophysiologischen Automatismen und technischer Automatisierung, menschlicher Selbstdetermination und computerbasierter Programmierung ziehen ließen.

Tom McCarthy und James Joyce dienen mir als Ausgangspunkt, um die gegenwärtige Gestalt der Computertechnologie auf die Literatur zu beziehen. Der dritte Teil ist von der Frage nach der Literatur motiviert und in welches Verhältnis sie zur Automatisierung zu setzen ist. Allerdings entfalte ich das nicht anhand von zeitgenössischen literarischen Texten. Weil der Stellenwert des Schreibens und sprachbegabter Subjekte angesichts der Hegemonie der Technologien von vielen grundsätzlich infrage gestellt wird, geht es mir um die generelle Problematik, unter welchen Voraussetzungen Schreiben heute gedacht und in Bezug zum Digitalen gebracht werden kann. Diesem Zuschnitt ist es auch geschuldet, dass die Studie nicht eigens auf die elektronische Literatur eingeht. Die Hypertextliteratur, interaktive Erzählformen, kinetische Poesie, netzwerkbasierte Schreibmodelle oder Codeworks, die in der zweiten Hälfte des 20. Jahrhunderts entstehen, bleiben ebenso außen vor wie jüngere Phänomene einer (konzeptuellen) digitalen, Bot- oder Twitter-Literatur. Die Entscheidung, die digitale Literatur zu überspringen, ist ferner durch aktuelle KI-Forschungen begründet, die die Einsicht vertreten, dass weitere Fortschritte in der maschinellen Sprachverarbeitung nur gelingen, wenn die Beziehung der Sprache zur Außenwelt sowie außerlinguistische Wissensformen berücksichtigt werden. Aus einer technologischen Perspektive rückt erneut die natürliche Sprache in ihrer Welthaltigkeit und Verankerung in einem Gemeinsinn ins Zentrum der Computation. Dieser Hintergrund dient mir dazu, die Frage nach der Bedeutung eines nichtprogrammierbaren Schreibens angesichts der kulturellen Hegemonie des Digitalen zu aktualisieren.

Die Frage, welche Rolle die natürliche Sprache in der Digitalökonomie spielt, erörtere ich ausgehend von der Biometrie, dem Datenbehaviorismus und neurotechnologischen Forschungen zur Gehirn-zu-Gehirn-Kommunikation, die nicht selten als Telepathie apostrophiert wird. Die drei Bereiche zeugen von einer Abkehr von der Vorstellung des Menschen als sprachbegabtem Wesen. Inzwischen nimmt die rechenbasierte Steuerung von Subjekten zu oder wird mit Social-Engineering-Methoden forciert. Aber auch hier verschwinden Sprache und Schrift nicht einfach. Neben der algorithmischen Modellierung der Subjekte baut die Technologiebranche auf Erzählungen. Anhand von Storytelling und Science-Fiction zeige ich, dass die Erzählung im Zentrum des Digitalen wirkmächtig bleibt. Die Ideologie einer universalen Transformation der Welt in digitalen Code gewinnt ihre volle Gestalt erst durch Erzählungen. Eine Ironie des Masternarrativs eines universalen Codes liegt darin, dass es eine Zukunft ausmalt, die in einer technologischen Selbstdetermination mündet, die sich in der Form des Erzählens des Erzählens ein für alle Mal entledigt hat.

Die Macht liegt zweifellos bei den Maschinen, dennoch lässt das Digitale die Literatur nicht obsolet werden. Die Arbeiten Bayers, Wieners, Becketts und Perecs sind auch deshalb unabgegolten, weil sie die Digitalökonomie in ihrem doppelten Charakter, als technisches und kulturelles Phänomen, reflektieren. Sie zeigen, dass das Digitale niemals auf die technischen Bedingungen der Programmierung reduziert werden kann. Auch in dieser Hinsicht ist es von Belang, dass neuerdings die kategorialen Grenzen der maschinellen Lernsysteme sowie der rechenbasierten Verarbeitung der natürlichen Sprache diskutiert werden.

Die deduktiven Verfahren der symbolischen KI treffen ausgehend von gegebenen Prämissen logische und in diesem Sinn zwingende Schlussfolgerungen. Das garantiert zwar korrekte Resultate, ein Nachteil der Deduktion liegt aber darin, dass sie kein neues Wissen produziert, sondern dieses voraussetzt. Frühe Sprachsysteme sind maßgeblich daran gescheitert, dass sich die Regeln des Sprachgebrauchs nicht einheitlich logisch-deduktiv formalisieren lassen. Induktive Verfahren, wie sie maschinellen Lernarchitekturen zugrunde liegen, leiten ihr Wissen hingegen aus Erfahrungen ab, es wird also vom Besonderen auf das Allgemeine geschlossen. Im maschinellen Lernen heißt Erfahrung: riesige, statistisch auswertbare Datensätze. Die Regeln des Sprachgebrauchs müssen nicht mehr vorab im Detail gewusst und in ein Programm implementiert, sondern sie können aus maschinenlesbaren Textdatensätzen abgeleitet werden. Der Erfolg neuer, auf neuronalen Netzen basierender Sprachsoftware verdankt sich auch den feinmaschigen statistischen Werten, die einzelnen Wörtern zugeordnet werden. Wie Wörter numerisch und statistisch repräsentiert werden, lässt sich anhand einer effizienten Methode illustrieren, die Worte in einen vektoriellen Raum übersetzt (die Methode wird »word to vector« oder »Word2vec« genannt). »Worte erhalten so eine Position innerhalb eines Raums mit mehreren hundert Dimensionen. […] Die semantische Nähe wird nicht deduktiv aus einer symbolischen Kategorisierung, sondern induktiv aus der statistischen Nähe zwischen allen Begriffen im Korpus abgeleitet.«26 Im vektoriellen Raum spiegeln sich Zugehörigkeiten und semantische Verwandtschaften von Worten in komplexen Zahlenwerten und -reihen: »Der Vektor des Konzepts ›Apartment‹ [-0.2, 0.3, -4.2, 5.1 …] ist dem ähnlich vom ›Haus‹ [-0.2, 0.3, -4.0, 5.1 …].«

Mit induktiven (statistischen) Verfahren kann neues Wissen gewonnen werden (auch daher die Bezeichnung des Lernens), allerdings gibt es keine Garantie, dass die Schlussverfahren korrekt sind. Im Fall von Sprachsystemen sind die Ergebnisse für kleine Satzeinheiten oder in der maschinellen Übersetzung, in der die Ausgangs- und Zielsprachen präzise kartografiert und miteinander abgeglichen werden können, zwar nicht selten beeindruckend. Die Software ›versteht‹ die Sprache aber nicht semantisch oder pragmatisch, sondern modelliert sie lediglich aufgrund statistischer Methoden. In längeren generierten Texten sind die Unzulänglichkeiten offenkundig.27 So auch bei GPT-3. Im Gegensatz zur verklärenden Feuilleton-Rezeption urteilen einige Fachleute, dass die Software »eine sprudelnde Quelle des Bullshits« sei.28 Gary Marcus und Ernest Davis sind keine KI-Verächter, sondern richten sich gegen die systematische Überschätzung des maschinellen Lernens, auf dessen Basis sich keine starke oder allgemeine KI, die etwa Sprache verstehen würde, erreichen lässt. Gegenüber der Vorgängerversion GPT-2 mögen die Resultate von GPT-3 besser sein, das Prinzip ist unverändert: »selbst mit 175 Milliarden Parametern und 450 Gigabyte an Eingabedaten ist sie kein zuverlässiger Interpret der Welt.«

Als Mitbegründer des Deep Learning urteilt inzwischen auch Yoshua Bengio, dass sich aus Text allein kein Sprachverständnis ableiten lässt. Deshalb beschäftigt er sich jüngst mit der Programmierung außersprachlicher Faktoren und impliziten Wissensformen wie Common Sense, Kausalität oder Aufmerksamkeit. Andere Informatikerinnen argumentieren ähnlich. Für Sprachsysteme, die die Verarbeitung natürlicher Sprachen meistern können, sind ganz neue Formen der Programmierung jenseits deduktiver oder induktiver Verfahren notwendig, ohne dass eine Brücke von den bisherigen Architekturen zu diesen führt.29

Aktuell ist in der KI-Forschung also wieder jene semantische und nichtlinguistische Dimension der Sprache Thema, die Shannons Informationstheorie und die frühe Computerliteratur methodisch ausschließen. Die Unzulänglichkeiten des statistisch-induktiven Zugriffs auf die natürliche Sprache werden anhand der Kategorien der Kohärenz und Konsistenz von generierten Texten evident. Sie gehören zu den problematischen Kenngrößen der maschinellen Sprachverarbeitung. Das deute ich dahingehend, dass zu Beginn des 21. Jahrhunderts nicht länger Lyrik, die mit Zeilensprüngen semantische Inkohärenzen und Inkonsistenzen besser überspielen kann, sondern Prosa und Roman das Modell der avancierten, rechnerbasierten Textverarbeitung bilden. Unternehmen wie Elemental Cognition, das an Systemen arbeitet, die Sprache tatsächlich verstehen, analysieren Romane, weil deren Lektüre ein Weltwissen voraussetzt, das von außen an die Fiktionen herangetragen werden muss. Von fiktionalen Erzählungen erhofft sich das Unternehmen Aufschlüsse darüber zu erhalten, wie sich ein programmierbares Verständnis von Welt und Sprache erlangen lässt. Die Forschungsansätze einer technowissenschaftlichen Avantgarde dienen mir am Ende des dritten Teils dazu, Schreiben und Programmierung als zwei Techniken voneinander zu unterscheiden.

Das Programmieren – etymologisch ist der Buchstabe mit dem Gramma schon in dem Wort enthalten – wird gemeinhin aus der Schrift abgeleitet und Programmieren als eine Form der Schrift ausgewiesen. Prominent behauptet der Medientheoretiker Friedrich Kittler Anfang der Neunziger, »daß die Unterschiede zwischen Schreiben und Programmieren mittlerweile gegen null gehen«.30 Demgegenüber argumentiere ich, dass es zu kurz greift, die Programmierung lediglich als Schrift (Inskription) oder Text aufzufassen. Ein wesentlicher Unterschied zwischen dem (händischen) Schreiben und der Programmierung liegt darin, dass Algorithmen als soziale Objekte konkrete Steuerfunktionen ausführen. Die Sprachverarbeitung bildet diesbezüglich nur einen Bereich. Anstatt das Schreiben der Programmierung direkt gegenüberzustellen, kontrastiere ich sie mit der Verknüpfung über ein drittes Vergleichsmoment, das ihre Vermittlungsfunktion in den Vordergrund rückt.

Verknüpfungen oder verwandte Konnektivitätsbegriffe werden nicht erst heute inflationär verwendet. In der Nachkriegszeit erlebt das System- und Netzwerkdenken eine rasante Verbreitung, die Metapher des Netzwerks wird ab den Neunzigern zu einem »absoluten Begriff«, der »zum Selbstverständnis der politischen, ökonomischen, militärischen und kulturellen Globalisierungseliten« gehört.31 Im aktuellen Trend der »Tausend Ökologien«32 ist die Verknüpfung ein unumstößlicher Glaubensartikel, nicht selten wird die Konnektivität ontologisiert und als politischer Kampfbegriff normativ aufgeladen. Dazu gesellt sich das technische Denken in Verschaltungen und Netzwerken, wobei sich Sozial- und Techniktheorie teilweise überlappen, bewusst vereint oder getrennt werden. Ferner ist die Verknüpfung im Konnektivismus der skizzierten KI-Architekturen wichtig. Algorithmische Kettenregeln werden auf verschiedenen Schichten parallel prozessiert, wobei sie ihre Mächtigkeit (bis zu einem gewissen Grad) durch die hohe Anzahl an Verknüpfungen erhalten, die mit statistischen Gewichtungen versehen werden.

Der Topos der Verknüpfung lässt sich für mein Vorhaben dennoch hinreichend scharf verwenden. Sowohl das Schreiben als auch die Programmierung lassen sich über die Verknüpfung fassen, die als Zeichen- und Symbolsysteme auf einer basalen Ebene syntaktisch strukturiert sind. Davon ausgehend vergleiche ich Schreiben und Programmieren als distinkte Techniken, die Verknüpfungen verschieden denken und anders mit ihnen umgehen. Dies will ich vorab in drei Schritten erläutern: Der erste Schritt betrifft eine technisch-formale, der zweite eine politische und der dritte eine kulturelle Ebene.

In technischer und formaler Hinsicht zeichnet sich die Programmierung durch automatisierte Verknüpfungen aus. Die Verkettungsregeln werden an ein formalisiertes Programm ausgelagert, das einen Wortkorpus prozessiert. Die Generierung erfolgt entlang des Programmablaufs, die Verknüpfungen gehorchen einer Schaltlogik. Das Schreiben involviert dagegen eine offene Verfahrens- und Prozesslogik, in der es keinen von der Sprache abgekoppelten, »privilegierten Ort« gibt, »der dadurch ausgezeichnet ist, dass hier das Strickmuster einer Ordnung verborgen liegt, nach der an allen übrigen Orten sich gerichtet wird«.33 Dem Schreiben steht keine universale oder Metasprache zur Verfügung, die ihm vorausgeht, sodass es sich als Ableitung einer übergeordneten Regelhaftigkeit verstehen ließe. Zwar folgt das Schreiben orthografischen, grammatikalischen, rhetorischen, genrespezifischen oder kulturellen Regelhaftigkeiten, Konventionen oder Automatismen. Umgekehrt ist die Regel oder das Muster eines bestimmten Textes, der zum Beispiel unter der Gattung des Romans kodifiziert wird, aber immer erst Resultat des Schreibens, das auf keinen uniformen Code zurückzuführen ist. Das Muster realisiert sich erst mit dem Text, ohne dass es sich als Strickmuster vom Text ablösen ließe.

Der Unterschied lässt sich dahingehend deuten, dass Programmieren und Schreiben eine andere »Verfahrensintelligenz«34 innewohnt. In der Programmierung steckt die Intelligenz als Lösungsverfahren einerseits im Algorithmus, andererseits in der statistischen Repräsentation von Daten und Worten, wobei die Datensätze im maschinellen Lernen enorm an Bedeutung gewonnen haben (in der symbolischen KI liegt die Intelligenz noch maßgeblich im Algorithmus). Dennoch liegt das Programm als in sich geschlossenes vor; selbst dort, wo es seine Parameter selbsttätig modifiziert, basiert es auf einem schaltbaren Prinzip, das als Lösungsverfahren gegeben ist und exekutiert werden kann.35 Die Programmierung zeichnet sich dadurch aus, dass sie jederzeit über das Material (Daten), das sich nach einem einheitlichen Schema abarbeiten lassen muss, dominiert.

Die Verfahrensintelligenz literarischer Texte liegt dagegen in ihrer Diskursivität, die zwar mit »rhetorischen und poetischen Bindeformen« operiert,36 in der aber jede Verknüpfung einzeln gestiftet wird, ohne dass eindeutige Kriterien für die Wahl gegeben wären. Weil vorab kein einheitlicher Code existiert, kommt eine Vielzahl von Registern für eine bestimmte Wahl infrage, in literarischen Texten überlagern sich per se mehrere. Zum Wesenskern der modernen Prosa, wie sie sich um 1800 herausbildet, gehört es beispielsweise, dass sie sich gegenüber der Lyrik als metrisch gebundener Form, als ungebundene Schrift »selbst binden, selbst ein Maß setzen, selbst Fesseln anlegen« muss.37 Dabei sind rhetorische Verknüpfungsregeln und Bindeformen im Begriff der Prosa als »Leitmetapher der Moderne« von vornherein mit der Beziehung des Schreibens zur Wirklichkeit und Formen der Vergesellschaftung verquickt und unterliegen darin soziokulturellen Wandlungsprozessen. Zum Kennzeichen des modernen Schreibens gehört es, dass es sich über autoritative Setzungsakte vollzieht, die Verknüpfungen fügen sich qualitativen Urteilen, sodass sie schlecht, gut oder triftig, aber niemals einfach schaltbar sind. Als Resultat fallen Regeln und Verknüpfungen im Schreiben zu jedem Punkt in einem vielfältigen, nicht vollständig definier- oder formalisierbaren Verhältnis zusammen. Weil das Strickmuster sich nur mit dem Text realisiert, kommen die Verknüpfungen erst mit ihrer konkreten Darstellung ›zu sich‹.

Das leitet zum zweiten Aspekt über, der politischen Dimension von Verknüpfungen. Darauf verweist Jean-François Lyotard, der die Verknüpfung zwischen Sätzen und Diskursen als Moment hervorhebt, den es zu problematisieren gilt. Denn Verknüpfungen unterliegen stets bestimmten Prämissen, Entscheidungen und Wertungen, die »Nahtstellen zwischen den Sätzen« bilden deshalb neuralgische Punkte, an denen »das Denken, die Erkenntnis, die Ethik, die Politik, die Geschichte, das Sein« auf dem Spiel steht.38 Der Begriff der Politik meint hier nicht eine bestimmte politische Haltung oder das institutionalisierte Tagesgeschäft, sondern hebt auf die Bedingungen des Politischen selbst ab, ob und wie etwas zur Disposition gestellt wird, ohne vorab in bestehende Entscheidungsstrukturen eingebettet zu sein. Während die Programmierung die Verknüpfungen als Ableitung einer automatisierbaren Verkettungslogik dem Blick entzieht, bleibt das Verhältnis von Verknüpfung, Regel und Text im Schreiben mehrdeutig, sodass es bewertet werden muss und verhandelbar bleibt. Das Schreiben ist vom Wissen getragen, »daß die Verkettung von Sätzen problematisch und eben dieses Problem die Politik ist«.39

Drittens schließt sich daran die Frage nach dem Subjekt als autoritativer Instanz an. Gegenüber der Programmierung ist das Subjekt im händischen Schreiben von Anfang bis Ende in den Prozess der Textproduktion konstitutiv eingebunden. In der Programmierung kann der Akt der Textgenese dagegen an die Maschine delegiert werden. Zwar lässt sich argumentieren, dass auch das Programmieren einer Autorin bedarf. Allerdings lässt dies offen, ob sich Kategorien wie die Agency oder Subjektivität ebenfalls auf der Grundlage formaler Programmiersprachen ausbuchstabieren oder denken lassen oder ob sich diese Problematik nur in der Grammatik und im Vokabular der natürlichen Sprache entscheiden lässt. Die Bestimmung von Agency und Subjektivität gehört zum literarischen Diskurs, allerdings werde ich zeigen, dass dieser Themenkomplex von allgemeiner Tragweite ist. Die Frage, wie Verknüpfungen und Handlungsmacht im Schreiben gedacht werden, spiegelt sich in der Problematik, wie der Mensch sich in Beziehung zur Sprache, Gesellschaft, Technik oder Natur setzt.

Den letztgenannten Punkt analysiere ich anhand des oben erwähnten Ökologiedenkens, das Verknüpfungen normativ auflädt und zur Bedingung von Handlungsmacht erhebt, die nicht selten unterschiedslos auf belebte wie unbelebte Entitäten übertragen wird. Akut wird die Frage nach der Agency insbesondere dort, wo die Ökologie als technologisches oder technokratisches Regierungsdenken auftritt, Letzteres artikuliert sich prägnant im Geoengineering oder Terraforming. Trotz ihrer unterschiedlichen Herkünfte werden die Begriffe mittlerweile synonym verwendet. Der Begriff des Geoengineerings entsteht in der Mitte des 19. Jahrhunderts, als sich Geo- und Ingenieurwissenschaften erstmals zusammentun, um technische Großsysteme wie Tunnel- oder Kanalprojekte zu realisieren, die massiv in geologische Formationen eingreifen.40 Heute wird der Begriff für Methoden der Klimamodifikation wie die Reduktion der Sonneneinstrahlung oder den Entzug von CO2 aus der Atmosphäre verwendet. Das Terraforming prägt der Autor Jack Williamso (gebürtig Will Stuart) in einer Science-Fiction-Erzählung von 1942 für die Urbarmachung fremder Planeten.41

In The Terraforming hat jüngst der Design- und Medientheoretiker Benjamin H. Bratton Reflexionen zur anthropogenen Gestaltung der Erde vorgelegt. Bratton schwebt eine transnationale und technokratische Ordnung vor, in der Entscheidungen an eine Automatisierung als »generellem Prinzip« delegiert werden.42 In Brattons geopolitischer Automatisierungsvision teilen natürliche und kulturelle Phänomene einen gemeinsamen biochemischen Ursprung und lassen sich gleichermaßen auf bio- und technosemiotische Prozesse zurückrechnen. Im Umkehrschluss begreift er bio- und technosemiotische Prozesse als zwei Spielarten ebenjenes uniformen Prinzips, in dem alles automatisierten Abläufen gehorcht oder sich in automatisierbare Abläufe übersetzen lässt. Auch die Sprache als distinktes Zeichensystem ist aus dieser Perspektive Makulatur und wenig mehr als ein Effekt biochemischer Prozesse. Deshalb entpuppt sich auch die Vorstellung von menschlicher Agency als Schimäre: »Innerhalb verteilter Regelkreise scheint Agency weniger eine elementare Exekutivkraft, sondern eher eine Illusion zu sein, wie sich Subjektivität in Verben, Substantiven, Ursachen und Wirkungen imaginiert.« (T 47) Eine Paradoxie der Position liegt darin, dass den Menschen einerseits jede besondere Form menschlicher Agency abgesprochen wird, andererseits sind sie für die planetare Umgestaltung der Erde verantwortlich: »der zukünftige Planet wird anthropogener sein.« (T 105)

Brattons Position erhärtet den Verdacht, dass sich die Frage nach der Agency im Schema der Automatisierung und Programmierung beliebig skalieren, aber eben nicht triftig begründen oder entscheiden lässt. »Wo ist unserer Platz?«, fragt Bratton angesichts einer totalisierten Automatisierung, die kein Außen oder Anderes mehr kennt: »In den algebraischen Kaskaden können menschliche Körper die Positionen des ersten Bewegers, Zwischenvermittlers, arbeitenden Rädchens, der bedruckten Oberfläche usw. einnehmen.« (T 47) Der philosophische Diskurs um die Automatisierung, das wird hier deutlich, beerbt die Maschine als Metapher vom »Denken ohne Denker«.43 In der Folge lässt sie den eigenen Standort des Sprechens, Schreibens und Denkens verschwinden. Im Gegensatz dazu wird meine Studie das Schreiben als Technik starkmachen, um auf Distanz zu universalisierenden Darstellungen und Metaphern der Automatisierung zu gehen. Im Beharren auf dem Eigenwert der natürlichen Sprache, die sich nicht vollständig formalisieren oder automatisieren lässt und die unerlässlich ist, um Formen der Agency und Subjektivität zu differenzieren, weise ich die Problematik der Agency und Subjektivität als blinden Fleck innerhalb eines Denkens aus, das die Programmierung oder Automatisierung primär setzt oder universalisiert. Zugleich bettet die Technik des Schreibens den Menschen immanent in die Welt ein. Einerseits haben die Sprache und das Subjekt ihre Fundierung und Voraussetzung in einer Natur, die sie übersteigt, ohne dass sie sich vollständig einholen oder transparent machen ließe. Andererseits bildet die Sprache ein Medium, mit dem die Subjekte über ihre biologische Bestimmung hinaus in eine reflexive und intentional handelnde Beziehung zu sich selbst und zur unbelebten und belebten Materie treten.

Mit der Frage nach der Automatisierung setzt die Studie bei einer Minimalbestimmung des Schreibens an, semantische und hermeneutische Dimensionen von literarischen Texten bleiben meist unberücksichtigt. Das erweist sich angesichts von Ästhetiken und literarischen Poetiken, die gegenwärtig ausschließlich im Plural existieren und häufig nur noch über individuelle oder persönliche Arbeitspraxen Auskunft geben, als von Vorteil. Schwerer wiegt aber, dass sich das Schreiben mit diesem Zugriff in eine Relation zur Technologie setzen lässt. Dieser Gedanke findet sich auch bei Martin Heidegger. Angesichts des hegemonialen Aufstiegs der Kybernetik als neuer Metawissenschaft, die der Philosophie den Rang streitig mache, führt er den Begriff der Technik auf die griechische Technē zurück. Die Rückprojektion auf eine Phase, in der Kunst und Technik noch nicht im Sinn eines modernen Verständnisses voneinander getrennt sind, nutzt Heidegger, um sie zu kontrastieren: »Weil das Wesen der Technik nichts Technisches ist, darum muß die wesentliche Besinnung auf die Technik und die entscheidende Auseinandersetzung mit ihr in einem Bereich geschehen, der einerseits mit dem Wesen der Technik verwandt und andererseits von ihm doch grundverschieden ist. Ein solcher Bereich ist die Kunst.«44 Einerseits gehört es zum Wesen von Techniken, dass sie in Form von Handlungsweisen, Seinsmodalitäten oder Räumen bestimmte Möglichkeitsbedingungen eröffnen, um etwas hervorzubringen; auf dieser Ebene leiten sie das Handeln und Denken an, schränken es aber auch ein. Andererseits gehen Techniken aus sozialen und kulturellen Formationen hervor, weshalb ihre Bestimmung per se auf einer überindividuellen Ebene liegt.

Allerdings muss man gar nicht erst mit Heidegger zurück zu den Griechen oder die Kunst mit einem romantischen Wahrheitsbegriff belasten. Die Lektion lässt sich besser über die Avantgarden gewinnen. Erstens illustrieren sie konkret, was es heißt, das Schreiben als Technik zu begreifen. Zweitens setzen sie es zur Technik und zu Medien in einem modernen Verständnis in Beziehung. Drittens führen sie vor, dass Schreiben, Medien und Techniken stets historisch und kulturell konnotiert sind. Deshalb sind auch die Widersprüche und blinden Flecken ihrer Programme und Praxen erhellend. Der Antisubjektivismus der ersten Avantgarden, der von der computergenerierten Literatur verschärft wird und der in der zweiten Hälfte des 20. Jahrhunderts auf einen breiten Konsens in der akademischen Theorie mit ihrer »Austreibung des Geistes aus den Geisteswissenschaften« (Friedrich Kittler) trifft, bevor ihn ökokonstruktivistische und -materialistische Positionen zelebrieren, ist hier nur ein Aspekt. Das Schreiben erschöpft sich also nicht in der Technik. Es lohnt aber immer wieder daran zu erinnern, dass sie am Anfang des Schreibens steht. Sie bildet eine Voraussetzung von Subjektivierungsprozessen, ohne dass die Agency der Autorin einseitig im Subjekt als Zugrundeliegendes (gr. hypokeímon) oder Unterworfenes (lat. subiectum) zu identifizieren wäre. Subjektivität – und davon zeugt die Geschichte des literarischen Schreibens in einer Breite, der in Die Automatisierung des Schreibens nur im Ansatz Genüge geleistet wird – entwächst dem Wechselspiel beider Modalitäten: »Und natürlich ist es nicht überraschend, daß ein solcher Konflikt (oder ein solcher Vertrag, wenn man lieber will) auf der Ebene der Sprache entsteht, denn die Sprache ist dieses Paradoxon: Institutionalisierung der Subjektivität.«45

TEIL I

DIE MECHANISIERUNG DER HAND

Der wohl berühmteste Text des Dadaismus kommt ganz und gar konventionell daher. Seinem Ruf hat das nicht schaden können. Der epochale Erfolg von »Um ein dadaistisches Gedicht zu machen« (1920) verdankt sich auch seinem formalen Konservatismus: Nur so kann Tristan Tzara die dadaistische »Taktik der Auflösung« (Raoul Hausmann) bündig darlegen.1 Gleich die ersten Worte artikulieren den Angriff auf die eingesessene Praxis. Die Aufforderung »Nehmt Zeitungen. / Nehmt Scheren« entwirft eine Lyrikproduktion für alle, die sich im Fortlauf wie ein Rezept schrittweise befolgen lässt.2 Pauschal erklärt der rumänische, auf den bürgerlichen Namen Samuel Rosenstock getaufte Schriftsteller alle zu Dichterinnen und diskreditiert so das romantische Genie und den bürgerlichen Kanon, der das Wertvolle vom Niederen scheidet.

Die literaturhistorische Bedeutung des Gedichts resultiert daraus, dass Tzara die Zeitung zur Grundlage der Textproduktion erklärt und Schere und Klebstoff zu genuinen Schreibutensilien adelt. Als flüchtiges und archivierbares Medium, das das Tagesgeschehen wiedergibt und »die Wirklichkeit, in der man lebte, repräsentiert[e]«,3 ist es für die avantgardistische Textproduktion wie geschaffen. Dass die mechanisch reproduzierte Schrift auf Kosten der Handschrift privilegiert wird, ist schon im neuen Arbeitsequipment angelegt: Wo mit der Schere ›geschrieben‹ wird, müssen die Worte dinghaft gegeben sein. Dank Rotationsdruck, neuer Techniken der Nachrichtenübertragung und Informationsverarbeitung sowie gesunkener Papierpreise liegt die zum »Papierobjekt« (Anke te Heesen) gewordene Schrift mit der Zeitung zuhauf vor. Zu Beginn des 20. Jahrhunderts ist das tages- oder sogar halbtagesaktuelle Massenmedium im öffentlichen Raum der Metropolen allgegenwärtig. »Heuschreckenschwärme von Schrift«, so Walter Benjamin, fegen durch die Zeitungsstadt Berlin.4 Tzaras Anleitung ist auch als Reaktion auf die technomedialen Bedingungen und rasante Produktion eines zeitgenössischen information overload zu verstehen.

In die Wahl des Presseerzeugnisses wird keine große Mühe gesteckt, nur sein Umfang soll der gewünschten Länge des Gedichts entsprechen: »Schneidet den Artikel aus. / Schneidet dann sorgfältig jedes Wort dieses Artikels aus / und gebt sie in eine Tüte. Schüttelt leicht.« Die Pointe des Schnitts ist die Auflösung der auktorialen Kopplung zwischen Dichterin, Feder und Satzgefüge. Wo das Dichtersubjekt der Romantik die Linearität und organische Einheit des Textes verbürgt, regiert nun die Willkür. Die Schere zergliedert das vorgefertigte Wortmaterial, um es unter Missachtung von Grammatik, Sprachkonventionen und auktorialen Intentionen neu zusammenzufügen. Das Ziel der ikonoklastischen Textproduktion verkündet das dadaistische Manifest schon zwei Jahre zuvor: »alle Schlagworte von Ethik, Kultur und Innerlichkeit« sind zu zerfetzen, um »den Sinn des Durcheinanderjagens aller Sinne« zu lehren.5

Die Schere ist darüber hinaus symbolisch wirksam, weil sie sich gegen die klassische Vorstellung von Autorschaft richtet. Der Akt des Schreibens ist kulturgeschichtlich mit »dem phallischen Stylus und der weiblichen Materie, dem aktiven Einprägen und dem passiven Empfangen von Prägung verbunden«.6 Der dadaistische Griff zur Schere, so legt die Germanistin Juliane Vogel dar, lässt sich deshalb auch als Affront gegen das Schreiben als historisch männlich markierte Tätigkeit werten: »Punkt für Punkt listet Tzaras Appell die Kränkung, die die Schere für die Herren klassischer Schreibszenen bereithielt. Scheren bedrohten die unverwechselbare Linearität der Feder und stifteten Verwirrung unter jenen klassischen Geräten des Schreibens, die durch das Aufsetzen einer Spitze und das Kontinuum eines Schriftzugs die auktorialen Privilegien dessen sicherten, der sich als Dichter verstand.«7 Die Schere verändert das Schreiben materiell und symbolisch, indem sie es von einer romantischen Innerlichkeit in ein materielles Außen überführt. In der Folge tritt die Schneidehand an die Stelle des Kopfes, dem die Worte in der klassischen Konzeption des Dichtersubjekts als Sitz des Geistes entströmen. Wenn die Worte in der Reihenfolge, in der sie aus der Tüte gezogen, schließlich nochmals »gewissenhaft« von Hand abgeschrieben werden, dann geht das über Slapstick hinaus: »Tristan Tzaras letzte Anweisung verdeutlicht unmissverständlich, dass das Schreiben in einer von der Schere beherrschten Umgebung zur Kopistentätigkeit geworden ist.«8 Wo die Schrift als billiges Druckerzeugnis massenhaft vorliegt, lässt sie das Schreiben eines aus sich selbst schöpfenden Individuums anachronistisch werden. Noch hundert Jahre später werden Schriftstellerinnen die Parole nachbeten und das Internet an die Stelle der Zeitung setzen.9

Die Materialisierung und Veräußerlichung des Schreibens bildet die wesentliche Neuausrichtung, über die sich die Avantgarden von den formalen Konventionen und symbolischen Zuschreibungen der bürgerlichen Literatur abgrenzen. Exemplarisch radikalisiert Tzara die programmatische Suspension des Geistes zugunsten des Schreibens als veräußerlichter Technik. Trotz aller Grabenkämpfe untereinander durchzieht diese Umstellung sämtliche Manifeste vom Futurismus über den Dadaismus bis zum Surrealismus als roter Faden.

Meine Rekonstruktion legt einen Schwerpunkt auf den Austausch zwischen avantgardistischen Verfahren und industriellen Produktionsweisen, die die Gestalt westlicher Gesellschaften um 1900 von Grund auf verändert haben. Die Beschreibungen der industriellen Revolution sind noch immer umstritten, das umfasst den Begriff der Revolution,10 Periodisierungsfragen11 oder die Bestimmung ihrer Vorbedingungen, Verläufe und Folgen, die insbesondere die kriegerischen, kolonialen und rassistischen Wurzeln der Industrialisierung und des Kapitalismus betreffen.12 Einvernehmen herrscht nur darüber, dass »die industriewirtschaftlichen und -gesellschaftlichen Veränderungen in der Welt, die um 1900 auf allen Kontinenten zu erkennen waren, auf einen Innovationsschub zurück[zu]führen [sind], der seinen Ursprung nach 1760 in England hatte«.13 Die Dynamik der industriellen Wachstumsschübe hat um die Jahrhundertwende auch die Schreibpraxis in den Büros erfasst, wenig später findet die neue Schreibökonomie ihre Zuspitzung im Taylorismus. Entgegen eines weitverbreiteten Reflexes der Künste, sich von der technischen Moderne zu distanzieren, schwören die Avantgarden auf eine »Konformität mit mechanischen Arbeitsprozessen«.14 Bewusst setzen sie das Schreiben in Beziehung zu Techniken, Medien und Wissenschaften der Zeit, um die bürgerliche Literatur zu revolutionieren.