Die unsicheren Kanäle - Marie-Luise Shnayien - kostenlos E-Book

Die unsicheren Kanäle E-Book

Marie-Luise Shnayien

0,0
0,00 €

-100%
Sammeln Sie Punkte in unserem Gutscheinprogramm und kaufen Sie E-Books und Hörbücher mit bis zu 100% Rabatt.
Mehr erfahren.
Beschreibung

Zeitgenössische IT-Sicherheit operiert in einer Überbietungslogik zwischen Sicherheitsvorkehrungen und Angriffsszenarien. Diese paranoid strukturierte Form negativer Sicherheit lässt sich vom Ursprung der IT-Sicherheit in der modernen Kryptografie über Computerviren und -würmer, Ransomware und Backdoors bis hin zum AIDS-Diskurs der 1980er Jahre nachzeichnen. Doch Sicherheit in und mit digital vernetzten Medien lässt sich auch anders denken: Marie-Luise Shnayien schlägt die Verwendung eines reparativen, queeren Sicherheitsbegriffs vor, dessen Praktiken zwar nicht auf der Ebene des Technischen angesiedelt sind, aber dennoch nicht ohne ein genaues Wissen desselben auskommen.

Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:

EPUB
MOBI

Seitenzahl: 427

Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



Diese Publikation wurde im Rahmen des Fördervorhabens 16TOA002 mit Mitteln des Bundesministeriums für Bildung und Forschung sowie mit Mitteln der Open Library Community Medienwissenschaft 2022 im Open Access bereitgestellt.

Die Open Library Community Medienwissenschaft 2022 ist ein Netzwerk wissenschaftlicher Bibliotheken zur Förderung von Open Access in den Sozial- und Geisteswissenschaften:

Vollsponsoren: Humboldt-Universität zu Berlin | Staatsbibliothek zu Berlin – Preußischer Kulturbesitz | Technische Universität Berlin / Universitätsbibliothek | Universitätsbibliothek der Ruhr-Universität Bochum | Universitäts- und Landesbibliothek Bonn | Staats- und Universitätsbibliothek Bremen | Universitäts- und Landesbibliothek Darmstadt | Sächsische Landesbibliothek, Staatsund Universitätsbibliothek Dresden (SLUB Dresden) | Universitätsbibliothek Duisburg- Essen | Universitäts- und Landesbibliothek Düsseldorf | Universitätsbibliothek Johann Christian Senckenberg Frankfurt am Main | Albert-Ludwigs-Universität Freiburg / Universitätsbibliothek | Niedersächsische Staats- und Universitätsbibliothek Göttingen | Universitätsbibliothek der FernUniversität in Hagen | Gottfried Wilhelm Leibniz Bibliothek – Niedersächsische Landesbibliothek | Karlsruher Institut für Technologie (KIT) – KIT-Bibliothek | Universitätsbibliothek Kassel | Universitätsbibliothek in Landau | Universität zu Köln, Universitäts- und Stadtbibliothek | Universitätsbibliothek Leipzig | Universitätsbibliothek Mannheim | Universitätsbibliothek Marburg | Universitätsbibliothek der Ludwig- Maximilians-Universität München | Fachhochschule Münster | Universitäts- und Landesbibliothek Münster | Bibliotheksund Informationssystem der Universität Oldenburg | Universitätsbibliothek Siegen | Universitätsbibliothek Vechta | Universitätsbibliothek der Bauhaus-Universität Weimar | Jade Hochschule Wilhelmshaven/ Oldenburg/Elsfleth | Zürcher Hochschule der Künste | Zentralbibliothek ZürichSponsoring Light: Universität der Künste – Universitätsbibliothek | Freie Universität Berlin | Fachhochschule Bielefeld, Hochschulbibliothek | Hochschule für Bildende Künste Braunschweig | Fachhochschule Dortmund, Hochschulbibliothek | Technische Universität Dortmund / Universitätsbibliothek | Bibliothek der Pädagogischen Hochschule Freiburg | Hochschule Hannover – Bibliothek | Landesbibliothek Oldenburg | Akademie der bildenden Künste Wien, Universitätsbibliothek | ZHAW Zürcher Hochschule für Angewandte Wissenschaften, HochschulbibliothekMikrosponsoring: Filmmuseum Düsseldorf | Bibliothek der Theologischen Hochschule Friedensau | Bibliothek der Hochschule für Musik und Theater Hamburg | Hochschule Hamm-Lippstadt | Bibliothek der Hochschule für Musik, Theater und Medien Hannover | ZKM Zentrum für Kunst und Medien Karlsruhe Bibliothek | Hochschule Fresenius | Filmuniversität Babelsberg KONRAD WOLF – Universitätsbibliothek | Bibliothek der Hochschule für angewandte Wissenschaften Würzburg-Schweinfurt (FHWS)

Marie-Luise Shnayien

Die unsicheren Kanäle

Negative und queere Sicherheit in Kryptologie und Informatik

Die erste Fassung der vorliegenden Publikation ist 2021 von der Fakultät für Philologie an der Ruhr-Universität Bochum als Dissertation angenommen worden. Gutachterinnen: Prof. Dr. Anna Tuschling, Prof. Dr. Astrid Deuber-Mankowsky, Datum der Disputation: 01.07.2021 Diese Publikation wurde im Rahmen des Fördervorhabens 16TOA002 mit Mitteln des Bundesministeriums für Bildung und Forschung im Open Access bereitgestellt.

 

 

Bibliografische Information der Deutschen Nationalbibliothek

Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.

Dieses Werk ist lizenziert unter der Creative Commons Attribution-ShareAlike 4.0 Lizenz (BY-SA). Diese Lizenz erlaubt unter Voraussetzung der Namensnennung des Urhebers die Bearbeitung, Vervielfältigung und Verbreitung des Materials in jedem Format oder Medium für beliebige Zwecke, auch kommerziell, sofern der neu entstandene Text unter derselben Lizenz wie das Original verbreitet wird.

Die Bedingungen der Creative-Commons-Lizenz gelten nur für Originalmaterial. Die Wiederverwendung von Material aus anderen Quellen (gekennzeichnet mit Quellenangabe) wie z.B. Schaubilder, Abbildungen, Fotos und Textauszüge erfordert ggf. weitere Nutzungsgenehmigungen durch den jeweiligen Rechteinhaber.

Erschienen 2022 im transcript Verlag, Bielefeld

© Marie-Luise Shnayien

Umschlaggestaltung: Maria Arndt, Bielefeld

Korrektorat: Len Klapdor

Druck: Majuskel Medienproduktion GmbH, Wetzlar

https://doi.org/10.14361/9783839463062

Print-ISBN 978-3-8376-6306-8

PDF-ISBN 978-3-8394-6306-2

EPUB-ISBN 978-3-7328-6306-8

Buchreihen-ISSN: 2702-8852

Buchreihen-eISSN: 2702-8860

Inhalt

1.Einleitung

1.1Attachments und die Frage nach der eigenen Methode

1.2Wie medienwissenschaftlich über Technik schreiben?

1.3Ungehörige Übertragungen

1.4Mit der Technik schreiben

2.Kryptographische Sicherheitsbestimmungen

2.1Zum Status des Wissens über Kryptographie

2.2Zur Medialität von Kryptographie

2.3Klassische und moderne Kryptographie

2.4Zwei Schlüsselprobleme der Kryptographie

2.4.1Grundbegriffe der Kryptographie

2.4.2Erstes Schlüsselproblem: Das Kerckhoffs’sche Prinzip

2.4.3Zweites Schlüsselproblem: Asymmetrische Kryptographie

2.5Kryptographische Modellbildung

2.5.1Der unsichereKanal

2.5.2Alice und Bob

2.5.3Sicherheit in der Kryptographie

3.IT-Sicherheit: Digitale Grenzaushandlungen

3.1Diskursive Ansteckungspotentiale

3.2Zwei Fallbeispiele von Ransomware

3.2.1WannaCry

3.2.2Der AIDSInformationTrojaner

3.3Ansteckungen/Übertragungen/Grenzaushandlungen

3.3.1Metaphorische Grenzaushandlungen

3.3.2Zur Medialität von Viren und Würmern

3.3.3Liberale Abwehrmechanismen

3.4AIDS und Computer

3.4.1Technische Lösungsansätze: Computer Immunology

3.4.2User_innenzentrierte Lösungsansätze: Digital Hygiene/Safe Hex

4.Backdoors

4.1Was sind Backdoors?

4.1.1Die kleptographische Backdoor in DUAL_EC_DRBG

4.2Von Türen, Hintertüren und Schlüsseln

4.3›In through the back door…‹: Mögliche Umdeutungen

4.3.1Back Orifice

4.3.2Über den Anus

5.Für einen queeren Sicherheitsbegriff

5.1Paranoide und Reparative Praktiken

5.1.1Paranoide Praktiken in IT-Sicherheit und Kryptologie

5.1.2Reparative Praktiken

5.2Queere (IT)Sicherheit?

5.2.1Queer OS/Queer Computation

5.2.2Queere Sicherheit

6.Schluss

Literatur und weitere Quellen

Danksagungen

1. Einleitung

»For thus all things must begin, with an act of love.« (Marais in Haraway 1997, 123)

Mit diesen Worten des südafrikanischen Naturforschers Eugene Marais beginnt Donna Haraways Essay enlightenment@science_wars.com: A Personal Reflection on Love and War. Und auch dieses Buch, in dem die Verflechtungen von Kryptologie, IT-Sicherheit und Geschlecht im Hinblick auf Fragen nach Sicherheit aus gender-medienwissenschaftlicher Perspektive untersucht werden, ist, zumindest in Teilen, ein persönliches Nachdenken über Liebe und Krieg zwischen verschiedenen Fachkulturen. Nicht zuletzt, da das vorliegende Buch zu großen Teilen in einem sehr prägenden Umfeld entstanden ist: dem interdisziplinären NRW-Forschungskolleg SecHuman – Sicherheit für Menschen im Cyberspace, dessen Teil ich von Anfang 2017 bis Mitte 2020 sein durfte, und dessen Forschungszusammenhänge über dieses Zeitfenster hinaus bestehen geblieben sind. Im Kern von SecHuman stand ein starker Interdisziplinaritätsanspruch: Aufgeteilt in 6 Themenbereiche, jeweils paritätisch besetzt mit einem_einer Doktorand_in aus den Bereichen Jura, Geistes- oder Sozialwissenschaft, sowie einem_einer Doktorand_in aus einem mathematisch-technischen Fach, und von einer weiteren Promotion begleitet, die die Wissensintegration in den jeweiligen ›Promotionstandems‹ untersuchen sollte. Ziel dieser Konstellation war, dass diese ›Promotionstandems‹ sich gegenseitig inspirieren, sowie fachlich ergänzen und so in einem interdisziplinären Austausch in Bezug auf die jeweiligen Themenschwerpunkte tiefergehendes Wissen produzieren würden als eine jeweilige Disziplin allein dies könnte. Eine solche Aufteilung setzt ein komplexeres Verständnis von Phänomenen digitaler Kulturen voraus, und erkennt an, dass Phänomene nicht aus jeweils nur einer Sichtweise heraus ausreichend erfasst werden können, bringt jedoch auch spezifische Hürden mit sich. Interdisziplinäres Forschen ist bereits unter Fächern, die derselben Fakultät angehören, nicht leicht, und über die Grenzen der eigenen Fakultät hinaus ist es nicht nur aufgrund der unterschiedlichen Erkenntnisinteressen und Methoden der jeweiligen Fächer ein schwieriges Unterfangen, sondern auch aufgrund der belasteten Vorgeschichte des Verhältnisses von Natur- und Geisteswissenschaften, die in der jüngeren Geschichte vor allem in den sogenannten Science Wars sichtbar wurde, auf die ich an dieser Stelle daher kurz eingehen möchte.

Als Science Wars wird eine Auseinandersetzung bezeichnet, die vornehmlich in den 1990er Jahren in den USA ausgetragen wurde. Als auslösendes Ereignis lässt sich mit Martin Doll (2012, 276) die Entscheidung des US-Kongress begreifen, im Jahr 1993, zum ersten Mal seit Ende des Zweiten Weltkriegs, keine Gelder für naturwissenschaftliche Forschung bereitzustellen, weshalb ein beantragter Teilchenbeschleuniger nicht finanziert wurde. Renommierte Naturwissenschaftler_innen machten daraufhin die Science Studies, also die Wissenschaftsforschung, sowie den von ihnen in dieser Forschung vermuteten Relativismus für diese Entscheidung verantwortlich. Ein Jahr später erschien das Buch Higher Superstition: The Academic Left and Its Quarrels With Science von Paul Gross und Norman Levitt (vgl. ebd.). Wie Martin Doll (ebd.) ausführt, warfen Gross und Levitt den Geistes- und Sozialwissenschaften vor, eine »die Errungenschaften der Aufklärung zunichtemachende Haltung« einzunehmen, indem einzelne Wissenschaftler_innen sich »zwar selbst in die Tradition linker Kritik« einreihten, aber schlussendlich politisch wirkungslos blieben. Treibende Konzepte dieser Bewegung seien dabei Marxismus, Postmodernismus, Feminismus, Konstruktivismus sowie Multikulturalismus (vgl. ebd.). Einen diskursiven Höhepunkt erreichten die Science Wars zwei Jahre später mit dem sogenannten Sokal-Hoax: der Veröffentlichung eines Artikels des US-amerikanischen Physikers Alan Sokal mit dem Titel Transgressing the Boundaries: Towards a Transformative Hermeneutics of Quantum Gravity in einer Ausgabe des sozialwissenschaftlichen Journals Social Text, die sich schwerpunktmäßig mit den Science Wars befasste (vgl. Sokal 1996b). Nur drei Wochen später veröffentlichte Sokal einen weiteren Artikel im Journal Lingua Franca, in dem er Transgressing the Boundaries als wissenschaftliche Fälschung enttarnte: Dem Artikel liege eine komplett unwissenschaftliche Argumentation zugrunde, was für »any competent physicist or mathematician (or undergraduate physics or math major)« (Sokal 1996a) leicht zu erkennen sei. Den Herausgeber_innen von Social Text warf Sokal vor, niemanden für die Evaluierung seines Artikels zu Rate gezogen zu haben, der_die diesen hätte einschätzen können, und kommt damit zu dem Schluss, dass die Herausgeber_innen interessierter an den in seinem Text artikulierten politischen Forderungen gewesen seien als an tatsächlichen wissenschaftlichen Erkenntnissen (vgl. ebd.). Eine Kritik, die Doll (2012, 282) vorsichtig teilt, wobei er kritisch anmerkt, dass die nach nur drei Wochen erfolgte Enttarnung des Fakes nichts darüber aussage, wie der Hoax-Artikel von anderen Wissenschaftler_innen innerhalb der Community aufgenommen worden wäre, und ob es nicht auch kritische Besprechungen hätte geben können (vgl. ebd., 285), die die bis dahin bereits formulierten Anschuldigungen gegen die Geistes- und Sozialwissenschaften außer Kraft gesetzt hätten. Stattdessen folgte auf den Sokal-Hoax, wie Haraway (1997, 123) es ausdrückt, »a neverending profusion of pungent comment, complaint, exultation, accusation, and analysis on all sides« – eine Gemengelage, die, wie Doll (2012, 280-281) deutlich macht, auch durch die stark verkürzte und skandalisierende mediale Aufarbeitung in Tagespresse, Fernsehen und Radio begünstigt wurde. Im Zuge der durch die Berichterstattung vorgenommenen argumentativen Verflachungen ergriff Doll zufolge auch ein nicht unerheblicher Teil der berichtenden Medien Partei für Sokal: Doll (ebd.) konstatiert, dass sich »das vorherrschende undifferenzierte Bild, das die Massenmedien zeichneten, als allgemeine Diskreditierung von geistes- und sozialwissenschaftlichen Infragestellungen unveränderlicher Wahrheiten oder Fakten sowie der Erkenntnispraktiken, die ihr Zustandekommen regeln,« beschreiben lässt, was schließlich, wie Haraway (1997, 128) es formuliert, in einem »commercialized and rigged epistemological Super Bowl where the only teams on the globe are Realism and Relativism« mündete. Zugespitzt formuliert, ereignete sich in den Science Wars, befeuert durch Unzufriedenheit über Förderungspolitiken, eine Kollision naturwissenschaftlich-empirischer Methoden mit den in den Geisteswissenschaften an Bedeutung gewinnenden theoretischen und methodischen Erkenntnissen der Postmoderne und des Poststrukturalismus. Mit dieser Kollision verbindet sich gleichsam ein Schlag der Naturwissenschaften gegen die Geisteswissenschaften, und insbesondere auch gegen die Wissenschaftsforschung, der sich als ein methodischer Streit um die Formen der Wissensproduktion und um den Status von Faktizität und Wissen beschreiben lässt.

Warum dieses Buch direkt mit einem Hinweis auf diesen so verbittert ausgetragenen Streit zwischen Disziplinen beginnen, der nun auch bereits fast 25 Jahre alt ist? Da die von Haraway (ebd., 123) beschriebenen »accusations brought by Sokal, Gross, Levitt, and their allies, that there are dubious folks among us, called by the ominous-sounding name of ›constructionists,‹ who ›do not believe in reality,‹ or at least not in science, enlightenment, and facts« auch mir begegnet sind, obwohl meine Position eine andere ist als die Haraways und ihrer Kolleg_innen. Dies geschah, mal mehr und mal weniger explizit, besonders zu Beginn meiner Zeit bei SecHuman in der Form von Misstrauen gegenüber meinem methodischen Vorgehen, sowie einer Ablehnung meiner Forschungsergebnisse und deren Konsequenzen, und war nicht leicht zu navigieren.1 Dennoch liegt in dieser Kontextualisierung meinerseits keine Anschuldigung, keine Verbitterung, und auch kein Wunsch, die Science Wars fortzuführen oder den initialen Konflikt zu lösen – vielmehr ist es eine Beobachtung, die zur Situierung und damit zum Verständnis dieses Buchs und seiner Eigenheiten hilfreich ist, sowie der Versuch, die Politiken der Versöhnung, der disziplinären Annäherungen, die sich nach und nach im Kontext des Forschungskollegs eingestellt haben, und zu denen auch die vorliegende Untersuchung beiträgt, genauer in den Blick zu nehmen.

1.1 Attachments und die Frage nach der eigenen Methode

Meine Zeit bei SecHuman war allen Schwierigkeiten zum Trotz gekennzeichnet von einer überaus produktiven Zusammenarbeit, wie sie in den letzten Jahren vor allem im Zuge einer an Phänomenen digitaler Kulturen interessierten Medienwissenschaft eingefordert wurde: Der Austausch zwischen meinem Tandempartner Benedikt Auerbach und mir über Kryptologie und die Frage, was Sicherheit bedeutet, war nicht frei von methodischen Konflikten, aber auch gezeichnet von einer »intellectual generosity or curiosity toward those whose practices are not our own«, die mit Tara McPherson (2012, 36) als Voraussetzung für das Forschen zu, aber auch mit und in digitalen Kulturen verstanden werden kann. Rückblickend kann ich sagen, dass ich durch SecHuman trotz, aber auch gerade aufgrund der disziplinären und methodischen Uneinigkeiten und Auseinandersetzungen viel von meinen Kolleg_innen und den beteiligten Professor_innen gelernt habe, und diesem Austausch sehr verpflichtet bin. Die mir ermöglichten Einblicke in andere Fachkulturen stellen eine der Voraussetzungen für die in diesem Buch festgehaltenen Ergebnisse dar: Ich durfte, mit Donna Haraway (1997, 124) gesprochen, ein tieferes Verständnis dafür entwickeln,

»that knowledge is always an engaged material practice and never a disembodied set of ideas. Knowledge is embedded in projects; knowledge is always for (in many senses of for) some things and not others, and knowers are always themselves formed by their projects, just as they shape what they can know.«

Diese Situierung von Forscher_innen und ihren Wissensobjekten, die Haraway hier beschreibt, möchte ich im Folgenden mit Isabel Stengers (2005) als Attachment begreifen. In ihrem Aufsatz Introductory Notes on an Ecology of Practice greift Stengers (ebd., 191) den Begriff des Attachments von Bruno Latour auf, und schreibt: »Attachments are what cause people, including all of us, to feel and think, to be able or to become able.« Das Attachment ist für Stengers (ebd.) verbunden mit einer Form von Zugehörigkeit (belonging), und darf nicht mit einer Verpflichtung (obligation) verwechselt werden, von der man sich befreien könnte. Bezugnehmend auf das Denken in wissenschaftlichen Zusammenhängen schreibt sie weiter:

»We may well present ourselves as free, detached of superstitious beliefs, able to enter long networks, but the moment you try to tell physicists that their electrons are only a social construction, you will get war. And you will have deserved it because you have insulted not simply their beliefs but what attaches them, causes them to think and create in their own demanding and inventive way.« (Ebd.)

Ein Attachment ist also, was einen ins Denken bringt, und kann weiterhin mit Haraway als Form der Anhänglichkeit verstanden werden, als eine liebevolle Haltung, die nicht nur Haraway gegenüber der von ihr untersuchten Biologie einnimmt, sondern die auch die von ihr betrachteten Forscher_innen gegenüber ihren Gegenständen einnehmen. Dies bedeutet nicht, dass die Forscher_innen ihren Gegenständen nur positive Gefühle entgegenbrächten, sondern bezieht sich vielmehr auf die von Stengers beschriebene Form der Zugehörigkeit, auf ein Zuhause-Sein in den Theorien und bei den Gegenständen, die einen ins Denken bringen, in der sie beschreibenden Sprache und der eigenen Form der Wissens- und Sinnproduktion. Auch SecHuman war ein Knotenpunkt unterschiedlichster Fachkulturen, in dem die Doktorand_innen und Professor_innen mit ihren jeweiligen Attachments, Einsätzen und Methoden verbundenes Wissen produziert haben, die gleichsam auch geformt haben, was die jeweiligen Disziplinen überhaupt wissen können. Dieses Umfeld hat von allen Beteiligten eine Form der Flexibilität verlangt, ein Sich-Einlassen auf diese verschiedenen Formen der Wissensproduktion der jeweiligen Disziplinen, aber auch ein Vermitteln der eigenen Arbeitsweise für eine grundsätzlich fachfremde Zuhörer_innenschaft. Für die von mir angestrebte medienwissenschaftliche Arbeit über die Wissensgeschichte der IT-Sicherheit hat das bedeutet, mich einerseits sehr auf die innerfachlichen Diskurse der IT-Sicherheit und der Kryptologie einzulassen, aber andererseits auch aufzupassen, nicht komplett in diesen aufzugehen, und die eigenen Betrachtungen den dort vorzufindenden Strukturen unterzuordnen – eine Tendenz, die auch McPherson (2012, 34) beim Verfassen ihres Texts, der die Gemeinsamkeiten der Funktionsweisen von UNIX-Programmierung und Rassismus verhandelt, bemerkt hat. Es geht ein ganz eigener Sog von mathematisch-technischer Wissensproduktion aus: von Formeln, Funktionen und Funktionalitäten, Studien, Statistiken, scheinbar greifbareren Ergebnissen – und als eine der wenigen nicht empirisch forschenden Promovend_innen im Kontext von SecHuman war dieses Spannungsfeld der Methodenvielfalt in manchen Momenten mit einem Rechtfertigungsdruck verbunden, denn, wie Anna Tuschling (2020, 177) in ihrem Artikel Methoden sind politisch2formuliert, »für viele Wissenschaften hängt ihr Wissenschaftsverständnis – und in ihren Augen damit Wissenschaftlichkeit als solche – an der Kenntnis und Passung der genutzten Methoden.« Tuschling (ebd.) weist weiter darauf hin, dass es zwar selbstverständlich keine Wissenschaft ohne Methode gebe, aber dass es durchaus stärker empirisch arbeitende Disziplinen gebe, zu denen »die Medienwissenschaft bislang aufgrund ihrer eigenen Methoden, Ansätze und Theorien mit guten Gründen allenfalls in Teilen« gehöre. Empirische Methoden, konstatiert Tuschling, fänden derzeit vor allem im Kontext von und unter Bedingungen von Digitalität Anwendung, die durch eine Fülle digitaler Daten gekennzeichnet seien. Dennoch böten diese Kontexte »eine große Chance gerade für die nicht quantitative, kritische Erforschung digitaler Umgebungen«, wobei das Potential einer qualitativen medienwissenschaftlichen Forschung vor allem darin liege, »ihren Umgang mit den wissenschaftlichen Methoden im engeren Sinne selbstbestimmt und kritisch zu gestalten.« (Ebd.) Im Folgenden möchte ich daher die Eckpfeiler meines methodischen Vorgehens skizzieren.

1.2 Wie medienwissenschaftlich über Technik schreiben?

Das Projekt dieses Buchs ist eine wissensgeschichtliche Analyse der Konzeptionierung von Sicherheit in Kryptologie und Informatik, sowie eine Exploration der Anschlussstellen dieser Geschichte an Fragen nach Geschlecht und Körperlichkeit, an deren Ende ein Nachdenken über einen alternativen Sicherheitsbegriff steht. Die methodische Grundlage meiner Untersuchung bildet Michel Foucaults Diskursanalyse. Eine solche Diskursanalyse fragt danach, was zu einem bestimmten Gegenstand geäußert wird, aber auch, wie, wann und unter welchen Umständen, zu welchem Preis es geäußert wird sowie danach, was nicht geäußert wird oder werden kann. Mit Foucaults Konzept der Problematisierung (vgl. exemplarisch Foucault 1996, 178-179) geht es mir dabei um die Frage, warum und zu welchen Bedingungen Wissen über einen Gegenstand, in diesem Fall: IT-Sicherheit, produziert wird und wie dieser Gegenstand damit überhaupt erst entstanden ist. Obgleich diese Herangehensweise plausibel erscheinen mag, ist die Legitimation der Verwendung von Diskursanalyse für eine medienwissenschaftliche Analyse digitaler Medien nicht unumstritten. Markus Stauff (2005, 126) weist in seinem Aufsatz Mediengeschichte und Diskursanalyse. Methodologische Variationen und Konfliktlinien darauf hin, dass sich die Foucault’sche Diskursanalyse »als wissenschaftshistorische Methode« nutzen lässt, »die es ermöglicht, die Konstitution des historischen und kontingenten Gegenstands ›Medien‹ und die Möglichkeitsbedingungen eines Wissens von den Medien nachzuvollziehen«, wobei die Stärke dieser Herangehensweise darin liege, die

»Gegenstände – also auch ›die Medien‹ – nicht vorauszusetzen und nicht vor der Analyse zu definieren, sondern ihre ereignis- und wechselhafte, sehr wohl aber ›reale‹ Hervorbringung in den historisch vorliegenden Diskursen und Praktiken zu rekonstruieren.«

Dennoch werde der diskursanalytischen Medienwissenschaft vor allem seitens der »technikorientierte[n] Mediengeschichtsschreibung« innerhalb der deutschsprachigen Medienwissenschaft eine Technik- und Ökonomievergessenheit vorgeworfen (vgl. ebd.). Stauff bezieht sich hier vor allem auf eine technikorientierte Mediengeschichtsschreibung in der Tradition Friedrich Kittlers, die der Foucault’schen Diskursanalyse eine unzureichende Kraft für die Analyse gerade digitaler Medien attestiere, da diese Methode »blind für die Hardware und die alle Sinne unterlaufenden Effekte technischer Medien« (ebd., 127) bliebe. Damit wird das in Kittlers pointiertem (und wohl meistzitiertem) Diktum »Medien bestimmen unsere Lage« (Kittler 1986, 3) enthaltene medientechnische Apriori in Stauffs Lesart zu einem unüberwindbaren Hindernis für die Diskursanalyse, da es in dieser Logik immer etwas gibt, was dem Diskurs vorgängig bleibt, diesen quasi vorformatiere – und sich damit als Möglichkeitsbedingung des Denkens demselben über eine Diskursanalyse auch stets entziehe. Doch was für ein Diskursbegriff liegt dieser Kritik zugrunde? Interessanter Weise, so bemerkt Stauff (2005, 128), verwende Kittler in Grammophon, Film, Typewriter Diskursanalyse, um auf genau diesen »Bereich des eigentlich Medialen« aufmerksam zu machen, »der von der Diskursanalyse nicht erfasst werden könne.« In dieser Tradition verortet Stauff auch Wolfgang Ernsts (2000, 20) Aussage, dass eine »wohldefinierte Medienwissenschaft […] es mit den Ereignissen und Geheimnissen des Non-Diskursiven zu tun« habe. Stauff (2005, 131-132) folgend handelt es sich bei diesem Diskursbegriff jedoch um eine Art Schwundstufe der Foucault’schen Diskursanalyse, die lediglich Diskurse über Medien, nicht aber die Medien selbst analytisch fassen könne. Während ich durchaus der Forderung nach einer technischen Kompetenz der Medienwissenschaft3 als grundlegende Notwendigkeit für die Analyse digitaler Phänomene zustimme, und auch durch SecHuman im kleineren Rahmen eine formale Ausbildung in Grundlagen der Kryptographie und IT-Sicherheit genossen habe, was in der vorliegenden Untersuchung sichtbar wird,4 so möchte ich doch mit Markus Stauff für einen weiteren Diskursbegriff plädieren, der das Technische miteinschließt, denn: Die Stärke der Diskursanalyse als medienwissenschaftlicher Methode liegt im bereits genannten Vorgang der Problematisierung, der es ermöglicht, die fokussierten Objekte nicht als bereits gegeben zu betrachten. Dies versetzt eine diskursanalytische Mediengeschichte in die Lage, Medien grundsätzlich als »in keiner Phase ihrer historischen Existenz stabile, den Diskursen und Praktiken entzogene Konstellationen« (ebd., 133) zu begreifen, und sie somit nicht nur zum Zeitpunkt ihrer Entstehung, an ihren Bruchstellen oder Störungen in den Blick zu bekommen. Ein umfassender Eindruck von Medien entstehe Stauff (ebd.) zufolge »nur dort, wo bestimmte technische, inhaltliche, rezeptive sowie medienpolitische Varianten zu einer dynamischen, umstrittenen und deshalb produktiven Konstellation gebündelt« werden. Er konstatiert weiter:

»In der Folge können eben auch Technologien als Diskurse […] verstanden werden. Dies heißt nicht, dass […] mediale oder technische Effekte nur auf der Ebene der Diskurse zu suchen wären. Es zielt lediglich darauf, ›Diskurse als ebenso konstitutiven Teil der Wirksamkeit einer Technologie‹ zu betrachten ›wie die in Laboren, Universitäten, Werkstätten und Garagen entwickelte Hardware‹. Diskursivierungen versehen Medien mit Definitionen und Differenzierungen, die sich nicht von den Apparaten oder den ›Inhalten‹ ableiten lassen, aber in Ankopplung an diese die Medien handhabbar machen und mit spezifischen Rationalitäten versehen.« (Ebd.)

Um seinen Standpunkt zu stärken, führt Stauff (ebd.) das Beispiel eines Ingenieurs an, für den es nicht das Fernsehen gebe, sondern »immer schon ein durch konkurrierende Diskursivierungen geprägtes Fernsehen, das seinen Strategien bestimmte Zugriffspunkte bietet.« Dieses Verständnis der Interaktion von Technik und Diskursen macht deutlich, dass auch Technik nicht außerhalb von Diskursen steht, und bietet ebenfalls einen Anschlusspunkt an das mit Haraway und Stengers beschriebene Attachment von Forschenden zu ihren Methoden und Gegenständen, das alle drei situiert, sowie den Rahmen, also die Möglichkeitsbedingungen der Wissensproduktion bestimmt. Stauff (ebd.) resümiert nach einigen Beispielen: »Gerade weil diese Untersuchungen kein vorgängiges Medium annehmen, können sie verdeutlichen, wie Diskurse Verflechtungen mit Praktiken und Apparaten eingehen, die die Diskurse stützen und zugleich durch sie Wirksamkeit erhalten.« Doch das Denken von und das Schreiben über Technik, sofern man diese als nicht außerhalb von Diskursen oder als diesen vorgängig auffasst, birgt eine weitere Schwierigkeit.

1.3 Ungehörige Übertragungen

Abgesehen von der banalen Feststellung, dass es zu den eigenen Forschungsgegenständen zusätzlich zum Attachment auch eine gewisse Distanz braucht, um diese kritisch befragen zu können, soll an dieser Stelle noch ein spezifischer Aspekt des Technischen, nämlich die von Tara McPherson beobachtete Sogwirkung desselben, aber auch die der hard sciences, besprochen werden. »So if we are always already complicit with the machine, what are we to do?«, fragt McPherson (2012, 34) und leitet so ihre Beobachtung ein, dass der Computer, an dem und über den sie schreibt, ihr Schreiben mitgestaltet. Sie beschreibt, dass sie sich selbst dabei ertappt, wie die Funktionalität des Computers, »the logic of modularity« (ebd.), und die damit einhergehende Aufteilung der Welt in Wissensbereiche, die miteinander scheinbar nichts zu tun haben, beständig Einfluss auf ihr Schreiben nimmt. McPherson verbindet diesen Eindruck jedoch nicht mit dem Verweis auf ein technisch Unbewusstes oder ein medientechnisches Apriori, sondern politisiert ihn durch ihre Lesart als einen Mangel an Wissen der geisteswissenschaftlich Forschenden gegenüber ihren digitalen Gegenständen. McPherson (ebd., 34-35) schreibt weiter, dass die oft gestellten Fragen nach Repräsentation und Narration, und etwas allgemeiner der »very intense focus on visuality«, den sie innerhalb der geisteswissenschaftlichen Forschung der letzten 20 Jahre ausmacht, zu der sie auch ihre eigenen Arbeiten zählt, als ein Symptom dieser Logik der Modularisierung und als »a distraction from the powers that be« gelesen werden könnten. Ohne diese Zuspitzung in voller Härte zu teilen, entfaltet die vorliegende Untersuchung ihre Überlegungen dennoch hauptsächlich anhand der inneren Beschaffenheit von kryptographischen Verfahren und IT-Systemen, und befasst sich nur selten mit Fragen nach Repräsentation und Visualität. »To push my polemic to its furthest dimensions«,schreibt McPherson (ebd., 35) nach einigen Spitzen weiter, »I would argue that to study image, narrative and visuality will never be enough if we do not engage as well the non-visual dimensions of code and their organization of the world.« Dabei steht einiges auf dem Spiel: McPherson (ebd., 23) begreift die Funktionsweise von UNIX-Systemen und von racial segregation in den USA nicht nur als strukturell ähnlich, sondern auch als »mutually reinforcing« – was in letzter Konsequenz bedeutet, dass Technik ebenso in den antirassistischen Kampf eingebunden sein muss, wie andere Bereiche des Lebens.5 Aller Kenntnis dieser »non-visual dimensions of code« zum Trotz, so konnte ich beim Schreiben an diesem Buch feststellen, bleibt die Anziehungskraft des Technischen bestehen, und sorgt bisweilen dafür, dass informatische Konzepte sich in die Theoriebildung integrieren möchten. Während eine in der Tradition der »wohldefinierten Medienwissenschaft« (Ernst 2000) stehende Untersuchung dies entsprechend einem medientechnischen Apriori affirmieren würde, was beispielsweise in dem rezenten Vorschlag, eine mathematik- und techniknahe Medienwissenschaft als »Mediamatik« zu bezeichnen (Ernst 2018, 11), sichtbar wird, möchte ich dies weiterführend mit Astrid Deuber-Mankowsky (2020; 2017a) problematisieren. In ihrem Aufsatz Das ontologische Debakel oder was heißt: Es gibt Medien? plädiert Deuber-Mankowsky (2017a) für eine medienphilosophische Betrachtung der Ontologie von Medien. Dabei entwirft sie unter Bezugnahme auf Gilbert Simondons Technikphilosophie ein Gegenprogramm zu der von Bernhard Siegert vertretenen kulturtechnischen Analyse, und tritt mit seinem Artikel Öffnen, Schließen, Zerstreuen, Verdichten. ›Operative Ontologien‹ der Kulturtechnik, der in derselben Ausgabe der Zeitschrift für Medien und Kulturforschung erschienen ist, in einen Dialog. Deuber-Mankowsky weist auf die Differenzen von Ontologie und Ontologien hin: Verhandelt das philosophische Konzept der Ontologie die Frage nach dem Sein, so ist das informatische Konzept der Ontologien an der Operationalisierbarkeit von Wissen interessiert. Eine unscharfe Vermengung beider Begrifflichkeiten miteinander führe zu einer Übertragung der Bedeutungszusammenhänge aus einer informatischen Ordnung in eine medienwissenschaftliche, und damit, wie Deuber-Mankowsky (ebd., 160) mit Williard Quine deutlich macht, zu einem ontologischen Debakel, also einer »Operationalisierung [der analytischen Begrifflichkeiten, MS]: die Präzisierung und Standardisierung der Prozesse mit dem Ziel, sie verwendbar zu machen, und das heißt, als Algorithmen zu reformulieren und zu automatisieren.« Dies sorge in letzter Konsequenz dafür, über eine Unschärfe in der Theoriebildung eine Re-Ontologisierung von Medien, sowie ein instrumentelles Technikverständnis einzuziehen, in dem Technik als scheinbar restlos Beherrschbares erscheint, als bloßes Werkzeug, das wiederum zur Beherrschung einer als passiv konzipierten Natur verwendet werden könne (vgl. ebd., 163-164, 167). Der Kern dieser Argumentation findet sich ebenfalls in dem rezent erschienenen Artikel »Für eine Maschine gibt es kein echtes Virtuelles«. Zur Kritik des Smartness Mandate mit Felwine Sarrs Afrotopia und Gilbert Simondons Philosophie der Technik. Dort weistDeuber-Mankowsky (2020) anhand einer Diskussion von Orit Halperns, Robert Mitchells und Bernard Dionysos Geoghegans These, dass das Konzept der Smartness das Konzept der Rationalität beerbe, darauf hin, dass daraus nicht folge, dass Rationalität ausschließlich als algorithmische Rationalität gedacht werden müsse oder könne, denn dies würde bedeuten, von einer immer schon algorithmisch bestimmten Zukunft auszugehen. Diese Geste lässt sich im Sinne der Queertheoretikerin Eve Kosofsky Sedgwick (2003, 124) als reparativ verstehen: Ein Verständnis für einen Sachverhalt »does not intrinsically or necessarily enjoin that person to any specific train of epistemological or narrative consequences.« Der Einsatz von Sedgwicks Aufsatz Paranoid Reading and Reparative Reading, or, You’re So Paranoid, You Probably Think This Essay Is About You besteht darin, eine Art des Denkens und der Perspektivierung zu kultivieren, die sie als reparativ bezeichnet. Eine reparative im Gegensatz zu einer paranoiden Perspektive ermögliche es marginalisierten Personen innerhalb einer Gesellschaft, die ihnen kein Platz zugesteht, nicht nur zu überleben, sondern auch ein gutes Leben6 führen zu können. Auf eine ähnliche Weise macht Deuber-Mankowsky (2020, 132) deutlich, dass es bei der Frage nach der Geschichtlichkeit des Rationalitätsbegriffs in letzter Konsequenz um »Fragen der Verteilung, der Solidarität, der Ungerechtigkeit und Ungleichheit« geht, sowie um die »Glücks- und Überlebensansprüche von einzelnen Individuen«. Im Verlauf ihres Aufsatzes legt sie dar, dass technische Funktionsweisen und medienphilosophische Betrachtungen derselben unterschiedlichen Rationalitäten, das heißt, unterschiedlichen »Regeln und Prozessen« (ebd., 135) folgen, und die jeweiligen Wissensbestände damit unterschiedlichen Ordnungen angehören. Eine Vermischung derselben, indem ehemals philosophische Konzepte in die Informatik überführt und von dort erneut in die Medienwissenschaft übertragen werden, hat eine Bedeutungsverschiebung zufolge. Dieses »ontologische Debakel«, bei dem philosophische Konzepte operationalisierbar gemacht werden, führe einerseits zu einem instrumentellen Technikbegriff, und andererseits zu einer deterministischen Weltsicht, in der die Zukunft als geschlossen und schicksalhaft erscheint. Um stattdessen mögliche Zukünfte offen zu halten, gilt es also, eine ungenaue Übertragung von Konzepten zwischen diesen Bereichen, die Deuber-Mankowsky (ebd., 136) mit Walter Benjamin als in einer »diskontinuierliche[n] Struktur« verbunden beschreibt, zu vermeiden.

1.4Mit der Technik schreiben

Was bedeuten diese Überlegungen für die vorliegende Arbeit? Sowohl McPherson als auch Deuber-Mankowsky thematisieren Übertragungen zwischen unterschiedlichen Rationalitäten, wobei jeweils mögliche Zukünfte auf dem Spiel stehen. Um diese im Plural und offen zu halten, muss große Sorgfalt in der Begriffsarbeit erfolgen, und müssen die jeweiligen Verschiebungen nachgezeichnet werden, die Konzepte wie Sicherheit oder Körperlichkeit erfahren, wenn sie von einer Rationalität in eine andere übertragen werden. Als das Offenhalten von Zukünften lässt sich auch der Einsatz der Queer Theory beschreiben, die in der vorliegenden Untersuchung vor allem mit Eve Sedgwicks (2003) Überlegungen zu paranoiden und reparativen Formen der Wissensproduktion im Hinblick auf die Diskussion der Herstellungspraktiken von Sicherheit in digitalen Kulturen zur Anwendung kommt. Während paranoide Praktiken der Wissensproduktion auf die Vermeidung von (negativen) Überraschungen hin ausgerichtet seien, komme den reparativen Praktiken die Offenhaltung von Zukünften zu. Diese beiden Formen der Wissensproduktion, sowie Sedgwicks bereits zitierte Bemerkung, dass eine bestimmte Art, Wissen über die Welt zu generieren, eine Person nicht deterministisch an die epistemologischen Konsequenzen dieser Form binde, werden im Verlauf dieses Buchs vor allem im Hinblick auf die Frage danach relevant, ob sich ein alternativer Sicherheitsbegriff für die Herstellung von Sicherheit in und mit digitalen Kulturen finden lässt. So versucht auch die vorliegende Untersuchung, in Sedgwicks Sinne reparativ zu agieren.

Weiterhin kann die von McPherson beobachtete Kompliz_innenschaft mit Technik aufzubrechen, aber dabei nicht in eine technikfeindliche Position zu verfallen, bedeuten, nicht nur an und über ›sichere‹ Computer zu schreiben, sondern mit ihnen – und konsequenter Weise nicht nur über Technik zu schreiben, sondern mit ihr. Mit der Technik zu schreiben, bedeutet, die eigene Situierung in einer von Technik durchdrungenen Welt ernst zu nehmen, und nicht zu versuchen, die eigene Perspektive davon zu bereinigen. Vielmehr ermöglich ein solches, nicht instrumentelles Denken von Technik, die Verflechtung von (Medien)Technik, Geschlecht und race scharf zu stellen. Die wechselseitige Konstitution dieser Felder falsifiziert schließlich die behauptete Trennung von techniknaher Medienwissenschaft und Geschlechterforschung, und öffnet den Blick für Medien als produktive Bestandteile diskursiver Formationen jenseits der ihnen zugeschriebenen deterministischen Programmierungen. In diesem Sinne möchte dieses Buch seine Leser_innen an den unterschiedlichen Prozessen und Regeln naturwissenschaftlich-technischer und geisteswissenschaftlicher Fachkulturen teilhaben lassen, aber auch aufzeigen, dass diese beiden Rationalitäten, ihren Unterschiedlichkeiten zum Trotz, in wechselseitig konstitutive Verhältnisse eintreten können und sich daher analytisch miteinander produktiv machen lassen. Ein Schauplatz, an dem dies in der vorliegenden Untersuchung geschieht, ist damit notwendiger Weise Sprache, sind Metaphern, sind Worte selbst. Auch Haraway (1997, 125) betont die Rolle von Sprache in ihren Überlegungen zu den Science Wars: »Words are weeds – pioneers, opportunists, and survivors. Words are irreducibly ›tropes‹ or figures. For many commonly used words, we forget the figural qualities; these words are silent or dead, metaphorically speaking.« Damit kommt Wörtern, und auch wissenschaftlichem Jargon, in Haraways Herangehensweise eine besondere Bedeutung zu: Wörter sind »thick, living, physical objects that do unexpected things« (ebd.) – und dies gilt nicht nur für Wörter, die auffallend metaphorisch oder bereits blumig klingen; auch »[m]athematical symbolisms and finely honed experimental protocols do not escape from the troping quality of any communicative medium […].« (Ebd.) Sie bemerkt weiter: »And, facts are tropic; otherwise they would not matter.« (Ebd.) Matter gilt hier im mehrfachen Wortsinn: In seiner Entsprechung als bedeuten, als wichtig sein, aber auch als physische Substanz. Um diese Amalgamierung pointiert zum Ausdruck bringen zu können, taucht schließlich der von Haraway oft gebrauchte Ausdruck »[m]aterial-semiotic« (ebd.) auf, oder im Deutschen: materiell-semiotisch. Auch die vorliegende Untersuchung ist reich an solchen materiell-semiotischen Figuren, die ins Denken bringen, und im Verlauf der Argumentation entfaltet werden.

In Kapitel 2 wird zunächst ein Überblick über die Geschichte der Kryptologie geschaffen. Nach einem kurzen Abriss der ersten 3000 Jahre der Kryptologie wird anhand von zwei Schlüsselproblemen in die mathematischen Grundlagen sowie die innerfachliche Logik der Kryptographie eingeführt, sowie mit Sybille Krämer (2008; 2003) die Medialität von Kryptographie beleuchtet. Anschließend an die Diskussion Moderner Kryptographie (Katz/Lindell 2008) wird außerdem auf den der Kryptologie zugrunde liegenden Sicherheitsbegriff eingegangen, der mit Daniel Loick (2021) als negativer Sicherheitsbegriff bestimmt wird.

Kapitel 3 widmet sich anhand von Ransomware, Computerviren und würmern der Herausbildung zeitgenössischer IT-Sicherheit in den 1980er Jahren, und zeichnet die Intersektionen des IT-Sicherheitsdiskurses mit dem HIV/AIDS-Diskurs nach. Eingeflochten in die Geschichte der Ransomware WannaCry, des AIDS Information Trojaners und der Kryptovirologie werden die titelgebenden unsicheren Kanäle besprochen, der Status der Übertragungen von HIV/AIDS-Metaphorik in den IT-Sicherheitsdiskurs untersucht, sowie letzterer als immunologisch strukturiert beschrieben. Anhand einer Gegenüberstellung der Praktiken zur Herstellung von Sicherheit in vernetzten Systemen mit Theoriebildung zu HIV/AIDS aus akademisch-aktivistischen Zusammenhängen der ACT UP-Bewegung wird auch der IT-Sicherheitsbegriff entgegen seiner zunächst an einem queeren Sicherheitsbegriff orientiert erscheinenden Praktiken Safe Hex und Personal Systems Hygiene als negativer Sicherheitsbegriff bestimmt.

Kapitel 4 befasst sich mit Backdoors als Figurationen digitaler Kulturen, die an der Intersektion von IT-Sicherheit und Kryptologie liegen, wodurch auch die Erkenntnisse aus den beiden vorangegangenen Kapiteln zusammengezogen werden. Im Anschluss an die Erläuterung der kleptographischen Backdoor in DUAL_EC_DRBG, die der Situierung von Backdoors innerhalb der Informatik dient, wird mit der Backdoor-Schadsoftware Back Orifice auf den homophoben Subtext von Backdoors eingegangen, und werden weiterführend mit Leo Bersani (1987) und Paul B. Preciado7 (2015; 2003) zwei mögliche Umdeutungen desselben vorgeschlagen.

Kapitel 5 ordnet mit Eve Sedgwick die Praktiken der Wissensproduktion von Kryptologie und IT-Sicherheit, sowie den beiden Bereichen zugrunde liegenden negativen Sicherheitsbegriff als paranoid strukturiert ein. Anschließend an die im vorangegangenen Kapitel vorgenommenen Umdeutungen von Back Orifice und der sich daraus ergebenden Frage, ob Sicherheit in digitalen Kulturen auch nicht negativ bestimmt werden könnte, schlägt das Kapitel mit Loick (2021) einen queeren Sicherheitsbegriff vor. Inwiefern dieser sich für Sicherheit in digitalen Kulturen produktiv machen lässt, wird anhand einer Diskussion von QueerOS und Queer Computation (vgl. Barnett et al. 2016; Gaboury 2018; Keeling 2014) im Hinblick auf reparative Praktiken und der Offenhaltung von Zukünften herausgearbeitet.

Abschließend bleibt an dieser Stelle mit Haraway (1997, 125) noch zu bemerken, dass, wenn Geschichtenerzählen einen elementaren Teil der Lebenswissenschaften darstellt, was »no insult, and certainly no dismissal« sei, dies auch auf dieses Buch zutrifft: »Stories are not ›merely‹ anything. Rather, narrative practice is one of the very odd and compelling parts of the semiosis of making […] knowledge.« (Ebd.) Es folgen also Geschichten über Sicherheit, Zahlenspiele, Viren, Würmer, über HIV/AIDS, Erpressung, das Eintreten durch Hintertüren und unsichere Kanäle.

1Christoph Engemann, Till Heilmann und Florian Sprenger (2019, 155) ist insofern Recht zu geben, wenn sie bemerken, Methoden (und die Frage nach der Methode) seien ein Mittel der Disziplinierung.

2Ungefähr zeitgleich mit der Arbeit an diesem Buch ist auch innerhalb der deutschsprachigen Medienwissenschaft ein produktiver Streit darum entbrannt, was eigentlich medienwissenschaftliche Methoden sind und leisten sollen. Siehe dazu exemplarisch Schüttpelz (2019), Sprenger et al. (2020), Vonderau (2019), sowie den stetig aktualisierten Open Media Studies Blog.

3Diese Forderung wird heute vor allem von Wolfgang Ernst (2018; 2000) sowie von Stefan Höltgen (2020; 2019; 2018) vertreten, allerdings einhergehend mit der Behauptung, dass Fragen nach dem Performativen sowie nach Körpern, und damit auch nach Geschlecht nicht in das Feld der Medienwissenschaft fielen. Die vorliegende Untersuchung wendet sich sowohl methodisch als auch inhaltlich gegen diese Behauptung, sowie gegen die von Ernst proklamierte »wohldefinierte Medienwissenschaft« (Ernst 2018, 20), die er auch als »Mediamatik« (ebd., 11) bezeichnet.

4Um eine Lektüre ohne technische Vorkenntnisse zu ermöglichen, werden alle für das Verständnis der Argumentation zentralen technische Begriffe und Konzepte erläutert.

5Ein zögerlicher erster Versuch lässt sich in der Abschaffung der »master/slave«-Terminologie in verschiedenen Programmiersprachen erkennen. In der Programmiersprache Python wurden diese Begriffe durch »parent/helper« ersetzt (vgl. Oberhaus 2018), bei dem Dateisystem OpenZFS durch »master/dependents« (vgl. Salter 2020). Da an den jeweiligen Funktionsweisen nichts verändert wurde, lässt sich diese Unternehmung mit McPherson jedoch eher als Kosmetik einstufen, und etwas optimistischer als den Beginn einer wünschenswerten Veränderung.

6Die gewählte Formulierung des guten Lebens bezieht sich an dieser Stelle explizit nicht auf die Fantasie des guten Lebens, die Lauren Berlant (2011) in Cruel Optimism bespricht.

7Die Texte wurden noch nicht unter dem Namen Paul B. Preciado veröffentlicht. Da eine gewisse Nachvollziehbarkeit für Literaturnachweise gegeben sein muss, werde ich sie mit einem entsprechenden Hinweis gemäß den Angaben der jeweiligen Publikationen aufführen, im Text jedoch ausschließlich Paul B. Preciado nennen. Für weiterführende Überlegungen zu Zitation als scheinbar wertneutraler Praxis sowie akademischen Formen von Care siehe Thieme und Saunders (2018).

2. Kryptographische Sicherheitsbestimmungen

 

»Ist das sicher?« Diese Frage ist früher oder später Teil von Unterhaltungen über (neue) Apps, Programme, Funktionen oder technische Endgeräte, und wurde mir, je länger ich mich mit IT-Sicherheit befasst habe, umso häufiger von Kolleg_innen, Freund_innen und Familienmitgliedern gestellt. Es gibt viele Möglichkeiten, diese Frage zu beantworten: Man könnte sich die AGB und Angaben zum Datenschutz eines jeweiligen Herstellers durchlesen und versuchen, nachzuvollziehen, was mit den Daten passiert, die bei der Benutzung einer App entstehen. Man könnte sich – sofern es sich um eine Open Source-Anwendung handelt – um einen Blick in den Quelltext bemühen, und versuchen zu überprüfen, ob die Anwendung bisher unbemerkte Sicherheitslücken enthält. Man könnte sich darüber informieren, ob eine App, beispielsweise ein Messenger, die bei der Benutzung entstehenden Daten verschlüsselt, und wenn ja, welche Verschlüsselungsmechanismen es gibt, und wie die verwendete Art der Verschlüsselung im Vergleich zu anderen abschneidet. Man könnte ein Gerät auseinander bauen, um sich zu vergewissern, dass die Hardware nicht manipuliert wurde. Man könnte… Diese Liste ist viel zu kurz, um alle Antwortmöglichkeiten zu beinhalten. Darüber hinaus setzen alle bisher angeführten Möglichkeiten auf verschiedenen Ebenen an, und unterschiedliche Kompetenzen voraus, die von dem Verständnis juristischer Texte wie AGBs bis hin zu den technischen Eigenschaften von Soft- und/oder Hardware reichen. Was in diesen Antwortmöglichkeiten nicht explizit angesprochen, aber durch die Auflistung sichtbar wird, ist die implizite Frage nach der Bedeutung des Wortes sicher. Denn nicht nur werden in dieser Aufzählung unterschiedliche Kompetenzen vorausgesetzt, sondern mit ihnen wird Sicherheit auch auf unterschiedlichen Ebenen verhandelt: auf rechtlicher Ebene (AGB), auf technischer Ebene (Vergleich von Verschlüsselungsmethoden, Untersuchen der Hardware) und auf der Ebene von Herstellungspraktiken (Open Source). Diese Ebenen sind bei der Herstellung von IT-Sicherheit, um die es im weitesten Sinne bei der Frage nach Sicherheit in digitalen Medien geht, miteinander verknüpft. Die Annäherung an die Frage, was (IT)Sicherheit bedeutet, wird im Folgenden zunächst über die Geschichte der Kryptographie vollzogen, da diese in bisherigen medienkulturwissenschaftlichen Betrachtungen von digitalen Phänomenen mit Bezug zu IT-Sicherheit, wie beispielsweise Computerviren, kaum bis gar nicht beachtet wurde,1 aber grundlegend für das Verständnis von IT-Sicherheit ist. Von besonderem Interesse für die weiteren Ausführungen ist daher auch eine genauere Betrachtung der Intersektion von Kryptographie und Informatik, und der daraus folgenden Übertragung kryptographischer Sicherheitskonzepte in die Informatik, die den Bereich der IT-Sicherheit sowohl in der Industrie als auch als wissenschaftliche Disziplin kennzeichnet.

In diesem Kapitel soll daher zunächst ein wissensgeschichtlicher Überblick über zentrale Konzepte in der Geschichte der Kryptographie gegeben werden, die jeweils im Hinblick auf ihre Medialität sowie das zugrunde liegende Konzept von Sicherheit diskutiert werden. Anschließend wird im folgenden Kapitel eine wissensgeschichtliche Betrachtung dessen, was heute in der IT-Sicherheit unter Sicherheit verstanden werden kann, entfaltet werden. Für diesen Zweischritt ist eine artifizielle Aufteilung der Anwendungsbereiche von Kryptographie in zwei Bereiche notwendig: Erstens die Sicherheit von Kommunikationsinhalten während des Kommunikationsvorgangs und zweitens die Sicherheit von (vernetzten) IT-Systemen abseits von Kommunikationsprozessen menschlicher Akteur_innen.2 Diese Trennung dient ausschließlich der Vermittelbarkeit dieser komplexen Geschichte in zwei Erzählsträngen: Erstens der Geschichte der Kryptographie, die in diesem Kapitel besprochen wird, und der darin liegenden Abgrenzung moderner von klassischer Kryptographie, sowie zweitens deren Anwendungsfelder in der IT-Sicherheit, die im nachfolgenden Kapitel diskutiert werden. Diese Einteilung wird sich bereits im Verlauf des vorliegenden Kapitels an manchen Stellen als brüchig erweisen, was gleichsam als Nachweis der Künstlichkeit der von mir eingezogenen Trennung verstanden werden kann. Da dies jedoch immer noch eine nur unzureichende Beantwortung der Frage danach ist, was sicher in den jeweiligen Fällen und Diskursen bezeichnet, wird außerdem darauf eingegangen, welche Aussagen darüber, wie Sicherheit funktioniert, was sie leisten kann und soll, vom mathematisch-technischen Diskurs unausgesprochen bleiben.

2.1 Zum Status des Wissens über Kryptographie

Die Geschichte der Kryptographie ist, gemessen an ihrer langen Existenz, erst vor kurzem geschrieben worden. David Kahn, der Autor des kanonischen Buchs The Codebreakers. The Story of Secret Writing, bemerkt dazu im Vorwort desselben:

»CODEBREAKING is the most important form of secret intelligence in the world today. It produces much more and much more trustworthy information than spies, and this intelligence exerts great influence upon the policies of governments. Yet it has never had a chronicler. It badly needs one.« (Kahn 1967, ix)

Kahns Buch wurde 1967 veröffentlicht, inmitten des Kalten Krieges, und nur wenige Jahre vor Ende des Vietnamkrieges. Wie bereits aus dem kurzen Zitat aus dem Vorwort zu erkennen ist, erzählt Kahn die Geschichte der Kryptographie als Militärgeschichte. Die zahlreichen Beispiele – Kahn (ebd.) legt mit The Codebreakers die, in seinen Worten, »entire history of cryptology« vor – befassen sich also mit der Rolle von Kryptographie in Kriegshandlungen, in Konflikten zwischen Staaten, als Werkzeug von Botschaftern und Spionen. Entsprechend beginnt das erste Kapitel in medias res: Mit einer Nachricht zunächst unbekannten Ursprungs an den japanischen Botschafter in den USA, die in den frühen Morgenstunden des 7. Dezember 1941 von der US-amerikanischen Navy abgefangen und entschlüsselt wurde. Die Nachricht wies den japanischen Botschafter an, der US-amerikanischen Regierung einen einige Stunden zuvor in 14 Teilen gesendeten Beschluss der japanischen Regierung mitzuteilen: Dass diese sich außerstande sehe, durch weitere Verhandlungen mit den USA zu einer diplomatischen Lösung des Konflikts der beiden Staaten zu kommen (vgl. ebd., 2). Die Beziehungen von Japan und den USA waren bereits seit längerem konfliktbehaftet, und sollten an diesem Tag in dem Angriff japanischer Soldaten auf Pearl Harbor kulminieren, und das, wie Kahn (ebd., 4) herausstellt, obwohl es den USA gelang, die abgefangenen Nachrichten zu dekodieren, was er schließlich darauf zurückführt, dass in der dekodierten Nachricht keine Pläne für einen Angriff enthalten waren. Kahns Erzählungen der Ereignisse lesen sich für einen wissenschaftlichen Text nahezu übermäßig szenisch, fast wie ein Spionage-Thriller, was zweifelsohne dazu dienen soll, jeden Verdacht darauf zu zerstreuen, dass mathematische Entwicklungen eine trockene Materie seien.

In Kahns Tradition steht, sowohl was den Schreibstil als auch die Rahmung von Kryptographiegeschichte als Militärgeschichte angeht, auch Simon Singhs The Code Book.Science of Secrecy from Ancient Egypt to Quantum Cryptography, das ungefähr 30 Jahre später, kurz vor der Jahrtausendwende erstmals veröffentlich wurde. »For thousands of years«, so beginnt Singhs (2000, xiii) Einleitung,

»kings, queens and generals have relied on efficient communication in order to govern their countries and command their armies. At the same time, they have all been aware of the consequences of their messages falling into the wrong hands, revealing precious secrets to rival nations and betraying vital information to opposing forces. It was the threat of enemy interception that motivated the development of codes and ciphers: techniques for disguising a message so that only the intended recipient can read it.«

Die historisch gewachsene, enge Verknüpfung von Kryptographie und Kriegsführung sowie Spionage soll an dieser Stelle nicht nur als eine mögliche Art der Diskursivierung durch die Autor_innen dieser Geschichte abgetan werden, sondern hat Auswirkungen auf das Wissen, das über Kryptographie gewusst und hergestellt werden kann. Auf diesen Umstand nimmt ein – verglichen mit Kahn und Singh – eher unbekanntes, aber dennoch sehr genaues und hilfreiches Buch Bezug, das an dieser Stelle ebenfalls erwähnt sein soll: Friedrich Bauers Entzifferte Geheimnisse. Methoden und Maximen der Kryptologie. Bauers Buch ist vor allem aufgrund seiner Situierung im deutschen akademischen Kontext spannend, innerhalb dessen er zu Beginn der 1980er Jahre die erste öffentliche Vorlesung an einer westdeutschen Hochschule mit dem Titel »Kryptologie« hielt (vgl. Bauer 1997, V). Nach einer scherzhaft erzählten Anekdote darüber, dass Bauer eine Einmischung seitens deutscher Behörden in seinen Unterricht befürchtete, und er eines Tages tatsächlich die »unbekannten Gesichter zweier mittelalterlicher Herren mit Anzügen« (ebd., VI) in seiner Vorlesung erblickte – ein Vorkommnis, das ungeklärt blieb – schreibt Bauer (ebd., VI–VII) in der Einleitung seines Buchs weiter:

»Ich bin es dem Leser nun doch schuldig, zu erklären, woher mein Interesse an der Kryptologie und meine Vertrautheit mit ihr herrührt. Vorab, mein größter Vorteil ist, daß ich nie Angehöriger eines Dienstes war. Ich stehe also unter keiner irgendwie gearteten Schweigepflicht. […] Trotzdem weiß ich nie, ob ich das, was ich weiß, auch wissen darf.«

Die Verstrickung von Geheimdiensten oder anderen staatlichen Akteur_innen in die Wissensproduktion in der und über die Kryptographie thematisiert auch David Kahn in seinem Vorwort mit einem kurzen Hinweis darauf, dass sein Buch vor Veröffentlichung dem Department of Defense zugegangen sei. Dies lässt darauf schließen, dass Kahn sicherstellen musste, keine classified information zu veröffentlichen – was allerdings an dieser Stelle eine Spekulation meinerseits (und vermutlich auch anderer Leser_innen) ist, da Kahn sich nicht zum Zweck dieser Vorlage äußert. Auch Singh (2000, xvi) weist auf die Prekarität des Wissens über Kryptographie hin, wenn er schreibt, »I must mention a problem that faces any author who tackles the subject of cryptography: the science of secrecy is largely a secret science.« Im Gegensatz zu Kahn findet bei Singh keine Kontrolle durch staatliche Akteur_innen Erwähnung, allerdings verweist er darauf, für seine Forschung wichtige Daten direkt vom britischen Geheimdienst GCHQ bekommen zu haben, und dass diese erst kurz vorher freigegeben wurden. Doch diese Unterstützung deutet auch darauf hin, so schreibt er weiter, dass Geheimdienste »such as GCHQ and America’s National Security Agency continue to conduct classified research into cryptography, which means that their breakthroughs remain secret and the individuals who make them remain anonymous« (ebd., xvii). Eine Geschichte der Kryptographie steht aufgrund ebendieser Geheimhaltungspraktiken notwendigerweise stets unter Verdacht, nicht auf der Höhe der Zeit zu sein, nicht alle Entwicklungen und Akteur_innen bedacht haben zu können – dies gilt damit ebenso für die vorliegende Publikation. Doch Singh weicht auch in einigen Punkten von dem militärischen Narrativ ab, vor allem in der Darstellung von kryptographischen Entwicklungen der späten 1970er Jahre wie der Public Key-Kryptographie. Weshalb diese Verschiebung in der Erzählweise möglich ist, wird unter anderem Gegenstand dieses Kapitels sein.

2.2 Zur Medialität von Kryptographie

Die bisherigen Überlegungen stützen sich maßgeblich auf Literatur aus dem Feld der Kryptographie selbst, sowie auf Quellen von Historikern. Dies ist zwar eine reichhaltige Materialgrundlage, aber dennoch auch keine zufällige Auswahl: Die Menge geisteswissenschaftlicher Forschung zu Kryptographie ist recht überschaubar, und oft wird Kryptographie nur im Zuge eines anderen Themas begleitend gestreift.3 Eine nennenswerte Ausnahme ist Quinn DuPonts (2017) unter dem Namen An Archeology of Cryptography: Rewriting Plaintext, Encryption, and Ciphertext veröffentlichte Dissertation, die Kryptographie aus medienarchäologischer Perspektive betrachtet. Während sowohl DuPonts Arbeit als auch die vorliegende sich gegen ein instrumentelles Technikverständnis wenden und an diskursiven Möglichkeitsbedingungen von Kryptographie interessiert sind, schlagen sie doch differente Wege ein. DuPont situiert Kryptographie vorrangig in Hinblick auf Notation, d.h. Schrift, Schreiben und dessen Materialität, und fokussiert vor allem die Relation von Kryptographie und Sprache. An den technischen und mathematischen Details kryptographischer Systeme, ebenso wie an der jüngeren Geschichte der Kryptographie ist DuPont im Gegensatz zur vorliegenden Untersuchung jedoch nicht interessiert, weswegen sich die Pfade unserer Betrachtungen im Weiteren kaum kreuzen werden. Den überschaubaren geisteswissenschaftlichen Forschungsstand zu Kryptographie bespricht allerdings auch DuPont (2020) in seinem Aufsatz Cryptographic Media: »Despite the phenomenal rise in the use of cryptography, the emergence of a trillion-dollar computer security industry, unprecedented government interest and investment, and daily news stories describing the horrors of an insecure or overly secure Internet«, führt DuPont (ebd., 692) aus, »academic work on cryptographic media has tended to focus on a few important but limited areas of investigation.« Diese Felder seien zumeist, und diese Aussage bestätigte sich in meiner Recherche, Informatik, Ingenieurswissenschaften, und die Kryptographie als Disziplin selbst. Die Forschung in diesen Bereichen bezeichnet DuPont (ebd.) als »massive and well-funded«, sowie in vielen Fällen »cozy with corporate and government sponsors« – dies ist zweifelsohne ein Umstand, der sich darauf auswirkt, welches Wissen gewusst, produziert wird und werden kann.4 Angesichts dieser Förderungssituation, schreibt DuPont (ebd.) weiter, könne man fälschlicherweise glauben, »cryptographic media« seien ausreichend beforscht und verstanden, doch das Gegenteil sei der Fall. DuPont (ebd., 692-693) macht große Wissenslücken in der Forschung, vor allem auf Seite der Geisteswissenschaften aus:

»We might wonder, then, why have important questions not yet been asked? For instance, what is cryptography? Technologists, mathematicians, and engineers have answers, but they are not very satisfying – either doing too little or too much (the common plea that cryptography is just math is so broad that it risks explaining everything and nothing). Either way, these answers lack social and human richness. […] why, given its ubiquity, is encryption not considered one of the fundamental media technologies of the twentieth century (alongside radio, telephone, and television), and how do we explain its emergence and its future?«

DuPonts Artikel liefert einen Überblick über die Auseinandersetzung mit Kryptographie in den Bereichen Medienwissenschaft, Science and Technology Studies und Software Studies, und konstatiert, dass alle bisherigen Auseinandersetzungen unzureichend seien: Es fehle ein »sufficient theoretical framework for cryptography« (ebd., 693). Während DuPont (ebd.) zuzustimmen ist, was die überschaubare Quellenlage angeht, so kann es nur als Polemik aufgefasst werden, wenn er gleich drei Forschungsfeldern die naive Haltung unterstellt, sich bisher nicht mit Kryptographie auseinandergesetzt zu haben, da diese vermutlich glaubten, »that encrypted communication changes nothing, since, after all, encrypted communication is usually decrypted at its terminal location, seemingly returned to its original.« Der von ihm eigeforderten »cryptographic media theory« (ebd.) möchte dieses Buch dennoch nicht entsprechen, da die ersten richtungsweisenden Vorschläge, die DuPont im diskutierten Artikel für eine solche cryptographic media theory macht, in die Richtung einer weiteren Spielart kulturtechnischer Betrachtungen zeigen. Das vorliegende Buch wird daher den Blick nicht auf Kryptographie, also Verschlüsselung, als Medium (als »one of the fundamental media technologies of the twentieth century (alongside radio, telephone, and television)«) richten, da eine solche Betrachtungsweise Gefahr läuft, die Leistung von Verschlüsselung stillzustellen und damit zu verkennen, sondern fokussiert die prozessuale Dimension, die Medialität, von Ver- und Entschlüsselung, von Kryptographie. Was ist damit gewonnen?

Zunächst lässt sich festhalten, dass die »Annahme, es gebe Einzelmedien«, sich mit Sybille Krämer (2003, 85) als »Resultat einer Abstraktion« begreifen lässt, die zu der für die Medientheorie zentralen Frage führt, ob Medien Sinn erzeugen oder vermitteln. Krämer nähert sich dieser Frage in ihrem Aufsatz Erfüllen Medien eine Konstitutionsleistung? Thesen über die Rolle medientheoretischer Erwägungen beim Philosophieren davon ausgehend, dass die Bestimmung dessen, was Medien sind, sich weder in den Zeichen, die sie übertragen, noch in den Gegenständen und technischen Apparaten, die ihre Materialität ausmachen, erschöpft (vgl. ebd., 79). Im Verlauf ihres Aufsatzes legt Krämer eine philosophische Reflexion von Medien und Medialität vor, die Medien als konstitutive Elemente für das, was sie vermitteln, und damit auch des Denkens und des Philosophierens wahrnimmt, ohne dabei ein mediales Apriori anzunehmen. Wie eine solche Denkweise von Medien aussehen kann, etabliert sich, wie Krämer (ebd., 80) formuliert,

»zwischen zwei Polen: Der eine Pol ist die (traditionell geisteswissenschaftliche) Auffassung von der ›Sekundarität des Medialen‹: Ausgehend von der Vehikelfunktion, vom transitorischen, vermittelnden Charakter des Mediums werden Medien mit den materiellen Realisierungsbedingungen symbolischer Formen/Gehalte identifiziert. Medien übertragen etwas, das selbst nicht ›von der Natur eines Mediums‹ ist, sei das nun der Gehalt, die Botschaft, der Sinn oder die Form. Es gibt also ein Außerhalb von Medien. Der andere Pol ist die (eher kulturalistisch inspirierte) Auffassung vom ›Primat des Medialen‹: Medien gelten dann […] als zeitgenössische Fortbildung eines Sprach, Zeichen- oder Technikapriori. […] Es gibt kein Außerhalb von Medien.«