Zeitschrift für Medienwissenschaft 28 -  - kostenlos E-Book

Zeitschrift für Medienwissenschaft 28 E-Book

0,0
0,00 €

-100%
Sammeln Sie Punkte in unserem Gutscheinprogramm und kaufen Sie E-Books und Hörbücher mit bis zu 100% Rabatt.
Mehr erfahren.
Beschreibung

Die Zeitschrift für Medienwissenschaft steht für eine kulturwissenschaftlich orientierte Medienwissenschaft, die Untersuchungen zu Einzelmedien aufgreift und durchquert, um nach politischen Kräften und epistemischen Konstellationen zu fragen. Sie stellt Verbindungen zu internationaler Forschung ebenso her wie zu verschiedenen Disziplinen und bringt unterschiedliche Schreibweisen und Textformate, Bilder und Gespräche zusammen, um der Vielfalt, mit der geschrieben, nachgedacht und experimentiert werden kann, Raum zu geben. Heft 28 setzt den Schwerpunkt auf »Protokolle« und untersucht die Bedeutung, Wirkungsweise und Anwendungsgebiete von Tätigkeiten des Protokollierens in unterschiedlichen Kontexten von der Politik bis zu Computersystemen.

Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:

EPUB
MOBI

Seitenzahl: 287

Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



 

 

 

1/2023

GESELLSCHAFT FÜR MEDIENWISSENSCHAFT (HG.)

 

 

 

 

 

 

 

EDITORIAL

Medienwissenschaft zu betreiben bedeutet immer auch, sich zu fragen, was die Voraussetzungen und Bedingungen der eigenen Forschung sind. Die Medialität von Dingen und Ereignissen wird häufig erst in der Beschäftigung mit ihrer Theorie und Geschichte, ihrer Technik und Ästhetik freigelegt. In diesem Sinne betreibt die ZfM eine kulturwissenschaftlich orientierte Medienwissenschaft, die Untersuchungen zu Einzelmedien aufgreift und durchquert, um nach politischen Kräften und epistemischen Konstellationen zu fragen.

Unter dieser Prämisse sind Verbindungen zu internationaler Forschung ebenso wichtig wie die Präsenz von Wissenschaftler*innen verschiedener disziplinärer Herkunft. Die ZfM bringt zudem verschiedene Schreibweisen und Textformate, Bilder und Gespräche zusammen, um der Vielfalt, mit der geschrieben, nachgedacht und experimentiert werden kann, Raum zu geben.

Jedes Heft eröffnet mit einem SCHWERPUNKTTHEMA, das von einer Gastredaktion konzipiert wird. Unter EXTRA erscheinen aktuelle Aufsätze, die nicht auf das Schwerpunktthema bezogen sind. DEBATTE bietet Platz für theoretische und/oder (wissenschafts-)politische Stellungnahmen. Die Kolumne WERKZEUGE reflektiert die Soft- und Hardware, die Tools und Apps, die an unserem Forschen und Lehren mitarbeiten. In den BESPRECHUNGEN werden aktuelle Veröffentlichungen thematisch in Sammelrezensionen diskutiert. Die LABORGESPRÄCHE setzen sich mit wissenschaftlichen oder künstlerischen Forschungslaboratorien und Praxisfeldern auseinander. Von Gebrauch, Ort und Struktur visueller Archive handelt die BILDSTRECKE. Aus gegebenen Anlässen konzipiert die Redaktion ein INSERT.

Getragen wird die ZfM von den Mitgliedern der Gesellschaft für Medienwissenschaft, aus der sich auch die Redaktion (immer wieder neu) zusammensetzt. Es gibt verschiedene Möglichkeiten, sich an der ZfM zu beteiligen: (1) die Entwicklung und redaktionelle Betreuung eines Schwerpunktthemas, (2) die Einreichung von Aufsätzen und Reviewessays für das Heft und (3) von Buchrezensionen und Tagungsberichten für die Website. Alle Beiträge sind im Open Access verfügbar. Auf www.zfmedienwissenschaft.de befinden sich das Heftarchiv, aktuelle Besprechungen und Web-Extras, Blog-Beiträge sowie genauere Hinweise zu Einreichungen.

MAJA FIGGE, MAREN HAFFKE, TILL A. HEILMANN, KATRIN KÖPPERT, FLORIAN KRAUTKRÄMER, ELISA LINSEISEN, JANA MANGOLD, GLORIA MEYNEN, MAJA-LISA MÜLLER, BIRGIT SCHNEIDER, FLORIAN SPRENGER, STEPHAN TRINKAUS, THOMAS WAITZ

INHALT

Editorial

 

PROTOKOLLE

OLIVER LEISTERT/MARY SHNAYIEN

Protokolle Einleitung in den Schwerpunkt

LAURA NIEBLING

Interoperable Protokolle Der DICOM-Standard und die konfliktträchtige Digitalisierung medizinischer Bilder

TOBIAS STADLER

Grammatiken der Alterität Das Protokoll als Labor der Sozialität

JAN HARMS

Von Sprechakten und Schreibfakten Logiken des Protokolls in den True-Crime-Podcasts «Serial» und «Undisclosed»

MARTIN DEGELING/SOHEIL HUMAN

Internet Privacy Protocols

ALEXANDER R. GALLOWAY im Gespräch mit OLIVER LEISTERT und MARY SHNAYIEN

«Ob man etwas tun kann oder nicht, ist eine rein mechanische oder materielle Frage» Zu den Politiken und Effekten von Internetprotokollen und den Möglichkeiten ihrer Historisierung

WENDY HUI KYONG CHUN im Gespräch mit OLIVER LEISTERT und MARY SHNAYIEN

«Das Protokoll ermöglicht eine Bruderschaft» Zu Offenheit, dem Sozialen und der Dekolonisierung von Protokollen

 

BILDSTRECKE

ANTONIA BAEHR/JULE FLIERL/ISABELL SPENGLER/ NADIA LAURO vorgestellt von PHILIPP HOHMANN

Die Hörposaune

 

LABORGESPRÄCH

ANJA KAISER im Gespräch mit MAREN HAFFKE und JANA MANGOLD

Rutschige Medien Theoriereflexion, Feminismus und Aktivismus im Grafikdesign

 

EXTRA

BEATE OCHSNER/JUDITH WILLKOMM/HARALD WALDRICH/MARKUS SPÖHRER

«Serious Gaming» – oder Spielen ernst nehmen Ein Forschungsprogramm

 

DEBATTE

Medienwissenschaft und Bildung

ANDREAS WEICH/ADRIANNA HLUKHOVYCH

Bildungsauftrag. Was Medienwissenschaft im Kontext von Medien und Bildung tut, tun könnte und tun sollte

 

WERKZEUGE

THOMAS WAITZ

Performanz/Fame Über Wissenschaftskommunikation

 

AUTOR*INNEN

BILDNACHWEISE

IMPRESSUM

PROTOKOLLE

Erste Ausgabe der Zeitschrift Protokolle. Wiener Jahreszeitschrift für Literatur, bildende Kunst und Musik (1966), Cover entworfen von Haimo O. Lauth. Herausgeber und Mitbegründer Gerhard Fritsch in der Einleitung: «PROTOKOLLE, DIENICHTVOLLSTÄNDIGSEIN, ABEREINEGEWISSEVERBINDLICHKEITHABEN wollen» (Herv. i. Orig.).

PROTOKOLLE

Einleitung in den Schwerpunkt

Protokolle 2.0? Eine kleine Polemik

Als hätten wir es vorausgesehen! Seit der Planung dieses Schwerpunkts ist viel Bewegung auf dem Plattform-Markt zu notieren, die auch die Diskussion um die Wichtigkeit und den Einsatz von Protokollen neu entfacht hat. Mit der Übernahme Twitters durch Elon Musk, der erst einmal die Hälfte der Belegschaft gefeuert hat und absehbar viel Ärger mit Regulierungsbehörden und Werbekund*innen haben wird,1 blühen das Fediverse und dessen derzeit bekanntester Mikroblogging-Dienst Mastodon auf. Meta hat für über 15 Milliarden US-Dollar das teuerste Computerspiel aller Zeiten gebaut, woraufhin der Aktienkurs um 60 Prozent eingebrochen ist, und hat über 11.000 Mitarbeiter*innen gekündigt.2 Auch Amazon macht weder mit seinem digitalen Assistenzsystem Echo noch mit seinen Stores Gewinne3 und hat zum ersten Mal über 10.000 Corporate-Mitarbeiter*innen entlassen. Alphabets Kerngeschäft läuft zwar noch recht rund (obwohl die damit systematisch verbundenen Geldstrafen auch für Alphabet langsam schmerzhaft sein dürften)4 – die Aktie hat innerhalb eines Jahres jedoch auch um rund ein Drittel nachgegeben, und der Ruf nach Entlassungen wird lauter.5 Seit das Geld nicht mehr so billig ist wie in all den vielen Jahren der Null-Zins-Politik zuvor, melden auch verschiedene Plattformlieferdienste, dass sie nicht mehr lange durchhalten werden.6 Es stellt sich also die Frage: Erreichen wir mit dem Ende des billigen Geldes nun auch das Ende des Plattformzeitalters? Vielleicht zeigt sich aber auch einfach nur, dass Menschen dann doch lieber Textnachrichten mit Emojis schreiben wollen, als in der vollen Immersion baden zu gehen. «Wir brauchen Protokolle, keine Plattformen», schreibt Geert Lovink in seinem aktuellen Buch.7 Doch wieso eigentlich? Welche Hoffnungen werden in Protokolle gesetzt? Welchen Unterschied machen sie?

Abb. 1Tweet von Elon Musk: «the bird is freed» vom 28.10.2022, Screenshot

Was sind Protokolle?

Protokolle strukturieren und formieren, was war und was sein wird. Dabei operieren sie sowohl deskriptiv als auch präskriptiv, stets jedoch normierend. Als Textsorte8 speichern Protokolle Sprechakte mit Anspruch auf Wahrheit in Schriftform, insbesondere im institutionellen Kontext. Cornelia Vismann datiert dies auf die römischen Institutionen, genauer auf Cäsars erstes Konsulat im Jahre 59 v. Chr., als die senatorischen acta, die Mitschriften der Verhandlungen des römischen Senats, veröffentlicht und durch öffentliche Aufbewahrung im Archiv personenunabhängig wurden: «Mit der Emanzipation der Akten von ihren Aktenführern [...] bereitet sich der Wechsel des Herrschaftsdispositivs von der Nachricht zum Nachweis und damit von Administration zu Autorität vor».9 Indem Protokolle ferner durch Echtheitszeichen zertifiziert und ausschließlich auf hoheitlichem Papyrus niedergeschrieben wurden, eröffneten sie «im Raum der Regierungstechnologien die Epoche der Wahrheit», wie Michael Niehaus eindringlich schreibt.10 Dieses «Protokoll-Dispositiv» organisiert fortan zurechenbare, beurkundete und adressierbare Beweisfähigkeit durch «übernommene Zeugenschaft für geschehene und vollzogene acta».11 Autorität gewinnen Protokolle ferner durch ihre «Kopräsenz zur Aktion», wie Vismann herausarbeitet, denn «die mündliche Handlung wird zur Wahrheitsgarantin der schriftlichen und umgekehrt macht ihre Verschriftlichung eine mündliche Verhandlung wahrheitsfähig».12 Dies erforderte auch neue Medientechniken, die mit der Geschwindigkeit der Sprechakte mithalten konnten. Die «präsentische Struktur»13 von Protokollen wird möglich durch mit Griffeln in Wachs geritzte Schnellschrift, die erst in Reinschrift transkribiert auf Dauer und Wahrheit abstellt. Im Feld des Rechts und der Verwaltung wird Protokollieren zum Fakten produzierenden Akt und damit performativ.14 Als Instrument der Kontrolle verbürgen und verwalten Protokolle Wahrheit. Nur ihr Zustandekommen kann fortan noch angefochten werden. Ihre Inhalte sind durchs Codieren immunisiert und gelten als authentisch.15

Internet-Protokolle

Die kontrollierende, Fakten schaffende Eigenschaft von Protokollen ist indes auch für andere Spielarten des Protokolls jenseits des Rechts, der Verwaltung oder der Diplomatie gültig: Technisch-operative Protokolle beschreiben Kaskaden formalisierter Standards oder Übereinkommen, die als Kontrollregime flexibler materieller oder semiotischer Organisation implementiert werden. Damit strukturieren Protokolle autoritär, vorhersagbar und hierarchisch das Format und Verhalten von Daten und Objekten sowie deren Möglichkeiten der Teilnahme an infrastrukturellen Netzwerken.16 Obgleich regelbasiert, bleiben sie offen für eine Vielzahl verschiedener Inputs, denn es «besteht zwischen deren Vorschriftcharakter, Kontrolleffekten und den Praktiken im Netzwerk kein strikt deterministischer Zusammenhang».17 Indem sie auf je eigene Weise codieren, was sie regieren, entstehen potenziell Konflikte einer Übersetzung über verschiedene Protokoll-Milieus hinweg.18

Abb. 2Entwicklung von TCP- und IP-Protokollen (Zeitstrahl), nach Bakni 2022

Im Feld der Netzwerkprotokolle haben insbesondere das Transport Control Protocol (TCP) sowie das Internetprotocol (IP) zum Erfolg des Internets, wie wir es heute kennen, beigetragen: Mit TCP/IP konnten Nutzer*innen erstmals hersteller*innenunabhängig, ausfallsicher, dezentral und unabhängig von Inhalten (content agnostic) quasi synchron Daten schicken und empfangen. Die Idee und Implementierung der Aufteilung von Netzwerkdaten in einzelne Pakete auf Protokollebene, die je unterschiedliche Wege durch das Netz nehmen konnten, um am Zustellort wieder korrekt zusammengesetzt zu werden, in Kombination mit einfachen Weiterleitungsregeln und dem Ende-zu-Ende-Prinzip durch IP-Adressen hat wohl entscheidend zum Siegeszug des Internets beigetragen. «If the Internet is still public – that is, an indeterminate space that belongs to no one – it is because the Internet is a protocol, is TCP/IP»,19 schrieb Wendy Hui Kyong Chun 2006 und erläutert im Gespräch mit uns in dieser ZfM-Ausgabe ihre heutige Sicht auf Protokolle.

Doch die offene Protokoll-Designphilosophie,20 die das Internet hervorbrachte, bringt, ähnlich wie Open-Source-Software, auch Probleme mit sich. Das Scheitern der Einführung von IPv6 ist hier vielleicht der eindringlichste Fall: Bereits seit 2014 sind in Asien alle IPv4-Adressen vergeben. IPv6, das diese Knappheit lösen sollte, fristet jedoch seit seiner Einführung im Jahr 1995 (!) ein nerdiges Schattendasein im operativen Betrieb des Netzes der Netze, da weder Plattformen noch Services oder Privathaushalte spürbar von seiner Durchsetzung profitieren.21 Auch hat sich die Offenheit und Selbstregulierung des Internets als Einfallstor unternehmerischer und kommerzieller Strategien erwiesen: «[T]he self-regulation of the Internet architecture undermined the very design goals of the Internet architecture, changed its sociotechnical imaginary, and facilitated the prioritization of corporate interests.»22 Insofern gilt es fortan, auch Internetprotokolle samt ihrer Designphilosophie zu problematisieren und die Frage zu stellen, wie der kapitalistische Vereinnahmungsapparat in Zukunft außen vor gehalten werden kann: «The presumably ‹good› protocols and decentralized nature as a ‹network of networks› turned out to be unable to challenge both centralized platforms and authoritarian control and proved susceptible to control and unable to route around real-world politics and treat it as damage», wie Geert Lovink kürzlich konstatieren musste.23

Die von Alexander Galloway entworfene Machtanalytik von TCP/IP und DNS in seinem vor rund 20 Jahren erschienenen Buch Protocol. How Control Exists after Decentralization24 ordnet er selbst im Gespräch in dieser ZfM-Ausgabe als eher von historischem Wert ein. Seine Definition von protocol als «a type of controlling logic that operates outside institutional, governmental, and corporate power, although it has important ties to all three»,25 hat dennoch medienkulturwissenschaftliche Auseinandersetzungen mit digitalen Medien und Kulturen in den letzten beiden Jahrzehnten maßgeblich geprägt: Protocol als sich ständig in Bewegung befindliche, modulierende und modulierte Struktur, mit der Macht und Kontrolle als stets fluide denkbar werden, wirft eben genau die Frage auf, welche Art von Kontrolle oder Management dies ist und wie Widerstand darin noch Platz findet.

Sollten sich die eingangs konstatierten Bedeutungsverluste von Plattformen als nachhaltig erweisen, erscheint heute die Frage nach dem Stellenwert von Protokollen umso dringlicher. Hat eine protokollogische Kontrolle, die «based in openness, inclusion, universalism, and flexibility» ist,26 in Anbetracht des Niedergangs der Werte, die einst das Internet hervorbrachten, heute mehr als nostalgisches Schwelgen zu bieten? Es gibt kein Zurück, sagt Galloway hier im Interview, ähnlich wie Geert Lovink, der schreibt: «Is it possible to go back from platforms to protocols? Is there still time left to do the coding and create new scripts of connection? With levels of despair and anger rising, many feel it will be too little too late.»27 Wut und Verzweiflung sind jedoch vielleicht nicht die besten Ratgeber*innen. Vielmehr geht es (wieder einmal) um Experimente, um Versuchsanordnungen und temporäre Assoziationen, die dazu dienen, Bedürfnisse und Wünsche heutiger Verschaltungen von Mensch und Maschine zu artikulieren.

Blockchain-Protokolle

Es mag überraschen, derartige Protokoll-Experimente ausgerechnet im Feld der Blockchains anzutreffen. Blockchains erinnern verblüffend an Protokolle, wie sie Cornelia Vismann beschrieben hat, mit dem Unterschied, dass keine hoheitlichen, sondern kryptografische Zertifikate die Authentizität im Buchungsbuch verbürgen sollen. Auch ähneln Blockchains frappierend Protokollen in ihrer Eigenschaft als Mitschriften von Transaktionen und Kommunikation. Ein Löschen ist nicht vorgesehen. Erneut ist es die Offenheit von TCP/IP, auf die dies alles aufsetzt und die diesen Boom der wundersamen Welten der Blockchain-Protokolle erst zulässt. Dies zeigt einmal mehr, was auch Wendy Hui Kyong Chun im Interview sagt: Offenheit hat zunächst wenig mit Öffentlichkeit und wohl noch weniger mit Teilhabe zu tun. Protokolle, die paradigmatisch künstliche Verknappungen im Digitalen forcieren sollen, setzen protokollogisch reibungslos auf TCP/IP auf. Hierfür werden kryptografische Zertifikate, Schlüssel und Hashes auf der Kette verwaltet,28 mit denen allerlei Wetten abgeschlossen werden: Das Zusammenbasteln von hochriskanten Finanzprodukten mithilfe sogenannter Smart-Contracts, die vielmehr kurze Programme sind und nur wenige Eigenschaften mit Verträgen teilen,29 dringt als Folge davon in den Heim- und Amateurbereich vor. Wetten auf zukünftige Werte (Options) oder synthetische, ineinander verschachtelte Derivate, unvergesslich in The Big Short porträtiert,30 lassen sich protokollogisch grenzenlos vervielfachen. Dies ist insofern irritierend, als Bitcoin, die Mutter aller Blockchains, einst als Gegenentwurf zur etablierten Finanzwelt antrat, das ganze Feld nun aber wie eine Version derselben auf Steroiden wirkt. Doch neben und oft im Schatten vom unregulierten Ausbau predatorischer Finanzlogiken31 als Open-Source-Ressource entstehen protokollogische Experimente mit ganz anderen Zielen. Künstler*innen32 und Aktivist*innen33 versuchen, einen systematischen Platz für die Funktionalitäten von Blockchains in den Assemblagen und Dispositiven künstlerischer und kollektiver Praktiken zu finden.34 Hier werden neue Formen der Mitwirkung, Abstimmung und Governance erprobt – mit, durch35 und auch gegen36 technisch-operative Blockchain-Protokolle.

Zu den Beiträgen

Fast 20 Jahre nach dem Erscheinen von Galloways Buch fragt diese Ausgabe der ZfM nicht zuletzt ihn selbst, was heute von der einstigen Vormachtstellung technischer Protokolle Anfang der 2000er geblieben ist, wie sich ihr Stellenwert in digitalen Kulturen verändert hat und ob wir nicht doch vielleicht ein Comeback von Protokollen und Protokollogisierung erleben. Dazu versammelt das vorliegende Heft Beiträge aus unterschiedlichen Perspektiven und Fachkulturen, die sich mit der Rolle von Protokollen über verschiedene Medien hinweg auseinandersetzen, mit ihren Ausschlüssen, Ambivalenzen und Überschüssen, mit dem Verhältnis von Protokollen und Standards, den Verschränkungen von Protokollen mit Arbeit(sweisen), Privatheitsdiskursen und dem Sozialen.

LAURA NIEBLING stellt in ihrem Beitrag Interoperable Protokolle. Der DICOM-Standard und die konfliktträchtige Digitalisierung medizinischer Bilder den seit den 1990er Jahren sukzessive ausgerollten internationalen DICOM-Standard für Bilddatenmanagement als Nexus verschiedenster Institutionen, Akteur*innen, ökonomischer, medizininformatischer und datenschutzrechtlicher Interessen vor. Dabei gilt ihr kritischer Blick der Interoperabilität medizinischer Apparate und Handlungen als Paradigma des Gesundheitssystems: Anhand der mit dem DICOM-Standard verbundenen Aushandlungsprozesse des Verhältnisses von Protokollen, Standards und medizinischer Arbeit weist Niebling auf die Veränderungen der dazugehörigen (Arbeits-)Kulturen hin. Interoperabilität als Paradigma, so ihre Feststellung, muss als Analysekategorie von Arbeitskulturen in digitalen Kulturen verstanden werden.

Mit seinem Beitrag Grammatiken der Alterität. Das Protokoll als Labor der Sozialität liefert TOBIAS STADLER eine vergleichende Analyse kommerzieller und alternativer sozialer Netzwerke und befragt diese aus marxistischer Perspektive auf ihre jeweiligen Herstellungspraktiken von Sozialität. Obgleich alternative und kommerzielle soziale Netzwerke einen gemeinsamen Ursprung in der von Google entwickelten OpenSocial-Syntax und daher in gewissem Maß ihre grammars of action teilen, werden die Praktiken und ideologischen Strategien kommerzieller sozialer Netzwerke im Kontrast beschreib-, kritisier- und veränderbar. Die Protokolle alternativer sozialer Medien begreift Stadler in diesem Sinne als Labor: Sie lassen Praktiken und Gemeinschaften entstehen, die es ermöglichen, Sozialität als kollektive Ressource zu denken, und zu erproben, wie deren Herstellung, Inwertsetzung und Pflege über ihre Grundlagen in den Grammatiken kommodifizierter Sozialität hinauswachsen kann.

In Von Sprechakten und Schreibfakten. Logiken des Protokolls in den True-Crime-Podcasts «Serial» und «Undisclosed» exploriert JANHARMS am Beispiel der beiden genannten Serien, wie True-Crime-Podcasts in den Medienwechsel von Sprache zu Schrift intervenieren. So arbeitet er heraus, dass schriftliche Geständnisprotokolle, die auf Tonbandaufzeichnungen mündlicher Geständnisse basieren, Ambivalenzen und Überschüsse des Mündlichen, wie etwa Sprechpausen oder Klopfgeräusche, zugunsten der Schaffung von Wahrheiten in Form von Schreibfakten verknappen und unterschlagen. Genau diese im Medienwechsel vernachlässigten Ambivalenzen und Überschüsse sind es jedoch, die in einem neuen Protokoll der desktop detectives und internet sleuths stark gemacht und gegen das offizielle Protokoll gewendet werden, um unschuldig Verurteilten Recht zukommen zu lassen.

MARTIN DEGELING und SOHEIL HUMAN blicken in ihrem Beitrag Internet Privacy Protocols aus der Perspektive der Informatik auf die Geschichte verschiedener gescheiterter Internet-Datenschutzprotokolle der letzten Jahre: das XML-basierte P3P, das auf einem HTTP-Header beruhende Do Not Track sowie dessen Nachfolgeprotokoll Global Privacy Control, das als Reaktion auf den 2019 in Kraft getretenen California Consumer Privacy Act entstand, ebenso wie das auf den Anforderungen der DSGVO beruhende Advanced-Data-Protection-Control-Protokoll. Degeling und Human erläutern nicht nur die technische Funktionsweise der jeweiligen Protokolle, sondern verdeutlichen, dass auch ihr Scheitern an der Intersektion von Gesetzen, ökonomischen Interessen und technischer Umsetzung differenter Akteur*innen und Institutionen als Ausdruck der vielschichtigen gesellschaftlichen Aushandlungsprozesse betrachtet werden muss, die die Entstehung von Protokollen prägen.

Abb. 3Diagramm «Protocol Relationships», aus der ersten Standardisierung des TCP (RFC: 793), 1981

Im Gespräch mit ALEXANDER R. GALLOWAY zieht dieser knapp 20 Jahre nach dem Erscheinen seines Buches Protocol. How Control Exists after Decentralization eine kritische Bilanz seiner machtanalytischen Thesen zu Protokollen wie TCP/IP und DNS im Hinblick auf die Veränderungen des Internets in den letzten zwei Jahrzehnten. Den Verlust der Vormachtstellung von Protokollen zugunsten der Plattformisierung des Netzes stets im Hinterkopf, haben wir mit Galloway am Beispiel von Blockchain-Protokollen über die zwar in Grundzügen veränderte, aber dennoch uneingeschränkte Aktualität von Protokollen gesprochen. Weiterhin haben wir diskutiert, ob und inwiefern Internetprotokolle der richtige Ort sind, um Menschenrechte zu verankern und in digitale Kulturen einzuschreiben, ob sie antipatriarchal oder queer sein könnten und was es mit den protokollogischen Möglichkeitsbedingungen im Verhältnis zu Utopie, Moral und Ethik auf sich haben könnte, um schließlich bei libidinösen Ökonomien und Social Media sowie der Frage zu enden, inwiefern angesichts von Elon Musks Twitter-Übernahme eine Transformation unseres Begehrens notwendig ist.

WENDY HUI KYONG CHUN führt im Gespräch mit uns Protokolle als elementar für die Herstellung von Authentizität ein, weist aber auch darauf hin, dass deren – jeweils eigenen Protokollen folgende – Überschreitung mindestens genauso wichtig ist. Die Themen des Gesprächs reichen von offenen Blockchain-Protokollen, die dennoch proprietäre Anwendungen ermöglichen, über die Ambivalenz technischer Protokolle, die zwar nicht als klassisch-patriarchal beschrieben werden können, da sie sich gegen hierarchische Strukturen wenden, aber dennoch durch die Schaffung von Bruderschaften patriarchale Kontrolle aufrechterhalten, sowie über die Verwobenheiten von technischen und sozialen Protokollen bis zu verschiedenen Möglichkeiten, Protokolle zu dekolonisieren, die, wie Wendy Hui Kyong Chun exemplarisch am kanadischen Diskurs darlegt, sich mit Fragen des Ortes und des Landes auseinandersetzen, wobei die Fragen, auf was Protokolle gründen, was sie erdet und sie nahtlos und universell erscheinen lässt, im Vordergrund stehen. Denn schlussendlich können Protokolle erst durch ihre Relationalitäten rückwirkend den Anschein erwecken, dass sie selbst alles steuerten.

OLIVER LEISTERT, MARY SHNAYIEN

1  Vgl. Hannah Murphy, Tim Bradshaw: Twitter job cuts begin as Musk warns of ‹massive› revenue drop, in: Financial Times, 5.11.2022, ft.com/content/b9a2a0ec-d3fe-422d-bc62-fa9ddfd3f06c (16.11.2022).

2  Vgl. Cristina Criddle, Hannah Murphy: Meta cuts 11,000 staff in largest cull in company’s history, in: Financial Times, 9.11.2022, ft.com/content/348068b1-24d9-434b-9ae7-6599027bf84f (16.11.2022).

3  Vgl. Dave Lee: Amazon scrutinises lossmaking units in search of savings, in: Financial Times, 10.11.2022, ft.com/content/b6e8e01c-cc48-43cc-9405-2fc67ff20817 (16.11.2022).

4  Vgl. Cecilia Kang: Google Agrees to $ 392 Million Privacy Settlement With 40 States, in: New York Times, 14.11.2022, nytimes.com/2022/11/14/technology/google-privacy-settlement.html (16.11.2022).

5  Vgl. Richard Waters, Tabby Kinder: Alphabet faces call from activist fund to cut headcount, in: Financial Times, 15.11.2022, ft.com/content/6daa5d29-8595-4630-a633-eb1f8b138446 (16.11.2022).

6  Vgl. Sarah O’Connor: How will we remember the age of cheap money?, in: Financial Times, 1.11.2022, ft.com/content/1d2af214-caf6-4326-916d-b597577186c8 (16.11.2022).

7  Geert Lovink: In der Plattformfalle. Plädoyer zur Rückeroberung des Internets, Bielefeld 2022, 183.

8  Vgl. Michael Niehaus, Hans-Walter Schmidt-Hannisa (Hg.): Das Protokoll. Kulturelle Funktion einer Textsorte, Frankfurt/M. 2005.

9  Cornelia Vismann: Akten. Medientechnik und Recht, Frankfurt/M. 2000, 84.

10  Michael Niehaus: Epochen des Protokolls, in: ZMK. Zeitschrift für Medien- und Kulturforschung, Jg. 2, Nr. 2, 2011, 141 – 156, hier 141.

11  Vismann: Akten, 85 f.

12  Ebd., 86.

13  Ebd.

14  Vgl. ebd., 87 – 89.

15  Für 2023 ist ein weiterer Sammelband zum Thema angekündigt: Peter Plener, Nils Werber, Burckhardt Wolf (Hg.): Das Protokoll, Berlin, Heidelberg 2023.

16  Vgl. Gerd Beuster, Oliver Leistert, Theo Röhle: Protocol, in: Internet Policy Review, Bd. 11, Nr. 1, 31.3.2022, policyreview.info/glossary/protocol (15.8.2022).

17  Sebastian Gießmann: Die Verbundenheit der Dinge. Eine Kulturgeschichte der Netze und Netzwerke, Berlin 2016, 125.

18  Vgl. Ned Rossiter: Software, Infrastructure, Labor. A Media Theory of Logistical Nightmares, New York 2016, 96.

19  Wendy Hui Kyong Chun: Control and Freedom. Power and Paranoia in the Age of Fiber Optics, Cambridge (MA) 2006, 63.

20  Vgl. Laura DeNardis (Hg.): Opening Standards. The Global Politics of Interoperability, Cambridge (MA) 2011.

21  Vgl. Paul Dourish: The once and future internet: infrastructural tragedy and ambiguity in the case of IPv6, in: Internet Histories, Bd. 2, Nr. 1/2, 2018, 55 – 74.

22  Niels ten Oever: «This is not how we imagined it»: Technological affordances, economic drivers, and the Internet architecture imaginary, in: New Media & Society, Bd. 23, Nr. 2, 2021, 344 – 362, hier 357.

23  Geert Lovink: Extinction Internet. Our Inconvenient Truth Moment, Amsterdam 2022, o. S., networkcultures.org/wp-content/uploads/2022/11/ExtinctionInternetINC2022Miscellanea.pdf (25.11.2022).

24  Alexander R. Galloway: Protocol. How Control Exists after Decentralization, Cambridge (MA) 2004.

25  Ebd., 122.

26  Ebd., 142.

27  Lovink: Extinction Internet, o. S.

28  Vgl. Beuster u. a.: Protocol.

29  Vgl. Karen E. C. Levy: Book-Smart, Not Street-Smart: Blockchain-Based Smart Contracts and The Social Workings of Law, in: Engaging Science, Technology, and Society, Bd. 3, 2017, 1 – 15.

30  The Big Short, Regie: Adam McKay, USA 2015.

31  Vgl. Saule T. Omarova: New Tech v. New Deal: Fintech as a Systemic Phenomenon, in: Yale Journal on Regulation, Bd. 36, Nr. 2, 2019, 735 – 793.

32  Vgl. Marc Garrett u. a. (Hg.): Artists Re:Thinking the Blockchain, London 2018.

33  Vgl. Oliver Leistert: On the Question of Blockchain Activism, in: Graham Meikle (Hg.): The Routledge Companion to Media and Activism, New York 2018, 376 – 384.

34  Vgl. Felix Stalder, Janez Fakin Janša (Hg.): From Commons to NFTs, Ljubljana 2022, aksioma.org/from-commons-to-nfts/publication (7.12.2022).

35  Vgl. Wessel Reijers u. a.: Now the Code Runs Itself: On-Chain and Off-Chain Governance of Blockchain Technologies, in: Topoi, Bd. 40, Nr. 4, 2021, 821 – 831.

36  Vgl. Jaya Klara Brekke, Kate Beecroft, Francesca Pick: The Dissensus Protocol: Governing Differences in Online Peer Communities, in: Frontiers in Human Dynamics, Bd. 3, 26.5.2021, frontiersin.org/articles/10.3389/fhumd.2021.641731/full (14.7.2021).

LAURA NIEBLING

INTEROPERABLE PROTOKOLLE

Der DICOM-Standard und die konfliktträchtige Digitalisierung medizinischer Bilder

Für viele Kliniken brachten die frühen 1970er Jahre eine Zeit des medientechnischen Aufbruchs. Digitale Bildgebungssysteme wurden erworben oder entwickelt und in den Abteilungen eingesetzt – das Ziel waren Krankenhausinformationssysteme (KIS), die die langen Wege der ‹Röntgentüten› aus und in klinikeigene Archive, die «Silberminen», der Vergangenheit überantworten sollten.1 Bilder speichern, teilen und bearbeiten zu können wurde zunehmend zu einer bedeutsamen Medienpraxis für viele medizinische Fachbereiche und versprach profunde Entwicklungsimpulse für die medizinische Diagnostik und Forschung.2 Doch die Entwicklung der Technik brachte eine der größten Hürden selbst mit. Die Systeme kommunizierten zu Beginn nur schwerfällig: Informationen zirkulierten begrenzt oder überhaupt nicht. Als Antwort auf diese Probleme wurde in der US-amerikanischen Medizin Mitte der 1980er Jahre ein Standard vorgeschlagen, der 1993 den bis heute verwendeten Namen Digital Imaging and Communications in Medicine (DICOM) erhielt.3 Sein Bilddatenmanagement umfasst Protokolle zur Speicherung und zum Austausch und sollte international zur Basis medizinischer Bildarbeit werden. Wenn mit Bernhard Dotzler gesprochen der Computer das Medium ist, «das alle anderen Medien kassiert»,4 so liegt es nahe, dass computerbasierten Bildern in der Medizin eine ähnliche Wirkmacht zugesprochen wird. Dass das digitale Röntgen sowie die zugehörige Bildverarbeitung das Potenzial hätten, zur «‹Killerapplikation› [...] [zu werden], die alle alten Technologien über kurz oder lang ersetzen würde [...], war zwar klar, aber bei den Krankenhäusern irgendwie nicht verinnerlicht», notiert der Fachjournalist Hartmut Wehrs mit leichter Süffisanz über die 1990er/2000er Jahre.5

Abb. 1Prototyp eines Bildgebungssystems, Demonstration im Washington Veterans Hospital, 1977

Denn in Deutschland kam es bei der Einführung von DICOM zu erheblichen Konflikten, in denen es v.a. um die Schnittstellen in Krankenhausnetzwerken, bezogen auf die sogenannten DICOM-«Dialekte»,6 ging. Mit der Kontrolle über Protokolle sollten komplexe Datensätze, wie es medizinische Bilder mit ihren Metadaten sind, jene technischen Schnittstellen passieren können, die in modernen Krankenhaussystemen in vielfältiger Weise auftraten und so eine Interoperabilität medizinischer Apparate und Handlungen ermöglichen. In der Herstellung und Nutzung dieser Bilder griffen allerdings verschiedene Ebenen der Reglementierung ineinander, die erhebliche Auswirkungen auf die gesamte Digitalisierung der bildgebenden Medizin in Deutschland haben sollten. Ausgehend von einigen Grundlagen zu DICOM möchte ich deshalb den historischen Dialekt-Streit analysieren, um über das Verhältnis von Protokollen und Standards in der medizinischen Arbeit nachzudenken. Hierfür nutze ich eine Quellensammlung von zeitgeschichtlichen Fachmagazinartikeln aus den Jahren 1990 bis 2016, die im Krankenhaus-IT Journal und im Deutschen Ärzteblatt veröffentlicht wurden,7 sowie die Textgattung der medizinischen bzw. medizin-informatischen Handbücher. Der Fokus auf diesen zentralen Organen für IT und Medizin in Deutschland dient einer ersten Erhebung der wichtigsten Themen und Positionen. Die Archive der Zeitschriften wurden hierzu nach einer Auswahl von Schlagworten um DICOM (v.a. PACS, RIS, KIS, bildgebende Medizin) ausgewertet. Eine darauf basierende Diskursanalyse, wobei mit Foucault Aussagen als «Ereignisse und funktionelle Abschnitte, die ein sich allmählich aufbauendes System bilden», verstanden werden,8 soll im Anschluss aufzeigen, wie protokollbasierte Netzwerke als konstitutives Element von Medizinkultur analysiert werden können. Ich folge der Perspektive aus der privatwirtschaftlichen IT auf DICOM und gehe von der These aus, dass Protokolldebatten oftmals zunächst zwar auf der im ‹Dialekt›-Begriff angelegten IT-Jargon-Ebene von Semantik und Syntax geführt werden, darüber hinaus aber fast immer auf technokulturelle Machtkonflikte in sich konstituierenden Digitalkulturen verweisen. Das Ziel dieses Beitrags ist es, anhand des (medizin-)informatischen Begriffs der Interoperabilität einen Ansatz zu entwickeln, wie digitale Arbeits- und Wissenssysteme in ihrer IT-Vernetzung und Standardisierung analysiert werden können. Ich schlage hierbei vor, Interoperabilität als medientheoretische Kategorie zu nutzen, um mit ihr die wachsende Zahl an protokollkontrollierten, standardisierten Mediennetzwerken und die auf ihnen basierenden digitalen Medien(arbeits)kulturen zu erforschen.

Protokolle und Standards als operative Kategorien: die Organisation von DICOM

DICOM wird als technischer Standard bezeichnet, in dem Protokolle zusammengefasst sind. Beide Begriffe sind informations- und ingenieurswissenschaftlich gesprochen zunächst «Regeln, welche das Format, den Inhalt, die Bedeutung und die Reihenfolge gesendeter Nachrichten zwischen verschiedenen Elementen der gleichen Schicht festlegen».9 Protokolle kann man hierbei verstehen als ein «Regelwerk, das beschreibt, wie Daten in einem Computernetz übertragen werden sollen», bzw. konkreter, «wie Datenverbindungen initiiert oder in welchem Format Daten übertragen werden müssen, damit die Gegenseite sie interpretieren kann».10 Sie sind damit die Grundlage für die Netzkommunikation, da sie vorgeben, wie «in horizontaler Richtung eine logische Verbindung zwischen zwei Instanzen» aufgebaut werden kann.11 Standards sind demgegenüber größere Konzepte, die (Informations-)Objekte zusammenführen,12 die für bestimmte Vorgänge benötigt werden, also Regeln für «structure, content, and protocol for a particular task».13 Technische Standards enthalten meist Sets von Protokollen – strukturelle Unterschiede zwischen beiden Formen der Regelung liegen im Umfang und den Bedingungen, über die diese eingeführt und umgesetzt werden. Der DICOM-Standard besteht heute aus 22 Hauptteilen und über 200 Ergänzungen,14 die aufeinander aufbauend verschiedene Aspekte einer Bildumgebung definieren, in der über Geräte Bilder aufgenommen, gespeichert, bearbeitet und geteilt werden. DICOM definiert die Formate für medizinischen Bildaustausch, d. h. «data and quality necessary for clinical use».15 Der Standard dient allein dem Einsatz in der Medizin, also einem Kontext, in dem Anwender*innen nur selten dezidiert informationswissenschaftlich (aus-)gebildet sind. DICOM ist deshalb konzipiert als

a uniform, well-understood set of rules for the communication of digital images. This has been accomplished through defining, as unambiguously as possible, the terms it uses and in the definition of object-oriented models for medical imaging information.16

Einsetzbar ist DICOM in der gesamten apparativen Bandbreite der bildgebenden Verfahren – u. a. Röntgen, MRT, CT17 – und v.a. in bildbasierten Arbeitsbereichen wie der Radiologie, Pathologie oder Nuklearmedizin. Die Anwendungsplattformen für DICOM sind in der Regel Picture Archiving and Communication Systems (PACS). Hierbei handelt es sich um Rechner, Server und Kliniknetzwerke, die die Diagnosegeräte mit Ausgabeanlagen und einem Archiv verbinden, um die erforderliche Bildspeicherdauer von bis zu 30 Jahren zu ermöglichen.18 Sie sind in einem Krankenhaus beispielsweise in der Radiologie eingebunden in ein Radiologieinformationssystem (RIS), ein EDV-System zur Dokumentenverwaltung (Patient*innenstammdaten, Termine etc.), das die DICOM-Schnittstelle bereitstellt, die PACS-Geräte ansteuert und selbst wiederum im Idealfall Bestandteil eines krankenhausweiten KIS ist.19

Abb. 2Diagramm einer PACS-Infrastruktur in der Radiologieabteilung eines Krankenhauses mit Auszeichnung der DICOM-Schnittstellen, nach Ratib u. a. 2016

Die Ursprünge von DICOM liegen in den Entwicklungen bildgebender Diagnostikverfahren ab den 1970er Jahren. Das American College of Radiology (ACR) initiierte mit der National Electrical Manufacturers Association (NEMA) 1982 eine Arbeitsgruppe, um einen technischen Standard für die wachsende Zahl bildgebender Apparate und Netzwerke zu schaffen.20 Die Entwicklung des ARC/NEMA300 erfolgte 1985, bereits 1988 erschien ACR/NEMA V 2.0, der die Grundlage von Hardware, Datenbankstrukturen und Befehlszeilen um eine Nachrichtenstrukturierung erweiterte, die den Netzwerkkanalanforderungen der bildgebenden Apparate Rechnung trug. Die 1993 erschienene dritte Version wurde direkt unter dem Namen DICOM eingeführt und stand zugleich für ein neues Konzept: Alle Änderungen sind bis heute abwärtskompatibel, sodass keine neuen Gesamtversionen mehr lanciert werden müssen, sondern kleinere Editionen mit Jahreszahlen und Buchstaben erscheinen.21 Zuständig für deren Verwaltung und Entwicklung im dynamischen Anwendungsumfeld der modernen Medizintechnologie ist heute die Medical Imaging & Technology Alliance (MITA), eine Abteilung der NEMA. Letztere vertrat 1990, also nur wenige Jahre vor der Einführung von DICOM, bereits 630 Elektronikfirmen mit einem Jahresumsatz von fast 100 Milliarden US-Dollar.22 Ihre Kernaufgabe ist die Interessensvertretung und Kontrolle der elektrotechnischen Industrie, wobei sie Letzteres v.a. über Publikationen – wie Standards, Anleitungen, White Papers und technische Dokumente –, aber z. B. auch über «educational forums» organisiert.23 Die MITA arbeitet ähnlich, vertritt aber konkret die Hersteller*innen in der medizinischen Bildgebung, für die sie technische Standards entwickelt und regulatorische Beschränkungen abbauen möchte. DICOM ist ihr wohl wichtigstes Produkt auf einem Markt, auf dem 2021 allein in ihrem Geschäftsland USA37,97 Milliarden US-Dollar umgesetzt wurden.24 Für seine Entwicklung und Pflege betreibt sie das DICOM Standards Committee, das mehrfach pro Jahr Vorschläge zur Verbesserung oder Verrentung (retirement of features) von Teilen des Standards prüft und über deren Einrichtung entscheidet. Vorschläge werden hierbei von allen Nutzer*innen erbeten, die Entscheidung, welche umgesetzt werden, verbleibt allerdings in den Gremien.

Abb. 3Mobile Ultraschalltechnik im Krankenhaus, hier das GE Vivid i, erstmalig gelauncht 2004

DICOM und der Schnittstellenstreit in Deutschland in den 2000er Jahren

Die Einführung von DICOM in den USA war 1993 bereits mit Blick auf den Weltmarkt geschehen. So bemühte man sich um die Zusammenarbeit mit internationalen Vereinigungen für Standardisierung, wie den technischen Komitees der International Organization for Standardization (ISO), der für Elektronik zuständigen Internationalen Elektrotechnischen Kommission (IEC) und in Europa dem Technischen Komitee CEN/TC251 (Medizinische Informatik) des Comité Européen de Normalisation (CEN).25 In der deutschen Medizin nutzte man zu dieser Zeit noch überwiegend analoges Arbeitsmaterial und eigens dafür gebaute Archivräume.26 Ein deutsches Pflegehandbuch listete 1997 z. B. Röntgentüten noch als Organisationsstandard.27 Auch 2004 hieß es noch im Deutschen Ärzteblatt, dass viele Krankenhäuser in Deutschland «der informationstechnischen Entwicklung hinterher[hinken]» würden.28 Der Anteil von digitalen Bildnetzwerken in Form von RIS-Systemen (58 %) und PACS-Systemen (53 %) lag bei 43 befragten Unikliniken zwar bei einem guten Mittelwert, allerdings verfügten von 1524 befragten kleineren Krankenhäusern «nur 13 Prozent über ein RIS und ein PACS».29 Zugleich gab es eine vor allem hersteller*innengesteuerte Aufbruchsstimmung, die sich u. a. in einem Themenbereich der Fachmesse Medica2004 zeigte, bei der die neuen Generationen von mobileren, leichteren bildgebenden Apparaten vorgestellt wurden.30

Der tatsächliche Marktwandel hin zu digitaler Bildarbeit lässt sich retrospektiv deshalb einerseits an der Entwicklung in den Krankenhäusern ablesen, anderseits aber auch an den wortstarken Pressekonferenzen wie jener, die Fujifilm 2007 abhielt. Dort wurde von einem massiven Einbruch des analogen Filmmarkts berichtet, der im firmeninternen Bereich ‹Medical Imaging und Life Science› zu einer kompletten Neuausrichtung im Rahmen der «‹zweiten Gründung› von Fujifilm» führen sollte – mit proprietärem PACS-System mit Materialien, Hard- und Software-Produkten für alle Arbeitsschritte.31 Die Vielzahl an Firmen, die in ähnlicher Weise Gesamtsysteme oder integrale Teilbereiche entwickelten, ermöglichte allerdings keineswegs einen dynamischen Markt für effiziente Digitalisierung. Viele hatten eigene Produkte, für die sie die «Transaktionskosten und [den] Organisationsaufwand» der Einrichtung herunterspielten.32

In der Verbindung der budgetierten Klinik mit den visionären Hersteller*innen ergab sich so eine konfliktbeladene Situation.33 Eine Diskussionsrunde 2005 zeigte, welche Bedeutung Schnittstellen für den Markt hatten: «‹Ohne Schnittstellen funktioniert die IT-Landschaft nicht [...]. Wer das Schnittstellengeschäft beherrscht, hat einen Vorteil›», hieß es dort.34 Der DICOM-Standard, der in der Theorie Schnittstellen organisieren sollte, erwies sich über zehn Jahre nach seiner Einführung als Teil des Problems, denn unterschiedliche PACS-Hersteller*innen boten abweichende Möglichkeiten, die notwendigen Felder einer Akte auszufüllen.35 Auch das Deutsche Ärzteblatt bemerkte 2004 kritisch, dass etwa 70KIS- und 50RIS-Firmen in Deutschland für einen Markt mit «sehr heterogenen Hardware-Plattformen und Betriebssysteme[n]» sorgen würden, auf dem Interpretationsspielraum von DICOM zur Datenspeicherung Grauzonen geschaffen habe, mithilfe derer manche Firma «ihre Marktposition» ausbauen konnte.36 Ein Vertreter von Siemens monierte dies im Jargon der Gesundheits-IT als vornehmlich semantisch-syntaktisches Problem, insofern «es in DICOM noch ‹Dialekte› gibt, die nicht mit dem Standard übereinstimmen».37 Auch wenn ein vielfältiger Markt zunächst also Chancen für eine breite Digitalisierung bot, zeigt sich hier vor allem, wie Unschärfen in technischen Standards im «Kompetenzgerangel» der IT-Akteur*innen gezielt instrumentalisiert wurden und sich der Prozess einer Standardisierung damit ins Gegenteil verkehrte.38

Ein unausgesprochener, aber bemerkenswerter Konsens bestand zu dieser Zeit hingegen darin, dass die Konflikte auch und gerade mit divergierenden Erwartungshaltungen in Bezug auf ‹Serviceleistungen› zu tun hätten. IT-Vertreter*innen der Zeit monierten, aus der Medizin würde «in Ausschreibungen oft eine Responsezeit von einer Stunde an 24 Stunden am Tag und siebenmal in der Woche» gefordert, falls es zu technischen Störungen komme. Hier bräuchte es eine «Erziehung des Kunden» hin zu einem ‹realistischen Bedarf›.39 Zu dieser ‹Erziehung› gehörte – und hier spannt sich ein Bogen zur MITA –, dass die Entscheidung für IT-Lösungen häufig über Veranstaltungen befördert werden sollte. Diese dienten wiederum als Grundlage für fachjournalistische Diskussionen des Themas und erreichten so mit einer subversiven Digitalisierungslehre eine Leser*innenschaft jenseits der Seminare.40 Darunter fielen auch die medizinisch-technischen Radiologieassistent*innen (MTRAs), die im Quellenmaterial um den DICOM-Konflikt kaum in Erscheinung treten.41