In digitaler Gesellschaft -  - kostenlos E-Book

In digitaler Gesellschaft E-Book

0,0
0,00 €

-100%
Sammeln Sie Punkte in unserem Gutscheinprogramm und kaufen Sie E-Books und Hörbücher mit bis zu 100% Rabatt.
Mehr erfahren.
Beschreibung

Wie verändern sich gesellschaftliche Praktiken und die Chancen demokratischer Technikgestaltung, wenn neben Bürger*innen und Öffentlichkeit auch Roboter, Algorithmen, Simulationen oder selbstlernende Systeme einbezogen und als Beteiligte ernstgenommen werden? Die Beiträger*innen des Bandes untersuchen die Neukonfiguration von Verantwortung und Kontrolle, Wissen, Beteiligungsansprüchen und Kooperationsmöglichkeiten im Umgang mit intelligenten Systemen wie smart grids, Servicerobotern, Routenplanern, Finanzmarktalgorithmen und anderen soziodigitalen Arrangements. Aufgezeigt wird, wie die digitalen »Neulinge« dazu beitragen, die Gestaltungsmöglichkeiten für Demokratie, Inklusion und Nachhaltigkeit zu verändern und Macht- und Kraftverhältnisse zu verschieben.

Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:

EPUB
MOBI

Seitenzahl: 501

Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



Die freie Verfügbarkeit der E-Book-Ausgabe dieser Publikation wurde ermöglicht durch den Fachinformationsdienst Politikwissenschaft POLLUX

und ein Netzwerk wissenschaftlicher Bibliotheken zur Förderung von Open Access in den Sozial- und Geisteswissenschaften (transcript, Politikwissenschaft 2021)

Die Publikation beachtet die Qualitätsstandards für die Open-Access-Publikation von Büchern (Nationaler Open-Access-Kontaktpunkt et al. 2018), Phase 1 https://oa2020-de.org/blog/2018/07/31/empfehlungen_qualitätsstandards_oabücher/

Hauptsponsor: Staats- und Universitätsbibliothek Bremen (POLLUX – Informationsdienst Politikwissenschaft)Vollsponsoren: Universitätsbibliothek Bayreuth | Universitätsbibliothek der Humboldt- Universität zu Berlin | Freie Universität Berlin - Universitätsbibliothek | Staatsbibliothek zu Berlin | Universitätsbibliothek Bielefeld | Universitätsbibliothek der Ruhr-Universität Bochum (RUB) | Universitäts- und Landesbibliothek Bonn | Vorarlberger Landesbibliothek | Universitätsbibliothek der Technischen Universität Chemnitz | Universitäts- und Landesbibliothek Darmstadt | Sächsische Landesbibliothek Staats- und Universitätsbibliothek Dresden (SLUB) | Universitätsbibliothek Duisburg-Essen | Universitäts- und Landesbibliothek Düsseldorf | Universitätsbibliothek Erlangen-Nürnberg | Universitätsbibliothek Frankfurt/M. | Niedersächsische Staats- und Universitätsbibliothek Göttingen | Universitätsbibliothek Greifswald | Universitätsbibliothek der FernUniversität in Hagen | Staats- und Universitätsbibliothek Carl von Ossietzky, Hamburg | TIB – Leibniz-Informationszentrum Technik und Naturwissenschaften und Universitätsbibliothek | Gottfried Wilhelm Leibniz Bibliothek - Niedersächsische Landesbibliothek | Universitätsbibliothek Heidelberg | Universitätsbibliothek Kassel | Universitätsbibliothek Kiel (CAU) | Universitätsbibliothek Koblenz · Landau | Universitäts- und Stadtbibliothek Köln | Universitätsbibliothek Leipzig | Zentral- und Hochschulbibliothek Luzern | Universitätsbibliothek Otto-von-Guericke- Universität Magdeburg | Universitätsbibliothek Marburg | Max Planck Digital Library (MPDL) | Universitäts- und Landesbibliothek Münster | Universitätsbibliothek der Carl von Ossietzky-Universität, Oldenburg | Universitätsbibliothek Osnabrück | Universitätsbibliothek Passau | Universitätsbibliothek St. Gallen | Universitätsbibliothek Vechta | Universitätsbibliothek Wien | Universitätsbibliothek Wuppertal | Zentralbibliothek ZürichSponsoring Light: Bundesministerium der Verteidigung | Landesbibliothek OldenburgMikrosponsoring: Stiftung Wissenschaft und Politik (SWP) - Deutsches Institut für Internationale Politik und Sicherheit | Leibniz-Institut für Europäische Geschichte, Mainz

Kathrin Braun geb. 1960, ist Forschungskoordinatorin am Zentrum für Interdisziplinäre Risiko- und Innovationsforschung (ZIRIUS) und wissenschaftliche Mitarbeiterin am Lehrstuhl für sozialwissenschaftliche Risiko- und Technikforschung der Universität Stuttgart sowie apl. Professorin für Politikwissenschaft an der Leibniz Universität Hannover. Ihre Forschungsschwerpunkte sind kritische Biopolitikforschung, Biomedizinpolitik, Demokratie und Wissenschaftsund Technikkonflikte.

Cordula Kropp, geb. 1966, ist Professorin für Soziologie und Direktorin des Zentrums für Interdisziplinäre Risiko- und Innovationsforschung (ZIRIUS) an der Universität Stuttgart. Ihre Forschungsschwerpunkte sind Umwelt-, Technik- und Risikosoziologie, Wandel der Infrastruktursysteme in modernen Gesellschaften, Transformationsprozesse und soziale Innovation.

Kathrin Braun, Cordula Kropp (Hg.)

In digitaler Gesellschaft

Neukonfigurationen zwischen Robotern, Algorithmen und Usern

Bibliografische Information der Deutschen Nationalbibliothek

Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.

Dieses Werk ist lizenziert unter der Creative Commons Attribution-NonCommercial-No- Derivs 4.0 Lizenz (BY-NC-ND). Diese Lizenz erlaubt die private Nutzung, gestattet aber keine Bearbeitung und keine kommerzielle Nutzung. Weitere Informationen finden Sie unter https://creativecommons.org/licenses/by-nc-nd/4.0/deed.de

Um Genehmigungen für Adaptionen, Übersetzungen, Derivate oder Wiederverwendung zu kommerziellen Zwecken einzuholen, wenden Sie sich bitte an [email protected]

Die Bedingungen der Creative-Commons-Lizenz gelten nur für Originalmaterial. Die Wiederverwendung von Material aus anderen Quellen (gekennzeichnet mit Quellenangabe) wie z.B. Schaubilder, Abbildungen, Fotos und Textauszüge erfordert ggf. weitere Nutzungsgenehmigungen durch den jeweiligen Rechteinhaber.

© 2021 transcript Verlag, Bielefeld

Umschlaggestaltung: Maria Arndt, Bielefeld

Druck: Majuskel Medienproduktion GmbH, Wetzlar

Print-ISBN 978-3-8376-5453-0

PDF-ISBN 978-3-8394-5453-4

EPUB-ISBN 978-3-7328-5453-0

https://doi.org/10.14361/9783839454534

Buchreihen-ISSN: 2699-6626

Buchreihen-eISSN: 2703-111X

Gedruckt auf alterungsbeständigem Papier mit chlorfrei gebleichtem Zellstoff.

Besuchen Sie uns im Internet: https://www.transcript-verlag.de

Unsere aktuelle Vorschau finden Sie unter www.transcript-verlag.de/vorschau-download

Inhalt

 

EinleitungIn digitaler Gesellschaft: Herausforderungen, Risiken und Chancen einer demokratischen TechnikgestaltungCordula Kropp und Kathrin Braun

I.Kooperative Technikgestaltung mit Bürgerinnen und Nutzerinnen

Zur Wissenspolitik von Smart-Grid-ExperimentenHarald Rohracher und Fredrik Envall

Algorithmen erklärt Euch!Methodische Überlegungen zum nutzerzentrierten Kuratieren KI-basierter Entscheidungssysteme am Beispiel von RoutenplanernAnnelie Pentenrieder

Digitalisierung und VerkehrswendeOn-Demand Ridepooling Shuttlesysteme, eine Mobilitätsdienstleistung der Zukunft?Birgit Mack, Karolin Tampe-Mai, Gabriel Wilkes, Martin Kagerbauer und Eugen Diesch

Es ist Zeit für bessere IdeenEin Aufruf zu mehr Partizipation in der Gestaltung sozialer ServiceroboterAstrid Weiss und Katta Spiel

II.Soziotechnische Imaginationen und Kräfteverhältnisse

Schöne neue Bauwelt?Versprechen, Visionen und Wege des digitalen Planens und BauensKathrin Braun und Cordula Kropp

»Die Benutzer sind das Problem, nicht das System«Verantwortung, Vertrauen und Vulnerabilität in IT-SicherheitsdiskursenAlexander Wentland und Nina Klimburg-Witjes

Digitale Energiezukünfte und ihre WirkungsmachtVisionen der smarten Energieversorgung zwischen Technikoptimismus und NachhaltigkeitFriederike Rohde und Leslie Quitzow

Human-Machine Learning und Digital CommonsK/Ein ManifestJutta Weber

III.Soziodigitale Neukonfiguration von Politik und Öffentlichkeit

Codes, Strategien, VerhaltenDie Rolle der Regulierung von AlgorithmenRobert Seyfert

Öffentliche Kommunikation in der digitalisierten GesellschaftPlattformisierung – Pluralisierung – SynthetisierungJan-Felix Schrape

ReallaboreSimulierte Experimente – Simulierte Demokratie?Stefan Böschen, Julia Backhaus, Ana de la Varga, Stefan John, Gabriele Gramelsberger

Bericht aus der Praxis20 Jahre TA-SWISSSergio Bellucci

Verzeichnis der Autorinnen und Autoren

EinleitungIn digitaler Gesellschaft: Herausforderungen, Risiken und Chancen einer demokratischen Technikgestaltung

Cordula Kropp und Kathrin Braun

In digitaler Gesellschaft

Das Digitale sorgt für einen gesellschaftlichen Wandel in nahezu allen Lebensbereichen, Interaktionen und gesellschaftlichen Teilsystemen. Mit ihm verändern sich Denk- und Handlungsweisen wie auch Bewertungsmaßstäbe und Handlungszwänge. Und dennoch, so wollen wir im Folgenden aufzeigen, verläuft die so genannte digitale Transformation weder jenseits bekannter Entwicklungstrends noch unabhängig von der gesellschaftlichen Konstruktion von Wirklichkeit. Allerdings hat sich die Digitalisierung, die sich zu Beginn mit dem Einsatz von elektronischer Datenverarbeitung und Informationstechnologie nur in einzelnen Handlungsbereichen entwickelte, im 21. Jahrhundert deutlich beschleunigt und erfasst heute alle gesellschaftlichen Handlungsbereiche und Sinnsysteme. Vor diesem Hintergrund fragt der Band nach der Bedeutung dieser weitreichenden soziodigitalen Neukonfiguration sozialer Welten zwischen Algorithmen, digitalen Medien, Robotern und Usern. In unserer Einleitung werden wir dafür zuerst das spezifisch Neue dieser sozialen Ausdehnung in eine digitale Gesellschaft herausarbeiten, dann die Konturen soziodigitaler Arrangements und ihre Implikationen sowie die gesellschaftlichen Risiken benennen und schließlich die einzelnen Beiträge des Bandes vorstellen.

In digitaler Gesellschaft zu leben, bedeutet faktisch, dass gesellschaftliches Wissen, soziale Ereignisse und physische Objekte ganz oder teilweise digital »verdoppelt« existieren (Nassehi 2019: 108ff.) und weitere Phänomene entstehen lassen, so dass Handlungssituationen nun sowohl analog als auch digital strukturiert sind. Konnte viele Jahrhunderte klar zwischen Interaktion unter Anwesenden und Abwesenden unterschieden werden, werden Personen, Informationen, Handlungssubjekte und -objekte sowie die mit ihnen verknüpften Steuerungs- und Kontrollformen nun auch digital repräsentiert: vollständige Abwesenheit wird zur Ausnahme. Stattdessen hat Handlungsträgerschaft (agency) neben ihrer Präsentation auf Vorder- und Hinterbühne und in den durch Institutionen und Organisationen aufgespannten Räumen einen dritten, virtuellen Raum gewonnen: Große Datenmengen, Simulationen, Chatbots oder Roboter verkörpern Abwesende und konstituieren neue Akteur*innen, die keine Entsprechung in der analogen Welt haben, und mischen sich eigenlogisch in die Fabrikation und Repräsentation gesellschaftlicher Wirklichkeit ein.

Während die Digitalisierung anfangs darin bestand, analoge Werte informationstechnisch in digitale Informationen umzuwandeln, um sie als Daten und Dateien in digitalen Formaten (»Bits and Bytes«) verarbeiten zu können, erfolgen die Erstellung, Speicherung, Verteilung und Verarbeitung von Daten dank der Omnipräsenz von Computern, digitalen Endgeräten und Kommunikationsnetzen inzwischen zu einem erheblichen Teil algorithmisch und direkt in digitalen Medien. Wenn daher heute Roboter Montageaufgaben übernehmen, Finanzdienstleister*innen abrechnen oder Marketingabteilungen Kundenprofile auswählen, müssen meist nur noch wenige analoge Angaben digitalisiert werden. Dennoch gehen weiterhin Vorstellungen aus der analogen Welt in die zugrunde liegenden Modelle ein, an denen sich die algorithmischen Rechenschritte orientieren, und umgekehrt verändern digitale Möglichkeiten analoge Vorstellungen und Handlungsweisen. In der Folge vermischen sich durch die Digitalisierung und die voranschreitende Automatisierung zunehmend digitale und soziale Rationalitäten in den Handlungssettings und beeinflussen die Konstitution gesellschaftlicher Wirklichkeit.

Die Durchdringung aller gesellschaftlichen Handlungsbereiche durch digitale Rationalitäten und Dynamiken, die wir im zweiten Abschnitt genauer betrachten, löst gleichermaßen Ängste und Hoffnungen aus und führt zu einer vor allem ambivalenten Beurteilung der Veränderungen. Fragt man in Deutschland entweder nach Entlastungschancen und steigendem Komfort oder nach wachsenden Zwängen und Störanfälligkeiten im Gefolge der Digitalisierung, erhalten stets die Antwortkategorien des Sowohl-als-auch (»teils/teils«) die größten Zustimmungswerte, während eindeutig positive und negative Einschätzungen seltener genannt werden und sich in etwa die Waage halten (Störk-Biber et al. 2020: 25). Ein kleiner Blick in die alltägliche Lebenswelt mag das illustrieren.

Digitale Selektionsprozesse bestimmen, welche Nachrichten wir lesen, welche Musik wir hören und welche Städte als lebenswert, welche Unternehmen als erfolgreich gelten. Eltern kämpfen gegen die digitale Sucht ihrer Kinder, für eine Digitalisierung der Schule und mit den Anforderungen digitaler Systeme in Freizeit und Arbeitswelt. Seit Beginn der COVID-19-Krise gilt das Digitale als Rettungsboot für Zusammenarbeit und Austausch, als universeller Alleskönner im Risikomanagement, aber auch als Dauerbelästigung im Alltag und Bedrohung lebenswerter Innenstädte, bisheriger Geschäftsmodelle und künftiger Nachhaltigkeit. Selbst in den politischen Kerninstitutionen stellt die Digitalisierung alle Selbstverständnisse auf den Kopf: In Saudi-Arabien erhält der Roboter Sophia, der laut Hersteller künstliche Intelligenz besitzt, die Staatsbürgerschaft, in den sozialen Medien sind Bots die aktivsten Akteur*innen der Meinungsbildung und ein britisches Datenanalyse-Unternehmen hat erfolgreich in den amerikanischen Wahlkampf und die Entscheidung über die britische EU-Mitgliedschaft eingegriffen. Nimmt uns das Digitale den sozialen und politischen Gestaltungsraum?

Die beispielhafte Skizze des Siegeszugs der Algorithmen und seiner ambivalenten Bewertung lenkt den Blick auf die noch unscharfen Konturen der angestoßenen gesellschaftlichen Neukonfiguration. Die Möglichkeiten werden gerne genutzt, die damit einhergehenden Zwänge befürchtet und in der Bewertung, ob die digitale Transformation nun Fluch oder Segen ist, dominiert die ungewisse Ambivalenz in Bezug auf die Umbrüche und ihre mögliche Beherrschbarkeit. Diese und ähnliche Skizzen provozieren regelmäßig Fragen nach einer demokratischen Technikentwicklung und den Verantwortlichen sowie den versteckten Treibern der Entwicklung. Der vorliegende Band geht diesen Fragen in vielen Facetten nach, beleuchtet Möglichkeiten der partizipativen Gestaltung soziodigitaler Arrangements, lotet die Definitions- und Kräfteverhältnisse ihrer Etablierung aus und untersucht, wie sich die Strukturen demokratischer Öffentlichkeiten und politischer Entscheidungsfindung verschieben.

Ein Ausgangspunkt besteht dabei darin, dass das Technische auch weiterhin menschengemacht ist und doch Befürchtungen weckt, Menschen überflüssig und menschliche Lösungen unwahrscheinlicher zu machen. Wir fühlen uns in digitaler Gesellschaft zugleich entlastet und manipuliert. Die sozialkonstruktivistische Betonung der gesellschaftlich eingebetteten, wirtschaftlich, sozial und politisch bestimmten Technikentstehung und -implementierung wirkt angesichts der digitalen Veränderungsdynamik genauso wenig überzeugend wie ihr technikdeterministischer Gegenspieler mit der Annahme, die Gesellschaft passe sich nachlaufend und gezwungenermaßen den technisch ermöglichten Innovationen an. Welche Akteur*innen, welche Motive treiben künstliche Intelligenz und bspw. die Algorithmen der Sprach- und Bilderkennung voran? Verfolgen sie (konspirative) Interessen oder entstehen diese als nicht-intendiertes Werk mathematisch begabter Eliten oder in den Händen politisch oder kommerziell motivierter Überwachungsagenturen in der schönen neuen digitalen Welt? Haben die digitalen »Entdeckungen« und »Möglichkeiten« als unschuldiger Ausdruck des technisch Machbaren die Tür in eine neue Gesellschaft aufgestoßen und rufen nun die Wesen aus Fleisch und Blut auf, dorthin nachzukommen, wo faktisch alle diejenigen mit digitalem Herzschrittmacher, Smartphone und elektronischer Patientenakte schon sind?

Weder ja noch nein. Die Lage ist komplizierter, das Denken in einfachen Dualismen von Ursache und Wirkung, Subjekt und Objekt, vorher und nachher, Gut und Böse hilft wieder einmal nicht weiter. Ob es um die Leistungsfähigkeit der Algorithmen geht, die Neuverteilung von Arbeitsschritten in kollaborativen Mensch-Roboter-Interaktionen oder die Ausbreitung quantifizierenden Denkens in Rankings und Simulationen, in all diesen folgenreichen Neukonfigurationen der digitalen Gesellschaft interagieren soziale, wirtschaftliche und technische Treiber. Dies ist eine Kernaussage des vorliegenden Bandes. Diese Interaktion wirtschaftlicher, gesellschaftlicher und technischer Motive und Handlungsfähigkeiten, die im Mittelpunkt der Beiträge steht, schlägt sich von Fall zu Fall in unterschiedlichen Neukonfigurationen des Miteinanders von Algorithmen, Robotern, digitalen Medien und menschlichen Nutzer*innen nieder. Ihre Etablierung folgt keiner einseitigen oder übergeordneten Notwendigkeit, sondern einer im Einzelnen zu rekonstruierenden Logik der mehr oder weniger bewussten und transparenten Durchsetzung und Installation.

Diese Etablierung hat oftmals (sub)politischen Charakter und geht mit erheblichen politischen Implikationen einher: Rankings und Quoten intervenieren in Prozesse der Wertsetzung und Verteilung knapper Güter. Große Datenmengen (›Big Data‹) strukturieren und konstruieren Präferenzen, Ansprüche und marginale Gruppen (Cardon 2017). Robotik und Künstliche Intelligenz (KI) verändern die Wahrnehmung von Normalität, Leistung und Kontrolle (Mau 2017). Wenn die Implikationen dieser vielfältigen und mehrschichtigen digitalen Neukonfigurationen allerdings auf der politischen Tagesordnung von Parlamenten oder Entscheidungsträger*innen ankommen, sind die wesentlichen Entscheidungen meist schon gefallen. So ist die zweite Kernaussage des Bandes, dass die in der digitalen Welt etablierten Neukonfigurationen zwischen Algorithmen, digitalen Medien, Robotern und Nutzer*innen auf der Vorderbühne sichtbar installieren, was auf den Hinterbühnen in Laboren, Unternehmen, Universitäten und Behörden nach wirtschaftlichen, sozialen und technischen Gesichtspunkten kofabriziert wurde. Weder führen also KI oder Robotik ein Eigenleben, noch sind sie vollständig kontrollierbar (Mackenzie 2017). Zurecht werden digitale Phänomene in Alltag und Arbeitskontexten als oft eigenwilliges Gegenüber erlebt – und nur manchmal als Ausdruck veränderbarer und benennbarer Prioritätensetzung.

Den komplizierten Fragen der demokratischen Technikgestaltung, die mit der verteilten Kontrolle und Kontrollierbarkeit in digitaler Gesellschaft einhergehen, gehen wir im Folgenden mit einem Fokus auf die soziodigitalen Arrangements, ihre wesentlichen Strukturmerkmale und gesellschaftlichen Implikationen nach, bevor wir knapp die Risiken der digitalen Gesellschaft benennen, derer sich eine demokratische Technikgestaltung bewusst sein muss. Schließlich stellen wir die Beiträge des Bandes vor und stoßen eine Diskussion über notwendige Utopien und Gesichtspunkte der demokratischen Technikgestaltung an.

Stochastische Optimierung und integrative Vernetzung: die Prozesse der sozio-digitalen Transformation

In der digitalen Gesellschaft spielen Daten und Algorithmen eine zentrale Rolle. So sind es zum einen große Datenmengen zu den unterschiedlichsten Phänomenen der sozialen und physischen Welt, deren automatisierte Erfassung, Erzeugung und Verarbeitung hinter den neuen Möglichkeiten stehen und in denen sich die Konturen der Gegenwartsgesellschaft in spezifischer Weise verdoppeln und vermehren. Zum anderen verdanken sich diese Möglichkeiten mathematischen Regeln und Modellen (Algorithmen)ihrer Verarbeitung als mathematische Objekte sowie den gewachsenen Rechenleistungen, um die mathematischen Operationen in Echtzeit ausführen und für die unterschiedlichsten Auswahl- und Steuerungsprozesse nutzen zu können. Mit diesen beiden Ingredienzien der digitalen Gesellschaft, Daten und Algorithmen, verbinden sich die endlosen Möglichkeiten und Verschiebungen, die mal als digitale Transformation, mal als digitale Revolution Anlass für eine Revision der Konturen moderner Gesellschaften geben. Wir möchten an dieser Stelle einen kurzen Aufriss der durch Daten und Algorithmen geprägten sozio-digitalen Arrangements und ihrer gesellschaftlichen Implikationen geben.

Daten können heute überall erfasst und genutzt werden, sind universell verwend- und vernetzbar. Die größere Aufgabe ist eher, ihre Erzeugung und Nutzung sinnvoll zu regulieren und in manchen Fällen auch zu verhindern. Als ›Big Data‹ gelten insbesondere solche in Echtzeit erfassten riesigen Datenmengen, die zu groß, zu schnelllebig und zu schwach strukturiert sind, um sie mit den herkömmlichen Methoden der manuellen oder statistischen Datenverarbeitung auszuwerten, so dass Algorithmen und Software für Aufbereitung, Analyse und Weiterverarbeitung herangezogen werden. Nicht nur jeder Klick im Internet produziert Daten und reichert bestehende Datensätze an, sondern enorme Fortschritte in den Sensortechnologien und der Vernetzung von Geräten, IT-Systemen und schon bestehenden Datensätzen erlauben zudem die weitere Datenproduktion und -integration in und durch alle Räume, Infrastrukturen und Medien. Jeder Mensch erzeugt täglich mehr als ein Gigabyte Daten, bezogen auf mehr als 7,8 Milliarden Datenproduzent*innen ergibt sich schon aus dieser Quelle eine unvorstellbare Menge an Daten, die für Entscheidungs- und Steuerungsprozesse genutzt werden können.

Im Mittelpunkt der Erfassung, Sammlung und Verarbeitung großer Datenmengen finden sich zwei bekannte gesellschaftliche Fortschrittserzählungen: nämlich die der statistischen Optimierung und integrativen Vernetzung. Optimierung und Vernetzung materialisieren sich als digitale Kernprozesse im Zentrum der datenbasierten Entscheidungs- und Steuerungsverfahren und treibendie digitale Transformation voran, mit spezifischen Affordanzen und Versprechungen und eher in Kontinuität als im Bruch mit den Bewegungsgesetzen moderner Gesellschaften. Die Optimierung führt das Versprechen der Rationalisierung hin zu immer besserer Einsicht und Beherrschbarkeit fort, das Max Weber als wesentliches Merkmal moderner Gesellschaften beschrieben hat. In ihrem Kern steht der Glaube, dass man zwar nicht alles weiß, aber dass man »alle Dinge – im Prinzip – durch Berechnen beherrschen könne« (Weber 2002: 448, Herv. im Orig.). Die weltumspannende Vernetzung und datenbasierte Integration, erst im World Wide Web, dann in den universellen Warenhäusern von Plattformökonomien, knüpft mit der kybernetischen Erzählung von informationsbasierter Inklusion in gewisser Weise an die – als hegemonial kritisierten – Versprechen von Universalismus und Integration an, allerdings ohne Anspruch auf universale Wahrheit. Dem Denken in Daten, Kommunikationsstrukturen und relationalen Netzwerken geht es letztlich nicht um »Informationen über die Welt, sondern darum, dass sich die Welt nur informationsförmig beschreiben lässt und dass dies unentrinnbare Formen der Geschlossenheit erzeugt« (Nassehi 2019: 88). In der Kontinuität der großen Erzählung von Aufklärung, Industrialisierung und Fortschritt haben Optimierung und Vernetzung einen Aufforderungscharakter, regen eine zweckorientierte Auseinandersetzung mit der Welt auf dem Weg zu einer generalisierbaren, nicht länger willkürlichen, sondern als unbestechlich präsentierbaren Vernunft an. In dieser kulturellen Entwicklung haben Daten eine wachsende, nahezu autoritative Bedeutung erlangt, und dies insbesondere für das Regierungshandeln, das sich in pluralen Demokratien weniger an Idealen und zukünftigen Zielen orientiert als am Versprechen universal gültiger, unparteiischer Entscheidungen auf der Basis wissensbasierter, objektiver Neutralität (Bogner 2021). Die zugleich bestehenden nicht-intendierten Nebenfolgen, Ambivalenzen, Rückkoppelungen, überhaupt Reflexivität und Emergenz – charakteristische Elemente einer zweiten oder reflexiven Moderne (Beck 2007) – werden in diesen Prozessen als Unschärfe marginalisiert, bis die nächste Krise oder Katastrophe sie wieder ins Bewusstsein bringt.

Die datenbasierte Optimierung geschieht in digitaler Gesellschaft aus der Perspektive stochastischer Kalküle, indem Mittelwerte, Verteilungen und Wahrscheinlichkeiten herangezogen werden, um aus bisherigen Zusammenhängen Kenntnisse für zukünftige abzuleiten. Die Vernetzung bewegt sich im Rahmen der Möglichkeiten, über elektronische Impulse zu kommunizieren, also diskrete Unterschiede schneller und flexibler auszutauschen, als analoge, kontextualisierte Kommunikation dies könnte. Statistische Optimierung und elektronische Vernetzung, so die hier formulierte These, spannen das Untersuchungsfeld auf, dem sich die gesellschaftstheoretische Betrachtung »der digitalen Transformation« widmen muss.

Im Rahmen der statistischen Optimierung werden vor allem große Datenmengen genutzt, um ältere Formen der datenbasierten Analyse und Entscheidungsfindung zu vereinfachen und zu generalisieren. Je mehr Informationen in Echtzeit bspw. zur Verkehrsmittelwahl vorliegen, desto besser und flexibler können Nutzerpräferenzen, die Betriebskosten verschiedener Verkehrsträger und die Zielgrößen der Gestaltung von Transportangeboten in ein Entscheidungsmodell einfließen, sei es, um Preise zu berechnen oder Verhalten zu steuern. Mittelwerte zeigen Durchschnittsauslastungen an, Verteilungen informieren über Reichweite und Bedeutung dahinter liegender Unterschiede, Zielgrößen lassen sich in Simulationen bestimmen und modellieren. So scheinen entsprechende Datenanalysen einen Durchgriff in die komplexe und undurchsichtige Vielfalt der das Verkehrsgeschehen beeinflussenden Faktoren zu eröffnen und laden dazu ein, orientiert am zugrundeliegenden Modell zielorientiert den ein oder anderen Parameter steuernd zu optimieren. Diese Optimierungslogik durchzieht in gleicher Weise den Umgang mit Nutzer- oder Bewerberprofilen in Marketing, Versicherungs- oder Personalwesen, Kreditentscheidungen von Banken oder die digitale Planung von infrastrukturgebundenen Versorgungsleistungen (bspw. in Smart Grids). Spätestens seit Thomas Robert Malthus Ende des 18. Jahrhunderts die statistischen Merkmale der Bevölkerungsstruktur für Prognosen bspw. zu Bevölkerungswachstum und Bodenertrag heranzog, versprechen Stichproben und die datenbasierte Beobachtung von gesellschaftlichen Mustern und Veränderungen bessere Planungs- und Steuerungsansätze. »Besser«, indem Informationen, Ressourcen und Entscheidungsprinzipien in einer Weise systematisiert werden, die auf die gesellschaftliche Beherrschung und organisatorische Steuerung der Welt gerichtet ist.

Im Prinzip setzen auch die viel diskutierten Formen »künstlicher Intelligenz«, also Möglichkeiten der avancierten algorithmischen Datenanalyse und des maschinellen Lernens, auf diesen Grundlagen der mathematischen Modellierung, statistischen Klassifikation und systematischen Rationalisierung an. Elemente der wahrgenommenen Realität (bspw. Daten zu Fertilitätsraten, Ertragsmustern, Nutzerpräferenzen, Therapieerfolgen) werden mit mathematischen Objekten identifiziert und die Resultate der mathematischen Operationen in Bezug auf diese Elemente und weitere Variablen mit Blick auf die betrachtete Realität interpretiert. In der mathematischen Modellierung geht es dabei nicht darum, wie diese Elemente beschaffen sind oder was sie wünschen und leisten, sondern um konzeptionelle Modelle, um über sie nachdenken und kommunizieren zu können (Gelman und Hennig 2017; Nassehi 2019). Dadurch verändert sich auch die Sicht auf die Realität. Allzu leicht fällt das Nicht-Erfassbare aus dem Blick, wird das Mehrdeutige klassifiziert, substituiert, und eindeutige Berechnungs- und Simulationsergebnisse werden als vorhergesehene Wirklichkeit reifiziert. Hinzu kommen problematische Pfadabhängigkeiten selbstlernender Algorithmen, die sich in Bezug auf vorhergehende Operationalisierungen und Datenbestände entwickeln, deren »Lernen« aber undurchschaubar bleibt. Im Rahmen des sogenannten maschinellen Lernens greifen Programmierer*innen Teile der konzeptionellen Modelle auf und lassen mit regelbasierten (=algorithmischen) stochastischen Analysen neue entstehen, die sie selbst nicht immer vollständig nachvollziehen können.

Von »künstlicher Intelligenz« wird gesprochen, wenn die Resultate aussehen, als verdankten sie sich menschlicher Intelligenz, so die frühe Definition auf der Dartmouth-Conference 1956, die Verantwortung für ihr Zustandekommen aber, so möchte man ergänzen, Computern zugerechnet wird. Die soziokulturellen Teile in Problemdefinition, Modell- und Softwareentwicklung und mehr oder weniger gut bestimmten Zielen werden ausgeblendet. Hinzu kommt eine als Opazität bezeichnete, begrenzte Nachvollziehbarkeit der Resultate (Burrell 2016), die zum Teil als Ergebnis der Komplexität der analysierten Netzwerke eintritt, in der zahlreiche und heterogene Elemente variabel interagieren, wie bspw. im komplexen Verkehrsgeschehen einer lebendigen Stadt. Zum Teil überfordern die komplexe und dynamische Interaktivität der über Daten erfassten Netzwerkelemente und deren computergestützte Modellierung sowohl die Anwender*innen der lernenden Systeme als auch die programmierenden Expert*innen aus Mathematik, Informatik und angrenzenden Fachwissenschaften. Die Ergebnisse werden zwar als prognostischer Blick eingeordnet, bleiben aber in spezifischer Weise undurchschaubar und unerklärbar, eben opak, weil für die zugrundeliegende Datenanalyse und -weiterverarbeitung Algorithmen genutzt werden – viele tausend Zeilen Code –, die aus Programmbibliotheken stammen. In der Konsequenz sind die einzelnen Rechenschritte im Detail nicht immer bekannt, auch weil die Software proprietär ist. Aus diesem Umstand scheint sich ein Teil der Magie zu speisen, die sich in der gegenwärtigen Rede von »Künstlicher Intelligenz« (KI) niederschlägt. Die weitreichenden Spekulationen und Versprechungen zu den – zweifellos beeindruckenden – Leistungen von KI lassen ihre mathematisch zwar äußerst anspruchsvolle, aber letztlich doch an Datenverarbeitung gefesselte Entstehung mitunter vergessen. Zugleich, und das soll hier nicht verschwiegen werden, stehen hinter der Opazität auch handfeste Interessen, die unter dem Schlagwort der »Black Box Society« diskutiert werden und nur einseitig die Möglichkeit eröffnen, aus großen Datenmengen Wissen und Geschäftsmodelle zu generieren, für die Datenproduzenten aber undurchsichtig, nicht überprüfbar und nicht anfechtbar sind (Pasquale 2015).

Der zweite Prozess, die integrative Vernetzung, hat in ihrer elektronischen Form eine etwas weniger lange Geschichte, die erst im 20. Jahrhundert begann, sich aber als Fortsetzung von epistemologischen Standardisierungen und Universalisierungen deuten lässt. Erst indem das kategorial Unterschiedliche auf gemeinsame Nenner gebracht wurde, über Orte und Zeiten hinweg austauschbar und verknüpfbar, wurden die industriellen Revolutionen, Automatisierung und der gesellschaftlichen Pfad hin zum Programm einer permanenten »Weltreichweitenvergrößerung« (Rosa 2016) möglich. Im Kern der integrativen Vernetzung in der digitalen Gesellschaft steht der Datenaustausch durch elektronische Impulsübertragung. Auf der einfachsten Stufe werden dafür in der digitalen Universalsprache von 0 und 1 Informationen eines Beobachtungssystems mit einem anderen geteilt. Auf ungleich komplexerer Ebene verbinden Internetknoten im weltweiten Netz viele Computernetzwerke, die untereinander Daten austauschen und übergreifende Operationen ermöglichen. Glasfaserkabel, Server und Übertragungsprotokolle ermöglichen nun eine Kommunikation mit Übertragungsgeschwindigkeiten, die kein anderes gesellschaftliches Kommunikationsmedium zu erreichen vermag. Die beispiellose Anschlussfähigkeit des Digitalen und seine sprichwörtlich grenzenlose Verknüpfbarkeit hat auf dieser Basis einen neuen Raum erschaffen, das Virtuelle, in dem die gesellschaftlich schwerwiegenden Kommunikations- und Austauschbarrieren wie Übersetzungsprobleme, Inkommensurabilitäten, Handelsschranken, Hierarchien nicht zu gelten scheinen. Diese Eigenschaft der potenziell allseitigen Vernetzbarkeit des Digitalen hat anfänglich überzogene Erwartungen einer neuen Gleichheit, Freiheit und Brüderlichkeit im Internet begünstigt, die bald enttäuscht wurden. Der analytische Blick offenbart hingegen, dass Vernetzung erstens die Reduktion aller beteiligten Elemente in die Ausdrucksfähigkeit digitaler Nachrichtenübermittlung voraussetzt, zweitens durchaus einen materiell-energetischen Fußabdruck hat und drittens durch die Verknüpfung verschiedenster Steuerungs-, Übertragungs- und Ausführungsgeräte nahezu raumlose, globalisierte Steuer- und Kontrollarchitekturen ermöglicht.

Die erste industrielle Revolution kann als formgebender Vorläufer betrachtet werden. Sie erlaubte den Übergang von der Eigenlogik des sachlich, örtlich und sozial eingebetteten Manufakturwesens hin zur kontextunabhängigeren mechanisierten Produktion, sofern das notwendige Kapital für bspw. Webstühle und Dampfmaschinen mobilisiert werden konnte. Güter und Produktionsinformationen wurden dafür bereits standardisiert und dokumentiert. So ließ sich die Produktion aus den engen Grenzen von Hand- und Heimarbeit herauslösen und eine potenziell mobile Arbeiterschaft mit kontextunabhängigen Kompetenzen entstand. Die zweite industrielle Revolution, die ihren Ausdruck in Massenproduktion, Massenkonsum und Massendemokratien des Fordismus fand, reihte die Arbeitskräfte als Teil einer tayloristisch optimierten Produktionskette in den engen Takt festgelegter Arbeitsabläufe ein. Sie standardisierte Wertschöpfungsketten bis hin zum Fließband, Güter zur Ware, ließ Löhne und Gewinne steigen, machte individuelle Qualifikationen und Bewegungen beinahe verzichtbar, führte aber bald in Massenmärkte und ermöglichte breiten Bevölkerungsschichten eine wachsende Teilhabe an den Segnungen des industriellen Zeitalters. Die begleitende internationale Vernetzung, die nicht zuletzt vom US-amerikanischen Marshall-Plan getrieben wurde, stieß den Abbau von Handelshemmnissen voran und machte Englisch im so genannten Westen zur Verkehrssprache.

Noch in diesem Zeitraum wurden bald die ersten Möglichkeiten der rechnergestützten numerischen Maschinensteuerung (CNC) genutzt, die schließlich in die dritte industrielle Revolution führten, die auch als digitale Revolution bezeichnet wird, mit dem verbreiteten Einsatz von Elektronik und Informationstechnologie zur Automatisierung der Produktion. Dazu steuerten erst separate Geräte Werkzeugmaschinen, die bspw. die Bewegungs- und Materialdaten für Fräsen von Lochstreifen verarbeiteten, übermittelten und dadurch die universelle Bearbeitung verschiedener Werkstücke erlaubten. Später übernahmen elektronische CNC-Programme auf Industriecomputern die Maschinensteuerung (computerized numerical control) und ermöglichten eine weitergehende Rationalisierung der Serien- und Einzelfertigung. Die Mikroelektronik (Mikroprozessoren) eröffnete der computergestützten, digitalen Fertigung neue Wege und ließ die Maschinen durch integrierte Schaltkreise, Computer, Sensoren und Roboter immer effektiver und automatisierter arbeiten. Die Teilhabe an der Massenwohlfahrt wuchs trotz eines verlangsamten Wirtschaftswachstums weiter, höhere Bildung wurde zunehmend notwendig, um die maschinelle Steuerung zu steuern, es stiegen die Hoffnungen auf eine umfängliche technische Entlastung und mit ihr auch die Angst vor (Massen-)Arbeitslosigkeit. Tatsächlich sank der Anteil der im zweiten, industriellen Sektor beschäftigen Bevölkerung zugunsten des tertiären Dienstleistungssektors. Zugleich entstanden neue Beschäftigungsmöglichkeiten, die freilich auch neue Qualifikationen voraussetzten. Heute nun stehen wir, so das nach Kräften verbreitete Zukunftsbild, an der Schwelle zur vierten, auch ›cyberphysisch‹ genannten industriellen Revolution, in der die elektronische Vernetzung auf eine neue Stufe gehoben wird, und mit ihr die Automatisierung. Vernetzt werden (sollen) nun nicht nur Maschinen und Steuerungsgeräte, sondern auch deren Produkte sowie ganze Fabriken, Roboterschwärme und Wertschöpfungsketten im ›Internet der Dinge‹. Sensordaten und digitale Zwillinge ziehen in den virtuellen Raum der Cloud ein, ermöglichen ein neues Niveau der Produktionsüberwachung und -steuerung bis hin zu ›autonomen‹ Prozessen der maschinellen Selbstorganisation und Selbstoptimierung durch die unternehmensübergreifende Datennutzung im Internet. Auch auf Verbraucherseite verschiebt sich das Interesse, weg von industriellen Standardprodukten und bürgerlicher Emanzipation hin zu an Singularität orientierten Formen des distinktiven Konsums und der permanenten digitalen Selbstdarstellung als Selbstverwirklichung (Reckwitz 2019).

Mit dieser kleinen tour de force in der Industriegeschichte möchten wir zeigen, dass die elektronische Vernetzung, die allzu oft nur in Bezug auf soziale Medien und Internet diskutiert werden, dem übergreifenden Trend der industriellen Revolutionen und modernen Reichweitenvergrößerung folgen. Er besteht im Kern aus einer Sektorgrenzen übergreifenden Vernetzung, erst durch Standardisierung, Mechanisierung und Maschinisierung, dann durch Informationstechnik, und bahnt der kontextunabhängigen Wertschöpfung, der Globalisierung und Flexibilisierung von Austausch- und Arbeitsprozessen mitsamt zunehmender Automatisierung den Weg. Nicht nur die Produktivkraft hat sich dadurch verändert, sondern auch die Erwartungen der Bevölkerung in Industrie- und Dienstleistungsgesellschaften. Allerdings sind Standardisierung, Vernetzung oder Automatisierung keine ›exogenen Faktoren‹ (Butollo und Nuss 2019: 12), keine technischen Selbstläufer oder Sachzwänge, sondern ein Ausdruck marktwirtschaftlicher Kräfteverhältnisse. Die Steigerung von Produktivität und Rentabilität durch Standardisierung, Flexibilisierung und Automatisierung gehören zur bekannten kapitalistischen Akkumulationsstrategie. Ihre Akzeptabilität verdankt sich seit jeher der damit einhergehenden Diversifizierung und Verbesserung des Produktangebots, den ermöglichten Wohlfahrtseffekten und ihrer Nähe zu Liberalisierungs- und Individualisierungsbestrebungen.

Soziodigitale Arrangements und ihre gesellschaftlichen Implikationen

Was bedeuten statistische Optimierung und integrative Vernetzung für die sozio-digitalen Arrangements und ihre Folgen in digitaler Gesellschaft? Im Detail wird diese Frage in vielen der folgenden Beiträge diskutiert. Der Fokus liegt auf der Meta-Ebene. Wir wollen – notwendigerweise in groben Zügen – skizzieren, dass diese Arrangements erstens durch die Vermischung analoger und digitaler Existenzen eine neuartige Koproduktion von Wirklichkeit befördern (Datafizierung), zweitens Handlungsfähigkeit und -vollzüge zunehmend fragmentieren (distributed control) und drittens einen folgenschweren Wandel hin zu Formen des digitalen Kapitalismus mit entsprechender Oligopolbildung nach sich ziehen (Plattformökonomie).

Die Koproduktion gesellschaftlicher Wirklichkeit geschieht in digitaler Gesellschaft in einer Weise der statistischen Optimierung und integrativen Vernetzung, in der digitale (Re-)Präsentationen gegenüber analogen Interaktionsformen an Bedeutung gewinnen, sogar als glaubwürdiger, unparteiischer und neutraler dargestellt und wahrgenommen werden (Kropp 2020; Mau 2017). Weit über den ökonomischen Bereich hinaus setzt sich ein quantifizierendes, datafiziertes Denken durch, innerhalb dessen digitale Daten, zuletzt mit einer erstaunlichen Selbstverständlichkeit, als Begründung und Legitimierung von Entscheidungen herangezogen und als autoritative Aussagen über die Welt genutzt werden. Überall dort aber, wo politische Fragen als Gegenstände statistischer Betrachtung verhandelt werden, etwa in Bezug auf die Allokation knapper Ressourcen oder die Berücksichtigung ungleicher Voten, treten stochastische Abschätzungen an die Stelle der politischen Beratung und umgehen die demokratische Aushandlung, welche »Güter« es wert sind, verfolgt zu werden (Timcke 2020: 44). Mit dieser Umkodierung werden gesellschaftliche Phänomene auf messbare Informationen reduziert. Nicht mehr Wähler*innen und ihre Vertretung bestimmen die politische Tagesordnung, sondern die digitale Konstitution möglicher Wählerstimmen, teils durch die permanente Beobachtung von Neigungen und Präferenzen »in Echtzeit«, teils durch die statistisch endlose Verknüpfung dieser Informationen mit dem Auf und Ab ökonomischer, gesundheitlicher, sozialer Entwicklungen. Die zentralen Konflikte um Arbeit und Kapital sowie Markt und Staat werden mit statistischen Kennzahlen und (ökonometrischen) Funktionen kleingekocht. In digitaler Gesellschaft geht es weniger um die Feststellung von Präferenzen, Werten, Interessen und Entscheidungen als um Korrelationen, Trends und Steuerungsgrößen und deren Prognose, Modellierung und Manipulierung.

Ein weiteres Beispiel liefert die digitale Reorganisation von Infrastrukturleistungen, bspw. der Energie-, Mobilitäts- oder Gesundheitsversorgung oder ganzer »Smart Cities«, für die ebenfalls die Versprechen von optimierter Rationalität und vernetzter, datenbasierter Steuerung herangezogen werden. Dabei werden algorithmische Steuerungssysteme für immer mehr Entscheidungen verantwortlich, indem sie aus Input-Daten »automatisiert« einen Output »berechnen«, der Versorgungsansprüche und -leistungen bestimmt. Die herangezogenen Daten inszenieren eher, was sie zu repräsentieren vorgeben: Sie »ereignen sich nicht einfach als unstrukturierte soziale Praktiken, sondern werden durch die strukturierten und strukturierenden Felder produziert, in und durch die verschiedene Agenten mit ihren jeweiligen Interessen, Kompetenzen, Interpretationen, Konzepten und Methoden zugleich Wissen und Macht produzieren«, so eine feldtheoretische Analyse (Ruppert et al. 2017, Übers. d. Verf.). Im Rahmen dieser Strukturen und der zugrunde liegenden Modelle dessen, was es zu beobachten gilt, sind die algorithmischen Prozesse der Entscheidungsfindung selbst nicht sinnhaft an Deutungs- und Handlungskontexten oder konkreten Subjekten orientiert, sondern verarbeiten digitale Zeichen, die sie in interne Verweisungssysteme aus verschiedenen Schichten einbetten (Nassehi 2019: 58, 105f.). Im Ergebnis werden Operationen, Entscheidungen und Wahlmöglichkeiten, die vorher einzelnen Personen oder Organisationen zugerechnet wurden, an Algorithmen delegiert, die »berechnen«, wie Daten zu interpretieren und welche Maßnahmen als Folge ihrer Operationen zu ergreifen sind. Trotz ihrer weitreichenden, nicht demokratisch abgesicherten oder rechenschaftspflichtigen Steuerungs- und Kontrollwirkung (Gillespie 2014; Kitchin 2014; Pasquale 2017; Zuboff 2015) finden algorithmische Systeme flächendeckende Akzeptanz bzw. stellen diese vordergründig durch Formate der erzwungenen Einwilligung her. Die weitreichenden Folgen algorithmischer Regime und Datenpolitik werden aber verstärkt problematisiert (Kitchin, Fraser 2020; Mackenzie 2017; Ruppert et al. 2017; Timcke 2020) und Möglichkeiten erwogen, aus Datenobjekten kritische Öffentlichkeiten zu machen.

Tatsächlich findet die Koproduktion gesellschaftlicher Wirklichkeit in digitaler Gesellschaft nicht nur im Rahmen neuartiger Formen von Wissen und Repräsentation statt, sondern auch in den Interaktionen von, mit und zwischen Algorithmen, Sensoren, Robotern und Usern. Die avancierten digitalen Möglichkeiten tragen dazu bei, Handlungsbefugnisse und Kontrollmöglichkeiten, Handlungsträgerschaft an der Mensch-Maschine-Schnittstelle und generell die Zuschreibung von Handlungsfähigkeit permanent neu zu konfigurieren (Suchman 1998). Riskanter Weise geschieht dies nicht immer transparent und nachvollziehbar, sondern mitunter ungesteuert und unter Missachtung der organisationalen Anforderungen, so dass fragmentierte Handlungsfähigkeiten und Subjektivitäten entstehen (Rammert 2016). Nutzerinnen und Nutzer sehen sich in digitaler Gesellschaft immer öfter mit Handlungskonstellationen konfrontiert, in denen maschinelles Handeln und maschinelle Entscheidungen unvorhersehbar, oftmals sogar undurchschaubar und auch für professionelle Expert*innen nicht immer nachvollziehbar und beherrschbar sind. Damit ist ein möglicher Kontrollverlust verbunden, der im individuellen Umgang mit Technik zwar gesellschaftlich keineswegs neu ist, sich aber in Bezug auf die prinzipielle Kontrollierbarkeit doch deutlich von früheren Technikanwendungen unterscheidet.

Das lässt sich sehr gut an den beiden Abstürzen der voll besetzten Passagierflugzeuge des Typs Boeing 737 Max 8 in den Jahren 2018 und 2019 verdeutlichen. Diese Tragödie war das Ergebnis einer katastrophalen Mensch-Maschine-Konfiguration, in der die wechselseitige Relationalität von Handlungsfähigkeit nicht berücksichtigt wurde. So konnte ein automatisiertes Korrektursystem (Maneuvering Characteristics Augmentation System, MCAS) die Flugzeuge in einen Sinkflug lenken, den die Piloten nicht mehr unter Kontrolle bringen konnten, weil ein Sensor am Bug des Flugzeugs dem automatisierten Korrektursystem einen falschen Neigungswinkel meldete, die Automatik das Höhenleitwerk verstellte und die Flugzeugnase unwiderruflich nach unten drückte (Kropp und Wortmeier 2021: 98). Beim ersten Absturz bemerkten Flugkapitän und Co-Pilot die Gegensteuerung, konnten das intelligente System aber nicht überwinden und auch im Handbuch keine Problemlösung finden. Als Antwort auf die erste Katastrophe kündigte der Hersteller ein Software-Update an und informierte die Fluggesellschaften, dass bis dahin durch die Betätigung mehrerer Trennschalter das MCAS-Trimmsystem deaktiviert werden kann. Mit dieser Übergangslösung gaben sich die amerikanische Flugsicherheitsbehörde und die betroffenen Fluggesellschaften zufrieden − bis das zweite Flugzeug wenige Monate später aufgrund der MCAS-Fehlfunktion abstürzte, obwohl die Piloten die Trennschalter betätigt und insgesamt 26-mal verzweifelt den Sinkflug manuell korrigiert hatten. Die aufschlussreichen Untersuchungen offenbarten mehrere Probleme fragmentierter Kontrolle in hybriden Systemen, die sowohl die technische Qualität und Integration (Interoperabilität der Softwaresysteme) als auch die Auslegung der (teil-)autonomen Maschinen, die Information und Schulung der steuernden Pilot*innen, Sicherheitsprinzipien und die institutionelle Aufsicht betrafen (ebd.). Automatisierung und digitale Vernetzung von Steuerungs- und Kontrollsystemen haben das Fliegen sicherer, aber auch komplizierter gemacht und in eine neue Situation »verteilter Kontrolle« (distributed control) geführt.

Diese grundsätzliche Implikation neukonfigurierter Mensch-Maschine-Interaktionen in digitaler Gesellschaft, die operative Verschiebung und soziale Fragmentierung von Gestalt- und Kontrollierbarkeit hybrider Systeme, weckt nicht nur alte Technikängste, sondern bedarf unseres Erachtens auch einer systematischeren Befassung, die derzeit noch nicht stattfindet. Vielmehr wird in vielen Feldern der Mensch-Maschine-, Mensch-Robotik- oder Mensch-Computer-Interaktion den in diesen Systemen agierenden Personen weniger Aufmerksamkeit geschenkt als den komplexen und detaillierten Technikbeschreibungen. »Menschen« werden eher etwas pauschal als potenzielle Fehlerquellen betrachtet und in ihren Handlungsmöglichkeiten beschränkt, man könnte auch sagen ausgeliefert. Die Verschiebung der Handlungsgewichtung zwischen (teil-)autonomen Maschinen und sozialen Akteur*innen ist zwar ein wichtiges Thema der Techniksoziologie mit ihrem Fokus auf »verteilte Steuerung« und riskante »Governance«, über die dahinter liegende Zurechnung von Handlungsfähigkeit, Handlungskontrolle und Handlungsgewichten mit ihren vielfältigen Implikationen nicht nur am Arbeitsplatz, sondern für die Möglichkeiten der Verantwortungsübernahme insgesamt liegen bislang aber nur wenig systematische Einlassungen vor (Grote 2015).

Die gegenwärtigen Diskurse über Digitalisierung und Automation sind oft durch ein dualistisches Denk- und Deutungsschema strukturiert, nach welchem entweder »der« Mensch bzw. »die Gesellschaft« »die« Technik beherrscht oder umgekehrt »die« Technik »den« Menschen und die Gesellschaft. »Der Mensch«, heißt es dann mahnend, müsse immer im Mittelpunkt stehen; »die Maschine« dürfe »den Menschen« nicht ersetzen. Diese Konstruktion ist in zweifacher Hinsicht irreführend. Zum einen unterschlägt sie die komplexen Interaktionsbeziehungen und geteilten Handlungsträgerschaften zwischen menschlichen und technischen Agenten, zum anderen deutet sie Technik und Gesellschaft als einander äußerliche und in sich jeweils homogene Einheiten. Die digitalen Transformationen, die sich gegenwärtig in allen gesellschaftlichen Teilsystemen und Sektoren vollziehen, können dann nur als äußere Einwirkung der Technik auf die Gesellschaft oder umgekehrt als technische Umsetzung gesellschaftlicher Handlungsaufträge verstanden werden; gesellschaftliche Widersprüche, Konflikte und Dynamiken und ihre Einschreibung in und Überformung durch soziotechnische Arrangements geraten aus dem Blick. Statt die Beziehung zwischen Digitalisierung und Gesellschaft daher als dichotomisch strukturiertes Kausalverhältnis zu verstehen, folgen wir Jeanette Hofmann (Hofmann 2019) darin, dieses als komplexe Konstellation und Ermöglichungsverhältnis zu verstehen. Digitalisierung, Datafizierung, Automatisierung und der Siegeszug des Internets einerseits und die Reorganisation des Kapitalismus im Anschluss an die Finanz- und Wirtschaftskrise 2007/2008 andererseits stehen in diesem Sinne in einem wechselseitigen Ermöglichungsverhältnis zueinander (Nachtwey und Staab 2020; Staab 2020). Mit dem Platzen der Kreditblase 2007 platzte auch das System der »gekauften Zeit« (Streeck 2013), das mit Inflation, Staatsverschuldung und der exzessiven Expansion von Privatschulden die Spannung zwischen Kapitalmacht und demokratischen Teilhabeansprüchen in Schach gehalten hatte (Crouch 2009; Streeck 2013; Staab 2020). Im digitalen Kapitalismus des 21. Jahrhunderts formiert sich im Anschluss an die Krise und auf Basis von Informations- und Kommunikationstechnologien, digitaler Vernetzung und der (ökonometrischen) Generierung und Verarbeitung großer Datenmengen ein neues Produktions- und Wertschöpfungsregime, dessen Kernmodell die kommerzielle digitale Plattform bildet (Nachtwey und Staab 2016; Srnicek 2017; Staab 2020).

Die Leitkonzerne des kommerziellen Internets, Google, Amazon, Facebook und Apple (GAFA), und ihre Machtstellung sind das Produkt dieser techno-ökonomischen Reorganisation. Digitale Plattformen sind im weitesten Sinne digitale oder cyber-physische Arrangements, deren Algorithmen ökonomische oder soziale Aktivitäten ermöglichen, vermitteln, kuratieren, strukturieren und begrenzen, indem sie verschiedene Akteur*innen oder Gruppen, wie Produzent*innen und Anbieter*innen, Nutzer*innen und weitere Parteien wie Werbeagenturen zusammenbringen (Kenney und Zysman 2016; Langley und Leyshon 2017). Plattformen wie die von GAFA, aber auch Uber, Airbnb, Twitter, Netflix, Spotify, YouTube oder diverse Partnerbörsen bestimmen heute nahezu alle Aspekte des sozialen Lebens. Ob es sich um Werbeplattformen, industrielle Plattformen, Dienstleistungs- oder Metaplattformen wie die globalen Digitalkonzerne handelt – der existenzielle Rohstoff, den sie extrahieren, prozessieren, strukturieren, kuratieren und in der ein oder anderen Form zu Geld machen, sind Daten. Das Wertschöpfungsmodell kommerzieller digitaler Plattformen basiert nicht mehr primär auf der Produktion zu verkaufender Güter, sondern sie operieren im Rahmen der Datenextraktion und -verarbeitung im Wesentlichen als assets – oder häufig auch spekulative, antizipierte assets (Birch und Muniesa 2020), d.h. als Strukturen zur Extraktion ökonomischer Renten (Birch 2020; Staab 2020, 220); sie erzielen Profite durch Gebühren für das Verleihen, Vermitteln, Zugänglichmachen oder auch von Produkten anderer oder deren Sekundärverwertung z.B. durch Werbung. Dabei schöpfen sie zugleich Wert aus der Generierung, Strukturierung, Kuratierung, Analyse und Weitergabe von Nutzerdaten. Ein weiteres gemeinsame Kennzeichen digitaler Plattformen ist ihr Streben nach Monopolstellung: Die Attraktivität einer Plattform für ihre Nutzer*innen und damit ihre Kapazität zur Extraktion von Daten ist umso höher, je mehr Nutzer*innen die Plattform an sich binden kann, je mehr Dienste oder Produkte sie ihnen anbieten kann und je weniger die Nutzer*innen darauf angewiesen sind, das Plattformuniversum zu verlassen. Expansion, soziale Schließung und eine enorme Konzentration wirtschaftlicher und auch politischer Macht ist die Folge (Langley und Leyshon 2017; Kreiss und McGregor 2018; Moore und Tambini 2018). Ohne die techno-ökonomische Dynamik des digitalen Plattformkapitalismus (Srnicek 2017) und die damit verbundenen Macht- und Abhängigkeitsverhältnisse lassen sich die Potentiale, Risiken und Herausforderungen digitaler und cyber-physischer Technologien nicht angemessen einordnen und bewerten. Sie bilden sowohl Treiber als auch Ermöglichungsbedingung der digitalen Transformationen verschiedener gesellschaftlicher Teilsysteme.

Risiken sozio-digitaler Arrangements

In den letzten zehn Jahren hat eine Vielzahl von Studien die technologie-inhärenten Risiken und nicht-intendierten Folgen der Nutzung automatisierter und KI-basierter Systeme herausgestellt. Neben der Technikethik (Misselhorn 2018) und Sozioinformatik (Zweig 2019) haben sich die Wissenschafts- und Technikforschung (Burrell 2016; Fuller 2008; Kitchin und McArdle 2016; Seyfert und Roberge 2017) und hier insbesondere die Critical Software Studies (Gillespie 2014; Pasquale 2015; Seaver 2017) mit der Entwicklungslogik datengetriebener, algorithmischer Prozesse und ihren sozio-digitalen Folgen und Risiken für verantwortliches Handeln, Entscheiden und Regieren auseinandergesetzt. Diese Untersuchungen machen deutlich, dass die nicht gewünschten sozialen, ethischen und rechtlichen Folgeprobleme nur begrenzt durch entsprechendes Produktdesign (Ethics by Design), individuelle Verantwortungsübernahme oder politische Regulierung vermieden werden können. Accountability und vertrauenswürdige Systeme entstehen vielmehr auf darüber liegenden Ebenen integrativ gedachter Verantwortungsnetzwerke (Saurwein 2019), die an mehreren Stellen in die viel beklagte, organisierte Unverantwortlichkeit eingreifen.

Die sozialwissenschaftliche Auseinandersetzung mit Risiken soziotechnischer Systeme begann bereits in den 1980er Jahren, ausgelöst von einer Reihe von unerwünschten und katastrophalen Technikfolgen (Stichworte: Asbest, Dioxin, Nuklear- und Chemieunfälle), die den steuerungsoptimistischen Fortschritts- und Wachstumsglauben der Industriemoderne erschüttert haben. Als »normale Katastrophen« (Perrow 1987) haben sie zur Diagnose der Risikogesellschaft und technisch induzierter, nicht-intendierten Nebenfolgen in einer »Reflexiven Moderne« (Beck 2007; Beck et al. 2004) mit Legitimationsproblemen geführt. Die gesteigerte Sensibilität gegenüber den Ambivalenzen und Risiken wissenschaftlich-technologischer Entwicklungen ließ seither das Vertrauen in die Fähigkeit der politischen Institutionen sinken, die Technologieentwicklung verantwortlich zu steuern. Das liegt auch an der Problematik radikaler Unsicherheit (radical uncertainty), d.h. dem unsicheren und umstrittenen Charakter wissenschaftlich-technischen Wissens und den daraus ableitbaren Prognosen in Bezug auf Problembeschreibungen und Lösungsansätze (Braun und Kropp 2010). Diese Problematik verschärft sich mit der Ubiquität und Komplexität digitaler Steuerung, automatisierter Entscheidungsfindung und künstlicher Intelligenz. Auch diesbezüglich werden die fehlenden Möglichkeiten problematisiert, einen Adressaten oder eine Adressatin für die Verantwortungszuschreibung zu finden, sei es durch Risiko- und Technikfolgenabschätzung, Verfahren der partizipativen Technikeinbettung oder der Responsabilisierung von Nutzer*innen.

Wir konturieren im Folgenden die Risiken und Folgeprobleme in digitaler Gesellschaft in Bezug auf drei Merkmale, nämlich die Undurchschaubarkeit und fehlende Nachvollziehbarkeit (opacity), die sozialen Gerechtigkeits- und Fairnessprobleme sowie die Rückwirkungs- und Reaktivitätsproblematik.

Die fehlende Transparenz und Nachvollziehbarkeit bzw. die zunehmende Undurchschaubarkeit digitaler Prozesse gilt als ein wesentliches Risiko in digitaler Gesellschaft, weil unter ihren Bedingungen Verantwortung, Haftung und auch Zurechnung nicht-intendierter Folgen und Schäden zum Problem werden. Diese Verantwortungsdiffusion ist ein Kernmerkmal datengetriebener, vernetzter, automatisierter Systeme. Der Durchbruch heutiger KI verdankt sich dem Zuwachs an Rechner- und Datenverarbeitungskapazitäten und den großen Mengen verfügbarer Informationen, um aus ihnen stochastisch zu lernen – also nicht regel- oder wertorientiert, sondern wahrscheinlichkeitsbezogen. KI-Anwendungen nutzen Datenanalysen und Simulationen für die teilweise automatisierten Systeme bzw. ›Agenten‹ in Computern oder Robotern auf der Basis von iterativen Rechenregeln, den schon besprochenen Algorithmen. Sie erfassen auf der Eingabeseite von Kamerasensoren, GPS-Empfängern, RFID-Chips o.a. Geräten Informationen, die sie in mehreren verdeckten »Schichten« (hidden layers) in Höchstgeschwindigkeit nach wahrscheinlichkeitsbasierten Verarbeitungsregeln sortieren, substituieren, gewichten und als Input für weitere Operationen verwenden, bis sie in eine Ausgabe (Aktorik, Berechnungen, Heatmaps, Diagnosen, Vorschläge etc.) münden.

Das Transparenzproblem resultiert aus dieser Arbeitsweise selbst: Die Erzeugung eines Algorithmus entfaltet sich vielschrittig, kontextuell und kollaborativ, meist in Trial-and-Error- und Copy-and-Paste-Verfahren aus vorhandenen Programmbibliotheken (Seyfert und Roberge 2017), zudem »fragmental« (Rammert 2016), also ohne hierarchische oder zentrale Kontrolle und vollständige Transparenz über die zugrunde gelegten Codes, Modelle und Integrationsschritte. Gemeinsam mit proprietären Softwaresystemen führen die inhärente Komplexität und das nicht-überwachte maschinelle Lernen dazu, dass weder die genutzten Algorithmen vollständig nachvollziehbar sind noch ihre datengetriebene Arbeitsweise oder die Qualität der Eingabedaten. Transparenz und Erklärbarkeit der Input-Output-Kausalitäten sind daher selbst für Softwareentwickler*innen begrenzt (Burrell 2016; Mittelstadt et al. 2016). Aus diesen Gründen bestehen erhebliche Barrieren, um Kontrolle und Verantwortung operativ und im rechtlichen Sinne zu übernehmen (Hoffmann-Riem 2017). Die Undurchschaubarkeit (opacity) und Dezentralität der teils global genutzten Algorithmen werden als wesentliches Problem für eine verantwortliche Steuerung und kontrollierte Beherrschung von KI betrachtet. Die in vielen Richtlinien hinterlegten Forderungen nach Erklärbarkeit (explainable AI) oder Überprüfung, Validierung und Interpretation der Ergebnisse betrachten befragte Softwareentwickler*innen und Maschinenbauer*innen als kaum einlösbar, hinzu kommt die mit dieser Forderung unterschätzte Rolle unterschiedlicher Anwendungskontexte.

Auch die Gerechtigkeits-, Fairness- und Reaktivitätsprobleme ergeben sich aus der datenbasierten Kategorienbildung und Musterkennung automatisierter soziodigitaler Arrangements. Diese gehen mit den derzeit vieldiskutierten Diskriminierungen einher, die, mitunter auch nicht-intendiert, auf bestehende Verzerrungen in der Datenbasis zurückgehen (Crawford und Calo 2016): Die Eingabeseite erfasst die soziale Wirklichkeit notwendiger Weise mit all den bewusst oder unbewusst digitalisierten Informationen, Einteilungen und Unterschieden. Sind bestimmte Nutzerpräferenzen genderspezifisch konnotiert, korrelieren Wohngegenden mit unterschiedlicher Kaufkraft oder bestimmt der motorisierte Individualverkehr die Transportstrukturen, bilden sich diese Ungleichgewichte in den mit maschineller Intelligenz errechneten Diagnose- und Vorschlagsystemen oder der entsprechenden Steuerung von Informations-, Leistungs- und Güterströmen ab. Viele Untersuchungen zeigen, dass die statistische Optimierung mit dem Anspruch der rechnerischen (Re-)Konstruktion von Objektivität soziale Ungleichheit und ungleiche Verteilungsstrukturen reproduziert und normalisiert (Beer 2017; Crawford und Calo 2016; Mittelstadt et al. 2016). Diese Reproduktions- und Normalisierungsprozesse können sich zuweilen unwillentlich bis in Versuche des debiasing hineinziehen, wie Studien gezeigt haben (Mackenzie 2016; Mager 2018). Die problematischen Folgen werden vor allem für Anwendungsfelder beschrieben, in denen eine enge Mensch-Maschinen-Interaktion vorliegt, so dass die letztendliche Entscheidungen nicht der Maschine, sondern den menschlichen Entscheidungsträger*innen zugeschrieben werden oder auf sie rückwirken, etwa bei der ärztlichen Diagnose oder der Steuerung automatisierter Maschinen (Ananny 2016; Martin 2019). In der Folge stehen die Zuständigen vor der paradoxen Aufgabe, im Umgang mit als »intelligent« und »autonom« beschriebenen Technologien die Beherrschung der Systeme garantieren und möglicherweise unfaire oder unzutreffende Diagnosen (der Kreditvergabe, der medizinischen Einordnung usf.) entsprechend korrigieren zu müssen, und zwar trotz der Probleme der analytischen Intransparenz oder »misguided evidence« (Brödner 2019; Mittelstadt et al. 2016). So wird eine permanente Kontrolle der autonomen Systeme notwendig, für die oft weder die notwendigen Kompetenzen bestehen noch Erfahrungen im Routinebetrieb gewonnen werden können (Hirsch-Kreinsen und Karacic 2019).

Schließlich werden Herausforderungen nicht-gewollter Rückwirkungen (Reaktivität und Pfadabhängigkeiten) thematisiert, deren soziale und ökologische Risiken vor allem aus einer längerfristigen Perspektive angesprochen werden. Unter Reaktivität verstehen wir hier, dass soziodigitale Arrangements im jeweiligen Handlungsfeld nicht folgenlos bleiben, sondern sich das Handlungsfeld durch die Nutzung der digitalen Möglichkeiten reaktiv verändert. Tatsächlich hat jede Technik Rückwirkungen auf den Ausgangszustand, weil sie mit einem gewissen Druck, manchmal auch Zwang zur Anpassung an Funktionsnotwendigkeiten einhergeht. Das Besondere digitaler, automatisierter Systeme liegt aber darin, dass dieser Druck für die meisten Nutzer*innen unsichtbar bleibt und menschliche Entscheidungen vergleichsweise umfassend nach maschinellen Sortierregeln, Gewichtungen und Voraussetzungen gesteuert werden, die zudem u.U. vorhergehenden Wertesystemen widersprechen (Misselhorn 2018; Rosenblat und Stark 2016) und nicht-nachhaltige Pfade gesellschaftlicher Entwicklung vertiefen können (Jones 2018; Lange et al. 2020).

Schon heute greift die algorithmische Nutzerlenkung erheblich in individuelle Entscheidungen ein und verändert bspw. über Routen- und Transportmittelwahl, Informationsvorschläge, personalisierte Werbung, Gesundheits-Apps und die Nutzung von wearables das Entscheidungsverhalten, die Selbstwahrnehmung und auch Schlaf-, Ernährungs- und Konsumpräferenzen bis hin zur politischen Meinungsbildung. Analog dazu stehen Smart-Grid- und Smart-City-Anwendungen im Verdacht, sozial ungleiche und nicht-nachhaltige Infrastruktursysteme zu reproduzieren, weil sie ihre Nachfrageprognosen auf Basis bisheriger Nachfragemuster errechnen, heavy user privilegieren und organisierte Reaktionsformen auslösen, wie sie bspw. aus der Webseitenoptimierung bekannt sind (Gillespie 2014; Kropp et al. 2021). Selbstlernende Technologien erweisen sich als tendenziell »konservativ« und pfadabhängig, weil die (überkommenen) Ausgangsdaten neuere Berechnungen langfristig mitbeeinflussen. Schließlich bestehen die skizzierten Akkumulationsvorteile im Zusammenhang mit Plattform-Ökonomien, in deren Rahmen durch den ungleichen und einseitigen Zugriff auf Nutzerdaten riskante Oligopolbildungen zu befürchten sind (Staab 2019; Braun et al. 2021).

Die Reaktivität automatisierter Entscheidungssysteme und soziodigitaler Neukonfigurationen gefährdet die menschliche Autonomie und politische Gestaltungskraft. Zugespitzt lässt sich sogar sagen, dass die dem Digitalen zugesprochene Faktizität und Überlegenheit Gefahr läuft, politische Debatten, Reflexions- und Verständigungsprozesse zu ersticken, noch bevor die relevanten Fragen und Positionen artikuliert sind. Zudem drohen asymmetrische Datennutzungen und undurchschaubar lernende Systeme zur Verstärkung wirtschaftlicher und sozialer Ungleichgewichte und zur Vertiefung nicht-nachhaltiger Entwicklungspfade beizutragen und in riskanter Weise die Abhängigkeit von digitalen Leistungen und dem Verbrauch endlicher Ressourcen zu vergrößern. Zurecht kritisiert Brevini (2020), dass die Möglichkeiten künstlicher Intelligenz sorglos als Lösungsversprechen für nahezu jedes Problem dargestellt werden, die damit verbundenen ökologischen Kosten, Energie- und Ressourcenverbrauch, Emissionen und Abfall, aber systematisch ausgeblendet werden. Schon heute verbrauchen Rechenzentren mehr Energie als manche Länder und die Hälfte der international für Mobilität genutzten Energie (Jones 2018: 163). Diese nicht-gewollten Rückwirkungen, die unter Umständen irreversiblen Pfadvertiefungen und die gedankenlose Herstellung neuer Abhängigkeiten verschärfen die Nachhaltigkeitsproblematik und erschweren die Korrektur der zukunftsgefährdenden Fehlentwicklungen weiter. Wie kann demgegenüber eine demokratische Technikgestaltung in digitaler Gesellschaft aussehen?

Demokratische Technikgestaltung in der digitalen Gesellschaft: die Beiträge des Bandes

Die folgenden Kapitel untersuchen angesichts der skizzierten Risiken und Dynamiken die Neukonfiguration demokratischer und kooperativer Technikgestaltung in digitaler Gesellschaft und unter Berücksichtigung soziodigitaler Neulinge im Feld: Nicht nur Bürger und Bürgerinnen, zivilgesellschaftliche Akteur*innen, zukünftige oder gegenwärtige Nutzer und Nutzerinnen sind als noch immer relative neue Akteur*innen ins Feld der Technologiegestaltung eingetreten und bestimmen das Geschehen mit, sondern auch Roboter, Algorithmen, Simulationen, digitale Plattformen und Chatbots mischen sich offensichtlich in der repräsentativen Arena ein. Sie treten mit alten und relativ neuen Akteur*innen in Interaktion, bringen neue Ansprüche und Affordanzen ein, kooperieren in vielfach verschränkten Konstellationen und stellen die demokratische Gestaltung der neuartigen soziodigitalen Arrangements vor neue Herausforderungen. Die Chancen einer sinnvollen, gerechteren und nachhaltigkeitsorientierteren Neukonfiguration und das Verständnis der Bedingungen ihrer Realisierung stehen im Zentrum der folgenden Beiträge. Sie zeigen, dass sich das Verständnis von und die Beziehungen zwischen Expertise, soziotechnischen Arrangements, Gestaltungs- und Beteiligungsansprüchen durch diese neuen Konstellationen verändert. Dabei spielen nicht nur digitale Möglichkeiten und menschliche, nicht-menschliche und soziodigitale Akteur*innen eine Rolle, sondern auch wirkmächtige Visionen und Imaginationen, Macht- und Kräfteverhältnisse sowie Spannungen und Wechselbeziehungen zwischen diesen.

Kooperative Technikgestaltung mit Bürgerinnen und Nutzerinnen

Im ersten Teil des Buches stehen Nutzer*innen, Roboter und andere Neulinge in der kooperativen Technikgestaltung im Mittelpunkt. Die Beteiligung von Bürger*innen oder Nutzer*innen an der Gestaltung soziodigitaler Umwelten und die diesbezügliche Wissensproduktion wird meist als Interaktionsbeziehung zwischen akademischen und nicht-akademischen Akteur*innen, Forschenden und Nutzer*innen, Forschenden und Zivilgesellschaft oder auch als Dreierbeziehung zwischen Forschenden, Bürger*innen/Nutzer*innen und Politik gefasst. Wie verändern sich Formen und Praktiken von Bürger- und Nutzerbeteiligung, wenn Algorithmen, Roboter, Computer und selbstlernende Systeme in diese Interaktionsbeziehungen eintreten und als Beteiligte ernstgenommen werden? Was bedeutet eine solche Einbeziehung für die Gestaltung kooperativer Wissensproduktion? Wie rekonfigurieren sich die Beziehungen zwischen Wissensproduktion, Technologieentwicklung und Beteiligung? Welche Möglichkeiten eröffnen sich für eine sinnvollere und nachhaltigkeitsorientiertere, gerechtere Gestaltung soziotechnischer Arrangements? Welche neuen Anforderungen an Wissen, Lernen, Verständnis, Kooperation ergeben sich daraus? Unter welchen Bedingungen können die Potentiale dieser neuen Interaktionsbeziehungen am besten genutzt werden? Auf diese Fragen suchen die folgenden Beiträge eine Antwort.

Harald Rohracher und Fredrik Envall untersuchen eine Reihe von experimentellen Modellen einer zukünftigen nachhaltigen Stromnutzung mit Hilfe intelligenter Stromnetze (Smart Grids) in Schweden und gehen der Frage nach, was eigentlich in diesen Experimenten geschieht. Potentiell, so Rohracher und Envall, bietet die Digitalisierung des Stromsystems sowohl neue technische Möglichkeiten der Nutzung erneuerbarer Energieträger als auch die Möglichkeit einer Neu-Konfiguration von sozialen Praktiken und Nutzer-Erzeuger-Beziehungen und damit eine Neuordnung von Macht-Wissenskonstellationen im Energiesystem. Die empirische Analyse zeigt jedoch, dass solche innovationspolitischen Experimente nicht automatisch zu einer Demokratisierung des soziotechnischen Wandels beitragen, sondern die Realisierung ihres Demokratisierungspotentials von der Ausgestaltung der Macht-Wissensverhältnisse in diesen Experimenten abhängt. Das Design dieser Experimente, so Rohracher und Envall, muss selbst zum politischen Terrain werden, sollen sie ihr Potential für eine demokratischere, gerechtere soziotechnische Transformation entwickeln.

Mit Alltagsalgorithmen und der Frage der Erklärbarkeit, genauer: der Gestaltung von Erklärbarkeiten, setzt sich Annelie Pentenrieder auseinander. Damit tritt sie der breit kolportierten Auffassung entgegen, dass KI-Systeme prinzipiell nicht zu öffnende Blackboxes seien und zu komplex, um von Nutzer*innen verstanden zu werden. Am Beispiel von Wegfindungsalgorithmen zeigt sie, wie das Erfahrungswissen informierter Nutzer*innen wie Taxi-, Kurier- und Fernfahrer*innen zum Ausgangspunkt genommen werden kann, um den Mythos der prinzipiellen Opazität von Algorithmen aufzulösen und Denkanstöße für eine demokratischere Softwaregestaltung zu liefern.

Auch Birgit Mack, Karolin Tampe-Mai, Gabriel Wilkes, Martin Kagerbauer und Eugen Diesch stellen die Nutzer*innen ins Zentrum. Sie untersuchen, wie die Interaktion zwischen menschlichen Nutzer*innen und digitalen Technologien wie Smartphones, Online-Bezahlsysteme, Algorithmen und Applikationsplattformen in On-Demand Ridepooling Shuttlesystemen so eingesetzt und gestaltet werden können, dass sie den motorisierten Individualverkehr vermindern und zu einer intelligenten, effektiven und nachhaltigen Verkehrswende beitragen können.

Um die Interaktion zwischen menschlichen Nutzer*innen, Forschenden und Robotern und die Frage ihrer Gestaltung geht es im Beitrag von Astrid Weiss und Katta Spiel. Anhand zweier Projekte zur nutzungszentrierten Mensch-Roboter-Interaktionsforschung zeigen sie, warum eine gestaltungsoffene, demokratische Beteiligung von Nutzer*innen am Entwicklungsprozess sinnvoll ist und wie Forschende, Nutzer*innen und Roboter miteinander lernen können, um die nutzungsorientierte Gestaltung von sozialen Servicerobotern zu bereichern.

Soziotechnische Imaginationen und Kräfteverhältnisse

Im zweiten Teil des Buches nehmen wir soziotechnische Imaginationen und Kräfteverhältnisse in den Blick. Digitalisierung und Automatisierung sind häufig mit großen Visionen und Versprechen befrachtet: Sie sollen Antworten auf gesellschaftliche Fragen und Herausforderungen bieten und z.B. für saubere Energieversorgung, effektivere und zugleich nachhaltigkeitsorientiere Mobilitätssysteme oder Bauweisen sorgen oder darüber hinaus für mehr Sicherheit, Transparenz, Empowerment, Kreativität und Inklusion. Dabei spielen Visionen und Imaginationen wünschbarer Zukünfte eine wichtige Rolle. Sie definieren den Bereich des Denkbaren und Erstrebenswerten, bringen Problem-, Ziel- und Lösungsdeutungen zusammen mit Handlungsvorschlägen in eine kohärente, kommunizierbare Form und beeinflussen die Realisierungs- und Materialisierungschancen neuer soziotechnischer Arrangements. Aber welche Visionen und Imaginationen setzen sich durch und welche nicht? Was ist problematisierbar, was nicht? Wieso wird häufig der Mensch als Fehlerquelle und die Technologie als Lösung imaginiert? Welche Rolle spielen Macht- und Kräfteverhältnisse sowohl für die Entwicklung als auch für die Materialisierung soziotechnischer Imaginationen? Wie können wir alternative soziotechnische Imaginationen für eine lebbarere Welt entwickeln? Diesen Fragen widmen sich die folgenden Kapitel.

In der Bauindustrie, so zeigen Kathrin Braun und Cordula Kropp, stoßen derzeit verschiedene, teils gegenläufige imaginaries wünschbarer Zukünfte aufeinander und konkurrieren um Legitimation, Durchsetzung und Anwendung. Ob sich dabei die Vision einer nachhaltigen, umweltschonenden digitalen Bauweise oder diejenige eines technologisch befeuerten Wachstums- und Produktivitätsschubs durchsetzen wird, oder die Vision einer singularisierten, bedarfsgerechten computerbasierten Planungs- und Baukultur oder eine auf Integration basierende Vision der computergestützten Steuerung und Kontrolle oder eine Kombination dieser Visionen, ist keine Frage technologischer Funktionalität sondern eine Frage von Kräfteverhältnissen und politischen und gesellschaftlichen Prioritätensetzungen. Ziel dieses Beitrages ist es, eine gesellschaftliche Debatte über die Wünschbarkeit dieser möglichen Bauzukünfte anzustoßen.

Auch Alexander Wentland und Nina Klimburg-Witjes untersuchen am Beispiel von Cyber-Security-Diskursen, wie sich technische Rationalitäten mit sozialen Kräfte- und Interessenverhältnissen verbinden und wie spezifische Diskurse und Narrative aus dieser Verbindung hervorgehen, aber auch auf diese zurückwirken. Sie zeigen wie Hacker*innen und Sicherheitsexpert*innen diskursiv die Figur der defizitären Benutzer*in konstruieren, damit den Menschen als das schwächste Glied in der Sicherheitsarchitektur darstellen und die Verantwortung für die IT-Sicherheit von Unternehmen auf die Beschäftigten verlagern.

Visionen, Narrative oder Imaginationen soziotechnischer Zukünfte spielen selbst eine entscheidende Rolle dafür, welche Möglichkeiten zu welchen Realitäten werden, welche Entwicklungspfade eingeschlagen und weiterverfolgt werden und welche nicht. In ihrem Beitrag zu Smart Grids und Smart Homes untersuchen Friederike Rohde und Leslie Quitzow, welche soziotechnischen Visionen intelligenter Energieversorgung in den Anwendungsfeldern Smart Grid und Smart Home derzeit in Deutschland kursieren. Rohde und Quitzow kommen zu dem Ergebnis, dass diese Visionen stark von Akteur*innen aus Industrie, Wirtschaft und Forschung sowie technik- und konsumbegeisterten politischen Akteur*innen und Nutzer*innen geprägt werden.

Jutta Weber fragt in ihrem Beitrag, was den Heilsversprechen des kapitalistisch-autoritären Technosolutionism und der digitalen Transformation entgegenzusetzen wäre. Wie lassen sich komplexe Mensch-Maschine Assemblages für eine lebbarere Welt entwickeln, die nicht von der soziotechnischen Logik der Korrelation dominiert sind? Weber plädiert in ihrem Beitrag für kreative, demokratische Praktiken des Human-Machine Learning, geleitet von den Prinzipien technologischer Souveränität, Gemeinwohlorientierung und der Digital Commons.

Soziodigitale Neukonfiguration von Politik und Öffentlichkeit

Der dritte Teil des Bandes widmet sich der Untersuchung soziodigitaler Kommunikationsräume und der Neukonfiguration von Politik und Öffentlichkeit. Digitale Technologien und Kommunikationsräume haben die Strukturen demokratischer Öffentlichkeit und Politik tiefgreifend verändert. Sie haben auch Folgen für die Möglichkeiten demokratischer Wissenschafts- und Technikgestaltung. Inzwischen werden digitale Technologien auch selbst zum Gegenstand von politischen Gestaltungs- und Steuerungsansprüchen, die wiederum neue Konflikte um die Verteilung von Steuerungs- und Gestaltungsmacht, den Zugang zu und die Produktion von Wissen, um Kontrolle und Herstellung von Sichtbarkeit und Aufmerksamkeit in soziodigitalen Kommunikationsräumen auslösen. Wie ist die Beziehung zwischen soziotechnischen Arrangements, Wissensproduktion und der Umstrukturierung von Öffentlichkeit und Politik konzeptionell zu fassen?

Robert Seyfert befasst sich mit dem Problem der (Nicht-)Nachvollziehbarkeit und Opazität von Algorithmen und der Frage, wie diesen mit politischen Regulierungen begegnet werden kann. An zwei Beispielen, der Datenschutzgrundverordnung und der Regulierung von Finanzmarktalgorithmen, zeigt Seyfert, dass regulatorische Prozesse selbst ko-produktive soziale Praktiken sind; sie wirken nicht nur verhindernd oder verändernd auf scheinbar gegebene Algorithmen ein, sondern bestimmen mit, was überhaupt ein Algorithmus ist und was er tun soll.

Der Beitrag von Jan-Felix Schrape untersucht die Rekonfiguration der öffentlichen Kommunikation zwischen euphorischen und dystopischen Erwartungen von partizipativer many-to-many Massenkommunikation einerseits und vermachteter Kommerzialisierung und Verflachung andererseits. Schrape kommt zu dem Ergebnis, dass die Digitalisierung der öffentlichen Kommunikation die Möglichkeitsräume für persönliche Interaktionen und den öffentlichen Austausch ausgeweitet hat, aber auch neue Selektions- und Synthetisierungsprozesse hervorgebracht hat. Inwieweit diese in Zukunft algorithmisiert und automatisiert werden und durch die Logik digitaler Plattformen mitbestimmt werden, ist, so Schrape, noch eine offene Frage.

Die Digitalisierung ist häufig Gegenstand der experimentellen Wissensproduktion in Reallaboren. Diese werden eingesetzt, um Innovations- und Transformationsoptionen zu erkunden, Herausforderungen zu behandeln und Lösungsstrategien zu erproben. Reallabore, so zeigen Stefan Böschen, Julia Backhaus, Ana de la Varga, Stefan John und Gabriele Gramelsberger, werfen jedoch als Strukturen einer »simulativen Demokratie« ihre eigenen demokratiepolitischen Herausforderungen auf. In ihrem Beitrag untersuchen die Autorinnen und Autoren, worin genau diese Herausforderungen bestehen und wie sie durch eine gleichgewichtige Beachtung der Dimensionen des politischen Könnens, Wollens und Sollens gestaltet werden können.

Sergio Bellucci beleuchtet die Frage demokratischer Wissenschafts- und Technikgestaltung aus einer Praxisperspektive. Er rekapituliert die Erfahrungen der TA Swiss mit der partizipativen Technikfolgenabschätzung und zeigt, wie diese als Instrument zur Stärkung der demokratischen Legitimität technologiepolitischer Entscheide eingesetzt werden kann. Der partizipative Dialog und das darauf gegründete Vertrauen der Bürgerinnen und Bürger, argumentiert Bellucci u.a. am Beispiel von digitalen Patientendossiers, bilden eine unverzichtbare Grundlage zum gemeinsamen demokratischen Abwägen möglicher technologischer Zukünfte.

Die Beiträge dieses Bandes zeigen, dass es »die« soziodigitale Zukunft nicht gibt, sondern dass verschiedene Zukünfte um Realisierung konkurrieren und sich heute pfadbildende Entwicklungen vollziehen, die den Umgang mit digitalen Möglichkeitsräumen langfristig prägen werden. Die Frage, welche Pfade und welche alternativen Optionen mehr, welche weniger oder welche gar nicht wünschbar sind, ist dringend und verlangt nach einem demokratischen gesellschaftlichen Diskussions- und Gestaltungsprozess.

Literatur

Ananny, M., (2016). Toward an Ethics of Algorithms: Convening, Observation, Probability, and Timeliness. Science Technology and Human Values 41(1): 93-117.

Beck, U., (2007). Weltrisikogesellschaft. Auf der Suche nach der verlorenen Sicherheit. Berlin: Suhrkamp.

Beck, U., Lau, C. und Wolfgang, B. (2004). Entgrenzung und Entscheidung: Was ist neu an der Theorie reflexiver Modernisierung? 13-64, Frankfurt a.M.: Suhrkamp.

Beer, D. (2017). The social power of algorithms. Information Communication and Society 20(1): 1-13.

Birch, K. (2020). »Technoscience rent: Toward a theory of rentiership for technoscientific capitalism.« Science, Technology, & Human Values 45(1): 3-33.

Birch, K. and Muniesa, F. (2020). Introduction: Assetization and Technoscientific Capitalism. In Assetization: turning things into assets in technoscientific capitalism, eds. K. Birch and F. Muniesa. Cambridge, MA: MIT Press: 1-41.

Bogner, A. (2021). Die Epistemisierung des Politischen. Wie die Macht des Wissens die Politik gefährdet. Ditzingen: Reclam.

Braun, K. und Kropp, C. (2010). Beyond Speaking Truth? Institutional Responses to Uncertainty in Scientific Governance. Science Technology and Human Values 35(6): 771-782.

Braun, K., C. Kropp und Y. Boeva (2021). Constructing Platform Capitalism: The Political Techno-Economy of Building Information Modeling. Paper presented at the Interpretive Policy Analysis (IPA) Conference 2021, Barcelona.

Brödner, P. (2019). Grenzen und Widersprüche der Entwicklung und Anwendung »Autonomer Systeme«. In Autonome Systeme und Arbeit. Perspektiven, Herausforderungen und Grenzen der Künstlichen Intelligenz in der Arbeit, Hg. H. Hirsch-Kreinsen und A. Karacic, 69-97. Bielefeld: transcript.

Burrell, J. (2016). How the machine ›thinks‹: Understanding opacity in machine learning algorithms. Big Data & Society 3(1): 1-12.

Butollo, F. und Nuss, S., Hg. (2019): Marx und die Roboter. Vernetzte Produktion, Künstliche Intelligenz und lebendige Arbeit. Berlin: Dietz.

Cardon, D. (2017). Den Algorithmus dekonstruieren. In Algorithmuskulturen. Über die rechnerische Konstruktion der Wirklichkeit, Hg. Seyfert, R. und Roberge, J., 131-150. Bielefeld: transcript.

Crawford, K. and Calo, R. (2016). There is a blind spot in AI research. Nature 538: 311-313.

Fuller, M., (2008). Software Studies: A Lexicon. Ney York/London: The MIT Press.

Gelman, A. und Chr., Hennig, (2017). Beyond subjective and objective in statistics, Journal of the Royal Statistical Society. Series A: Statistics in Society 180(4): 967-1033.

Gillespie, T., (2014). The Relevance of Algorithms. In Media Technologies: Essays on Communication, Materiality and Society, eds. Gillespie, T. Boczkowski, P.J. and Foot, K. A. 167-194. Oxford: Oxford University Press.

Grote, G., (2015). Gestaltungsansätze für das komplementäre Zusammenwirken von Mensch und Technik in Industrie 4.0. In Digitalisierung industrieller Arbeit, Hg. Hirsch-Kreinsen, H. Ittermann, P. und Niehaus, J. 131-146 Baden-Baden: Nomos.

Hirsch-Kreinsen, H. und Karacic, A., Hg. (2019). Autonome Systeme und Arbeit. Perspektiven, Herausforderungen und Grenzen der Künstlichen Intelligenz in der Arbeitswelt. Bielefeld: transcript.

Hoffmann-Riem, W., (2017). Verhaltenssteuerung durch Algorithmen – Eine Herausforderung für das Recht. Archiv des öffentlichen Rechts 142(1): 1.

Hofmann, J. (2019). Mediatisierte Demokratie in Zeiten der Digitalisierung – eine Forschungsperspektive. In Politik in der digitalen Gesellschaft. Zentrale Problemfelder und Forschungsperspektiven, Hg. Hofmann, J. Kersting, N., Ritzi, C. und Schünemann, W. J. Bielefeld: transcript: 29-45.

Jones, N., (2018). How to stop data centres from gobbling up the world’s electricity. Nature 561: 163-166.

Kenney, M. and Zysman, J. (2016). The rise of the platform economy. Issues in Science and Technology 32(3): 60-69.

Kitchin, R. und Fraser, A. (2020). Slow Computing. Why we need balanced digital lives. Bristol: Bristol University Press.

Kitchin, R. and McArdle, G. (2016). What makes Big Data, Big Data? Exploring the ontological characteristics of 26 datasets. Big Data and Society 3(1): 1-10.

Kitchin, R. (2014). The Real-Time City? Big Data and Smart Urbanism. GeoJournal 79: 1-14.

Kreiss, D. and S. C. McGregor (2018). »Technology firms shape political communication: The work of Microsoft, Facebook, Twitter, and Google with campaigns during the 2016 US presidential cycle.« Political Communication 35(2): 155-177.

Kropp, C. und Wortmeier, A.-K. (2021). Intelligente Systeme für das Bauwesen: überschätzt oder unterschätzt? In Digitalisierung souverän gestalten, Hg. E.A. Hartmann, 98-117. Berlin: Springer Vieweg.

Kropp, C., (2020). Was zählt? Zur informatisierten Herrschaft von Bewegungsdaten und Kontaktprotokollen, in: soziopolis.de v. 30.06.2020, verfügbar unter: https://www.soziopolis.de/was-zaehlt-wer-entscheidet.html. Zugegriffen: 28. Mai 2021.

Kropp, C., Ley, A., Ottenburger, S. S. und Ufer, U. (2021). Making intelligent cities in Europe climate-neutral. TATuP – Zeitschrift für Technikfolgenabschätzung in Theorie und Praxis 30(1): 11-16.

Lange, S., Pohl, J. und Santarius, T. (2020). Digitalization and energy consumption. Does ICT reduce energy demand? Ecological Economics 176: 106760.

Langley, P. and Leyshon, A. (2017). Platform capitalism: the intermediation and capitalization of digital economic circulation. Finance and Society 3(1): 11-31.

Mackenzie, A. (2017). Machine Learners. Archeology of Data Practice. Cambridge, MA, London: The MIT Press.

Martin, K. (2019). Ethical Implications and Accountability of Algorithms. Journal of Business Ethics 160: 835-850.

Mau, S. (2017). Das metrische Wir. Über die Quantifizierung des Sozialen. Berlin: Suhrkamp.

Misselhorn, C. (2018). Grundfragen der Maschinenethik. Stuttgart: Reclam.

Mittelstadt, B.D., Allo, P., Taddeo, M., Wachter, S. and Floridi, L. (2016). The ethics of algorithms: Mapping the debate. Big Data & Society, 3(2),1-21.

Moore, M. and Tambini, D., Eds. (2018). Digital dominance: the Power of Google, Amazon, Facebook, and Apple. Oxford: Oxford University Press.

Nachtwey, O. and Staab, P. (2020). Das Produktionsmodell des digitalen Kapitalismus. Soziologie des Digitalen – Digitale Soziologie? In Soziale Welt – Sonderband 23, Hg. S. Maasen und J.-H. Passoth. Baden-Baden: Nomos: 285-304.

Nassehi, A. (2019). Muster. Theorie der digitalen Gesellschaft. München: C.H. Beck.

Pasquale, F. (2015). The Black Box Society. The Secret Algorithms That Control Money and Information. Cambridge, MA, London: Harvard University Press.

Pasquale, F. (2017). The Automated Public Sphere. In T