37,99 €
Verheißungen über Künstliche Intelligenz (KI) sind spekulative Bedeutungszuschreibungen und Heilsversprechen, die aus KI ein kollektives Tröstungsprojekt machen - so die These von Stefan Selke. In einer Metastudie vergleicht er vier prototypische Zukunftsnarrative und zieht dazu Quellen von Fachtexten bis zu Science-Fiction heran. Sein gesellschaftswissenschaftlicher 360-Grad-Blick auf das opake Phänomen KI macht deutlich: Verheißungen spielen eine zentrale Rolle für das zukünftige, technisch geprägte Weltdesign. Dank des innovativen Zugangs zum Gegenstand sind nicht nur Wissenschaftler*innen angesprochen, sondern alle, die Interesse an KI und anderen Transformationsthemen sowie einer Ausweitung des Diskurses haben.
Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:
Seitenzahl: 568
Stefan Selke (Prof. Dr.), geb. 1967, lehrt Soziologie und gesellschaftlichen Wandel an der Hochschule Furtwangen. Im Rahmen seiner Forschungsprofessur Transformative und Öffentliche Wissenschaft leitet er das Public Science Lab. 2021 wurde ihm der Wolfgang-Heilmann-Preis der Integrata-Stiftung zum Thema »Humane Utopie als Gestaltungsrahmen für die Nach-Corona-Gesellschaft« verliehen.
Verheißungen über Künstliche Intelligenz (KI) sind spekulative Bedeutungszuschreibungen und Heilsversprechen, die aus KI ein kollektives Tröstungsprojekt machen – so die These von Stefan Selke. In einer Metastudie vergleicht er vier prototypische Zukunftsnarrative und zieht dazu Quellen von Fachtexten bis zu Science-Fiction heran. Sein gesellschaftswissenschaftlicher 360-Grad-Blick auf das opake Phänomen KI macht deutlich: Verheißungen spielen eine zentrale Rolle für das zukünftige, technisch geprägte Weltdesign. Dank des innovativen Zugangs zum Gegenstand sind nicht nur Wissenschaftler*innen angesprochen, sondern alle, die Interesse an KI und anderen Transformationsthemen sowie einer Ausweitung des Diskurses haben.
Stefan Selke
Dieses Buch ist die erweiterte und stark überarbeitete Fassung eines Gutachtens, das im Rahmen des BMBF-Projekts KI.Me.Ge »KI-Mensch-Gesellschaft« entstand. (Vgl. https://www.kimege.de) Der Titel des Originalgutachtens lautete »Gesellschaftliche Verheißungen von KI«.
Bibliografische Information der Deutschen NationalbibliothekDie Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.
© 2023 transcript Verlag, BielefeldAlle Rechte vorbehalten. Die Verwertung der Texte und Bilder ist ohne Zustimmung des Verlages urheberrechtswidrig und strafbar. Das gilt auch für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und für die Verarbeitung mit elektronischen Systemen.
Umschlagkonzept: Kordula Röckenhaus, Bielefeld
Umschlagabbildung: View of the Earth seen by the Apollo 17 crew traveling toward the moon, 1972, NASA
Korrektorat: Joris Helling, Bielefeld
Print-ISBN: 978-3-8376-6928-2
PDF-ISBN: 978-3-8394-6928-6
EPUB-ISBN: 978-3-7328-6928-2
Buchreihen-ISSN: 2626-580X
Buchreihen-eISSN: 2702-9077
»Haben Sie heute schon mit Siri gesprochen? Nein. Ich werde auch nicht mit Siri sprechen. Ich spreche nicht mit jedem.« (H.P. Baxxter, Musiker)
Cover
Titel
Impressum
Widmung
Inhaltsverzeichnis
Prolog: KI als Meta‐Netz der Menschheit
1. Künstliche Intelligenz als epochentypische Verheißung
1.1 KI als ›Star‹ im Drama der Digitalisierung
1.2 Fortschrittsgeschichten als Zukunftsversprechen
1.3 Zwischen technischem Artefakt und sozialer Bedeutung
Prototypische Zukunftsnarrative über KI
2. Anpassungs‐Narrative: Operativ‐funktionale KI‑Verheißungen
2.1 Technikpotenziale
2.2 Effizienzsehnsucht
2.3 Akzeptanztests
2.4 Inszenierungsstrategien
2.5 Futurisierungszwang
2.6 Wettkampfarenen
3. Quest‐Narrative: Kognitiv‐epistemologische Verheißungen
3.1 Wiederverzauberung
3.2 Subjektsimulationen
3.3 Techno‐Animismus
3.4 Superintelligenz
3.5 Singularität
3.6 Erlösungsfantasien
4. Aufbruchs‐Narrative: Zivilisatorisch‐transformative KI‑Verheißungen
4.1 Innovationsanspruch
4.2 Machbarkeitsfantasien
4.3 Kybernetisches Regieren
4.4 Zivilisationsexperimente
4.5 Planetenhüter
4.6 Lebenssynthese
5. Unheil‐Narrative: Hiobsbotschaften und Grenzverschiebungen
5.1 Kontrollverlust
5.2 Entfremdung
5.3 Zerstörungsantizipationen
5.4 Entmündigungsurteile
5.5 Totalüberwachung
5.6 Ethische Freihandelszonen
Von Zukunftsnarrativen zu Zukunftseuphorie
6. Hoffnung statt Erschöpfung
6.1 Knappheit und Katastrophe
6.2 Flucht statt Heilung
6.3 Affekte als Schwellenphänomen
6.4 Jahrmärkte der Hoffnung
6.5 Orte des Zukunftsdenkens
7. Zukunftsverheißung als Heilssehnsucht
7.1 Verheißungen im Wandel
7.2 Jenseitige Heilsversprechen
7.3 Diesseitige Potenzialversprechen
8. Sehnsucht nach welthaltigem Trost
8.1 Trost als soziale Form
8.2 Welthaltige Tröstungen
8.3 Narrative Spekulationen
8.4 Antizipationserzählungen
8.5 Narrativer Wissensraum
9. KI als kollektives Tröstungsprojekt
9.1 Neue Rollenzuschreibungen
9.2 Heiligkeitsäquivalente
9.3 Neoreligiöse Lichtgestalten
9.4 Gesellschaftsutopie statt Innovation
9.5 Verheißungsfreie Zukunftsethik
Quellen
Gespräche über KI
In Peter Høegs düsterem Roman Der Plan von der Abschaffung des Dunkels beschreibt der Autor (s)eine Kindheit in dänischen Erziehungsheimen. Nebenbei erinnert er an den inzwischen fast in Vergessenheit geratenen Biologen, Zoologen und Philosophen Jakob Johann von Uexküll. Dieser ging davon aus, dass jedes Lebewesen über eine eigene »Umwelt« und damit auch über ein subjektives Zeit‐ und Raumempfinden verfügt. Genau diese doppelte Einbettung erläutert Høeg am Beispiel von Spinnen: »Eine Spinne sieht und hört schlecht, und ihr Geruchssinn ist auch nicht so gut, ihre Umwelt ist also begrenzt durch ihren Wahrnehmungsapparat. Doch sie hat ihr Netz, damit sie ihre Wahrnehmung weit über sich hinaus ausdehnt.« (Høeg 1999: 287) Sind Spinnen also besonders ›intelligent‹, wenn sie darauf verzichten, ihr eigenes Netz über einen gewissen Umfang hinaus auszudehnen? Denn täten sie es, empfingen sie letztendlich verwirrende Signale. Durch ein zu weit gespanntes Netz würde die Spinne »weit mehr Signale empfangen, als sie verarbeiten könnte«, so Høeg. »Dann käme das abnorm große Netz in Konflikt mit dem Wesen der Spinne [...], mit ihrer Natur.« (Ebd.: 289)
Das Bild des Netzes dient als gedanklicher Ausgangspunkt, um in diesem Buch über gesellschaftliche Funktionen von Verheißungserzählungen im Umfeld Künstlicher Intelligenz nachzudenken. So viel Analogie darf sein: Welches »Netz« haben sich Menschen im Laufe der Zeit gesponnen? Welche Signale lassen sich mit informationstechnischer Hilfe empfangen? Fest steht: Technikgeschichte ist eine stetige Abfolge von Netzen, die immer weiter reichen und zugleich immer empfindlicher wurden. Warum das nicht folgenlos bleiben kann, erläutert Høeg (ebd.) ebenfalls, denn die »Erforschung der Welt durch den Menschen, sein Netz, verändert auch die Welt«.
Zumindest lässt sich erahnen, dass KI bereits jetzt einen Anteil an der Veränderung unserer Welt hat. KI spinnt ein weitreichendes Netz aus neuen Wahrnehmungen und neuen Wissensformen. Besonders eindrücklich ist die Umwälzung bisheriger Gewissheiten und die Erweiterung menschlicher Fertigkeiten gegenwärtig am Beispiel des textbasierten Dialogsystems ChatGTP zu erkennen. Was hat es also mit KI auf sich? Zukunftseuphorische Verheißungen mit KI‑Bezug versprechen eine nahezu unendliche Ausdehnung unserer Merk‐ und Wirkwelt (ebenfalls zwei zentrale Begriffe aus der Theorie von Uexkülls). KI, so die zentrale Verheißung, könnte eines Tages zum Meta‐Netz der Menschheit werden, zur totalen Entgrenzung unserer Augen, Ohren, Sinnesorgane und Denkwerkzeuge. Was genau ließe sich damit gewinnen? Was wäre, wenn es sich mit dem »Meta‐Netz« einer KI so verhielte, wie mit dem zu weit ausgedehnten Netz der Spinne im Gedankenexperiment Peter Høegs? Könnte es sein, dass uns dieses neue, unendliche Netz überfordert, weil es in Konflikt mit unserem Wesen steht, mit unserer menschlichen Natur?
Dieses Buch behandelt die gesellschaftlichen Funktionen von Verheißungen über KI im Kontext zeitgenössischer Zukunftserzählungen. Aber was erzählen verheißungsvolle Geschichten wirklich? Was lässt sich daraus über KI lernen und was über uns selbst? Beim Versuch, diese Fragen zu klären, sollten wir stets folgendes Bild im Hinterkopf haben: Das Netz der Spinne ist das Abbild ihrer erhofften Beute.
Möglicherweise ist KI das beste Beispiel dafür, dass wir inzwischen intensiv mit Technologien zusammenleben, für die es keine äußere Entsprechung mehr gibt. Dennoch werden ganze Zeitalter nach diesen intransparenten Technologien benannt. Es verwundert kaum, dass wir gerade »im digitalen Zeitalter der Bits und Algorithmen, der künstlichen Intelligenz und des Internets leben [...] und dass dieses Zeitalter voller Verheißungen steckt« (Grunwald 2019: 19). Weil aber Verheißungen über KI das Spiegelbild unserer Epoche sind, werden unterschiedliche Verheißungen und deren gesellschaftliche Funktionen im vorliegenden Buch systematisch untersucht (Teil 1). Technik als Trost? Der Titel des Buches ist die kürzte Zusammenfassung der hier vertretenen These. Denn es wird sich zeigen, dass verheißungsvolle Zukunftsnarrative jenseits des Technischen eine besondere Qualität besitzen und in modernen und zugleich erschöpften Gesellschaften als Trostersatz wirken, weil sie euphorisch stimmen (Teil 2).
In diesem Spannungsfeld zwischen Zukunftserzählungen und Zukunftseuphorie wird es ohne Emotionen nicht gehen, denn für viele Zeitgenossen ist KI eine unfassbare »Provokation« (Truttmann 2021: 13ff.). Genau diese Einbettung macht KI jedoch zu einem idealen Gegenstandsbereich der Gesellschaftswissenschaften. Gerade weil bereits ausgiebig über KI geforscht, publiziert, medial berichtet und literarisch erzählt wird, muss das Feld zwischen Erklärungen und Beurteilungen ausgelotet werden. Damit steht der umfangreiche und heterogene narrative Wissensraum über KI zur Disposition.
Zunächst wird im ersten Teil des Buches mit dem systematischen Vergleich von vier prototypischen Zukunftsnarrativen mit KI‑Bezug eine neue Blickachse eingeführt. Verheißungsvolle Zukunftserzählungen zeichnen sich gerade dadurch aus, dass sie keine funktionalen Bedienungsanleitungen sind, sondern spekulative Bedeutungszuschreibungen mit überhöhten Zukunftserwartungen. Verheißungserzählungen sollten nicht als technologische Leistungsschau missverstanden werden. Vielmehr sind sie Spiegel unserer Kultur und Epoche. Kurz: Verheißungsvolle Narrative über KI sind eine Signatur der Gegenwartgesellschaft. Verheißungen weisen über bekannte Polarisierungen zwischen ›kulturpessimistischen‹ und ›technikeuphorischen‹ Argumenten hinaus. Deshalb wird im zweiten Teil des Buches eine soziologische Umdeutung einer bekannten anthropologischen Beschreibung von Trost und Tröstungsritualen vorgenommen.
Die epistemologische Position von Verheißungsnarrativen ist somit nicht trivial. Das Beispiel KI verdeutlich, dass Funktion oftmals Reflektion ersetzt, weil überzeugende technische Lösungen kaum noch Gegenstand von Beobachtung sind. (Nassehi 2019: 225) Genau hier setzt die vorliegende Studie an, wenn sie die Frage stellt, was zeitgenössischen Verheißungen über KI bedeuten, wo sie herkommen, in welche Traditionslinie(n) sich diese Narrative einordnen lassen und welche – auch unerwartete – Funktionen mit Verheißungsnarrativen verbunden sind. Die These des Trostersatzes verdeutlicht, dass es bei einer gesellschaftswissenschaftlichen Beobachtung von KI darum geht, die Notwendigkeit zukunftseuphorischer Verheißungen für zeitgenössische Gesellschaften erklärbar oder zumindest plausibel zu machen.
In der Summe führt das zu einer erstaunlichen Perspektivenvielfalt. Inzwischen treffen narrative Imaginationen über KI auf rezeptionsbereite Publika, die sich offen für teils hochspekulative Verheißungen zeigen. Zukunftsnarrative liegen breit gestreut in Form von Fortschrittsgeschichten, Meta‐Analysen, Hype‐Zyklen, politisch‐normativen Leitbildern, Visionen von KI‑Schaffenden, Medienberichten aber vor allem auch als fiktionale Darstellungen (Science‐Fiction) vor. Alle zusammen läuten sie das eingangs angedeutete neue »Zeitalter voller Verheißungen« (Grunwald 2019: 19) ein. Es wird also darum gehen, Geschichten über KI als epochentypische Verheißung neu einzuordnen. Im Wesentlichen geht es dabei um die Frage, worüber Menschen eigentlich reden, wenn sie über KI sprechen. Welche positiven und negativen Zuschreibungen sind explizit oder implizit in Zukunftserzählungen enthalten?
Immer häufiger nutzen Akteure in Wirtschaft, Wissenschaft und Politik Digitalisierungssemantiken, um Selbstbeschreibungen ihres Leistungsvermögens anzufertigen. Vor diesem Hintergrund weist Florian Süssenguth in Die Gesellschaft der Daten erstens darauf hin, dass es eine »auffällige Pluralität von Beschreibungsformeln« (Süssenguth 2015b: 8) gibt, dass es aber zweites eher auf die Funktionen von Digitalisierungssemantiken, als auf die Folgen der Digitalisierung selbst ankommt, dass also »Semantiken der Digitalisierung eine Erzählung der Auflösung bestehender Strukturen« sowie des »disruptiven Wandels und des Kontrollverlusts« darstellen. Digitalisierungssemantiken verflüssigen bestehende Erwartungsstrukturen, regen aber auch dazu an, neue Bewertungskriterien für gesellschaftliche Funktionssysteme zu ersinnen, denn am Ende des Tages geht es um die »paradoxe Notwendigkeit, das Unausweichliche organisieren zu müssen« (Süssenguth 2015c: 93). Wenn es aber um die Transformation von Gesellschaft geht, ist KI der ›Star‹ auf der Bühne der Digitalisierung. Zukunftsgeschichten mit KI‑Bezug übertreffen bereits bestehende Digitalisierungsnarrative bei weitem. Was hat uns »die Digitalisierung« nicht schon alles versprochen? Oder das Internet? Und nun endlich: KI! Verheißungserzählungen mit KI‑Bezug erzählen die Dramen der Digitalisierung auf einer neuen Stufe fort. Daher verwundert es kaum, dass KI zahlreiche Lösungspotenziale zugeschrieben werden und diese – meist ohne jede Übertreibung – gleich mit der ›Zukunft der Menschheit‹ assoziiert werden.
Um das gesamte Spektrum möglicher Veränderungen angemessen einzufangen und ein tiefergehendes Verständnis von KI‑Verheißungen zu entwickeln, braucht es allerdings Perspektivenvielfalt und Polyvokalität. Vielstimmigkeit ist allein deshalb wichtig, weil manche Autoren im Kontext von KI tendenziell »zu Einseitigkeit, Stereotypisierung und Herabsetzung der Wichtigkeit der anderen Beiträge« neigen. (Becker 2019: 22) Die Schriftgelehrten der digitalen Transformation sind vorwiegend Technokraten, weil Prioritäten eher von den Mitteln und nicht vom Menschen gedacht werden. Technische und wirtschaftliche Interessen stehen im Vordergrund. Die ›Schlossermentalität‹, wie das technische Narrativ (ein wenig polemisch) genannt wird, bestimmt die Pragmatik der Diskussionsforen. (Ebd.: 27) Weil die Sichtweise auf KI zu einseitig ist, braucht es komplementäre gesellschaftswissenschaftliche Perspektiven, die Wechselwirkungen zwischen Technik und Gesellschaft stärker in den Blick nehmen. Denn es reicht nicht aus, »in Technik immer nur das Verheißungsszenario zu sehen«, so die Philosophin Susann Kabisch, eine der für diese Studie interviewten Expertinnen.1 »Stattdessen sollten möglichst diverse Positionen einbezogen werden, um die Entwicklung, Einführung und Anwendung von KI zu begleiten.« Eine polyvokale Zukunftserzählungen über KI muss auf vielfältige Quellen zurückgreifen, um das Gesamtbild des Verheißungsvollen zu rekonstruieren. Berührungsängste sind bei diesem Vorgehen eher hinderlich. Deshalb finden im Folgenden gleichermaßen Science‐Fiction‐Romane und Fachartikel sowie viele weitere Quellen über KI Berücksichtigung bei der Untersuchung. Damit sind auch einige Einschränkungen verbunden: An keiner Stelle der Studie wird es um die Plausibilität von Zukunftsvisionen rund um KI gehen. Erkenntnisleitend ist ausschließlich die Frage, welche Bedeutung verheißungsvolle Zukunftsprojektionen in der Gegenwartsgesellschaft haben können.
Eine vorbildliche Strategie der Vielstimmigkeit wird im Sammelband Possible Minds. 25 Ways of Looking at AI verfolgt. Darin lässt der Herausgeber John Brockman zahlreiche prominente Forscher als Übung in »Perspektivismus« (ebd.: xxv) zu Wort kommen. KI ist für ihn nicht nur die Geschichte unserer Zeit, sondern vielmehr die Geschichte hinter allen anderen Geschichten. »It is the Second Coming and the Apocalypse at the same time: good AI versus evil AI.« (Brockman 2020: xv) Diese grundlegende Dichotomie bestimmt auf den ersten Blick die Wahrnehmung von KI. Allerdings muss es darum gehen, aus diesen polaren Beurteilungsschemata auszubrechen. Gegenüberstellungen wie ›gut/böse‹ oder ›Utopie/Dystopie‹ sind wenig zielführend. Die mosaikartige Anthologie Possible Minds versucht zumindest, ein Leitmotiv in der dynamischen Debatte über KI zu erkennen. Als roter Faden dient hierbei Norbert Wieners Buch The Human Use of Human Beings (dt.: Mensch und Menschmaschine) – ein Meilenstein selbstkritischer Wissenschaft über intelligente Maschinen. Brockmann stellt Wiener anhand eines einprägsamen Satzes vor: »He knew the danger was not machines becoming more like humans but humans being treated like machines.« (Ebd.: xxvi) In der Tat warnte Wiener in seinem Buch God & Golem vehement davor, dass die Welt der Zukunft sich in einem Konflikt mit den Begrenzungen unserer menschlichen Intelligenz befinden werde. (Wiener 1963) Alle Beiträge des zeitgenössischen Sammelbandes greifen die Argumente Wieners erneut auf, entwickeln diese weiter und kommentieren dabei (eher beiläufig) vorherrschende KI‑Verheißungen.
Eine weitere Möglichkeit, um Vielstimmigkeit als Erkenntnisinstrument nutzbar zu machen, sind stilbildende Konferenzen wie z.B. die fünftägige Asilomar‐Konferenz zu Beneficial AI, die 2017 vom Future of Life Institute organisiert wurde, um Aspekte »nützlicher« und »wohltätiger« KI auszuloten. Eine Gruppe von KI‑Forschern aus Wissenschaft und Industrie sowie Vordenkern aus den Bereichen Wirtschaft, Recht, Ethik und Philosophie entwickelte Leitsätze, die schließlich von mehreren tausend Experten und Unterstützern unterzeichnet wurden.2 Im narrativen Wissensraum zu KI finden sich zahlreiche vergleichbare Initiativen und Manifeste. Zusammengenommen ergibt sich ein Kaleidoskop an Stimmungen, Ängsten, Werte‐ und Moralvorstellungen. Die Vielfalt der Narrative macht zudem deutlich, dass die diskursive Dimension von Technik nicht übersehen werden darf. KI ist mehr als Technik, die funktioniert. Vielmehr handelt es sich um ein vielschichtiges soziales Drama, das zahlreiche Schnittstellen zwischen Weltgeschehen und Lebensführung betrifft. Eine soziologische Perspektive rückt daher Bedeutungszuschreibungen in den Mittelpunkt.
In Verheißungsnarrativen, so die These dieses Buches, verbinden sich öffentlich zirkulierende Zukunftshoffnungen und private Erwartungshorizonte. Mit der Analyse von KI‑Verheißungen geht auch ein emanzipatorischer Anspruch einher. Es geht darum, nicht lediglich ein stillschweigender oder sogar gleichgültiger Zuschauer eines Geschehens zu bleiben. Um den Sinn der eigenen Epoche besser zu verstehen, braucht es vielmehr Einsicht darin, wie die Veränderungen des Weltgeschehens und die eigene Biografie in Wechselwirkung stehen. Der Soziologe C. Wright Mills prägte dafür die bekannte Formel von den »public issues« (öffentliche Angelegenheiten) und den »private troubles« (private Sorgen) (vgl. Mills 1959 und auf Deutsch Mills 1963). Gerade KI greift immer direkter in das Weltgeschehen ein und schreibt sich damit ebenfalls in private Lebensläufe ein. Ein fundiertes Verständnis neuer Verheißungserzählungen führt im besten Fall dazu, Gleichgültigkeit in Beteiligung zu verwandeln. Dazu braucht es nicht notwendigerweise eine eindeutige Position für oder gegen KI. Vielmehr geht es darum, den Korridor der Gesellschaftsgestaltung zwischen persönlichem Unbehagen und inszenierter Zukunftseuphorie auszuloten. Für dieses Verständnis braucht es weder eine Gesamtschau aller vorliegenden Verheißungserzählungen, noch die Nacherzählung der Technikgeschichte von KI. Genau das leisten bereits andere Akteure.3 Auch begriffliche Abgrenzungen, wie z.B. die Definition von Intelligenz müssen an anderer Stelle geleistet werden.4 Gleiches gilt für eine kultursensible Kontextualisierungen von Verheißungen. Trotz dieser Einschränkungen werden zahlreiche Erwartungshorizonte rekonstruiert, die mit Verheißungsnarrativen über KI verbunden sind.
Vorbilder dieser Studie sind z.B. der Sammelband AI Narratives, in dem antike, moderne und zeitgenössische Erzählungen über intelligente Maschinen vorgestellt werden. Sie alle haben einen Bezug zu zeitgenössischen KI‑Verheißungen. Die Publikation versteht sich als eine Anthologie von Imaginationen, die den historischen und zugleich kulturellen Kern zeitgenössischer KI‑Diskurse offenlegt. (Cave et al. 2020a: 5) Dieser Rückblick auf historische Quellen legt wichtige Traditionslinien offen, z.B. Erzählungen über die dämonische Macht von Maschinen, die Menschen kontrollieren. »Artificial Intelligence was used to maintain social boundaries and uphold social norms, acquire or consolidate power over others, and attain knowledge otherwise unavailable to human understanding.« (Truitt 2020: 66) Deutlich wird auch, dass Verheißungserzählungen immer auch mit Unheil‐Botschaften einhergehen: Einerseits intelligente Maschinen, andererseits Dehumanisierung oder Entfremdung. Die Herausgeber betonen »the consequences of automation and mechanization for society; the cultural assumptions embedded in the anthropomorphization of machines; the importance of understanding AI as a distributed phenomenon; the human drivers behind the desire for technologically enabled immortality; the interaction of AI with the sovereign‐governance game that defines modern rules« (Cave et al. 2020b: 5).
Auch diese Perspektive ist erkenntnisreich, denn für zahlreiche Kritiker von KI ist der Prozess der Dehumanisierung bereits in vollem Gang. »Der Mensch wird zum Roboter«, so etwa Peter Seele, »und die Maschine hat es dann um ein Vielfaches leichter, dem Menschen ähnlicher zu werden – oder diesen zu beaufsichtigen oder zu kontrollieren. Das ist keine Zukunftsmusik. Algorithmen als Boss sind bereits vielfältige Realität geworden.« (Seele 2020: 164) Auf den ersten Blick klingt das einseitig (oder sogar dystopisch), doch bei näherem Hinsehen wird ersichtlich, dass gerade Zukunftsnarrative über intelligente Maschinen den Weg zu komplexeren Debatten über soziale, ethische, politische und philosophische Folgen von KI ebnen. In ihrer Funktion als sozio‐technische Imaginationen besitzen KI‑Narrative das Potenzial, die vielfältigen Beziehungen zwischen Technologie und Gesellschaft deutlich werden zu lassen. Die Forscherin Shiela Jasanoff versteht unter sociotechnical imaginaries »collectively held, institutionally stabilized, and publicly performed visions of desirable futures, animated by shared understandings of forms of social life and social order attainable through, and supportive of, advances in science and technology« (Jasanoff 2015: 4). Hier ist ebenfalls eine Vielzahl von Perspektiven zu berücksichtigen, denn sociotechnical imaginaries bestehen aus einer »assemblages of materiality, meaning, and morality that constitute robust forms of social life«, so Jasanoff weiter. »Imaginaries are securely established in interpretative social theory as a term of art referring to collective beliefs about how society functions.« (Ebd.: 5) Bereits hier zeigt sich die Bedeutung von Science‐Fiction, weil im narrativen Format Technologien nicht nur imaginiert, sondern stets in bestimmte gesellschaftliche Settings situiert werden. Die Herausgeber des Sammelbandes AI Narratives kommen deshalb zu folgendem Ergebnis: »Narratives of intelligent machines matter [...], these developments are interpreted and assessed. [...] AI narratives have played, and will continue to play, a crucial role in determining the future of AI implementation.« (Cave et al. 2020a: 7, 10)
Zweifelsohne sind mit KI zahlreiche Technikversprechen verbunden. Unter ›technology promises‹ sind spezifische Narrative zu verstehen, die Leitvisionen in Innovations‐ und Forschungsprozessen bündeln und damit Zukunftserwartungen begründen. (Van Lente/Rip 1998) Grundlage dieser Zukunftsversprechen ist kulturell eingeübte Technikgläubigkeit. Da es schwer ist, Technikgläubigkeit empirisch zu messen, werden Versprechen meist in der Form euphorischer Fortschrittsgeschichten weitergegeben – daher erfolgt im zweiten Teil dieses Buches eine vertiefte Analyse der Funktion von Zukunftseuphorie. Beispielhaft ist die Übersichtsdarstellung des Historikers Marcel Hänggi, der für eine »realistische und kritische Wahrnehmung von Technik jenseits von Technikeuphorie und Technikfeindschaft wirbt« (Hänggi 2015: 23). Zentral für Fortschrittsgeschichten ist das Zusammenspiel latenter Andeutungen und hoffnungsvoller Erwartungen. Geschickt vermischt, entsteht auf diese Weise eine ganz eigene soziale Realität. Für Technikversprechen gibt es keine Grenze. KI ist hierfür wohl das beste Beispiel. »The prevalence of narratives focused on utopian extremes can create expectations that the technology is not (yet) able to fulfill. This in turn can contribute to a hype bubble, with developers and communicators potentially feeding into the bubble though over‐promising.« (Royal Society 2018: 14)
Überzogene Versprechungen tauchen tatsächlich in vielen Varianten auf. Die Journalistin Kathrin Passig versuchte sogar, »Standardsituationen des Technologieoptimismus« als Untervariante technologischer Heilsversprechen nachzuzeichnen. Allerdings erkannte sie später selbstkritisch, dass Technologieversprechen auch ins Leere laufen können. »Ich habe einige Zeit gebraucht, um überhaupt zu merken, dass es auch falsche optimistische Vorhersagen geben kann«, so Passig. »Natürlich ist Wunschdenken [...] im Spiel, und die fehlende Bereitschaft, sich mit Veränderungen auseinanderzusetzen.«5 Am Beispiel von KI lässt sich diese Form informierter Ignoranz sehr schön beobachten. KI? Schon mal gehört! Aber so richtig wissen, wollen es nur die Wenigsten.
Technikversprechen werden meist durch Hype Cycle illustriert. Diese versinnbildlichen, wie sich die Sicht auf neue Technologien nach und nach verändert: Nach der Erfindung einer Technologie mündet deren Wahrnehmung rasch in einem »Gipfel überzogener Erwartungen«, fällt dann in ein »Tal der Enttäuschungen« ab und pendelt sich schlussendlich auf einem »Plateau ausgewogener Produktivität« ein. (Fenn/Mark 2008) Anders als Verheißungen besitzen Hypes nur eine kurze Halbwertszeit. Sie sind zudem an konkrete Produkte, Orte und Namen gebunden. »Utopien operieren hingegen stets mit langen Zeiträumen«, so der Medienwissenschaftler Rudolf Maresch. »Weder durch Enttäuschungen noch durch das Leerlaufen von Zukunftsversprechen lassen sich Utopien falsifizieren.« (Maresch 2001: 235) Gerade in dieser Immunisierungsfunktion konkretisiert sich der verheißungsvolle Charakter utopischer Fortschrittsgeschichten. Euphorische Heilsversprechen schießen zwar stets über das Ziel hinaus, sind dabei aber nicht komplett unrealistisch. Tatsächlich werden bereits erstaunliche Fortschritte gemacht, die noch vor kurzem wie Science‐Fiction klangen. (Budian 2020: 35) KI ist dafür wohl das aufregendste Beispiel – keine Woche ohne neue, aufsehenerregende Ankündigungen über ChatGTP oder vergleichbare KI‑Anwendungen. Verheißungen suggerieren positive Veränderungen. Mehr noch: Alles wird gut! Jede »Verheißung hat einen prophetischen Touch, weil damit die Erwartung von etwas Großartigem verbunden ist«, so der Psychologe Florian Hutmacher. »Auf jeden Fall eine positive Konnotation – eine positive Zukunftserzählung über neue Chancen.« KI wird von Vielen – wissend oder unwissend – als »very forward‐looking thing« betrachtet, so der optimistische Daten‐Analyst Boris Paskalev. Mit Versprechungen über bislang ungeahnte Potenziale werden latente Wünsche von Menschen bedient, die einer Vision entsprechen«, entgegnet die eher skeptische Forscherin Verena van Zyl‐Bulitta. »Es ist ein Versprechen, die Hoffnung auf zukünftige technische Umsetzungen.«
Gerade das Beispiel KI verdeutlicht eine weit über das Empirische hinausschießende Gläubigkeit an die Potenziale von Technologien. Allerdings stellt sich hierbei die Frage, wie weit diese Unterstellungen reichen. Wo liegt der Fluchtpunkt technikeuphorischer Erwartungen? »Irgendwann geht Technikgläubigkeit in das rein Spekulative oder die Verheißung über«, so der Informatiker Karsten Wendland. »Wobei dann eigentlich niemand mehr die Grundlage des Versprechens beurteilen kann.« Verheißungsvolle Geschichten über KI sind nicht deshalb interessant, weil sie zeigen, was KI tatsächlich leistet. Sie sind interessant, weil zukünftige Lösungen versprochen werden und weil diese Zukunftserzählungen etwas über gegenwärtige Erwartungen aussagen.
Technologieerwartungen (expectations statements) werden zudem gerne medial inszeniert. Ein Beispiel ist die TV‑Serie Years and Years (Russell Davies, 2019), die das Leben einer britischen Familie zwischen den Jahren 2019 und 2034 zeigt. Nebenbei wird verdeutlicht, wie sich digitale Technologien verändern und zum radikalen Wandel der Lebensverhältnisse beitragen. »Diese Serie ist eine Warnung an die Menschheit«, so der Kritiker Thomas Lückerath, »verpackt in einer dramatischer Serien‐Dystopie.«6 Einmal mehr zeigt sich, dass Technikgläubigkeit keine Grenzen kennt: »Zum Schluss quatschen die Leute mit den Wänden«, ironisiert die Designerin Johanna Tiffe die Sogwirkung von Technikerwartungen mit Bezug auf Years and Years. Die Visionen von KI‑Programmierenden und Medieninszenierungen überlappen sich genau dort, wo Zukunftsversprechen vor allem in Form von Entlastungserwartungen auftreten. Im Diskurs um Technikerwartungen unterscheidet Andreas Kaminski hierbei vier Basiserwartungen: Potenzialerwartungen, Vertrautheitserwartungen, Vertrauenserwartungen sowie Funktionierbarkeitserwartungen. (Kaminski 2010) Derartige Versprechen kann KI aber erst dann einlösen, wenn ihr (als Technologie) schier Unglaubliches und zugleich Undurchschaubares unterstellt wird. Dies zielt auf den Kern dieses Buches: Die spekulative Aufladung von Zukunftsnarrativen als Verheißung beginnt bereits dort, wo KI als komplex angenommen wird. Der Komplexitätsmythos ist der verbindende Kern aller KI‑Verheißungsnarrative. Da hilft es auch nicht, diese Vorannahme vorauseilend zu entkräften. »Entgegen einer weitverbreiteten Fehlannahme, muss eine KI nicht immer schwer berechenbar und komplex sein«, so etwa die Studie Künstliche Intelligenz von Lufthansa Industry Solutions. »Für jede klar abgegrenzte Aufgabe lässt sich auch eine kleine und einfach zu handhabende KI entwerfen, die wertige Ergebnisse liefert.« (Lufthansa 2020: 6)
Es reicht daher nicht aus, in KI bloß eine weitere Hoch‐Technologie zu sehen. Das technische Artefakt (=von lat. arte ›mit Kunst‹ und factum ›das Gemachte‹) hat an sich nur eine geringe Bedeutung. Gerade zum Verständnis von Verheißungen ist ein erweiterter Technikbegriff notwendig, um zu den gesellschaftlichen Bedeutungen von KI vorzudringen. Auf diese Weise lassen sich dann auch Zukunftsnarrative und Zukunftseuphorie als die beiden Eckpunkte einer gesellschaftswissenschaftlichen Perspektive auf KI ausbuchstabieren.
Ausgangspunkt ist hierbei eine Besonderheit von Verheißungserzählungen, denn sie stellen eine Verbindung zwischen verschiedenen Dimensionen von Technik her. Bereits der Technikphilosoph Günter Ropohl unterschied die inneren Strukturen einer Technologie von äußeren Reaktionen auf diese Technologie. Techniker, Informatiker und Ingenieure sind hingegen meist von einem eindimensionalen Technikverständnis geprägt, das nur die »gemachten Sachen« betrachtet, nicht aber deren »menschliche Verwendung«. So führen etwa ein Computer oder eine intelligente Maschine kein isoliertes Eigenleben, sondern funktionieren nur durch und für den Menschen. Auf diese Weise entsteht eine Mensch‐Maschine‐Einheit, für die Ropohl den (inzwischen klassischen) Begriff des »sozio‐technischen System« prägte. (Ropohl 2009: 71f.) Der Verheißungscharakter von KI nimmt daher vor allem nicht‐funktionale Aspekte (Beurteilungen, Bedürfnisse, Hoffnungen, Ängste) in den Blick, die in Zukunftserzählungen als Bindeglied zwischen internen Strukturen und externen Reaktionen auftauchen. Technik sollte in Anlehnung an die (ebenfalls klassische) Einlassung des Philosophen Martin Heidegger nicht primär im Hinblick auf Funktionen und Leistungen betrachtet werden, sondern »als ein existentieller und epistemologischer Ort, wo sich die Entbergung des Seins ereignen kann« (zit. n. Gumbrecht 2018: 23). Doch welches »Sein« kann sich in KI »entbergen«? Welche Botschaft über uns, unser Leben und unsere Gesellschaft sind in KI‑Verheißungen enthalten? Fest steht lediglich, dass es je nach Erkenntnisinteresse ganz unterschiedliche Perspektiven und Bezugsprobleme gibt. »Unterschiedliche Gruppen schauen unterschiedlich auf KI«, so Karsten Wendland, der auch gleich auf die Folgen inkompatibler Betrachtungsweisen hinweist. »Das hat sehr viel mit Inszenierungen zu tun. Lösungsversprechen führen weg vom Menschen, hin zur Technik.«
Das zentrale Bezugsproblem dieser Studie ist also nicht die Plausibilität von Aussagen über die technologischen Potenziale von KI, sondern die gesellschaftlichen Funktionen öffentlich zirkulierender Verheißungserzählungen. Es ist jene Perspektive, die Armin Nassehi in seiner »Theorie der digitalen Gesellschaft« einnimmt, wenn er Digitalisierung nicht einfach voraussetzt, sondern vielmehr nach deren gesellschaftlichen Beiträgen fragt: »Für welches Problem ist die Digitalisierung eine gesellschaftliche Lösung?« (Nassehi 2019: 12). Für den Soziologen ist das Bezugsproblem der Digitalisierung die Komplexität der Gesellschaft selbst. (Ebd.: 36) Gesellschaften und deren soziale Systeme bauen auf »internen Stoppregeln, Interdependenzunterbrechungen und Grenzen der Verknüpfungsfähigkeit« auf, die Ordnung limitieren. Die Logik des Digitalen schafft hingegen Ordnung und erzeugt damit neue Strukturen, wenn davon ausgegangen wird, dass Strukturen »letztendlich nichts anderes sind, als die Einschränkungen von Erwartungen in bestimmten Situationen« (ebd.) und Algorithmen heutzutage genau diese Einschränkungen erzeugen. Digitaltechnik fängt »dort an, wo sich die Welt in Daten repräsentieren lässt, um Muster und Strukturen zu erkennen« (ebd.: 229). Deshalb spiegelt sich in der Digitalisierung die Gesellschaft selbst wider, sie »entdeckt [...] sich selbst – und zwar als Einschränkung von Kontingenz, als selektive Form, als sich wiederholende Rekombinatorik, als Entbergung von Mustern, zugleich als Erzeugung von Mustern« (ebd.: 148). Kurz: Mit der Digitalisierung ist eine erhebliche Ordnungsleistung verbunden. Exakt dieses Potenzial zur Ordnungsbildung bildet den Kern vieler KI‑Verheißungen, die wie eine Art Fortsetzungsgeschichte bereits vorgängiger Digitalisierungssemantiken oder ‑narrative gelesen werden sollten. In Teil 1 des Buches wird daher zunächst ein systematischer Vergleich interessensgeleiteter narrativer Perspektiven auf KI geleistet, um zu demonstrieren, wie sich Geschichten über KI mit normativen Haltungen verbinden. In Teil 2 wird dann die Frage nach dem Bezugsproblem von Verheißungen weiter differenziert. Die spezifische Ordnungsleistung von Zukunftseuphorie besteht darin, dass verheißungsvolle Technikerzählungen in zeitgenössischen Gesellschaften als Trostmittel funktionieren.
1 In diesem Buch knüpfe ich zur Illustration und besseren Lesbarkeit wörtliche Zitate aus Gesprächen über KI ein, die mit Experten und Expertinnen aus unterschiedlichen Bereichen geführt habe. Die Zitate sind sprachlich angepasst, ohne den Sinn zu verstellen. Eine Liste der 30 Gesprächspartner*innen findet sich im Anhang. Im gesamten Text wird aus Gründen der Lesbarkeit meist auf genderspezifische Sprachformeln verzichtet (Ausnahmen sind direkte Zitate).
2 https://futureoflife.org/ai-principles-german/ (28.06.2021).
3 Eine interaktiver Zeitstrahl zur Entwicklung von KI findet sich bei der Bundeszentrale für politische Bildung, online verfügbar unter: https://www.bpb.de/fsd/h5p/zeitstrahl-ki/ (15.01.2022). Eine ästhetisch sehr viel ansprechendere Darstellung einer Zeitschiene bzw. Timeline findet sich im Katalog zur Ausstellung AI: More than Human (Barbican International 2019: 72ff.).
4 Gleichwohl gibt es Möglichkeiten, sich der Frage nach dem Unterschied zwischen menschlicher und empirischer Intelligenz empirisch anzunähern, etwa durch diesen Selbsttest, der einige Überraschungen bereit hält https://www.tidio.com/blog/ai-test/#quiz
5 Das ist eine Reaktion auf ihre »Standardsituationen der Technikkritik« (Passig 2013), die die Autorin selbst als einseitig und teils falsch kritisiert. Vgl.: https://www.medienkorrespondenz.de/leitartikel/artikel/neue-technologien-altenbspreflexe.html (20.03.2022).
6 https://www.dwdl.de/madeineurope/72835/years_and_years_russell_t_davies_warnung_an_die_menschheit/.html (20.02.2022).
Zur Zukunft gibt es keinen empirischen Zugang, also muss Zukunft erzählt werden. Diese Zukunftsgeschichten sind weit mehr als Fantasie. Gerade Zukunftserzählungen schaffen Sinnhaftigkeit, sie helfen, das eigene Dasein besser zu verstehen. Geschichten über die Gegenwart dienen dabei als Spiegel, schlüssige Zukunftserzählungen stimmen im besten Fall euphorisch. Euphorie ist nichts anderes als die Einstimmung auf ein neues Ziel. Und die Qualität von Zielen bestimmt die Qualität der Zukunft. Im Kontext gesellschaftlicher Transformation spielen Zukunftsnarrative sogar eine zentrale Rolle: Sie sind keine Illustration, sondern die Quintessenz von Veränderungsprozessen. Am Ende wird darum gehen, verheißungsvolle Zukunftsgeschichten als Mittel des Weltentwerfens nutzbar zu machen, ohne an den darin enthaltenden überhöhten Heilsbotschaften zu erblinden. In diesem Buch werden daher Zukunftsnarrative über KI vorgestellt. Dazu werden Erzählmodelle nutzbar gemacht, die sich in der transformativen Organisationsforschung bewährt haben (Chlopczyk/Erlach 2019). Geschichten über die Zukunft erzählen eigentlich immer von Ereignissen und Erfahrungen aus einer Vergangenheit, die von unserer Gegenwart aus gesehen in der Zukunft liegt. (Müller 2019) Kurz: Es sind vergangene Ereignisse aus einer fiktiven Zukunft. Das prognostische Narrativ – so die in diesem Buch genutzte Bezeichnung über Zukunftsnarrative – ist somit eine Geschichte über ein angestrebtes Ziel in der Zukunft sowie dazugehörige Herausforderungen. Die Funktion von Zukunftserzählungen liegt darin, dass sie plurale Zukünfte entwerfen sowie plausible Mittel zur Zielerreichung definieren. Damit enthalten Zukunftsgeschichten ein hohes Identifikationspotenzial – und zwar unabhängig von der Plausibilität der Zukunftsentwürfe. Sie verbinden Vorannahmen, Wahrnehmungen und Informationen und erzeugen Sinn, der als authentische Beschreibung der sozialen Wirklichkeit wahrgenommen werden kann.
Grundlegend lassen sich vier prototypische prognostische Narrative unterscheiden.1 Zwei der Basisnarrative sind regressiv: das Dagegen‐Narrativ und das Anpassungs‐Narrativ. Die beiden anderen wirken zumindest progressiv. Innerhalb dieser Rahmung kann praktisch jede Geschichte über KI erzählt werden:
Bei Dagegen‐Narrativen geht es um den Kampf gegen einen konkreten oder imaginären ›Feind‹. Für Modernisierungsverweigerer ist KI ein solcher ›Feind‹. Das Leitmotiv ist Ablehnung.
In Quest‐Narrativen steht die Suche nach einem wundervollen ›Schatz‹ im Mittelpunkt. Für digitale Gurus erscheint KI als eine Lösung für beinahe alles. Das Leitmotiv ist Spekulation.
Durch Anpassungs‐Narrative erfolgt die Gewöhnung an das vermeintlich Alternativlose. Zahlreiche Policy‐Paper und ethische Richtlinien versuchen KI als alternatives Phänomen regulativ einzuhegen.
In Aufbruchs‐Narrativen steht schließlich die Sehnsucht nach einer besseren Welt im Mittelpunkt. KI wird daher in einigen Erzählformen als Garant einer besseren Welt oder sogar als Mittel zur Rettung der Welt verstanden.
Diese vier unterschiedlichen Erzählweisen über Zukunft werden nun anhand zahlreicher Beispiele vorgestellt und verglichen.
Anpassungs‐Narrative sind eine weit verbreitete Erzählform über KI. Im Wesentlichen werden dabei Optimierungsaufgaben thematisiert. Das bleibt nicht folgenlos: Wer Anpassungsgeschichten erzählt, signalisiert die Bereitschaft, sich mit dem scheinbar Alternativlosen zu arrangieren oder es sogar zu begrüßen. »Statt digitale Welt noch zu gestalten«, befürchtet daher auch Armin Grunwald, »bliebe uns nur die Anpassung« (Grunwald 2019: 30). Das Anpassungs‐Narrativ kreist daher um die Idee des Sich‐Arrangierens mit dem Unabwendbaren. Erzählt werden Geschichten über kleine Schritte, über Fahren auf Sicht. »Deshalb sind Anpassungsgeschichten gerade in der Politik beliebt«, so der Narrationsforscher Michael Müller, »genau das hat aber auch den Nachteil, dass wenig gestaltet werden kann«. Ein Optimum ist allerdings noch kein Ziel. Das liegt vor allem daran, dass in Anpassungs‐Narrativen vor allem politische oder ökonomische Zwänge sichtbar werden. Anpassung bedeutet im Kern, dass unter Unsicherheit lediglich inkrementelle Verbesserungen eingeführt werden. Wandel erfolgt daher nur Schritt für Schritt. Anpassungs‐Narrative kennen zwar Erfolgskriterien für ein definiertes Optimum, was ihnen aber fehlt ist der Kompass für sinnhafte Ziele. Das ist wichtig, weil nicht Rechenleistung die Mangelware des 21. Jahrhunderts sein wird, sondern Sinnhaftigkeit.
Gleichwohl werden Anpassungs‐Narrative gegenwärtig sogar als »großartige« Zukunftserzählung und »eigenständiges gesellschaftliches Projekt« gefeiert. »Eine Gesellschaft« so der Soziologe Philipp Staab, »die Anpassung ernsthaft und in einem positiven Sinne zu ihrem Leitmotiv machte, hätte [...] in bisher ungekanntem Ausmaß Ressourcen für die Stabilisierung aufzuwenden«. (Staab 2002: 47) Diese Einschätzung verdeutlicht prototypisch, wie in Anpassungs‐Narrativen die Vorstellung eines idealen und zugleich stabilen Gleichgewichts wahrnehmungs‐ und handlungsleitend wird. Anpassungs‐Narrative sollten deshalb weder demokratisiert noch im Kontext einer Rhetorik der Resilienz (oder gar als vermeintliche Notwendigkeit der Evolution) institutionalisiert werden. Denn im Kern sind und bleiben alle Anpassungs‐Narrative einem elitären Gerechtigkeitsverständnis verhaftet: Während sich die Mehrheit mühsam durch Verzicht an die neuen Lebensverhältnisse anpassen und sich als resilient erweisen soll, verweigern die Eliten dauerhaft die dringend notwendige Aufgabe ihrer gut behüteten Privilegien. Wenn Angst vor Destabilisierung und Sehnsucht nach dem vermeintlich Normalen die Haupttreiber von Veränderungen sind, wenn also Anpassungsdruck als wichtiger erachtet wird als gesellschaftliche Reformen, dann kann eine bessere Welt wieder einmal nicht entstehen. Wer Anpassungs‐Narrative verbreitet, signalisiert lediglich die Bereitschaft, sich mit dem scheinbar Alternativlosen zu arrangieren. Weil Anpassung immer eine Reaktion auf (echte oder angenommene) Krisen darstellt, bremst diese reaktive Haltung sowohl die Entwicklung freier Persönlichkeiten, als auch die zukunftsfähige Transformation von Gesellschaften aus. Kurz: Anpassung steht im Widerspruch zu Freiheit und Entwicklung. Anpassungserzählungen sind Symbole des Stillstands. Was fehlt, ist die Fantasie für Alternativen. Im Kontext mutloser Anpassungs‐Narrative werden bloß immer weiter Standardwelten reproduziert. Kurz: Anpassung ist das falsche Leitmotiv.
Auf der metaphorischen Ebene wird KI gerne als Traum beschrieben, weil Realität und Fiktion, Wunsch und Wirklichkeit nicht immer eindeutig zu unterscheiden sind. »Die Verheißung bleibt daher ein Traumzustand«, so die KI‑Unternehmerin Walburga Fröhlich. »Wir müssen davon ausgehen, den idealen Zustand auf Erden niemals zu erreichen. Aber wir können dem Ideal ein Stück näherkommen. Ein paar Grenzen überwinden – Denkbarrieren, Handlungsbarrieren – das geht immer.« Im Bild der iterativen Annäherung drückt sich die Anpassungsleistung aus. Anpassungs‐Narrative beginnen meist mit der Annahme, dass KI bereits unwiderruflich einen Platz mitten in der Gesellschaft gefunden hat und dass Menschen nach und nach lernen sollten, die Vorteile algorithmischer Systeme zielgerichtet zu nutzen. Die typische Anpassungserzählung betont in einem weiteren Schritt, dass KI im Alltag nur allzu gerne akzeptiert wird, weil damit Komfort und Annehmlichkeiten verknüpft sind. »Tatsächlich steckt KI ja schon in vielen Dingen drin«, bestätigt auch Verena van Zyl‐Bulitta. »Es gibt Berührungspunkte, ohne dass wir es überhaupt merken. KI ist einfach da!« Wichtig ist, dass Anpassung einen latenten Grundoptimismus voraussetzt, um kognitive Dissonanzen zu vermeiden. »Menschen sind sehr adaptiv«, so der Psychologie Fabian Hutmacher, »so sehr, dass sie irgendwann nicht mehr darüber nachdenken, ob das, was sie tun, eigentlich gut ist. Sie passen sich an bestimmten Gegebenheiten an.« Gerade im Umfeld von KI wird vieles ausprobiert, Möglichkeiten und Märkte gibt es genug. »Das ist ein menschlicher Grundzug: Man sieht, dass etwas funktioniert und denkt sich: warum eigentlich nicht? Dann probieren wir es mal aus und schauen, was passiert.«
Problematisch an Anpassungs‐Narrativen ist allerdings, dass diese irrtümlicherweise davon ausgehen, dass Technik neutral ist. Auch wenn das inzwischen als widerlegt gilt, setzen die üblichen Fortschrittsgeschichten dennoch voraus, dass es einen ›guten‹ Umgang mit Technik geben kann (Hänggi 2015) und es schlussendlich nur darauf ankomme, wie der Mensch die Technologie nutzt, also »was wir daraus machen« (Kaufmann/Navarini 2020: 658). Oliver Gerstheimer, Direktor einer Digitalagentur, vergleicht diesen Ansatz ironisierend mit der Werbung für Betonmischer, die sich seit der Kampagne 2007 als geflügeltes Wort verbreitete: »Beton: Es kommt darauf an, was man daraus macht.«2 In diesem Sinne geht auch der KI‑Experte Kai‐Fu Lee in seinem Buch KI 2041 davon aus, dass KI an sich weder gut noch schlecht ist. »Und wie bei den meisten Technologien werden auch bei KI langfristig die positiven gesellschaftlichen Auswirkungen stärker zu Buche schlagen als die negativen.« (Lee/Chen 2021: 13)
Erst die Idee, dann die Anwendung und schließlich doch der Nutzen? Es wäre hilfreich, einen zweiten Blick auf Anpassungs‐Narrative zu wagen. Denn weder entsteht Technik ›natürlich‹, noch funktioniert sie ›automatisch‹. Schon gar nicht ist Technik ›neutral‹. (Müller/Nievergelt 1996) KI ist keine Ausnahme von der Regel, dass Technik Denken und Handeln bestimmt sowie Gesellschaft und Kultur verändert. Um zu einem besseren Verständnis von Verheißungserzählungen über KI zu gelangen, sollte also zunächst die Scheinneutralität von KI demaskiert werden. »Es fängt damit an, dass KI letztlich, auch wenn das oft ausgeblendet wird, menschengemacht ist«, so die Philosophin Susann Kabisch. »Das führt dazu, dass das Bestehende unter dem Anschein der Neuartigkeit und Neutralität zementiert wird und Ungleichgewichte sowie Diskriminierungen reproduziert oder verstärkt werden.« Es macht also keinen Sinn, KI als neutrale Technik zu betrachten, denn weder »ist KI in ihrer Entstehung noch in ihrer Anwendung, noch in ihren Auswirkungen neutral«. Ähnlich problematisch (wenn nicht gar naiv) ist die Rede von ›nützlicher Technik‹. Ist KI schon dann nützlich, wenn sie bereits bestehende Probleme löst? Oder erst dann, wenn sie neue Probleme sichtbar macht, die gesellschaftlich relevant sind? Die erste Sichtweise steht für eine rein reaktive technizistische Perspektiven auf Technik, die zweite für rein kulturalistische Perspektive auf Innovationen.
Festzuhalten bleibt zunächst, dass sich Verheißungserzählungen über KI im Spannungsfeld zwischen diesen beiden Perspektiven bewegen. Bereits heute hat KI erhebliche Auswirkungen auf soziale, politische und ökonomische Teilsysteme der Gesellschaft – angefangen von der Wortschöpfung ›künstliche Intelligenz‹ selbst, über Grenzen der Meinungsbildung bis hin zu Fragen nach (politischer) Verantwortung, sozialem Miteinander, individueller Persönlichkeitsentfaltung und Prozessen der Wahrheitsfindung. »Vor diesem Hintergrund ist die Auseinandersetzung mit der ethischen Dimension von KI von einer rein akademisch‐philosophischen zu einer gesellschaftlichen und innovationspolitischen Debatte gewachsen. Das zunehmende Interesse an der Ethik von KI kommt nicht von ungefähr, schließlich greifen Algorithmen tief in gesellschaftliche Zusammenhänge ein und sind nicht auf spezifische Anwendungsfelder beschränkt. KI verändert Wertschöpfungsprozesse genauso wie die private Kommunikation und die Interaktion der Menschen.« (Apt et al. 2019: 239) Kurz: KI verleiht bereits bekannten ethischen Fragen gegenwärtig ein noch höheres Gewicht.
Häufig besitzen Anpassungs‐Narrative die äußere Form von Fachberichten, deren Urheber (Ethik‑)Kommissionen oder angrenzende Institutionen sind. Texte zum ›richtigen‹ oder ›guten‹ Umgang mit KI bilden ein erkennbares Gravitationszentrum des narrativen Wissensraums. Darin werden Fragen zu Grenzen der Nutzung gestellt und Regulierungsbedarfe diskutiert. Das bedeutet aber auch, »dass KI einfach akzeptiert und nicht mehr nach den Bedingungen für die Verheißung von KI gefragt wird«, so Verena van Zyl‐Bulitta. »Keine Ethik‐Kommission wagt es, KI grundsätzlich in Frage zu stellen. Niemand hinterfragt wirklich, warum wir uns so sehr nach dieser ultimativen Innovation sehnen. Meistens endet das bei Benimm‐Regeln.« Somit greifen Anpassungs‐Narrative eigentlich zu kurz, weil sie bereits alternativlos voraussetzen, was sie bewerten.
Auch der Deutsche Bundestag griff mit der Enquete‐Kommission Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potenziale den herrschenden Zeitgeist auf. Ziel war es, den zukünftigen Einfluss von KI auf das (Zusammen‑)Leben, die deutsche Wirtschaft sowie die zukünftige Arbeitswelt zu untersuchen, Chancen und Herausforderungen zu identifizieren sowie eine Vielzahl technischer, rechtlicher und ethischer Fragen zu untersuchen. Dazu beschäftigten sich sechs Projektgruppen mit unterschiedlichen Politikfeldern (Wirtschaft, Staat, Gesundheit, Arbeit, Bildung, Forschung, Mobilität und Medien) sowie konkreten Anwendungsfällen von KI. Nach knapp zwei Jahren Arbeit wurde im Oktober 2020 der Abschlussbericht dem damaligen Bundestagspräsidenten Wolfgang Schäuble überreicht. Darin wird der Anspruch betont, den Wandel im Zusammenhang mit KI »wertegeleitet und zum Wohl von Mensch und Umwelt« zu gestalten. (Deutscher Bundestag 2020) Neben einem Veränderungspotenzial für die Gesellschaft wird die Notwendigkeit betont, KI‑Anwendungen vorrangig auf das Wohl und die Würde des Menschen sowie das Gemeinwohl auszurichten. Allerdings wird auch in diesem Kontext KI hauptsächlich als potentes Werkzeug betrachtet, mit dem auf latente Bedarfe reagiert wird. Im Kern wird damit ein passives und funktional‐technizistisches Zukunftsnarrativ reproduziert. Auch die Handlungsempfehlungen beziehen sich stark auf funktionale Dimensionen von KI zwischen Datennutzung und Datenschutzregelungen. Insgesamt ist der umfassende Bericht ein Zeugnis hypnotischer Redundanz, weil zentrale Themen, die bereits andere Kommissionen, Think‐Tanks oder Fachpublikationen bearbeiteten (z.B. Vertrauen in KI, Diskriminierungsfreiheit, Nachhaltigkeit) erneut und ohne überzeugenden Erkenntnisgewinn abgehandelt werden. Vor allem aber geht das zugrundeliegende Anpassungs‐Narrativ davon aus, dass es nicht möglich ist, sich KI zu verweigern und somit als einzig verbleibende Option die Notwendigkeit besteht, gestalterisch einzugreifen, innovative Ideen zu produzieren und die Entwicklung in eine gute Richtung zu lenken.3 Im Folgenden werden nun einige der zentralen inhaltlichen Dimensionen von Anpassungs‐Narrativen im Kontext von KI näher vorgestellt und beispielhaft erläutert.
Verheißungen sind konsequent auf die Zukunft gerichtete Aussagen. Auf einer operativ‐funktionalen Ebene stehen dabei technologische Potentiale im Mittelpunkt. Der Begriff »Potenzial« wird in diesem Buch als neutraler Arbeitsbegriff verstanden. Potenziale von KI werden in zahlreichen Strategiepapieren, Policy‐Papieren und Leitbildern aufgefächert und betont. Kritik ist hierbei meist unerwünscht. »In dem Moment, wo die Fragen beginnen, wird es sehr schnell ungemütlich«, so Karsten Wendland. »Wenn jemand nachweist, dass KI‑Systeme nicht funktionieren oder systematisch Fehler machen, verdirbt das die Laune von denen, die KI bereits auf der nächsten Stufe sehen.« Andererseits sind viele der Potenziale von KI noch unentdeckt. »Eine systematische Erfassung von KI‑Fortschritten fehlt bislang«, mahnt daher Marie‐Luise Wolff.
An verheißungsvollen Andeutungen über Potenziale mangelt es nicht. »The potential benefits are huge«, schreiben etwa die prominenten Forscher Stephen Hawking, Start Russell, Max Tegmark und Frank Wilczek in der britischen Zeitung The Independent und heizen zugleich die damit verbundenen Zukunftshoffnungen an. »Success in creating AI would be the biggest event in human history.«4 Zwar wirkt der Begriff »Potenzial« sachlicher als »Verheißung«, gleichzeitig ist er jedoch unterkomplex, denn Potentiale sind letztlich menschliche Kategorien. »KI ist aber eine potenzielle Entität, die unabhängig von unserer Intelligenz existiert. Ihr Potenzial in menschliche Kategorien zu packen, wird kaum weiterführen«, kritisiert deshalb der Physiker Gerd Ganteför. »So ist etwa Effizienz eine menschliche Kategorie, die aus der unglaublich langen Evolution entstanden ist, weil die Entstehung von Leben effizienzbasiert ist. Die eigentlichen Verheißungen der KI sind somit Aspekte, die wir uns heute noch nicht vorstellen können, Dimensionen, die bislang außerhalb unseres Denkens standen.« Bei der Suche nach KI‑Verheißungen zeigen sich immer wieder derartige Kategorienprobleme, denn das Neue muss in alten Begriffen gedacht werden. »KI ist mehr als ein Potenzial. Sie ist ein Versprechen, allerdings eines, von dem wir nicht genau wissen, wann es eingelöst wird«, so Tobias Gantner. »Aber bei diesem Versprechen geht es immerhin darum, ein Welträtsel zu lösen.« Gleichwohl lässt sich unter Rückgriff auf technologische Potenziale von KI die Geschichte eines besseren Lebens besonders eindrucksvoll erzählen. »Verheißung bedeutet immer auch ein Verbesserungsversprechen«, so der Physiker Michael Möricke. »Ob das Ganze stimmt, ist zweitrangig.« Potenziale sind positiv aufgeladene Erwartungen an technologische Funktionen, Zugewinne an Optionen oder Formen des Problemlösens. »Das wirkt wie eine Stufenleiter«, so Fabian Hutmacher. »Es gibt Potentiale, die sehr nah an unserer Gegenwart liegen. Aber auch solche, die bis hin zu transhumanistischen Vorstellungen reichen.«
Auf den zweiten Blick lassen sich Potenziale auf einer a) instrumentellen, b) einer reflexiven und c) einer transformativen Ebene unterscheiden: Instrumentelle Potenziale werden vor allem in Anpassungs‐Narrativen thematisiert. Sie basieren meist auf Funktionen der Mustererkennung, z.B. im Bereich der bildgebenden Medizin (Gehirnschnitte). Im Science‐Fiction‐Roman Die Tyrannei des Schmetterlings wird dieses Potential literarisch sehr schön illustriert: »Jedes ist mit jedem verbunden, alles beeinflusst einander, ein Kausalitätenfils, unentwirrbar. Es gilt, die Dinge in Beziehung zu setzen. Im Chaos Muster zu erkennen. Weil, darum. Wenn, dann. Sich dem Sinn zu nähern. Es gilt zu assoziieren.« (Schätzing 2018: 485) KI wird eine enorme Problemlösungskompetenz zugeschrieben, z.B. bei der Steuerung komplexer industrieller Anlagen. »KI kann hier einen großen Beitrag zur Weiterentwicklung und Optimierung von Prozessen leisten«, so die Vorstandsvorsitzende der ENTEGA AG, Marie‐Luise Wolff. »Und damit geht es auch um das Thema CO2‐Reduzierung.« Ein weiteres konkretes Potenzial von KI ist der Nachbau bzw. die Modellierung der Welt. KI kann helfen, menschliches Leben besser zu verstehen, wie im Kontext der Modellierung von Körperzellen (Stichwort: Präzisionsmedizin). »Mit KI lässt sich die Komplexität einzelner Zellen, von denen wir bislang höchsten zehn Prozent verstehen, nachbauen«, erläutert der Arzt Manfred Dietel. »In jeder Zelle interagieren 40.000 Proteine. Diese komplexen Wechselwirkungen werden mittels künstlicher Intelligenz transparenter. Auf dieser Basis können schließlich neue Medikamente entwickelt werden.«
Instrumentelle Potenziale sind an die Rollenzuschreibung von KI als Werkzeug gebunden. Reflexive Potenziale gehen hingegen von höheren Autonomiegraden der KI aus, wobei KI eine relative Entscheidungskompetenz zugeschrieben wird, die an die Rolle von KI als Assistenz gebunden ist. Effizienzsteigerung kann bedeuten, Entscheidungsprozesse zu optimieren, wie etwa beim Recruiting von Bewerbern. »Eine KI kann aus 500 Bewerbungen 50 herausfiltern, die näher betrachtet werden sollten«, so Wolff. »Dabei geht es immer um Mengenbewältigung, also im Kern um Effizienz. Ethisch problematisch wird es erst dann, wenn Avatare oder KI‑Assistenten Bewerbungsgespräche führen, wenn es also überhaupt keinen menschlichen Gesprächspartner mehr gibt.«
Transformative Potenziale von KI werden hingegen vor allem in Quest‐ und Aufbruchs‐Narrativen thematisiert. Sie sind die Grundlage für progressive Vorstellungen über die sozio‐technische Ko‑Evolution von Menschen und Maschine, das Enhancement des Menschen sowie die Utopie eines Redesigns von Gesellschaft. »Am Ende geht es darum, durch eine neue Art von Gegenstand die Gesellschaft zu modifizieren und eine andere Gesellschaft zu haben als vorher«, so der Anthropologe Guido Sprenger. »Aber wahrscheinlich kommen die Entwickler nicht auf die Idee, dass das am Ende immer Politik ist, was sie da tun, also Gesellschaftsgestaltung. In anderen Worten: KI ist immer politisch, weil sie die Polis verändert, die Zusammensetzung der Gesellschaft.«
Pflegeroboter sind vor diesem Hintergrund ein passendes Beispiel dafür, wie sich technologische Funktionalitäten, ökonomische Gewinnerwartungen und gesellschaftlicher Wandel gegenseitig bedingen: Pflegeroboter könnten in der Rolle des Assistenten »für unseren Lebensunterhalt sorgen und auf dieser Basis ein allgemeines, bedingungsloses Grundeinkommen erwirtschaften. Menschen hätten damit mehr Freiräume«, so der Journalist Hans‐Arthur Marsiske. Sie könnten aber auch nur dazu dienen, die weitere Durchsetzung einer Technologie in angrenzenden Märkten zu fördern und zu legitimieren. Letztlich erweist sich die Anwendung von KI auf allen Ebenen als ambivalent. »Wir nutzen das Potential von KI«, so Walburga Fröhlich. »Aber man kann es eben für Dummes oder für Kluges nutzen.« Das erinnert an die Einteilung des Psychologen Wolfgang Schmidbauer in schlaue und dumme Dinge. (Schmidbauer 2015) Trotz der schlichten Wortwahl wird hier ein zentrales Differenzkriterien benannt: ›Dumme Dinge‹ zeichnen sich dadurch aus, dass sie bei der Produktion aufgewertet wurden, bei der Nutzung aber zu Abwertungen führen. Sie haben bei der Herstellung so viel Intelligenz verzehrt oder verbraucht, dass »schließlich dem Benutzer gar keine Gelegenheit mehr bleibt, seine Intelligenz einzusetzen« (ebd.: 11). ›Dumme Dinge‹ sind zwar gut gemeint, letztlich aber bloß Pseudoverbesserungen. Sie sind in der Anwendung komfortabel und bequem, ihre Funktion ist darauf ausgerichtet, ihren Nutzern Lästiges zu ersparen. Dabei sind sie jedoch in der Nutzung undurchschaubar und schaffen Abhängigkeiten. Ihre wesentliche Eigenschaft besteht darin, dass sie Denken und Lernen entsinnlichen, trivialisieren und somit zu regressivem Verhalten führen. ›Dumme Dinge‹ schaffen lediglich symbolische Nähe, gefühlte Sicherheit oder gefühltes Wissen. ›Schlaue Dinge‹ sind hingegen lernorientiert, sie fördern aktives Einüben und regen zu informellen Lösungen an. ›Schlaue Dinge‹ motivieren zu progressiven Lebensformen und schaffen echte soziale Interaktionen. ›Dumme Dinge‹ assistieren, führen aber zu Unselbständigkeit. Der Unterschied zwischen dummen Dingen und schlauen Dingen ist einer zwischen komfortablen Technologien und übenden Technologien (ebd.).
Auch die Unterscheidung des Philosophen Ivan Illich in konviviale und manipulative Technologien (Illich 1975; Illich 2009) führt zu ähnlichen Erkenntnissen: Lebensdienlichkeit (Konvivialität) ist ein ethisch‐praktischer Leitgedanke, der auf drei Einsichten basiert: Lebensdienliche Technologien erweitern 1. den persönlichen Aktionsradius, schaffen 2. Leistungen, ohne die persönliche Autonomie zu zerstören, und verhindern 3. soziale Abhängigkeiten oder Hierarchien. Zwar steigert KI sehr deutlich Aktionsradien, Leistung und Effizienz, gleichzeitig schafft sie jedoch neue Abhängigkeiten (von Märkten und deren Marktteilnehmern, von Programmierern, von Updates etc.) sowie neue soziale Hierarchien (z.B. zwischen digital verantwortungsvollen und vulnerablen Konsumenten). Die Forderung Illichs nach einer konvivialen Erneuerung von Gesellschaft ist noch heute aktuell. »Es stellt sich [...] heraus, dass Maschinen nicht machen, was wir wollen und dass man Menschen nicht auf ein Leben im Dienste von Maschinen abrichten kann.« (Illich 1975: 27) Menschen brauchen keine Werkzeuge, die ihnen die Arbeit abnehmen, sondern solche, mit denen sie arbeiten und gut leben können. Nur Werkzeuge, die diesen Anspruch erfüllen, nennt Illich konvivial. Sie bieten die Freiheit, Dinge selbst kreativ zu erschaffen und sie nach ihrem eigenen Geschmack zu gestalten. Konviviale Technologien sind das Gegenteil von industriell gesteigerter Produktivität. Manipulative Technologien hingegen übersetzen qualitative Vorgänge des Lebens in abstrakte Quantitäten. Sie konditionieren Menschen durch programmierte Werkzeuge, die selbst auf Programmen beruhen: Algorithmische Programme, in die soziale Programme eingehen, programmieren Menschen. Für Illich ist das letztlich destruktiv. Können Programmierer diese Zusammenhänge erkennen? Wissen sie, dass sie Werten folgen, auch wenn diese nicht immer explizit sichtbar sind? »Diese Werte können nur kultureller oder gesellschaftlicher Art sein«, so der Anthropologe Guido Sprenger. »Wer zielgerichtet handelt, folgt irgendeinem gesellschaftlichen Ziel. Also verspricht sich die Gesellschaft etwas von technologischen Entwicklungen. Sie erwartet die Realisierung eines Wertes durch KI – darin liegt der Aspekt der Verheißung. Die Verheißung, das ist der gesellschaftliche Effekt, den man sich verspricht.«
Ein Effekt, der mehr als voraussetzungsreich ist. Einerseits muss sich KI verbreiten, andererseits soll damit das Gefühl eines Epochenwechsels einhergehen. Wie Evgeny Morozov in seiner Streitschrift Smarte neue Welt beschreibt, hatte bislang jede Generation das Gefühl, an der Schwelle zu einer bahnbrechenden technologischen Revolution zu stehen (Mozorov 2013: 357). Auch der KI‑Forscher Venki Ramakrishnan weist auf die zunehmende Omnipräsenz von KI hin: »Individuals won’t be able to resist its convenience and power, and corporations and government won’t be able to resist its competitive advantages. We might have already reached the stage where most governments are powerless to resist the combined cloud of a few powerful multinational companies that control our and our digital future.« (Ramakrishnan zit. n. Brockman 2020: 186f.) KI ist Faszinosum und Faktotum zugleich, bereits weit verbreitet, bald vielleicht allgegenwärtig. Genau das prognostiziert Kevin Kelly, ehemaliger Chefredakteur des Technologiemagazins Wired. »AI is already pervasive on this planet and will continue to spread, deepen, diversify, and amplify. No invention before will match its power to change our world, and by century’s end AI will touch and remake everything in our lives.«(Kelly 2017)5
Bei allem Dissens über dieses wundersame Phänomen steht eines fest: In den nächsten Jahrzehnten wird KI unser Leben und unsere Gesellschaft fundamental verändern. Regelmäßig wird dies mit der Einführung der Elektrizität im 19. Jahrhundert verglichen. »KI ist eine Revolution«, so Marie‐Luise Wolff, »die der Einführung und Nutzung der Elektrizität gleichkommt.« In Deutschland begann die Elektrifizierung in den 1880er‐Jahren, die ersten Straßenlampen wurden 1882 in Berlin in Betrieb genommen. Nach und nach hatte Elektrizität fundamentale Auswirkungen auf Alltag, Gesellschaft und Kultur. Der Vergleich scheint daher nahezuliegen: »Die heutige Elektrizität ist die KI. Vor 150 Jahren hat jeder, der etwas auf sich hielt, mit Strom experimentiert: Bosch, Siemens, Tesla. Lauter Lichtgestalten, von denen keiner genau wusste, wie es geht«, so Tobias Gantner, »aber sie haben es ausprobiert.« So wie Elektrizität als Faktotum für alles galt, werden zwischenzeitlich umfassende Hoffnungen und Lösungsversprechen in KI projiziert. »In einem eher unspektakulären Sinne sind wir also längst von dieser Technologie abhängig«, so auch Manuela Lenzen, »etwa so, wie wir von der Elektrizität abhängig sind. Dazu muss keine Maschine sich selbständig machen und uns beherrschen wollen.« (Lenzen 2020: 122) KI darf somit als unverrückbare und irreversible Tatsache angesehen werden, auf die es individuell und gesellschaftlich zu reagieren gilt. »KI ist weder Utopie noch Dystopie, sondern absolute Realität, die unser Leben schon heute unterschiedlich stark beeinflusst«, so auch Manfred Dietel. Dabei ist es zweitrangig, ob KI positiv oder negativ eingeschätzt wird. »KI kommt sowieso. Es gibt nur eine Möglichkeit: Man muss sich diesen Anforderungen stellen.« Die damit einhergehende Zukunftserzählung geht stillschweigend davon aus, dass sich die skizzierte Entwicklung nicht aufhalten lässt. »KI ist überall«, so Marie‐Luise Wolff. »Das geht bei Kleinigkeiten los – Staubsauger oder Rasenmäher. Und es endet in viel komplexeren Formen. Menschen machen sich über dieses und jenes Sorgen, dennoch ist KI die absolute Realität.« Damit bleibt als einzige Option die Anpassung an das Unvermeidliche und bestenfalls dessen nachgelagerte Gestaltung. Aber genau hier liegt das eigentliche Problem.
Kennzeichen dieser KI getriebenen, alternativlosen Realität sind umfassende Entlastungserwartungen. Mit der Nutzung von KI ist ein spannungsreiches Beziehungs‐ und Abhängigkeitsverhältnis verbunden, das sich zunehmend auf Freiheitansprüche auswirkt. Zunächst geht es scheinbar um eine Form der Erlösung. Für alle sozialen Probleme gibt es vermeintlich eine technische Lösung. Entwicklung und Anwendung von KI sind eng verbunden mit dem Wunsch nach Optimierung (im Kleinen) und Weltverbesserung (im Großen). Dieses Bündel von Entlastungserwartungen kann in erster Näherung als säkularisierte Form religiöser Verheißungen verstanden werden, wenngleich damit grundlegende Ambivalenzen einhergehen. Im zweiten Teil dieses Buches wird dann gezeigt werden, wie aus Entlastungserwartungen Trostformen resultieren.
Widersprüchlichkeiten werden z.B. im Manifest Freiheit digital – 10 Gebote in Zeiten des digitalen Wandels der Evangelischen Kirche Deutschlands aus christlicher Perspektive analysiert. »Die Phänomene digitalen Wandels wecken starke Hoffnungen wie Ängste. Die in der gesellschaftlichen Öffentlichkeit diskutierte Alternative von Utopie oder Dystopie, von Segen oder Fluch kann als Ausdruck dieser machtvollen Effekte vermutet werden.« (Amsinck et al. 2021: 50) Das Kernnarrativ dieser neuen und absoluten Realität besteht einerseits in der als unvermeidlich angenommenen Durchdringung (prinzipiell) aller Lebensbereiche durch KI, was andererseits in das Versprechen eines besseren Lebens mündet – somit in eine Verheißung, die weder kontrolliert noch bewiesen werden kann. »Der kleinste gemeinsame Nenner besteht darin, dass etwas Positives auf uns zukommt«, fasst Manfred Dietel zusammen.
Was könnte positiv sein? Vielleicht die Minimierung von Arbeit und Mühsal. In der Tat erzählen Anpassungs‐Narrative variantenreich von der zunehmenden Automatisierung des Lebens oder gar der »Automatisierung der Automatisierung« (Seele 2020: 134ff.). Die Idee der Automatisierung gilt schon lange als attraktiv und lässt sich bis zur Zeit der Aufklärung zurückverfolgen, als sich Menschen erstmals mit Maschinen verglichen. »Damals spielte eine göttliche Belebung der Seele eine eher untergeordnete Rolle«, so der Medienwissenschaftler Martin Hennig. »Vielmehr wurden Körperlichkeit und Geist als Folge von komplexen biologischen Vorgängen gedacht. Dieses Denken pflanzt sich bis heute fort.« (Hennig 2022: 47) Das erklärt auch, warum sich die Vorstellung von Automatisierung weiter ausgedehnte. »Das größte Potential von KI besteht darin, Abläufe zu automatisieren, die bisher nicht automatisierbar waren«, so der Physiker Michael Möricke. Diesen Vorteil arbeitete bereits der Roboterpionier Hans Moravec heraus, als er behauptete, dass »Automation effizienter ist als Handarbeit« (Moravec 1990: 141). Dennoch stellt sich die Frage, wie sich Menschen eines Tages an automatisierte Prozesse anpassen und welche Vorteile für sie damit tatsächlich verbunden sind. Denn Automatisierung »ist eigentlich das Versprechen der Industrialisierung seit der Einführung von Maschinen«, so der Anthropologe Guido Sprenger. »Wie wir heute wissen, ist das nie so eingetreten. Tendenziell haben wir sogar noch mehr Arbeit, z.B. in Form von Bürokratie.« Die erträumten KI‑Verheißungen sollten daher kritisch hinterfragt werden. Vielleicht liegt der Schlüssel zu einem besseren Leben an anderer Stelle? »Aufgrund der bislang nicht eingelösten Versprechungen, bleibt uns eigentlich nur die Möglichkeit, unsere Haltung zur Arbeit ändern«, so Sprenger. »Aber dafür brauchen wir eigentlich keine KI.«
Gleichwohl versprechen KI‑Verheißungen zahlreiche Entlastungen. Nicht nur für Arbeitsbereiche in der Industrie, sondern z.B. auch in der Kreativwirtschaft. »In kreativen Berufen kann KI helfen, mehr Zeit für Kreativität einsetzen zu können«, so Oliver Gerstheimer, Direktor einer Digitalagentur. »Überall auf diesem Planeten werden permanent gleiche Dinge entworfen. Wie wäre es, einen KI‑Avatar loszuschicken, der ohne Zutun von Menschenzeit nach bereits vorhandenen Lösungen sucht? Diese KI könnte eine Stoffsammlung zur Inspiration zusammenstellen und eine Anreizgeschichte entwerfen.« Unter dem Strich wird KI immer wieder als allmächtiger Problemlöser gesehen. Ein Beispiel ist die Verbrechensbekämpfung. »Wenn KI tatsächlich Kinderpornografie bekämpfen könnte und diesem kriminellen Schwarzmarkt etwas entgegensetzen könnte, das wäre dann eine Option mit einem großen Mehrwert für die Gesellschaft«, so Christian Tombeil, der aber zugleich die Notwendigkeit weiterer Aushandlungen anspricht. »Es wird Datenschützer geben, die genau das kritisieren, weil es uns noch gläserner macht. Aber ich glaube nicht, dass das Rad zurückzudrehen ist.« Die gesellschaftlichen Anpassungs‐Narrative setzen also KI als absolute und für viele vorteilhafte Entität voraus. Es sind Erzählungen über neue Errungenschaften, die zugleich versuchen, den Preis für die anvisierten Verbesserungen zu berücksichtigen. Es sind ausbalancierte Zukunftserzählungen, wenngleich eher langweilige.
Besonders markant sind Anpassungs‐Narrative auf einer operativ‐funktionalen Ebene. Zahlreiche KI‑Anwendungen sind eigentlich nichts anders als Technik gewordenes Effizienzversprechen. Effizienz, so sieht es der Analyst Boris Paskalev, resultiert aus den Errungenschaften der Entwickler und Programmierer, die »Leistungsparameter identifizieren, die sich optimieren lassen.« Im Umkehrschluss bedeutet es wohl auch, dass der Blick des typischen Programmierers auf die Welt defizitorientiert ist. In Effizienzsehnsucht manifestiert sich eine epochen‐ und kulturtypische Sichtweise auf Technik, denn gerade hochindustrialisierte Gesellschaften sind vom Streben nach Perfektionismus gekennzeichnet. Gleichzeitig wird deutlich, dass KI‑Verheißungen niemals universell sein können. »Das Bedürfnis nach Effizienz muss kulturell erst einmal geschaffen werden«, erläutert der Ethnologe Guido Sprenger. Hierbei hat sich der »Meta‐Wert Effizienz in unserer Gesellschaft geradezu verselbstständigt und ist inzwischen zu einer eigenen Wertsetzung geworden«. Viele der technischen Funktionen von KI (Mustererkennung, Rechengeschwindigkeit, Komplexitätsreduktion, Prozessoptimierung) lassen sich somit unter dem Gesichtspunkt der Effizienzsehnsucht zusammenfassen. Wird die Optimierung so gut wie aller Lebensverhältnisse versprochen, wird aus der Effizienzillusion eine Verheißung, wie der Forscher Stephen Wolfram erläutert: »People worry about the scenario in which AIs take over. I think something much more amusing [...] will happen first. The AI will know what you intend, and will be good in figuring out how to get there.« (Wolfram zit. n. Brockman 2020: 277) Vorsicht ist geboten: »Für die Bestimmung der Realfaktoren ist es sehr gut, künstliche Intelligenz einzusetzen. Denn sie sind messbar und berechenbar«, so der Ethiker Leopold Neuhold. »Problematisch wird es, wenn KI auch die Idealfaktoren festlegen soll.« In anderen Worten: Es geht also einmal mehr um die Frage, ob KI nicht nur ein Mittel zur Zielerreichung ist, oder ob damit auch Ziele definiert werden – Ziele, an deren Ausformulierung Menschen keinen oder nur noch einen geringen Anteil haben.
Für Optimierungsgewinne im Kontext von Anpassungs‐Narrativen gibt es zahlreiche Beispiele. Meist basieren sie auf der Idee effizienter Informationsverarbeitung. Im Rahmen eines Proof‐of‐Concept‐Projekts erstellte 2019 eine KI ohne menschliche Hilfe ein Fachbuch, das im Springer‐Verlag publiziert wurde.6 Dabei handelt sich um eine strukturierte Zusammenfassung aktueller Forschungsliteratur zu Lithium‐Ionen‐Batterien. Der Managing‐Director bei Springer Nature, Niels Peter Thomas, betont in diesem Zusammenhang die Verantwortung des Verlages »mögliche Auswirkungen und Grenzen von maschinengenerierten Inhalten [...] im Blick zu behalten«.7 Für das Projekt wurde der Algorithmus Beta Writer genutzt, der auf dem Cover des Buches auch als ›Autor‹ ausgewiesen wurde. Der Algorithmus verarbeitete relevante (allesamt auf SpringerLink veröffentlichte) Publikationen und clusterte ähnliche Dokumente in zusammenhängenden Kapiteln. Das Ergebnis ist eine Meta‐Analyse publizierter Literatur. Neu ist dabei nicht, dass ein Algorithmus selbständig ein Buch schreibt, sondern dass ein Wissenschaftsverlag erstmals dazu bereit war, das Buch auch zu veröffentlichen. Die Verheißung besteht in diesem Fall in der effizienten Eindämmung der Informationsflut im Feld wissenschaftlicher Publikationen. Der Verlag selbst erwartet in Zukunft ein noch breiteres Spektrum an Textformen. Einerseits werden Texte weiterhin von Menschen geschrieben werden. Gleichwohl, so die Prognose, könnte die Zahl maschinengeschriebener Texte rasant zunehmen. Das wäre dann die Schwelle zu einer neuen Kultur der Wissensarbeit, die auf Blended‐Man‐Machine‐Textgenerierung basiert. Erste Anzeichen dafür gibt es bereits. 2021 erschien ein zweites Fachbuch von Springer, ebenfalls maschinengeneriert, aber als Hybrid‐Format zusammen mit einem menschlichen Autor.8Im Kontext des Experiments Beta Writer war die begleitende Euphorie nicht zu überhören. »And while no one seriously believes that the next Great American Novel will be written by a few hundred grams of silicon, something is coming.«9 Das Fallbeispiel der automatisch erzeugten Meta‐Analyse belegt den enormen Vertrauensvorschuss, der mit dem Optimierungspotenzial von KI einhergeht. Kein Mensch wäre jemals dazu in der Lage, eine vergleichbar große Anzahl von Texten zu lesen, zu vergleichen und das Ergebnis angemessen zu verschriftlichen; jedenfalls nicht in einem begrenzten Zeitraum. Selbst wenn der von einer KI erstellte Text sprachlich hölzern wirkt, faszinierte das Ergebnis. Trotz oder gerade wegen der enormen Effizienz des Vorhabens ließ Kritik nicht lange auf sich warten. So diskutierten zahlreiche Medienbeiträge, ob die Scientific Community kurz davorsteht, von Robotern ersetzt zu werden. Zudem wurde grundlegende Kritik an der Struktur und Qualität des Buches laut. Selbst ein wissenschaftlicher Text ist mehr als eine Aneinanderreihung von Fakten, die durch grammatikalisch korrekte Sätze zusammengereiht werden. Digitale Werkzeuge der Informationsverarbeitung lassen sich außerdem leicht missbrauchen und könnten schnell zu Fehlinformationswerkzeugen werden.
Viele zeitgenössische KI‑Projekte bezeugen eine Haltung, die hier Delirium der Rationalität genannt werden soll. Sie demonstrieren anschaulich Kritikpunkte, die bereits in den 1970er‐Jahren diskutiert wurden. So schilderte etwa der Computerpionier Joseph Weizenbaum 1977 in seinem bahnbrechenden Buch Die Macht der Computer und die Ohnmacht der Vernunft