15,90 €
Algorithmen beherrschen die Welt, so hört man, heute schon und morgen noch viel mehr. Sie sitzen am Steuer selbstfahrender Autos und lenken mehr und mehr gesellschaftliche Prozesse. Wie programmieren wir sie und was passiert, wenn sie sich schließlich selbst programmieren? Die Angst ist so groß wie die Hoffnung und das moralische Dilemma. Dürfen Algorithmen im Ernstfall entscheiden, wer sterben muss? Wird die künstliche Intelligenz dem Menschen den freien Willen nehmen, ihn vor sich selbst schützen und zurück ins Paradies der Entscheidungslosigkeit befördern? Dieses Buch lädt ein zu einer philosophischen Spekulation über unsere Zukunft. Es handelt von den Aporien und Paradoxien der künstlichen Intelligenz. Es vagabundiert im Denken, verbindet das scheinbar Unverbundene und sieht am Ende in den Erfindern des Silicon Valleys nicht mehr und nicht weniger als die Geschäftsführer von Hegels Weltgeist.
Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:
Veröffentlichungsjahr: 2020
Algorithmen beherrschen die Welt, so hört man, heute schon und morgen noch viel mehr. Sie sitzen am Steuer selbstfahrender Autos und lenken mehr und mehr gesellschaftliche Prozesse. Wie programmieren wir sie, und was passiert, wenn sie sich schließlich selbst programmieren? Die Angst ist so groß wie die Hoffnung und das moralische Dilemma. Dürfen Algorithmen im Ernstfall entscheiden, wer sterben muss? Wird die künstliche Intelligenz dem Menschen den freien Willen nehmen, ihn vor sich selbst schützen und zurück ins Paradies der Entscheidungslosigkeit befördern? Dieses Buch lädt ein zu einer philosophischen Spekulation über unsere Zukunft. Es handelt von den Aporien und Paradoxien der künstlichen Intelligenz. Es vagabundiert im Denken, verbindet das scheinbar Unverbundene und sieht am Ende in den Erfindern des Silicon Valley nicht mehr und nicht weniger als die Geschäftsführer von Hegels Weltgeist.
Roberto Simanowski, geboren 1963, war bis 2018 Professor für Kultur- und Medienwissenschaft in Providence, Hongkong und Basel und lebt seitdem als Publizist in Berlin und Rio de Janeiro.
Das Dilemma derkünstlichen Intelligenz
Passagen Themaherausgegeben vonPeter Engelmann
Deutsche Erstausgabe
Dieses Buch wurde ermöglicht durch die freundliche Unterstützung der Passagen Freunde – Freundeskreis des Passagen Verlags.
Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.dnb.de/ abrufbar.
Alle Rechte vorbehalten
ISBN 978-3-7092-0417-7
eISBN (EPUB) 978-3-7092-5025-9
© 2020 by Passagen Verlag Ges. m. b. H., Wien
Grafisches Konzept: Gregor Eichinger
Satz: Passagen Verlag Ges. m. b. H., Wien
http://www.passagen.at
Vorbemerkung
Würde des Menschen
SpamAssassin
Terminator 7
Lebenswertverrechnung
Weichensteller nach 9/11
Moral Machine
Tötungsregeln
Verfassungswidrigkeit
Opferlogik
Technikkultur
Sachordnungen
Herrschaft der Maschinen
HALs Enkel
Anthrobscene
KI-Diktatur
Asimovs viertes Gesetz
Posthumanismus
List der Vernunft
Hegel im Silicon Valley
Willensfreiheit
Geschäftsführer des Weltgeistes
Digitaler Pantheismus
Geist und Technik
Sozialingenieure
Nachbemerkung
Anmerkungen
Editorische Notiz
Dieses Buch handelt vom Todesalgorithmus, von der Klimakrise und von der Heimkehr des Menschen ins Paradies diesseits der Willensfreiheit. Der Todesalgorithmus sitzt am Steuer autonomer Fahrzeuge und hat bei einem Unfall über Leben und Tod zu entscheiden. Ein Dilemma, weil die Entscheidung im Funktionsrahmen der künstlichen Intelligenz (KI) nicht mehr spontan erfolgen kann, sondern vorprogrammiert werden muss. Es muss vorab bestimmt werden, ob das Auto dem Kind oder den Rentnern ausweichen soll. Wie auch immer die Entscheidung ausfällt, sie verstößt gegen das in Deutschland und vielen anderen Staaten geltende Aufrechnungsverbot von Menschenleben.
Während dieses ethische Dilemma aus den Erfolgen der KI-Forschung resultiert, ist die Klimakrise Resultat des vorangegangenen technischen Fortschritts: von den auf fossilen Brennstoffen basierenden Verbrennungsmotoren und Industrieanlagen bis zum Plastikmüll und Flugverkehr. Der Hoffnung, diese Krise mit smarter Technik, „grünen Codes“ und einer CO2-Grenzausgleichs-Steuer zu lösen, steht die Ansicht gegenüber, dass es einer grundlegenden Veränderung des menschlichen Lebensstils im Kontext einer Postwachstumsgesellschaft bedarf. Gegen die ökologischen Notwendigkeiten sprechen ökonomische und politische Bedenken, die nicht zuletzt aus der Kondition des modernen Menschen resultieren, sich und die Gegenwart den anderen und der Zukunft vorzuziehen. Der Mensch, so scheint es, kann das eigene Überleben nicht sichern – jedenfalls nicht, solange die Mängel der demokratischen Staatsform die der Conditio Humana verdoppeln. Kann die künstliche Intelligenz es, wenn sie stark genug ist und, vom Menschen dazu beauftragt, das Regime übernimmt: als besorgte Nanny oder gütiger Diktator? Weder die technische noch die politische Entwicklung sind reif für ein solches Szenario. Aber die Forschung zur KI läuft auf Hochtouren und der Zweifel an der Zukunftsfähigkeit der Demokratie motiviert inzwischen selbst Politologen zu ketzerischen Gedankenexperimenten.
Die Selbstentmachtung des Menschen durch sein eigenes Geschöpf wäre die Vollendung eines Aufbruchs, der mit dem Griff nach der Erkenntnis begann. Überlässt der Mensch die Regelung seiner Angelegenheiten der KI, wie es ansatzweise schon geschieht, wenn Apps ihn von A nach B navigieren und Algorithmen die Partnerwahl übernehmen, kehrt er im Grunde an den Anfang zurück: als er noch unfähig war, Gut und Böse zu unterscheiden. Diese Rückkehr enthebt ihn nicht nur der Notwendigkeit, selbst zu entscheiden, sondern auch der Gefahr, sich dabei zu irren. Ist es die Heimkehr ins Paradies? Wäre ein solches Paradies wünschenswert? Die Antwort hängt davon ab, worin man den Sinn des Lebens sieht und wieviel Autonomie, Nudging und Social-Scoring darin enthalten sein soll.
Die imaginierte Zukunft – das ist der gedankliche Ausgangspunkt dieses Essays – beginnt heute, mit dem autonomen Fahren. Der Todesalgorithmus am Lenkrad autonomer Fahrzeuge ist die Testfahrt für eine Gesellschaft, in der die KI das Steuer übernimmt. In den dystopischen Szenarien der Science-Fiction beherrscht oder vernichtet die KI den Menschen. In den Phantasien der Technikenthusiasten halten sich Menschen intelligente Maschinen als Sklaven oder transfigurieren selbst zur Maschine. Die hier entwickelte Perspektive bringt beide Pole zusammen: Die KI ergreift zwar die Macht über den Menschen, aber nur, um ihn vor dem selbstverschuldeten Untergang zu bewahren.
Das Buch entwickelt dieses Szenario mit philosophischer Neugier, ohne am aktuellen Technikstand zu haften. Er ist methodisch inspiriert durch das What if-Prinzip des spekulativen Designs, das zur Imagination von Zukunftsszenarien einlädt und mit entsprechenden Produktideen eine gesellschaftliche Debatte über bestehende Akzeptanzgrenzen anstoßen will.1 Die Schreibmotivation ist allerdings nicht die Verschiebung von Akzeptanzgrenzen, sondern das Augenmerk auf diese: die Grenzen und die Verschiebung. Die dazu vorgenommene Spekulation erfolgt in eher konservativer Form; als klassischer Essay, von dem Adorno sagte: „In Freiheit denkt er zusammen, was sich zusammenfindet in dem frei gewählten Gegenstand.“ Das Resultat ist – dafür warb jüngst ein anderer Philosoph – ein „vagabundierendes Denken“, das „nicht auf das Stimmige, sondern auf das Stimulierende“ zielt – und weniger Recht haben will als gehört werden.2
Das Überleben der digitalen Technologien hängt von Anfang an in hohem Maße auch von ihrem Tötungsinstinkt ab. Diese Gleichung gilt schon für die Emailkommunikation, die nie erfolgreich gewesen wäre ohne die Lösung des Spam-Problems. Der berühmte Algorithmus, der hier früh für Ordnung sorgte, heißt „SpamAssassin“. Ein martialischer Name für einen Filter, der das Rauschen im neuen Kommunikationsmedium durch die Trennung der erwünschten von der unerwünschten Post reduzieren soll. Ein passender Name, denn am Ende geht es von Anfang an immer genau darum: Was überlebt und wer nicht.
Die Müllbeseitigung ist das erste Übungsfeld der künstlichen Intelligenz. Hier lernt die Software Muster zu erkennen und Objekte zu klassifizieren. Hier trifft sie Entscheidungen unter Aufsicht und schließlich auch ohne menschliche Kontrolle: erst in einer gleichen Situation, dann in einer ähnlichen. Alle aktuellen und künftigen Phantasien über intelligente Kühlschränke, autonome Autos, autarke Roboter und andere Formen der künstlichen Intelligenz, die heute die Öffentlichkeit begeistern oder beunruhigen, stammen vom Selbstlernmechanismus des Werbemüllmörders.1
Der jüngere Bruder des SpamAssassin ist der Todesalgorithmus, der in selbstfahrenden Autos im Notfall entscheidet, ob das Fahrzeug eher in eine Gruppe von Fußgängern oder auf ein Kind oder gegen eine Häuserwand fährt. Über diesen Todesalgorithmus gibt es inzwischen hitzige philosophische und auch schon juristische Debatten. Denn als sicher gilt: Das autonome Auto kommt, und wahrscheinlich noch vor den autonomen Waffen und den mechanischen Haustieren. Die Entwicklung ist politisch gewollt, da man zu Recht davon ausgeht, dass autonom fahrende Autos nicht nur die Fahrkosten und den Energieverbrauch drastisch senken werden, sondern auch die Zahl der Unfälle. Immerhin verfügt der Bordcomputer über die Fahrerfahrung aller Computer, verarbeitet viel mehr Information viel schneller als der Mensch, wird niemals müde, fährt nie betrunken und textet nicht am Lenkrad. Es wäre moralisch unverantwortlich, selbstfahrende Autos nicht einzuführen.
Zugleich gilt als sicher, dass es weiterhin Unfallsituationen geben wird, bei denen Todesopfer nicht vermeidbar, sondern nur wählbar sind. Das führt zum ethischen Problem, die Algorithmen der selbstfahrenden Autos mit einer spezifischen Entscheidungsmoral ausstatten zu müssen, die unvermeidlich dem Grundprinzip der deutschen Verfassung widerspricht. Die Unantastbarkeit der Menschenwürde ist in Gefahr, wenn die Technik verlangt, Abwägungen, die sich philosophisch verbieten, für den Ernstfall zu programmieren.
In der wahrscheinlich berühmtesten Fake-Werbung unserer Zeit fährt ein Auto durch eine Landschaft, die deutlich in der Vergangenheit liegt. Alle Menschen halten in der Arbeit inne und schauen mit Ehrfurcht auf etwas, das sich schließlich als ein Mercedes der Luxusklasse erweist. Kurz darauf stoppt dieser Mercedes vor zwei Mädchen, die auf der Straße spielen. Der Bremsvorgang geht offenbar auf einen Sensor zurück, der Objekte vor dem Fahrzeug wahrnimmt. Als das Auto weiterfährt, nun unterlegt mit spannungsgeladener Musik, kommt ein rennender Junge mit einem Drachen ins Bild und eine junge Frau, die ihm beim Wäscheaufhängen glücklich hinterherschaut. Das Zusammentreffen des Jungen mit dem Mercedes überrascht nicht, wohl aber der Zusammenprall. Hat der Sensor diesmal versagt?
Die Antwort kommt rasant in kleinen Stücken: Kurz vor dem Aufprall sieht man für eine Millisekunde das Bild von Hitler, dann ruft die Frau mit dem Wäschekorb erschrocken „Adolf?“, auf dem Ortseingangsschild steht „Braunau am Inn“, aus der Vogelperspektive formen sich die Glieder des überfahrenen Jungen auf der Straße zu einem Hakenkreuz, der daraufhin eingeblendete Werbesatz für Mercedes’ Bremssystem lautet: „Erkennt Gefahren, bevor sie entstehen“.2
Dieses Video aus dem Jahr 2013 hat im Frühjahr 2016 über 5 Millionen Views; mehr als 21 000 finden es gut, knapp 2 000 finden es schlecht, die rund 2 500 Kommentare verteilen sich entsprechend. Der Hinweis, dass es sich nicht um einen autorisierten Mercedes-Werbespot handelt, sondern um die Abschlussarbeit von Studenten der Filmakademie Ludwigsburg, verringert so wenig wie der Hinweis auf den fiktionalen Rahmen das philosophische Problem, das hier aufgerufen wird: Unter welchen Umständen darf man töten, um Leben zu retten?