Todesalgorithmus - Roberto Simanowski - E-Book

Todesalgorithmus E-Book

Roberto Simanowski

0,0
15,90 €

-100%
Sammeln Sie Punkte in unserem Gutscheinprogramm und kaufen Sie E-Books und Hörbücher mit bis zu 100% Rabatt.
Mehr erfahren.
Beschreibung

Algorithmen beherrschen die Welt, so hört man, heute schon und morgen noch viel mehr. Sie sitzen am Steuer selbstfahrender Autos und lenken mehr und mehr gesellschaftliche Prozesse. Wie programmieren wir sie und was passiert, wenn sie sich schließlich selbst programmieren? Die Angst ist so groß wie die Hoffnung und das moralische Dilemma. Dürfen Algorithmen im Ernstfall entscheiden, wer sterben muss? Wird die künstliche Intelligenz dem Menschen den freien Willen nehmen, ihn vor sich selbst schützen und zurück ins Paradies der Entscheidungslosigkeit befördern? Dieses Buch lädt ein zu einer philosophischen Spekulation über unsere Zukunft. Es handelt von den Aporien und Paradoxien der künstlichen Intelligenz. Es vagabundiert im Denken, verbindet das scheinbar Unverbundene und sieht am Ende in den Erfindern des Silicon Valleys nicht mehr und nicht weniger als die Geschäftsführer von Hegels Weltgeist.

Sie lesen das E-Book in den Legimi-Apps auf:

Android
iOS
von Legimi
zertifizierten E-Readern

Seitenzahl: 150

Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



Algorithmen beherrschen die Welt, so hört man, heute schon und morgen noch viel mehr. Sie sitzen am Steuer selbstfahrender Autos und lenken mehr und mehr gesellschaftliche Prozesse. Wie programmieren wir sie, und was passiert, wenn sie sich schließlich selbst programmieren? Die Angst ist so groß wie die Hoffnung und das moralische Dilemma. Dürfen Algorithmen im Ernstfall entscheiden, wer sterben muss? Wird die künstliche Intelligenz dem Menschen den freien Willen nehmen, ihn vor sich selbst schützen und zurück ins Paradies der Entscheidungslosigkeit befördern? Dieses Buch lädt ein zu einer philosophischen Spekulation über unsere Zukunft. Es handelt von den Aporien und Paradoxien der künstlichen Intelligenz. Es vagabundiert im Denken, verbindet das scheinbar Unverbundene und sieht am Ende in den Erfindern des Silicon Valley nicht mehr und nicht weniger als die Geschäftsführer von Hegels Weltgeist.

Roberto Simanowski, geboren 1963, war bis 2018 Professor für Kultur- und Medienwissenschaft in Providence, Hongkong und Basel und lebt seitdem als Publizist in Berlin und Rio de Janeiro.

Roberto SimanowskiTodesalgorithmus

Das Dilemma derkünstlichen Intelligenz

Passagen Themaherausgegeben vonPeter Engelmann

Deutsche Erstausgabe

Dieses Buch wurde ermöglicht durch die freundliche Unterstützung der Passagen Freunde – Freundeskreis des Passagen Verlags.

Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.dnb.de/ abrufbar.

Alle Rechte vorbehalten

ISBN 978-3-7092-0417-7

eISBN (EPUB) 978-3-7092-5025-9

© 2020 by Passagen Verlag Ges. m. b. H., Wien

Grafisches Konzept: Gregor Eichinger

Satz: Passagen Verlag Ges. m. b. H., Wien

http://www.passagen.at

Inhalt

Vorbemerkung

Würde des Menschen

SpamAssassin

Terminator 7

Lebenswertverrechnung

Weichensteller nach 9/11

Moral Machine

Tötungsregeln

Verfassungswidrigkeit

Opferlogik

Technikkultur

Sachordnungen

Herrschaft der Maschinen

HALs Enkel

Anthrobscene

KI-Diktatur

Asimovs viertes Gesetz

Posthumanismus

List der Vernunft

Hegel im Silicon Valley

Willensfreiheit

Geschäftsführer des Weltgeistes

Digitaler Pantheismus

Geist und Technik

Sozialingenieure

Nachbemerkung

Anmerkungen

Editorische Notiz

Vorbemerkung

Dieses Buch handelt vom Todesalgorithmus, von der Klimakrise und von der Heimkehr des Menschen ins Paradies diesseits der Willensfreiheit. Der Todesalgorithmus sitzt am Steuer autonomer Fahrzeuge und hat bei einem Unfall über Leben und Tod zu entscheiden. Ein Dilemma, weil die Entscheidung im Funktionsrahmen der künstlichen Intelligenz (KI) nicht mehr spontan erfolgen kann, sondern vorprogrammiert werden muss. Es muss vorab bestimmt werden, ob das Auto dem Kind oder den Rentnern ausweichen soll. Wie auch immer die Entscheidung ausfällt, sie verstößt gegen das in Deutschland und vielen anderen Staaten geltende Aufrechnungsverbot von Menschenleben.

Während dieses ethische Dilemma aus den Erfolgen der KI-Forschung resultiert, ist die Klimakrise Resultat des vorangegangenen technischen Fortschritts: von den auf fossilen Brennstoffen basierenden Verbrennungsmotoren und Industrieanlagen bis zum Plastikmüll und Flugverkehr. Der Hoffnung, diese Krise mit smarter Technik, „grünen Codes“ und einer CO2-Grenzausgleichs-Steuer zu lösen, steht die Ansicht gegenüber, dass es einer grundlegenden Veränderung des menschlichen Lebensstils im Kontext einer Postwachstumsgesellschaft bedarf. Gegen die ökologischen Notwendigkeiten sprechen ökonomische und politische Bedenken, die nicht zuletzt aus der Kondition des modernen Menschen resultieren, sich und die Gegenwart den anderen und der Zukunft vorzuziehen. Der Mensch, so scheint es, kann das eigene Überleben nicht sichern – jedenfalls nicht, solange die Mängel der demokratischen Staatsform die der Conditio Humana verdoppeln. Kann die künstliche Intelligenz es, wenn sie stark genug ist und, vom Menschen dazu beauftragt, das Regime übernimmt: als besorgte Nanny oder gütiger Diktator? Weder die technische noch die politische Entwicklung sind reif für ein solches Szenario. Aber die Forschung zur KI läuft auf Hochtouren und der Zweifel an der Zukunftsfähigkeit der Demokratie motiviert inzwischen selbst Politologen zu ketzerischen Gedankenexperimenten.

Die Selbstentmachtung des Menschen durch sein eigenes Geschöpf wäre die Vollendung eines Aufbruchs, der mit dem Griff nach der Erkenntnis begann. Überlässt der Mensch die Regelung seiner Angelegenheiten der KI, wie es ansatzweise schon geschieht, wenn Apps ihn von A nach B navigieren und Algorithmen die Partnerwahl übernehmen, kehrt er im Grunde an den Anfang zurück: als er noch unfähig war, Gut und Böse zu unterscheiden. Diese Rückkehr enthebt ihn nicht nur der Notwendigkeit, selbst zu entscheiden, sondern auch der Gefahr, sich dabei zu irren. Ist es die Heimkehr ins Paradies? Wäre ein solches Paradies wünschenswert? Die Antwort hängt davon ab, worin man den Sinn des Lebens sieht und wieviel Autonomie, Nudging und Social-Scoring darin enthalten sein soll.

Die imaginierte Zukunft – das ist der gedankliche Ausgangspunkt dieses Essays – beginnt heute, mit dem autonomen Fahren. Der Todesalgorithmus am Lenkrad autonomer Fahrzeuge ist die Testfahrt für eine Gesellschaft, in der die KI das Steuer übernimmt. In den dystopischen Szenarien der Science-Fiction beherrscht oder vernichtet die KI den Menschen. In den Phantasien der Technikenthusiasten halten sich Menschen intelligente Maschinen als Sklaven oder transfigurieren selbst zur Maschine. Die hier entwickelte Perspektive bringt beide Pole zusammen: Die KI ergreift zwar die Macht über den Menschen, aber nur, um ihn vor dem selbstverschuldeten Untergang zu bewahren.

Das Buch entwickelt dieses Szenario mit philosophischer Neugier, ohne am aktuellen Technikstand zu haften. Er ist methodisch inspiriert durch das What if-Prinzip des spekulativen Designs, das zur Imagination von Zukunftsszenarien einlädt und mit entsprechenden Produktideen eine gesellschaftliche Debatte über bestehende Akzeptanzgrenzen anstoßen will.1 Die Schreibmotivation ist allerdings nicht die Verschiebung von Akzeptanzgrenzen, sondern das Augenmerk auf diese: die Grenzen und die Verschiebung. Die dazu vorgenommene Spekulation erfolgt in eher konservativer Form; als klassischer Essay, von dem Adorno sagte: „In Freiheit denkt er zusammen, was sich zusammenfindet in dem frei gewählten Gegenstand.“ Das Resultat ist – dafür warb jüngst ein anderer Philosoph – ein „vagabundierendes Denken“, das „nicht auf das Stimmige, sondern auf das Stimulierende“ zielt – und weniger Recht haben will als gehört werden.2

Würde des Menschen

SpamAssassin

Das Überleben der digitalen Technologien hängt von Anfang an in hohem Maße auch von ihrem Tötungsinstinkt ab. Diese Gleichung gilt schon für die Emailkommunikation, die nie erfolgreich gewesen wäre ohne die Lösung des Spam-Problems. Der berühmte Algorithmus, der hier früh für Ordnung sorgte, heißt „SpamAssassin“. Ein martialischer Name für einen Filter, der das Rauschen im neuen Kommunikationsmedium durch die Trennung der erwünschten von der unerwünschten Post reduzieren soll. Ein passender Name, denn am Ende geht es von Anfang an immer genau darum: Was überlebt und wer nicht.

Die Müllbeseitigung ist das erste Übungsfeld der künstlichen Intelligenz. Hier lernt die Software Muster zu erkennen und Objekte zu klassifizieren. Hier trifft sie Entscheidungen unter Aufsicht und schließlich auch ohne menschliche Kontrolle: erst in einer gleichen Situation, dann in einer ähnlichen. Alle aktuellen und künftigen Phantasien über intelligente Kühlschränke, autonome Autos, autarke Roboter und andere Formen der künstlichen Intelligenz, die heute die Öffentlichkeit begeistern oder beunruhigen, stammen vom Selbstlernmechanismus des Werbemüllmörders.1

Der jüngere Bruder des SpamAssassin ist der Todesalgorithmus, der in selbstfahrenden Autos im Notfall entscheidet, ob das Fahrzeug eher in eine Gruppe von Fußgängern oder auf ein Kind oder gegen eine Häuserwand fährt. Über diesen Todesalgorithmus gibt es inzwischen hitzige philosophische und auch schon juristische Debatten. Denn als sicher gilt: Das autonome Auto kommt, und wahrscheinlich noch vor den autonomen Waffen und den mechanischen Haustieren. Die Entwicklung ist politisch gewollt, da man zu Recht davon ausgeht, dass autonom fahrende Autos nicht nur die Fahrkosten und den Energieverbrauch drastisch senken werden, sondern auch die Zahl der Unfälle. Immerhin verfügt der Bordcomputer über die Fahrerfahrung aller Computer, verarbeitet viel mehr Information viel schneller als der Mensch, wird niemals müde, fährt nie betrunken und textet nicht am Lenkrad. Es wäre moralisch unverantwortlich, selbstfahrende Autos nicht einzuführen.

Zugleich gilt als sicher, dass es weiterhin Unfallsituationen geben wird, bei denen Todesopfer nicht vermeidbar, sondern nur wählbar sind. Das führt zum ethischen Problem, die Algorithmen der selbstfahrenden Autos mit einer spezifischen Entscheidungsmoral ausstatten zu müssen, die unvermeidlich dem Grundprinzip der deutschen Verfassung widerspricht. Die Unantastbarkeit der Menschenwürde ist in Gefahr, wenn die Technik verlangt, Abwägungen, die sich philosophisch verbieten, für den Ernstfall zu programmieren.

Terminator 7

In der wahrscheinlich berühmtesten Fake-Werbung unserer Zeit fährt ein Auto durch eine Landschaft, die deutlich in der Vergangenheit liegt. Alle Menschen halten in der Arbeit inne und schauen mit Ehrfurcht auf etwas, das sich schließlich als ein Mercedes der Luxusklasse erweist. Kurz darauf stoppt dieser Mercedes vor zwei Mädchen, die auf der Straße spielen. Der Bremsvorgang geht offenbar auf einen Sensor zurück, der Objekte vor dem Fahrzeug wahrnimmt. Als das Auto weiterfährt, nun unterlegt mit spannungsgeladener Musik, kommt ein rennender Junge mit einem Drachen ins Bild und eine junge Frau, die ihm beim Wäscheaufhängen glücklich hinterherschaut. Das Zusammentreffen des Jungen mit dem Mercedes überrascht nicht, wohl aber der Zusammenprall. Hat der Sensor diesmal versagt?

Die Antwort kommt rasant in kleinen Stücken: Kurz vor dem Aufprall sieht man für eine Millisekunde das Bild von Hitler, dann ruft die Frau mit dem Wäschekorb erschrocken „Adolf?“, auf dem Ortseingangsschild steht „Braunau am Inn“, aus der Vogelperspektive formen sich die Glieder des überfahrenen Jungen auf der Straße zu einem Hakenkreuz, der daraufhin eingeblendete Werbesatz für Mercedes’ Bremssystem lautet: „Erkennt Gefahren, bevor sie entstehen“.2

Dieses Video aus dem Jahr 2013 hat im Frühjahr 2016 über 5 Millionen Views; mehr als 21 000 finden es gut, knapp 2 000 finden es schlecht, die rund 2 500 Kommentare verteilen sich entsprechend. Der Hinweis, dass es sich nicht um einen autorisierten Mercedes-Werbespot handelt, sondern um die Abschlussarbeit von Studenten der Filmakademie Ludwigsburg, verringert so wenig wie der Hinweis auf den fiktionalen Rahmen das philosophische Problem, das hier aufgerufen wird: Unter welchen Umständen darf man töten, um Leben zu retten?

Die Fiktion des unautorisierten Werbeclips spielt mit einem Topos der Popkultur, wenn sie den Mercedes wie einst das Skynet den Terminator in die Vergangenheit schickt, um den Beginn einer ungewollten geschichtlichen Entwicklung zu verhindern. Während Zeitreisen in die Vergangenheit freilich reine Science-Fiction sind, werden sie in die andere Richtung allmählich Teil unserer Gegenwart. Das Versprechen heißt vorhersagende Analyse, das als „predictive policing“ an vielen Orten im täglichen Polizeibetrieb bereits zum Einsatz kommt. Anders als in Steven Spielbergs Minority Report basiert das Verfahren allerdings nicht auf den hellseherischen Fähigkeiten dreier Frauen im Wasser, sondern auf extensivem Data-Mining: auf der Erstellung von Tatprofilen, Korrelationen und Wahrscheinlichkeitskurven, aus denen sich berechnen lässt, wann wo die nächste Straftat geschieht.

Werden solche statistischen Analysen mit den DNA-Werten, Video-, Lektüre- und Freundeslisten, Tagesroutinen und Bewegungsprofilen sowie mit sämtlichen Posts, Likes, Shares, Kommentaren und sonstigen kommunikativen Handlungen und Umwelteinflüssen eines Individuums gekoppelt und entsprechend hochgerechnet, lässt sich bald vielleicht tatsächlich mit großer Genauigkeit die Entwicklung eines Menschen und damit sein gesellschaftliches Gefahrenpotenzial voraussagen. Mit solchen Daten versehen hätte jeder Mercedes die Wissenschaft auf seiner Seite, der in Braunau (oder wo immer seine Familie gerade lebt) auf den jungen Adolf stößt und wider besseres Können doch nicht bremst. Genau darin liegt die ethische Herausforderung des technischen Fortschritts.

Lebenswertverrechnung

Das deutsche Recht enthält keinen Paragraphen, der die Tötung künftiger Massenmörder erlaubt. Das liegt nicht nur daran, dass Wahrsagerei als unzureichende Rechtsgrundlage betrachtet und Zukunftsaussagen des Data-Mining bisher kein wissenschaftlicher Status zugestanden wird. Grund ist auch der standhafte Glaube der Deutschen an Erziehung. Gäbe es Zeitreisen in die Vergangenheit, säße in einem Mercedes nach Braunau eine Sozialarbeiterin mit einem Maßnahmenpaket, um Adolf auf die rechte Bahn zu bringen. Nicht auszuschließen, dass im Paket ein Malkurs enthalten wäre. So lange die Wissenschaft solche Zeitreisen nicht ermöglicht, muss die Justiz nicht entscheiden, ob der pädagogische Optimismus gebietet, auch beim kleinen Adolf Hitler zu bremsen.

Gleichwohl: Die Frage, ob man töten darf, um Leben zu retten, ist längst in der Mitte der Gesellschaft angekommen. In Ferdinand von Schirachs Gerichtsdrama Terror etwa sitzt das Publikum über einen Major der Bundeswehr zu Gericht, der eigenmächtig ein von einem Terroristen entführtes Passagierflugzeug abschoss. Der Major entschied quantitativ und opferte die 164 Menschen im Flugzeug, um die 70 000 Menschen in der Münchner Allianz-Arena zu schützen, in die der Terrorist die Maschine jagen wollte. Die Entscheidung, ob der Major dafür wegen mehrfachen Mordes angeklagt werden soll, wird in den 2472 internationalen Aufführungen des Theaterstücks zwischen Oktober 2015 und Januar 2020 jeweils ans Publikum, als den ‚realen‘ Schöffen in diesem Gedankenexperiment, delegiert. Die Filmversion des Stückes war am 18. Oktober 2016 das Fernsehereignis in ARD, ORF und SRF, mit Publikumsabstimmung und anschließender Hart aber fair-Talkshow.

Diese Verlagerung der Entscheidung auf die Zuschauer weist weniger auf die Ästhetik der Partizipationskultur als auf die Prinzipien der experimentellen Ethik, die mit empirischen Studien operiert, statt sich, wie die sogenannte „Lehnstuhl-Philosophie“, mit theoretischen Schlussfolgerungen zu begnügen. Nun siegt nicht mehr das bessere Argument, sondern die Mehrzahl. Zumindest lässt sich ohne diese im Rücken kaum noch argumentieren. Dass die Rechtsgelehrten gegen ihre Entmachtung zugunsten einer auf Rechtsempfinden basierenden Rechtsfindung protestieren, dass sie vor einer „Instinkt-Ethik“ warnen, war zu erwarten. Sie sind bekanntlich nicht die einzigen Experten, die im Zeitalter der Partizipationskultur an Autorität verlieren.3

Das Ergebnis jedenfalls lautet jeweils Freispruch und zeigt: Die Mehrheit der Theaterbesucher (63%) und Fernsehzuschauer (87%) denkt oder fühlt verfassungswidrig. Denn es widerspricht dem Eingangsparagraphen des Deutschen Grundgesetzes über die Unantastbarkeit der Menschenwürde, Leben gegen Leben abzuwägen und gegebenenfalls wenige unschuldige Menschen zur Rettung vieler unschuldiger Menschen zu töten. Entgegen dem moralischen Impuls der Mehrheit besagt die ethische Grundlage der deutschen Rechtsprechung, dass Menschenwürde nicht absolut geachtet werden kann, wenn sie zahlenmäßig verhandelt wird. Das heißt: Das kleinere von zwei Übeln lässt sich weder mathematisch ermitteln noch durch Diskriminierung nach Alter, Geschlecht oder kulturellen Wertmaßstäben. Das Leben von zehn Menschen ist nicht mehr wert als das von zwei und das Leben eines Greises nicht weniger als das eines Kindes.

Die Ethik des unverhandelbaren Subjekts verbietet, einen Menschen auf ein Mittel zur Rettung anderer zu reduzieren. Das hat Konsequenzen für die Organtransplantation – man darf nicht einen Gesunden opfern, um zehn Kranke zu retten – und selbst für das Verzehren Schiffsbrüchiger: Man darf nicht den Schwächsten, schon Sterbenden töten, um die eigene Überlebenschance zu erhöhen. Essen darf man den anderen nur, wenn er sich selbst dazu anbietet oder per Losverfahren zustimmt – wie in Herman Melvilles Moby Dick, Edgar Allan Poes Bericht des Arthur Gordon Pym und vielen anderen Seefahrergeschichten. Die Zustimmung erhebt das Objekt der Tötung in den Status des Subjekts, das nicht auf ein Rettungsmittel reduziert wird, sondern sich zum Retter bestimmt.

Die deutsche Verfassung bevorzugt mit dem Verbot der Instrumentalisierung des Menschen die (deontologische) Pflichten- oder Gesinnungsethik gegenüber der (konsequentialistischen) Zweck- oder Verantwortungsethik. Die Zweckethik – zu der auch der Utilitarismus gehört, prominent propagiert durch den Moralphilosophen Jeremy Bentham – blickt auf das Ergebnis und hält die Opferung der wenigen zur Rettung der vielen durchaus für vertretbar. Die Gesinnungsethik – vehement vertreten durch Benthams Zeitgenossen Immanuel Kant – blickt auf das Handeln (im vorliegenden Fall der Abschussentschluss des Majors) und bewertet die (negative) Pflicht, niemanden zu töten, höher als die (positive) Pflicht, Menschen zu retten. Das Tötungsverbot ist hier kategorisch, also unabhängig von den Umständen und Konsequenzen; der Zweck heiligt nicht die Mittel. Moralisches Verhalten ist so dem Gesetz verpflichtet und nicht dem Kollektiv, dessen höchstmögliche Lust beziehungsweise niedrigstes Leid der Utilitarismus favorisiert. Aus eben diesem Grund kassierte das Verfassungsgericht Anfang 2006 Paragraph 14 Absatz 3 des Luftsicherheitsgesetzes, das der Bundestag ein Jahr zuvor verabschiedet hatte. Begründung: Verstoß gegen die Menschenwürde. Der Paragraph erlaubte im Terrorfall als Ultima Ratio den Abschuss von Passagierflugzeugen. Das deutsche Verfassungsgericht war 2006 keineswegs so weit wie die Mehrheit des deutschen Theaterpublikums ein Jahrzehnt später.

Weichensteller nach 9/11

In der Philosophie wird das Dilemma des Tötens, um Leben zu retten, als „Trolley-Problem“ oder „Weichenstellerfall“ diskutiert: Eine Straßenbahn ist außer Kontrolle geraten und droht, fünf Personen zu überrollen. Die einzige Handlungsoption eines Zeugen neben dem Weichenhebel besteht darin, die Bahn auf ein Nebengleis umzuleiten, wo sie nur eine Person überfahren würde. Der Tötungsbeschluss, den diese Weichenstellung enthält, wird in der sogenannten Fetter-Mann-Variante explizit, in der man alternativ die Straßenbahn dadurch zum Halten bringt, dass man einen fetten Mann von der Brücke auf die Schienen stößt. Ja, philosophische Konstruktionen sind manchmal voller Grausamkeit und Humor. Denn es ist ebenso brutal, einen völlig unbeteiligten, aber hinreichend fetten Mann im Interesse der Lebensrettung in den Tod zu stürzen, wie es skurril ist, dass sein wesentlich dünnerer Gegner, der offenbar nicht genug Fett für den Rettungsakt auf die Schiene bringt, den Zweikampf gewinnt.

Dieses philosophische Gedankenexperiment wird nicht nur durch Schirachs Gerichtsdrama in die Realität nach 9/11 versetzt. Zeitgleich erfolgt dies in Gavin Hoods Film Eye in the Sky (2015), in dem es darum geht, ob man ein unschuldiges Mädchens töten darf, um per Drohnenbeschuss einen Terroranschlag in Nairobi zu verhindern. Der Terroranschlag würde mindestens 80 Menschen das Leben kosten, darunter sicher auch mehrere Mädchen gleichen Alters. Die Diskussion der Beteiligten und Verantwortlichen an ihren Bildschirmen in London und Nevada übersetzt die deontologischen und konsequentialistischen Argumente ins Anschauliche des Mediums Film, mit berührenden Bildern aus dem Leben des Mädchens und einem Wettrennen mit der Zeit, um das Mädchen vom geplanten Detonationszentrum wegzulocken. Die Rettungsversuche sind Gott sei Dank ohne Erfolg. Das Mädchen stirbt an den Folgen des Drohneneinschlags.

Gott sei Dank, weil so das ethische Problem, um das es dem Film geht, präsent bleibt. Jedes Happy End wäre Betrug am Konflikt, vor dem die Menschheit steht. Denn es wird im Kampf gegen die Terroristen nicht nur Kollateralschäden geben. Es wird auch Stimmen geben, die diese im Interesse der Gesellschaft rechtfertigen. 1 zu 80 spricht eine klare Sprache, nicht nur für die Vertreter des Utilitarismus. Auch aus Sicht der Soldaten ist – in Hoods Film ebenso wie in Schirachs Theaterstück – der Kollateralschaden in Kauf zu nehmen, um mehr Opfer zu vermeiden. Soldaten wissen, dass zivile Opfer in Gefechtssituationen unvermeidbar sind. Der Unterschied, davon lebt der Film, besteht darin, dass in Gefechtssituationen zivile Opfer passieren, während hier, im Besitz aller Daten über die Situation und ihre Folgen, wissentlich geopfert wird: mit Bild und Namen des Mädchens, das sterben muss. Bedauerlich, aber, aus Sicht der Verantwortungsethik, moralisch vertretbar.

Philosophische Gedankenexperimente lassen sich nicht auf Kompromisse ein. Das unterscheidet sie vom wahren Leben und dessen fiktionaler Darstellung. So findet man in Schirachs Drama das Argument, der Major verhindere durch den Abschuss des Flugzeugs die Möglichkeit, dass die Passagiere den Terroristen rechtzeitig überwältigen oder die Allianz-Arena rechtzeitig evakuiert wird. Spekulation auf den guten Ausgang und Unwägbarkeiten der wirklichen Schäden sind deontologische Ablenkungsmanöver, um sich vor der Entscheidung zu drücken. Worauf das Flugzeug bei von Schirach und die Drohne bei Hood zusteuern, ist die Abwägungsresistenz der Menschenwürde. Worum es geht, ist die Aktualisierung des Rechtsempfindens angesichts neuer Sachlagen.