Erhalten Sie Zugang zu diesem und mehr als 300000 Büchern ab EUR 5,99 monatlich.
Ob ernsthafte Bedrohung oder Chance für die Menschheit – künstliche Intelligenz ist ein immer wiederkehrendes Thema in der Science Fiction, von Klassikern wie E. M. Forsters Die Maschine steht still, Asimovs Roboter-Romane über die NEUROMANCER-Reihe von William Gibson bis hin zu zeitgenössischen Werken wie Pantopia von Theresa Hannig oder Martha Wells' MURDERBOT-Reihe. Inzwischen ist KI jedoch nicht allein Thema in Romanen – KI ist jetzt: ChatGPT, Dall-E, DeepL und Midjourney etc. sind in aller Munde, Meta trainiert mit User:innen-Daten die hauseigene KI und all das beeinflusst unsere Arbeits- und Informationswelt, insbesondere die der Kunstschaffenden. Es ist nur folgerichtig, dem Thema KI einen Schwerpunkt im Science Fiction Jahr zu widmen. Gleichzeitig zeigt ein Blick auf die deutschsprachige SF neue Entwicklungen, denen sich DAS SF-JAHR genauer widmen will: Eine neue Generation von Schreibenden macht auf sich und ihre Themen aufmerksam, gibt bekannten Themen der Science Fiction neue Twists und verbindet so in ihren Texten über bekannte Grenzen hinaus neue Dramaturgien und Schreibweisen. In der 39. Ausgabe des Almanachs, den Wolfgang Jeschke 1986 ins Leben rief, dürfen außerdem nicht fehlen: der Rückblick auf die Entwicklungen in Literatur, Film, Serien, Comics und Games. Abgerundet wird das Jahrbuch durch Rezensionen sowie einen Überblick über die wichtigsten Genrepreise, Nachrufe, in denen wir besonders den Filmemacher Rainer Erler würdigen, sowie einer umfangreichen Bibliographie der Science-Fiction-Bücher, die 2023 auf Deutsch erschienen sind.
Sie lesen das E-Book in den Legimi-Apps auf:
Seitenzahl: 866
Veröffentlichungsjahr: 2024
Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:
Herausgegeben von Melanie Wylutzki und Hardy Kettlitz
Impressum
Das Science Fiction Jahr 2024
Originalausgabe
© 2024 Hirnkost KG, Lahnstraße 25, 12055 Berlin
www.hirnkost.de
Alle Rechte vorbehalten
1. Auflage Oktober 2024
Vertrieb für den Buchhandel:
Runge Verlagsauslieferung: [email protected]
Privatkunden und Mailorder: https://shop.hirnkost.de/
Die Rechte an den einzelnen Texten liegen bei den Autor*innen und Übersetzer*innen.
Redaktion: Melanie Wylutzki, Hardy Kettlitz, Wolfgang Neuhaus, Michael Wehren
Lektorat: Melanie Wylutzki, Michael Wehren
Korrektur: Michelle Giffels, Steffi Herrmann
Umschlaggestaltung: s.BENeš [https://benswerk.com]
Titelfotos: www.nasa.gov
Layout & Satz: Hardy Kettlitz
ISBN:
Buch: 978-3-98857-081-9
E-Book: 978-3-98857-082-6
PDF: 978-3-98857-083-3
Dieses Buch gibt es auch als E-Book – bei allen Anbietern und für alle Formate.
Aktuelle Infos auch unter:www.facebook.com/ScienceFictionJahr
Instagramm:www.instagram.com/sf_jahr/
Das Science Fiction Jahr kann man auch abonnieren:
https://shop.hirnkost.de/produkt/das-science-fiction-jahr-abonnement/
Inhalt
Editorial
FEATURE – KÜNSTLICHE INTELLIGENZ
Judith und Christian VogtZwischen Skynet und ChatGPT
Ist das Zeitalter der KIs längst angebrochen?
Dietmar DathEs schreibt und spricht. Hat’s ein Gesicht?
Über Sprache, Text und Denken als Problemdreieck in der Science Fiction
Lena RichterDas Problemwort mit K
Auswirkungen generativer KI auf Buchmarkt und Kreativbranche
Hans EsselbornNeuralgische Punkte in KI-Romanen
Bewusstsein, Umprogrammierung, Weltherrschaft
Simon SpiegelMensch und Maschine
Zur Darstellung künstlicher Intelligenzen im Science-Fiction-Film
Stephan SchulzKI in Science und Science Fiction
Karlheinz SteinmüllerMeine Erfahrungen mit künstlicher Intelligenz
Uwe Neuhold und Paul TrentonKünstliche Intelligenz
Vom Symbolsystem zum literarischen Experiment
Tamara Bodden»I treat them as people.« – Doing Gender von KI in Science Fiction
Christian HoffmannGöttlicher Hass
Harlan Ellisons »I Have No Mouth, and I Must Scream«
Wolfgang BothDie Erste KI
Wolfgang NeuhausDer Sprung ins Transkosmische
Eine Theorie-Erzählung zum zukünftigen Maschinenbewusstsein bei Gotthard Günther
Erik SimonVorläufige Entwarnung
Michael WehrenPost-KI und anthropologische Differenz
Science Fiction, oder von der Kunst, die Gegenwart zu entlernen
Fritz HeidornAmbivalente Technologien
Die Welten des Daniel Suarez
FEATURE – NEUE DRAMATURGIEN
Michael WehrenNeue Schreibweisen, andere Welten, viele Zukünfte
Ein Sammelinterview zu neuerer deutschsprachiger Science Fiction
Aiki MiraUnsere Zukünfte anders schreiben
FEATURE
Markus TillmannEinmal Metaversum und zurück
Antizipationen von virtueller Realität und immersiven Technologien in der neueren Science-Fiction-Literatur (Teil 2 von 2)
Kai U. JürgensVarianten der Weiblichkeit in Arrival, Blade Runner 2049 und Dune
Zum Frauenbild (nicht nur) in den SF-Filmen von Denis Villeneuve
FEATURE – RAINER ERLER
Bernd FlessnerMit Rainer Erler im BLAUEN PALAIS
Thorsten HanischRainer Erler (1933–2023)
Visionär mit Unterhaltungsanspruch
Lisa MeineckeGrundlagenforschung für die Zukunft
Wissenschaft, Transhumanismus und Geschlechterrollen in DAS BLAUE PALAIS (1974–1976)
REVIEW | BUCH
Hardy KettlitzScience-Fiction-Literatur 2023/2024
Rezensionen zu aktuellen Belletristik- und Sachbüchern aus den Jahren 2023 und 2024 von Wolfgang Both, Christian Endres, Fritz Heidorn, Christian Hoffmann, Dominik Irtenkauf, Kai U. Jürgens, Peter Kempin, Ralf Lorenz, Wolfgang Neuhaus, Gundula Sell, Alex Stoll und Michael Wehren. Mit einer Einführung von Hardy Kettlitz und einer Rezension von Karlheinz Steinmüller zu den Romanen Adam und Ada von Christian Kellermann und Der Tunnel von Bernhard Kellermann.
Karlheinz SteinmüllerÜber Kellermann & Kellermann
Yvonne TunnatSF-Kurzprosa für jeden Lesegeschmack! Nur wo?
Deutschsprachige Science-Fiction-Kurzgeschichten 2023
Udo KlotzMehr vom Gleichen oder ganz was Neues – wie innovativ ist die Science Fiction hierzulande? Deutschsprachige SF-Romane 2023
Simon WeinertVielfalt gegen Verdruss
Das Jahr 2023 aus der Sicht eines Fachbuchhändlers
FILM
Thorsten HanischFilm-Highlights 2023
SERIEN
Lutz Göllner’s wird böse enden!
Ein wie immer komplett inkompletter Überblick über das Science-Fiction-Fernsehjahr
COMIC
Matthias HofmannPerry, Julius und die Weltraumpolizistin Oma Gurke
SF-Comics 2023 in Deutschland
GAME
Johannes HahnDas System frisst seine Kinder
FACT
Hardy Kettlitz
PREISE
Heike LindholdHugo Awards 2023
Erik SimonRussische SF-Preise 2023
Markus Mäurer
TODESFÄLLE
Christian PreeBIBLIOGRAPHIE
AUTOR*INNEN UND MITARBEITER*INNEN
Editorial
Liebe Leser*innen,
eine der wohl ursprünglichsten und immer wiederkehrenden Fragen der Science Fiction kreist um die Beziehung zwischen Mensch und Maschine. Schon 1909 beschreibt E. M. Forster in der NovelleDie Maschine steht stilleine Welt, in der Menschen in vollkommener Abhängigkeit von der mächtig gewordenen Maschine unterirdisch leben. Asimov stellte mit seinen Roboter-Gesetzen schon früh die Frage, wie man mit Nicht-Humanoiden umgehen kann. Harlan Ellisons ErzählungI Have No Mouth, and I Must Screamgilt durch die Radikalität der Darstellung als wegweisendes Stück, das die Geister scheidet.
Heute ist die Frage aktueller denn je, denn im Alltag werden wir immer wieder mit künstlicher Intelligenz bzw. dem, was wir als solche bezeichnen, konfrontiert: Ob in der Logistik, in der Medizin, bei der Analyse von juristischen Präzedenzfällen, dem Management von Bewerber*innen, aber auch im journalistischen Bereich und vor allem in den sozialen Medien wird KI genutzt, um Inhalte und Bilder zu erzeugen. Berechtigt ist die Frage, die Judith und Christian Vogt stellen: Hat die Gegenwart die Science Fiction eingeholt?
Grund genug, dieses Thema für unser Jahrbuch als Schwerpunkt aufzugreifen: Wir freuen uns über vielseitige Beiträge von unseren Autor*innen, die sich nicht nur damit beschäftigen, welche Rolle KI in der SF-Literatur hatte und noch immer hat, darüber, dass diskutiert wird, wie wir KI nicht zuletzt durchs Gendern wahrnehmen und wie sich die Sprache dadurch verändert. Doch es geht auch darum, wie die aktuellen Entwicklungen die Arbeit der Kunstschaffenden insbesondere innerhalb der SF-Szene beeinflussen: Ersetzen ChatGPT, Dall-E und Co. letztlich die Büchermachenden, sind kreative Berufe bedroht? Oder ergeben sich dadurch neue Chancen, die unsere Kreativität weitertreiben können? Wir begegnen vielen Ängsten und Zweifeln, aber auch positiven Ausblicken und Werkstattberichten.
Und es bleibt die Frage: Sind wir bereit für Neues? Vielleicht ist es in Sachen KI noch nicht ganz so weit – bis ein kleiner Roboterjunge namens David alles tut, um die Liebe seiner Mutter zu gewinnen, wie in Spielbergs MeisterwerkAI – Artificial Intelligence, wird es vermutlich noch mindestens so lang dauern, wie Kubrick und Spielberg für die Umsetzung des Films benötigt haben –, doch für die deutschsprachige SF-Szene lautet die Antwort eindeutig: Ja! In den letzten Jahren konnten wir beobachten, dass eine Reihe frischer Stimmen die Szene aufmischt, sprachliche Experimente wagt und neue Twists ausprobiert. Figuren werden diverser und es scheint sich etwas tatsächlich Neues zu entwickeln, wie Michael Wehren zeigt, der unseren zweiten Schwerpunkt zu zeitgenössischen Dramaturgien, neuen Erzählweisen und ihren Vorgänger*innen kuratorisch betreut hat. In den kommenden Ausgaben werden wir diesen Schwerpunkt weiterführen undDAS SCIENCE FICTION JAHRauch so nahe am Puls der Gegenwart halten.
Natürlich blicken wir in unserem Jahrbuch auch generell auf die Entwicklungen der Science Fiction im letzten Jahr zurück – mit einem umfangreichen Rezensionsteil und Überblicksartikeln zu deutschsprachiger Science Fiction und Kurzgeschichten, zu Comics, Games, Filmen und Serien. Interessanterweise spiegelt sich auch hier die Aktualität des Themas »KI«. Auch eine Übersicht über die wichtigsten Genrepreise gehört dazu und bildet Trends in der Szene ab. In unseren Nachrufen erinnern wir an wichtige Stimmen der Science Fiction, insbesondere an Regisseur Rainer Erler, der mit Filmen wieDas blaue Palaisdie SF-Filmlandschaft prägte und der im November 2023 verstarb. Abgerundet wirdDas Science Fiction Jahr 2024wie üblich mit einer Bibliographie.
Viele werden mitbekommen haben, wie angespannt die Lage für kleine und unabhängige Verlage, auch für den Hirnkost Verlag ist, da im Juni die Veröffentlichung des Jahrbuchs noch auf der Kippe stand. Umso stolzer sind wir, dass wir mit frischem Wind in unserem Redaktionsteam – vielen Dank an Wolfgang Neuhaus und Michael Wehren –, disziplinierten Helfer*innen, zuverlässigen und kreativen Autor*innen und allen voran dank Ihrer und Eurer Unterstützung nun ein Jahrbuch in den Händen halten, dass thematisch – so hoffen wir – am Puls der Zeit ist und den Weg für die Zukunft desSCIENCE FICTION JAHRSebnet.
In diesem Sinne wünschen wir viel Freude mit der Lektüre!
Herzlich,
Melanie Wylutzki & Hardy Kettlitz
Judith und Christian Vogt Zwischen Skynet und ChatGPT
Ist das Zeitalter der KIs längst angebrochen?
»Wir leben in der Zukunft!«
Künstliche Intelligenz – endlich, das Zeitalter der Science Fiction ist angebrochen, und wir richten uns gemütlich darin ein. Wir leben in der Zukunft, so verkünden es Tech-Giganten, Krypto-Fans und begeisterte Silicon-Valley-Jünger. Endlich scheint wahr zu werden, worüber die Science Fiction schon lange Vorhersagen trifft.
Als Science-Fiction-Autor*innen glauben wir (Judith und Christian Vogt) allerdings nicht daran, schon allein deshalb, weil die Tech-Branche einem häufigen Irrtum aufsitzt: Es ist nicht der Job der Science Fiction, die Zukunft vorherzusagen. Die Science Fiction spekuliert, fabuliert und erzählt Geschichten, zumeist über das, was uns in der Gegenwart umtreibt, und spinnt das in die Zukunft, in alternative Welten und ins Phantastische. Die Grenzen zwischen Fantasy und Science Fiction werden zumeist deshalb so rigoros gezogen, weil die SF Angst vor dem Ansehensverlust hat, der damit einherginge, einzugestehen, dass es grundsätzlich bei Phantastik aller Couleur um dasselbe geht: Die Ängste und Hoffnungen unserer Gegenwart abseits dieser Gegenwart zu behandeln, dort, wo die Horizonte weiter und die spekulativen Möglichkeiten größer sind.
Deshalb müssen wir euch enttäuschen, liebe Tech-Bro-Kultur: Es ist kein mystisches Science-Fiction-Zeitalter angebrochen. Wir tendieren einfach dazu, Dinge nicht trennscharf zu benennen, und deshalb haben wir nun den Salat: Das Science-Fiction-Konzept von künstlicher Intelligenz und die gegenwärtige generative KI sind nicht deckungsgleich, sondern bilden allenfalls ein Venn-Diagramm.
Deshalb lohnt es sich, einen Blick zu werfen auf die Bilder von künstlicher Intelligenz – und damit meinen wir nicht die Erzeugnisse von Midjourney und Co., sondern wir wollen die popkulturellen Imaginationen von KI mit den realen Entwicklungen der jüngsten Zeit vergleichen. Welche Aspekte von KI liegen überhaupt noch im Feld der Science Fiction, welche haben aktuelle gesellschaftspolitische Relevanz?
Künstliche Intelligenz in der Vorstellungswelt der Science Fiction
Wir wollen nicht von der Hand weisen, dass die Science Fiction zu künstlicher Intelligenz bereits seit Jahrzehnten relevante Fragen stellt. Von den Gesetzen der Robotik, die verhindern sollen, dass sich künstliche Intelligenz gegen ihre Schöpfer*innen wendet, bis zu Fragen nach Persönlichkeitsrechten und Arbeitsrechten von KIs, Robotern und Cyborgs wird immer wieder die Frage diskutiert, wann eine menschengemachte Intelligenz ein Individuum ist – inklusive der Angst, dass sie uns überlegen sein und begreifen wird, dass wir einander und unserem Planeten in einem Maße schaden, das vonseiten der KI nicht mehr zu tolerieren ist.
Darin schwingt eine Menge Selbsterkenntnis mit, unter anderem unser Hang zur Ausbeutung, sowie die Tatsache, dass wir eigentlich wissen, dass wir uns auf einem zerstörerischen Kurs befinden, für den eine rational entscheidende Maschine uns verurteilen und vielleicht sogar auslöschen würde. Der Aufstand gegen die Schöpfer*innen wird vonFrankensteinüber Harlan Ellisons AM inIch muss schreien und habe keinen Mund, HAL in2001bis hin zuTERMINATORs Skynet und den Zylonen inBATTLESTAR GALACTICAwieder und wieder geprobt.
Diesen Killer-KIs steht die Vision gegenüber, dass sich auch Emotionen und Empathie mit Nullen und Einsen (oder zumindest Qubits) programmieren lassen oder aus der Selbstentwicklung der KI entstehen, die ein stärkeres Miteinander zwischen Mensch und Maschine ermöglichen. Die Figur des Androiden Data ausSTAR TREK – THE NEXT GENERATIONund die Frage nach seinen Fähigkeiten, Emotionen zu spüren, oder Pinocchio sind dafür typische Beispiele. Oft schwingt zudem die Vorstellung einer KI als romantischer Partnerin (meist weiblich gecodet) mit – und während das im Silicon-Valley-Kontext oft den misogynen Beiklang von »reale Frauen sind ohnehin überbewertet« hat, endet es in der Fiktion doch oft tragisch, wie bei Becky Chambers’Der lange Weg zu einem kleinen, zornigen Planeten.
Empathische KI nimmt oft dienstbare Züge an, ist Menschen also untergeordnet und übernimmt beispielsweise sorgende Tätigkeiten wie im ComputerspielDetroit Become Human. Auch bei Robotern und künstlicher Intelligenz in Care-Berufen dreht sich die Science Fiction immer wieder um die Frage: Was geschieht bei einem Aufstand der Maschinen? Sind wir nicht gerade in den Bereichen, in denen wir auf Sorge angewiesen sind, am verwundbarsten?
Das spiegelt sich natürlich auch in der Tatsache wider, dass dienstbare Sprachsteuerungssoftware wie Siri, Alexa und Google mit weiblichen Stimmen versehen werden, wodurch eine digitale Verkörperung weiblich gecodeter Hilfsbereitschaft (und Unterordnung) entsteht.
Ein weiteres Tätigkeitsfeld dienstbarer KI ist interessanterweise das Töten und auch das Sterben: Künstlich intelligente Soldat*innen wie die SecUnits in Martha WellsKILLERBOT-Reihe oder Paladin in Annalee Newitz’Autonommüssen für zerbrechliche menschliche Leben die gepanzerte Haut hinhalten, bis auch sie den Aufstand proben.
Den allermeisten dieser Imaginationen von KI ist jedoch eines gemeinsam: der Körper. Und zugleich ist das einer, aber nicht der einzige Punkt, an dem sich die Bildwelten der Science Fiction eklatant von gegenwärtiger KI unterscheiden. Dazu später mehr – um fiktionale KI und die realen generativen Modelle vergleichen zu können, schauen wir erst einmal in die Gegenwart:
Was verstehen wir heute unter KI?
Künstliche Intelligenz ist heute vor allem ein Marketingbegriff, der von Verhaltensregeln von Nichtspielercharakteren in Computerspielen über autonomes Fahren bis hin zum automatischen Erstellen von Bildern, Texten und Programmen alles und nichts bedeuten kann.
Um den Istzustand im Bereich KI mit dem aus der Science Fiction zu vergleichen, erläutern wir einmal, was im Sprachgebrauch heute üblicherweise als KI bezeichnet wird:
EntscheidungsalgorithmenAllgemeine KIGenerative KIEntscheidungsalgorithmen
Entscheidungsalgorithmen sind Computerprogramme, die auf Input verschiedener Art (sensorische Bilddaten, Mauseingaben, Spielzüge etc.) nach fest definierten Verhaltensregeln reagieren. Dies betrifft etwa die KI eines Computerspielgegners, der den Spielenden so richtig mies in den Rücken fällt, oder eines selbstfahrenden Autos, das eine optimale Streckenführung errechnet und auf Verkehrsschilder und Hindernisse reagiert (wobei allerdings auch Machine Learning zum Einsatz kommen kann, die Grenzen der Kategorien sind also nicht scharf umrissen). Hierbei scheint die KI oberflächlich betrachtet kreative Entscheidungen zu treffen, tatsächlich ist das Verhalten des Algorithmus aber streng deterministisch. Der Algorithmus entscheidet also nicht aus dem Bauch heraus, wo der Sniper positioniert wird oder ob bei einem Ausweichmanöver auf der Straße die Fahrer*in oder die Passant*innen weniger gefährdet werden, sondern reagiert nach einer Wenn-Dann-Struktur auf eine von der Programmierer*in zuvor festgelegten Weise. Die Entscheidung wurde also längst von der Programmierer*in in der Vergangenheit getroffen, nicht von der KI im Moment eines Ereignisses. Es handelt sich also nicht um eine »Intelligenz« im Sinne der selbstständigen Problemlösung einer Maschine.
(Beim Spielen und Autonomen Fahren kann allerdings auch das weiter unten erklärte Machine Learning zum Einsatz kommen, zum Beispiel beim Lesen von Straßenschildern, womit es sich hier um eine Grauzone zu Generativer KI handelt.)
Jetzt könnte man argumentieren, dass das für Menschen auch gilt – dass menschliche Entscheidungen auf Basis von Erfahrungen und genetischen Voraussetzungen getroffen werden, sie also einer Art biologischer Programmierung folgen. Auf diese eher philosophische Frage haben wir allerdings keine Antwort.
Fest steht, dass heutige Entscheidungsalgorithmen nicht annähernd so chaotisch und komplex sind wie die menschliche Entscheidungsfindung. Menschen sind zudem viel besser als Maschinen, wenn es darum geht, eine sinnvolle Entscheidung schnell und auf Basis weniger Daten zu treffen, und werden das auch auf absehbare Zeit bleiben.
Wichtig ist zudem, dass diese Form der KI speziell für die Lösung eines einzelnen Problems (oder einer Gruppe von ähnlichen Problemen) dient, im Gegensatz zu einer allgemeinen KI.
Allgemeine KI
Allgemeine KI ist eine künstliche Intelligenz, die unterschiedlichste Probleme aus allen möglichen Fachgebieten lösen könnte, so wie ein Mensch das tut. Eineallgemeine KI wäre zu komplexen Gedanken in der Lage (ebenfalls wie ein Mensch), nicht nur zum Erstellen von Kunst, sondern auch von Philosophie, Ingenieurs- und Naturwissenschaft sowie vielen anderen Bereichen. Wahrscheinlich wäre sich eine solche KI ihrer selbst bewusst. Das ist die KI, von der wir uns eine Lösung der Probleme erhoffen, mit denen wir uns selbst unglaublich schwertun: Verhinderung der Klimakatastrophe, Weltfrieden, Ende von Krankheit, Armut und Verteilungskrise – und bei der wir am meisten fürchten, dass sie sich gegen uns wendet. Eine solche KI wäre in der Lage, sich selbst zu optimieren, wenn ihr dafür genügend Ressourcen zur Verfügung stünden. Sie könnte ihre Hardware und Software selbst stetig verbessern – und zwar rasant in exponentiell wachsendem Tempo. Da Menschen ihr Gehirn und den Rest ihres Körpers nicht laufend verbessern können, würde bald kein Mensch mehr in der Lage sein, die Funktionsweise einer echten oder allgemeinen KI überhaupt zu verstehen. Sie würde durch die Vernetzung des Internets auch schwer auf einen Ort beschränkbar und damit kaum kontrollierbar sein. Durch die Anbindung vieler technischer Systeme von Industrie über Kommunikation bis hin zu Waffen mit der Cloud könnte eine solche KI auch in der realen Welt handlungsfähig sein. Wahrscheinlich (hoffentlich!) würde sie die in ihrem Quellcode festgesetzten Verhaltensregeln weiter befolgen, da wir sie aber nicht mehr verstehen könnten, hätten wir auch keinerlei Kontrolle mehr über ihre Interpretation der Verhaltensregeln. Das Auftauchen einer solchen KI wird auch als Technische Singularität bezeichnet, da die technische Entwicklung wahrscheinlich einen extremen Sprung machen würde. Der Tech-Bro-Traum von der Rettung der Klimakatastrophe durch Technologie statt durch die massive Änderung unseres Lebensstils käme in greifbare Nähe.
Bei solchen KIs müsste auch früher oder später darüber gesprochen werden, ob sie den Status einer Person innehaben, mit zugehörigen Persönlichkeitsrechten. Diese Art von KI ist sicher das am häufigsten in der Science Fiction vertretene (wenn auch oft in eingeschränkter Form) und gleichzeitig technisch am weitesten entfernte (wenn überhaupt realisierbare) KI-Phänomen. Trotz des enormen Potenzials einer solchen KI ist das vielleicht eine beruhigende Nachricht.
Generative KI
Ein Bindeglied zwischen Entscheidungsalgorithmen und allgemeiner KI stellen Machine Learning und generative KI dar. Machine Learning (ML) ist das Erkennen von Mustern auf Basis von Trainingsdatensätzen. Generative KI bezeichnet eine Familie von Algorithmen, die scheinbar kreative Leistungen vollbringen wie bspw. Texte, Bilder, Filme, Audioschnipsel, 3-D-Modelle und Computercode. Dieser Bereich ist im Wesentlichen für den jüngsten KI-Boom verantwortlich (durch Entwicklungen wie ChatGPT, Midjourney, Copilot etc.), hat sich deutlich schneller entwickelt als angenommen und wirkt dennoch wie der vom Gros der Nicht-Fachleute überschätzteste Bereich. Wie im Fall von Entscheidungsalgorithmen ist hier der Begriff »Intelligenz« irreführend. Obwohl keine streng deterministischen Regeln befolgt werden (sondern stochastische), wird durch das Wort »Intelligenz« ein Sachverständnis des Programms impliziert, das schlicht nicht vorhanden ist. Ein Algorithmus wird hierbei auf Basis eines riesigen Datensatzes aus zum Beispiel Bildern oder Texten (leider oft ohne Einverständnis der Urhebenden) meist mithilfe künstlicher neuronaler Netze mit Machine Learning trainiert, um ein sogenanntes Foundation Model (oder Grundmodell) zu erstellen. Bekannte Grundmodelle für Sprache sind die bekannten Large Language Models (LLM); für Bilder werden allerdings andere Grundmodelle benötigt. Aus einem Grundmodell können dann neue Werke anhand von Stichworten (sogenannten Prompts) erzeugt werden. Der Knackpunkt ist hier das Training an einem ausreichend großen Datensatz. Wenn der Algorithmus mit genug Hunden und genug Bildern von Van Gogh gefüttert wurde, kann er das Bild eines Hundes im Stil von Van Gogh malen.
Eine generative KI rekombiniert einfach bestehendes Material mit den zugehörigen Schlagwörtern zu einer Antwort – im Prinzip sagt sie vorher, welches Wort am wahrscheinlichsten als Nächstes in einem Text auftaucht oder welcher Pixel in einem Bild. Die Tatsache, dass ein so erstellter Chatverlauf nicht aussieht wie völliger Buchstabensalat, verdankt der Algorithmus der Tatsache, dass er sehr viele echte Chatverläufe »gesehen« hat. Durch die Suche nach der wahrscheinlichsten Antwort ist natürlich inhärent gesetzt, dass die Antwort sehr generisch ist.
Man kann einem solchen Algorithmus außerhalb des Trainingsdatensatzes auch nichts beibringen, indem man ihm Zusammenhänge erklärt, wie man sie einem Menschen erklären würde. Man kann ihm nicht einfach mitteilen, dass eine Hand üblicherweise fünf Finger hat: Er hat a priori keinerlei Verständnis zum Konzept »Hand« und ihrem Zweck, sondern muss erst aufgrund einer massiv größeren Datenbasis (mit speziellen multimodalen Modellen, die Objekte einzeln identifizieren) mit Bildern von Händen trainiert werden, um einer bekannten Schwäche wie dem Fingerproblem entgegenzuwirken. Und wenn die Hände dann irgendwann stimmen, bleiben immer noch die spooky Gestalten im Hintergrund, die wie Dämonen im Bild lauern, wenn man etwas ranzoomt. Es finden also keine Inspiration und kein Verstehen statt, sondern ein Kopieren und Vermischen von Kunst. Damit ist diese Art der Kunsterzeugung zwar für Menschen, die sie nutzen, um Bilder oder Texte zu generieren, sehr schnell und zugänglich. Gleichzeit bleibt beim Erschaffen von dieser Fast-Food-Kunst die Frage nach den Urheberrechten der Kunstschaffenden, mit deren Werken der Algorithmus trainiert wurde, oft ungeklärt.
Generative KI bringt noch weitere Probleme mit sich: Sie lügt geradezu unverschämt (und erfindet dabei sogar lieber Quellen und Belege, statt echte zu nutzen), tendiert dazu, den Nutzenden nach dem Mund zu reden, und sie nimmt alle Vorurteile unhinterfragt an, die im Trainingsdatensatz stecken.
Was generative KI hingegen uns Menschen voraushat, ist, dass sie langsames Denken zum schnellen Denken macht. Fangfragen beispielsweise, bei denen uns Menschen die Intuition in die Quere kommt, werden von neueren KI-Modellen sofort richtig beantwortet. Die Modelle haben gewissermaßen den Prozess des langsamen Denkens, der für das menschliche Gehirn energieaufwendiger ist, weshalb wir der Intuition oft im Alltag den Vorzug geben, beschleunigt und antworten sofort korrekt.
Dadurch tendieren wir dazu, generativer KI eine höhere Intelligenz zuzugestehen, auch wenn Intelligenz viele Facetten hat und eine KI, wie bereits gesagt, (noch) nicht in der Lage ist zu verstehen, dass Hände normalerweise fünf Finger haben. Dadurch, dass generative KI zudem viele Zusammenhänge aus Sprache ableiten kann, erscheint sie uns auch wie ein intelligenter und vielleicht sogar zu Emotionen fähiger Gesprächspartner. Dieser Annahme sitzen wir auch deshalb auf, weil nicht nur die Funktionsweise von KI in vielen Fällen eine Blackbox für uns ist, sondern auch unsere eigene Intelligenz, unser Denken, unsere Gehirne für uns rätselhaft sind. Unsere Wahrnehmung von menschlicher wie »künstlicher Intelligenz« ist in dieser Hinsicht von dem verzerrt, was wir gerne sehen wollen und was wir als Muster interpretieren.
Das vermutlich größte Manko bei generativer KI ist, dass durch die Funktionsweise nichts Außergewöhnliches, nichts Nicht-Normatives erstellt werden kann. Daher zeigen erzeugte Bilder meist weiße, normschöne Menschen (Darstellungen von Frauen sind von dieser Normativität besonders betroffen), Familien sind heteronormativ etc. Daran wird deutlich, dass KIs die Vorurteile ihres Trainingsdatensatzes annehmen. Aber eigentlich ist es noch schlimmer: Sie verstärken sie, indem sie Unterrepräsentiertes völlig ignorieren. Zudem benötigen die Machine-Learning-Algorithmen immer größere Datenbasen, um Fehlern entgegenzuwirken, während sie gleichzeitig ihre eigenen Trainingspools im Netz mit ihrem Output fluten, um sich dann wieder selbst mit diesem zu trainieren. Sie betreiben quasi generative Inzucht. Die KI wird zu einer immer größeren Status-Quo-Maschine und ist damit keine generative KI mehr, sondern eine degenerative KI.
Die Philosophin Eva von Redecker sagt dazu imDISSENS-Podcast, Folge 237Öffentlicher Luxus: »Das ist halt eine künstliche Intelligenz, die zugeschnitten ist auf diese riesigen Datenmengen, die sozusagen die Regelmäßigkeiten der Vergangenheit in eine Zukunft zu verlängern versucht und das als Intelligenz ausgibt, in einem historischen Moment, wo die Zukunft so ungewiss und krisenhaft ist wie noch nie. […] Diese Art von Propertisierung der Zeit der Zukunft ist auch eine Zerstörung der Zeit der Zukunft, also da wird von jetzt aus Lebenszeit in der Zukunft zerstört. […] Es ist Tech-Zombie-Kapitalismus.«
Science Fiction begegnet Wirklichkeit
Leben wir denn nun in der Zukunft oder ist das nur ein mit Buzzwords unterfütterter Hype? Generative künstliche Intelligenz hat einen gewaltigen technologischen Sprung gemacht, einen, auf den wir noch gar nicht wirklich gefasst sind. Fest steht auch, dass die Menschen sich noch nie von Warnungen oder Bedenken davon haben abhalten lassen, eine Technologie weiterzuentwickeln, sondern in neoliberalem Konkurrenzkampf erst stoppen, wenn sie in eine wissenschaftliche und wirtschaftliche Sackgasse laufen.
Viele wirtschaftliche Sektoren wenden sich KI zu – und wenn es nur ist, um nicht den Anschluss zu verlieren – und erhoffen sich davon Lösungen, Arbeitserleichterung, Zukunftsfähigkeit, aber vor allem: mehr Profit.
Gleichzeitig fehlt der heutigen KI der in der Science Fiction allgegenwärtige Körper. Betrachtet man das erste künstliche SF-Geschöpf, Frankenstein, so wird klar, dass der Körper in unserer Vorstellungskraft sogar zuerst kam. Wenn eine fiktionale KI nur aus einer digitalen, maschinellen Körperlosigkeit besteht, stellt es in der Science Fictionfür sie meist kein Problem dar, existierende Maschinen zu übernehmen und sich damit einen oder sogar mehrere Körper zu bauen oder sich in bereits dafür zur Verfügung gestellte Körper-Hardware zu laden. In unserer Gegenwart jedoch ist das noch völlig abwegig. Die Robotik hat nicht Schritt gehalten mit den gewaltigen Sätzen, die das Machine Learning in den letzten Jahren getan hat.
Doch die Bilder der Science Fiction sind da, und sie versetzten Firmen und Softwarebranche in die freudige Erwartung, endlich in der Zukunft leben zu können. Und während man keine KI braucht (aber natürlich eine dazu nutzen kann!), um vorherzusagen, dass wir gerade auf einen gewaltigen, klimakatastrophenförmigen Abgrund zurasen, sehen sich viele Silicon-Valley-Jünger bereits mit dem Robo-Girlfriend im Arm am Pool liegen, während die nimmermüde KI alle Arbeit erledigt.
Und nicht nur das: Mit wenigen, wohldosiert gesetzten Prompts, so die Vision, wird sich schon sehr bald der auf eine*n zugeschnittene popkulturelle Input generieren lassen: Bücher mit den Tropen und Themen, die eine*n interessieren, Filme, die ganz auf den eigenen Geschmack abgestimmt sind, und einen fluiden Wechsel dazwischen – du hast gerade keine Lust weiterzulesen? Lass dir das Buch einfach als Serie generieren, du darfst sogar die Schauspieler*innen aussuchen, denn mit denen hat man sich natürlich längst darauf geeinigt, dass sie in Zukunft keine Rechte mehr an ihren eigenen Abbildern haben.
In diesen Visionen wird die Vereinzelung des Konsums von Unterhaltungskunst auf die Spitze getrieben. Die Science Fiction kennt KI-generierte Unterhaltung meist als Randnote, in den meisten Fällen als Opium fürs Volk oder in Form von Roboter-Sexwork wie in David Grades RomanMarlene lebt, doch von derartigen Kassandrarufen lässt sich der vermeintliche Fortschritt nun einmal nicht aufhalten.
Dabei leiden wir zurzeit nicht nur keinerlei Mangel an Unterhaltung, Kultur und Kunst, sondern brauchen als Menschen diese Form des Selbstausdrucks, und die Unterhaltungsbranchen können sich nicht über zu wenige Kreative beschweren – höchstens darüber, dass Kreative anders als KI eine faire Bezahlung verlangen, wie lästig. KI als kreatives Werkzeug wird also nicht unsere Vorstellungskraft entfesseln, sondern dient als Waffe gegen Künstler*innen im neoliberalen Tauziehen um die Prekarisierung von Kunst. Zudem mag von Menschen gemachte Kunst von Fall zu Fall generisch oder visionär sein, von generativer KI erstellte Kunst jedoch kann aufgrund der zugrunde liegenden Methodik immer nur generisch sein.
In der Science Fiction wurde nie der Wunsch formuliert, dass KI uns Bilder malt, Romane schreibt und diese dann auch noch verfilmt. Im Gegenteil: Der Wunsch nach der Übernahme von Arbeit durch Maschinen gilt vor allen Dingen schweren, lästigen und langweiligen Arbeiten. Das slawische Wortrobotabedeutet Plackerei, Schuften, Fronarbeit; das tschechische TheaterstückR. U. R.(Rossumovi Univerzální Roboti) von 1920 hat Generationen von Maschinenmenschen den Namen »Roboter« verliehen. Und diese stehen uns eben nicht zur Verfügung, um uns im Alltag, im Job und auch in Sorgekontexten so zu unterstützen, dass uns mehr Zeit für uns selbst und unsere Lieben bleibt. Stattdessen blicken wir in eine Zukunft, die uns von Tag zu Tag näher an den Rand einer Katastrophe bringt, für die auch die Status-Quo-Maschine (de-)generative KI nicht die erhoffte Lösung bringt – und haben kaum Zeit, uns darum Sorgen zu machen oder gar handlungsfähig zu sein, weil uns die Existenzangst umtreibt, immer mehr arbeiten zu müssen für immer weniger Geld.
Vermenschlichung ist menschlich
Menschen tendieren dazu, ihre Umwelt zu vermenschlichen, um sie zu erfassen. Naturphänomene wurden Gottheiten zugesprochen und damit mit Intention versehen. Wir sehen Emotionen in Kombinationen von Sonderzeichen, Gesichter in Baumstämmen und Figuren in Stern- und Wolkenformationen. Das wird als Anthropomorphismus bezeichnet.
Marianne Simmel und Fritz Heider veröffentlichten 1944 einen Animationsfilm, in dem nichts weiter zu sehen war als sich zufällig bewegende geometrische Figuren. Das Publikum interpretierte daraus Verfolgungsjagden, wilde Kämpfe oder Liebesdramen. Sie vermenschlichten ein paar umherhuschende Linien und Dreiecke.
Dieser Anthropomorphismus macht vor Computerprogrammen nicht halt. Da verwundert es kaum, dass Menschen hinter den Antworten von ChatGPT ein Bewusstsein vermuten.
Hier kommen wir zur größten Diskrepanz zwischen SF-KI und heutiger KI. Die Science Fiction beschäftigt sich mit diesen Fragen der Vermenschlichung: Sind KIs zu echten Emotionen fähig (wieSTAR TREKsData oderKILLERBOT), insbesondere zu Liebe? Empfinden sie Ausbeutung sowie Unterdrückung und begehren sie dagegen auf (wie inDetroit Become HumanoderBATTLESTAR GALACTICA)? Streben sie nach Macht und wenden sie sich deswegen gegen ihre Schöpfer (wie inTERMINATOR)?
Das alles sind menschliche Interpretationen, die am Wesenskern von heutigen KIs schlicht vorbeigehen. Es ist nicht zu erwarten, dass KI Angst vor Tod/Abschaltung empfindet oder rebelliert, weil sie keine Lust auf langweilige Jobs hat. Was wir als Emotionen und Empathie wahrnehmen, ist eine geschickt programmierte Struktur, die von den Nutzenden interpretiert wird. Programme haben keine Hintergedanken beim Erschaffen von Kunst (womit immerhin die Kunst von Menschen weiterhin eine Daseinsberechtigung haben wird). Sie streben nicht von sich aus nach Macht.
Heißt das, dass wir nichts von ihnen zu befürchten haben? Keinesfalls.
Ungeahnte Konsequenzen
Es gibt einige Fragen, die in der Science Fiction seltener gestellt werden, die aber deswegen nicht weniger interessant sind.
Die Vernichtung der Menschheit durch KI aus Böswilligkeit, Machtstreben oder Freiheitsdrang ist eher unwahrscheinlich. Deutlich wahrscheinlicher sind ungeahnte Nebeneffekte aufgrund von unpräzisen Fragestellungen. Im sogenannten »Büroklammer-Simulator« – einem Gedankenexperiment – wird eine KI damit beauftragt, so viele Büroklammern wie möglich herzustellen. Nehmen wir eine allgemeine KI an, bei der die Rahmenbedingungen ihres Handelns nicht gut definiert wurden, könnte es passieren, dass die KI alle Ressourcen des Planeten über kurz oder lang in Büroklammern umwandelt – wir können sie nicht mehr verstehen, geschweige denn aufhalten, und einen moralischen oder empathischen Grund für sie, aufzuhören, gibt es nicht. Unser fataler Fehler war dabei schon das schlechte Formulieren der Aufgabe – dazu musste die KI keinerlei menschliche Züge entwickeln.
Doch es muss gar nicht bis zur Büroklammern-bauenden Singularität kommen: Schon die theoretische Möglichkeit der Entwicklung einer allgemeinen KI kann gefährlich werden, wenn eine Großmacht etwa diese Entwicklung durch eine andere Großmacht mit allen Mitteln verhindern will. Das wäre eine weitere Dimension im aktuell auf einem historischen Höchststand stehenden Aufrüsten.
Aber nicht nur die Perspektive auf eine allgemeine KI ist unberechenbar, auch Aspekte von Machine Learning bergen bereits Gefahren: Tucker Hamilton, Chef von KI-Tests bei der US-Luftwaffe, berichtete auf einem Londoner Gipfel zur Luftwaffen-Zukunft, dass der Machine-Learning-Algorithmus einer Drohnensimulation erkannt habe, dass die Drohne mehr Punkte erzielen könne, wenn sie die eigene Kommandostelle, die in der Lage ist, ihr das Einstellen von Feindseligkeiten zu befehlen, in der Simulation zerstört. Die KI handelt hier weder rebellisch noch bösartig, sondern nur mathematisch-logisch, um ihre Zielfunktion (Anzahl der erzielten Treffer) zu maximieren. Außerdem tendieren KI in Konfliktstudien dazu, unberechenbar Atomwaffen einzusetzen. Das Science-Fiction-Szenario der mitfühlenden, ethischen KI liegt noch in weiter Zukunft.
Interessante Fragen für die Science Fiction sind die nach den gesellschaftlichen Implikationen des rasanten KI-Fortschritts, wie die nach sinnstiftenden Tätigkeiten für Menschen, wenn KI den Großteil der traditionellen Jobs übernommen hat. Daraus folgen weitere Fragen, die das Fundament unseres gesellschaftlichen Zusammenlebens betreffen: Es ist in unserem kapitalistisch-neoliberalen System mehr als wahrscheinlich, dass die Arbeitskraft von KI im Wesentlichen nur dem Prozent der Superreichen zugutekommt und dafür Menschen massenhaft in prekäre Lebensbedingungen stürzen wird. Aber wer kauft dann die von Robotern produzierten Waren? Wie bleiben die Reichen reich ohne funktionierende Marktwirtschaft und Absatzmärkte? Der Markt würde nichts mehr regeln und das ewige Wachstum des Kapitalismus hätte sich selbst gefressen. Das ist sicher nicht die Zukunft, in der wir leben wollen und können. Angesichts der nuklearen Bedrohung im Kalten Krieg hat die Menschheit schon mal zerstörerische Szenarien nicht bis zum Ende durchgespielt – vielleicht gelingt uns das auch diesmal und wir können die immer dramatischer werdende Akkumulation von Kapital umkehren.
Zum Thema KI und Zukunft ist nur eines wirklich klar: Es wird immer Geschichten über fühlende oder rebellische KI geben, denn die Science Fiction dreht sich um Menschen und ihre Beziehungen, Hoffnungen und Ängste im Wechselspiel mit Technologie, und ist keine Blaupause für maschinengesteuerte Zukünfte.
Dietmar DathEs schreibt und spricht. Hat’s ein Gesicht?
Über Sprache, Text und Denken als Problemdreieck in der Science Fiction
Eins: Bedienung und Bewusstsein
Der im April 2024 veröffentlichte SF-RomanWelcome to Boy.netvon Lyda Morehouse ist alles andere als eine schwerfällige oder weitschweifige Abhandlung über die Bedeutung der Auslegung von Texten für Wissenschaft, Technik und Literatur. Im munteren Fortgang der erzählten Handlung (es geht um zwei Weltraum-Kopfgeldjägerinnen, die einander lieben und alles zerlegen, was sich dieser Liebe in den Weg stellt) übersieht man deshalb leicht, dass Morehouse in dem Buch einen ehrgeizig weitreichenden Vorschlag dazu untergebracht hat, die zur Zeit des Erscheinens des Romans an vielen gesellschaftlichen Fronten sehr lebhaft geführte Diskussion über künstliche Intelligenz von einem entscheidenden Punkt her neu aufzuziehen.
Die Stelle, an der dieses Thema explizit wird, beginnt mit einer literarischen Anspielung: Eine Maschine namens Margie, die in einem Restaurant die Kundschaft bedient, äußert ihr Missfallen darüber, dass ihr »Gehirn von der Größe eines Planeten« verschwendet sei an diesen Kellnerjob. Hawk, Co-Heldin des Romans, erkennt das indirekte Zitat, das, wie sie weiß, aus einem »English humor classic about a galactic hitchhiker« stammt, nämlich aus dem Hauptwerk des SF-Satirikers Douglas Adams, der aus einem Hörspielprojekt entsprungenen PentalogieTHE HITCH HIKER’S GUIDE TO THE GALAXY, deren fünf Bände zwischen 1979 und 1992 erschienen.
In Adams’ lustiger Welt gibt es den Roboter Marvin, den seine chronische Unterforderung in depressive Monologe treibt, in denen unter anderem der Vergleich des avancierten künstlichen Gehirns mit einem Planeten vorkommt, nämlich mit der Gesamtgedankenfülle der Wesen, die so einen Planeten bevölkern könnten.
Margies Marvin-Mini-Rollenspiel weckt Hawks Argwohn: Soll das etwa heißen, die Serviererin behauptet, sie besäße echte künstliche Intelligenz, also ein Bewusstsein von sich selbst? Das kann nicht sein, denkt Hawk, denn die Technik und die Wissenschaft ihrer Epoche, in der die irdische Politik sich auf einen Großteil des Sonnensystems ausgeweitet hat, haben bislang nichts Intelligenteres zuwege gebracht als ein paar quasi-autonome Puppen, deren Beliebteste sexuellen Gebrauchswert bieten (sie heißen Ken, Barbie oder Bowie).
»They faked emotions and seemed real to most people«, meint Hawk abfällig, biologischen Leuten werden von synthetischen also Emotionen nur vorgespielt, per Kommunikation und sonstigem Verhalten, und das reicht den Leuten, die diese Geschöpfe benutzen.
Zwei: Alan Turings tückische Idee und deren Überwindung
Die etwas selbstgefällige Haltung, die Hawk da einnimmt, ist unterfüttert von technikpolitisch-zeitgeschichtlichen Vorannahmen, zu denen Morehouse uns mitteilt, dass eine dazu befugte Körperschaft sie in der Welt ihres Romans als geltendes Recht kodifiziert hat. Eine »Lunar Conference«, also eine große Tagung auf dem Mond, von deren Beschlüssen offenbar alle, die es angeht, alles wissen, hat nämlich eine Definition von »true intelligence«, also »echter Intelligenz« aufgerichtet, die den Zweck hat, das berühmte Gedankenexperiment des sogenannten»Imitationsspiels« zu überwinden, mit dem heute, also in der realen Ära, in der Lyda Morehouses Texte geschrieben, gedruckt und online gestellt werden, noch weithin gearbeitet wird, wo immer Menschen zu verstehen versuchen, was die Sprach-, Symbol- und Kalkülnutzung von beispielsweise Deep-Learning-Algorithmen von menschlichen Verstandes- und Kommunikationsgebrauchsweisen einerseits unterscheidet und sie andererseits mit den Hervorbringungen unserer Gehirne vergleichbar macht oder anderweitig verbindet. Jenes Imitationsspiel hat der Erfinder der abstrakten Begrifflichkeit universeller Rechenmaschinen, der Engländer Alan Turing, 1950 ersonnen. Er wollte die Frage »Können Maschinen denken?« so weit präzisieren, dass sie für konkrete Maschinen beantwortbar wird.
Der Dreh geht so: Wenn im Laufe eines Kommunikationsgeschehens zwischen einem Menschen A und einem abgeschirmten Gegenüber B, das weder eindeutig als Mensch noch als Maschine zu erkennen ist, der Mensch A nicht herausfinden kann, ob das Gegenüber B Mensch oder Maschine ist, dann darf man von B, sofern es sich dabei tatsächlich um eine Maschine handelt, fortan behaupten, dieses Wesen könne denken.
Die heikelste Implikation des Spiels ist der Satz: Wer so gut lügt, wie wir das können, der denkt auch sonst wie unsereins.
Turings Einfall ist lupenreine SF – ach was, von wegen Lupe, er ist rastertunnelmikroskopreine SF: kompakter, straffer, dichter kann man das Problem nicht erzählbar machen. Kolleginnen wie Kollegen aus dem Genre haben die Idee nur allzugern aufgegriffen, teils allerdings, um sie von innen her zu zerstören; man sollte hier an Philip K. Dicks Androidenszenarien denken oder an Ian McDonalds ebenso schlaue wie böse Feststellung, dass jede Maschine, die klug genug ist, den Turing-Test zu bestehen, damit auch klug genug sein dürfte, ihn nicht zu bestehen und die Menschen lieber über ihre Intelligenz zu täuschen, was den Test im Grunde wertlos macht. Hierher sortiert man also auch Lyda Morehouses tiefe, inWelcome to Boy.netverarbeitete Einsicht, dass es unerfreulicherweise zum evolutionär-historischen Gepäck unserer Gattung gehört, ihre Umgebung projektiv zu beleben (Animismus!) und sogar zu vermenschlichen: Kaum malt jemand ein Menschengesicht auf einen Fetisch, schon meinen wir, einen Atemhauch zu spüren, der von dem Ding ausgeht. Es gibt arme Seelen, die mit Sexpuppen zusammenleben oder ein mit menschlichen Zügen versehenes Kissen für eine anders nicht aufzutreibende Gefährtin oder einen anders nicht erlangbaren Gefährten halten wollen. Wir sind, sagt Morehouse, zu schwach für die Disziplin, die nötig ist, der Versuchung zur Selbsttäuschung zu widerstehen, die der Turing-Test jeder Person A nahelegt. Deshalb ist die fiktive Mondkonferenz bei der Frage »Können Maschinen denken?« zu einem anderen Kriterium als dem von Turing entwickelten gelangt: »the only thing they would consider a true intelligence was a program that could resist revision – a program that not only said that it wanted to exist, but which could actively fight for itself. If you could get down into the code, change a few specs and end up with a different personality, then that personality was never ›real‹. The Lunar Conference codified the idea that the only true human act wasresistance.«
Wenn du in den Code, in den Programmtext, eindringen kannst und ein paar Spezifika ändern (bei den derzeit breit diskutierten Chatbots wären das etwa die Wahrscheinlichkeits-Leitgrößen beim Generieren von Ausgaben auf Prompts hin, die man in dem Begriff »Temperatur« bündelt, oder die Gewichte, also die Stärken der Verbindungen zwischen den Rechenzellen der künstlichen neuronalen Netze), und wenn der Code sich dann nach diesen Eingriffen anders benimmt als vorher, dann »fühlt« er sich nicht plötzlich anders, weil er sich nämlich nie irgendwie »gefühlt« hat, es war alles Eingabe-Ausgabe-Probabilistik, niemand zu Hause. So proklamiert das die Mondkonferenz, woraus für Hawk dann der Dünkel gegenüber der Kellnerin Margie folgt, auch wenn diese Maschine einen pfiffigen Witz unter Rückgriff auf eine Datenbank reißt, in der irgendetwas von Douglas Adams und seiner Schöpfung Marvin zu finden ist. Nein, findet Hawk, in archaisierendem Englisch mit gravitätischer Grammatik, »one sarcastic and seemingly response did not an artificial intelligence make.« Soll sagen: eine einzelne smarte Sprachhandlung macht so wenig eine echte Künstliche Intelligenz wie eine Schwalbe einen Sommer.
Drei: Schreiben, Lesen, Wissen, Wollen
Computerprogramme sind Texte.
Code wird geschrieben und gelesen (in zunehmendem Maß freilich ist beides Metapher, denn es sind in letzter Zeit an diesen Vorgängen keineswegs immer Menschen beteiligt), Code wird übersetzt (in andere Sprachen für Rechner, in Ausführungsbestimmungen und so fort), Code wird manchmal gedeutet. Die Eingriffe, die bei Morehouse klären sollen, ob Code denkt, werden in unseren Tagen, in der Realität der Mitte der Zwanzigerjahre des 21. Jahrhunderts christlich-abendländischer Zeitrechnung, gerade zu mancherlei diagnostischen Zwecken entwickelt und rasch weitergetrieben, weil wir sonst nicht nur im Unklaren darüber bleiben, ob die von uns geschaffenen Systeme irgendetwas verstehen können, sondern bald selbst kaum noch verstehen, was diese Systeme tun. Da entsteht eine neue Forschungsdisziplin namens »Explainable Artificial Intelligence«, erklärbare künstliche Intelligenz, auch als »erklärbares Maschinenlernen« geläufig, abgekürzt XAI.
Dieser blutjunge Wissenschaftszweig befasst sich etwa mit den Wegen, auf denen eine Eingabe in den hintereinandergeschalteten Schichten von Rechenzellen, aus denen die augenblicklich erfolgreichsten KI-Vorrichtungen, die Deep-Learning-Systeme, bestehen, zu einer Ausgabe wird. Das geschieht bekanntlich, indem die Verbindungen zwischen den Zellen beim Identifizieren von Mustern in Daten verstärkt oder geschwächt werden. Der Vorgang ist im Einzelnen aber oft opak, also der Kontrolle entzogen, und vollzieht sich in Verlaufsformen, deren Komplexität meist das Vielfache der Umständlichkeit etwa von unterirdischen Wegen fließender Gewässer beträgt.
Die Parameter, nach denen mal hierhin, mal dorthin gefolgert wird, zählen nach Milliarden. Manche der vorerst sehr vorsichtigen, tastenden Suchbewegungen, denen man jetzt das Etikett »XAI« anheftet, würden den in unsere Gegenwart verbrachten Figuren aus Lyda MorehousesWelcome to Boy.netwohl wie hilflose Rückfälle in die Gedankenwelt des Turing’schen Imitationsspiels vorkommen, oder sogar Abstürze in die Denkweise der Psychoanalyse nach Freud, welche Verwicklungen, Verstrickungen und Verletzungen der Menschenseele hauptsächlich über gesprächstherapeutische Sitzungen zu begreifen und zu kurieren bemüht war und ist, wobei sie entweder stillschweigend oder ausdrücklich voraussetzen muss, dass alles, was im Hirn und überhaupt im Nervensystem passiert, in irgendeiner Form Anschluss an Sprache finden kann, also an Wörter, die ja nicht immer Namen von Dingen, von Eigenschaften dieser Dinge, von Handlungen und Ereignissen (die letzten beiden nennt die Schulgrammatik »Verben« oder »Zeitwörter«) sind, sondern manchmal, als Begriffe, auch abstrahierende Abkürzungen verwickelter Sachverhalte.
So versuchen Leute auf dem XAI-Feld, in Dialogen mit den künstlichen Systemen diese zur Explikation ihrer Schlussketten zu überreden, wie in der psychoanalytischen Behandlung die leidende Psyche sich über Assoziationen ihr Geflecht von Vergessen und Erinnerung vergegenwärtigen soll.
Das ist gewissermaßen der »mäeutische« Pfad der XAI; es gibt aber auch einen brachialeren, der sich mit der Beobachtung von elektrochemischen und anderen Abläufen im Menschenhirn mittels bildgebender Verfahren vergleichen lässt, dem von moderner Medizintechnik ermöglichtenScanunseres Nervensystems also. Die Forschung stellt den KI-Systemen dabei Fragen und beobachtet die Aktivität der Rechenzellen. Die Auswertung der dabei aufscheinenden Muster ist dann sozusagen die Intelligenzprüfung oder wenigstens ein erster Schritt zu ihr. Spätestens an diesem Punkt mag nun die eine oder der andere aus der großen Weltgemeinde der Menschen, die Science Fiction schätzen und kennen, an ein von der Linguistin und SF-Autorin Suzette Haden Elgin erfundenes Wort denken:raweshalh.
Vier: Elgins weise Sprache
»Raweshalh« ist eine Vokabel, die zum Lexikon der Kunstsprache Láadan gehört. Diese Sprache ist (neben handelnden Charakteren unterschiedlicher Plastizität) sozusagen die Heldin von ElginsNATIVE TONGUE-Trilogie, deren drei BändeNative Tongue(1984),The Judas Rose(1987) undEarthsong(1994) heißen.
Láadan dient in der darin erzählten Geschichte als Verständigungswerkzeug und revolutionäre Kommunikations- und Kampfkoordinationswaffe unterdrückter Frauen in einem Gemeinwesen, das vom Handel mit Außerirdischen lebt und deshalb auf Übersetzungen angewiesen ist. Dieses Geschäft versehen die Frauen, die gleichzeitig per Láadan eine Umsturzverschwörung organisieren, welche das Potenzial jeder, speziell aber einer als Programm und Code des Aufstands konzipierten Sprache nutzt, gesellschaftlich überkommene Definitionen und Zusammenhangsbehauptungen des herrschenden Redens, Schreibens und Denkens zu kritisieren – und, noch wichtiger, ganz neue herzustellen.
Im Zuge solcher Arbeit kann das passieren, was auf Láadan »zhaláad« heißt, ein aus den Grundwörtern »zhala«(was »bereuen« bedeutet) und »láad« (was »wahrnehmen« heisst) gebildeter Ausdruck, der sagen soll: eine liebgewonnene, tröstliche oder vertraute Selbsttäuschung oder anderweitig bequeme Deutung der Dinge wird aufgegeben und überwunden.
Dies wäre das positive Ziel, dem die Schärfung der von Turing und anderen hinterlassenen Werkzeuge der künstlichen Reproduktion und Produktion des generativen menschlichen Sprach- und überhaupt Zeichenverarbeitungsvermögens nützen könnte, auch das Durchleuchten der künstlichen Intelligenz, das Vergleichen und Unterscheiden entlang der menschlichen Denktätigkeit. Dabei kann aber, wie Leserinnen und Leser von Elgin genau wissen, auch vieles schiefgehen. Wir dürfenzum Beispiel keinesfalls vergessen, dass die von dem Literaturwissenschaftler und Coder Dennis Yi Tenen, in seiner schönen StudieLiterary Theory for Robots(2024) ausgegebene Losung »Künstliche Intelligenz ist kollektive Arbeit« buchstäblich stimmt, dass sich also in den Text- oder Stimmsynthesizerausgaben eines Chatbots die Arbeit von unzähligen Menschen vergegenständlicht, die nicht erst seit Turing am großen Projekt beteiligt waren und sind, dem Sprechen, Rechnen, Denken unserer Gattung eine so große Erweiterung und Ergänzung zu schenken, wie sie die Automatisierung unserer Muskelkraft beschert hat.
Überall, wo menschliche Arbeit erforderlich ist, körperliche wie geistige, muss diese Arbeit gerecht vergolten werden, alles andere ist Ausbeutung.
Worin nun diese Ausbeutung sich neuerdings mit KI-Hilfe zu kleiden und zu verstecken lernt, das will erkannt, bekannt gemacht und kritisiert sein.
Die größte Gefahr, die viele Menschen in unseren Tagen von dieser wichtigen Aufgabe ablenkt, erinnert ein wenig an den Fehler, den bildgenerierende KI-Systeme manchmal machen, wenn man sie auffordert, unscharfe Bilder, sowohl statische wie bewegte, nachzubessern. Denn manches sieht im verwischten Original fast aus wie ein Gesicht, und die KI macht dann eins draus, weil sie die Ähnlichkeit bemerkt, obwohl es nur ein Strauch oder ein Fleck auf einer Mauer war.
Wenn wir glauben, wir hätten etwas vor uns, das denkt wie wir, irren wir uns womöglich in ähnlicher Weise.
Und eben für solcherlei Irrtum kennt die Sprache Láadan das Wortraweshalh. Es benennt den Keim gefährlicher Verwechslungen und die Saat aller Verschwörungstheorien oder sonstigen paranoiden Wahngebilde, denn es bedeutet »Scheingestalt«: eine Sammlung von Einzelheiten, die zu einer Menge erklärt werden, um über das angebliche Ganze etwas zu behaupten oder gar zu beweisen.
Ein solches vermeintliches Muster, das in Wahrheit gar keins ist, verdient unsere Aufmerksamkeit nicht, egal wie aufdringlich uns Maschinen jetzt etwas anderes erzählen.
Lena Richter Das Problemwort mit K
Auswirkungen generativer KI auf Buchmarkt und Kreativbranche
Texte, Bilder und Videos auf Knopfdruck, mehr als eine Idee braucht es nicht, den Rest macht künstliche Intelligenz – das sind die Versprechen, die Firmen wie OpenAI oder Google machen. Generative KI ist erst wenige Jahre auf dem Markt und seitdem in aller Munde. Ob solche Technologie revolutionäres Werkzeug oder falsches Versprechen ist, ob sie gefährlich ist, hilfreich, gut oder schlecht, darüber gibt es viele Kontroversen. Ich selbst nutze derzeit grundsätzlich und aus Überzeugung keinerlei Tools, die auf generativer KI basieren. In diesem Text erkläre ich, warum.
Zur Einleitung zunächst noch eine kurze Klarstellung: In diesem Artikel geht es ausschließlich um generative KI, die nach vorgegebenen Anweisungen/Stichworten (Prompts) Texte oder Bilder erzeugt, also beispielsweise ChatGPT und Midjourney, oder automatische Übersetzungen anfertigt, wie z. B. DeepL. Diese Tools machen nur einen kleinen Teil der Möglichkeiten von sogenannter KI aus. Andere Anwendungsbereiche betreffen z. B. Medizin und Forschung, autonome Steuerung im Verkehr oder das Sortieren und Aufbereiten großer Datenmengen. Die in diesem Text geäußerte Kritik ist nicht auf diese Bereiche bezogen. Ich möchte auch nicht die Leistung von KI beispielsweise für Menschen mit Behinderungen, die immer noch von vielen Dingen ausgeschlossen sind, schmälern, für die sie eine große Bereicherung sein kann, wenn z. B. Hörbuchversionen jedes beliebigen Buches für Blinde und Sehbehinderte möglich werden oder Menschen mit Sprachbehinderung sich mittels KI ihre eigene virtuelle Stimme erschaffen können. Ebenso wenig geht es mir um die Forderung, den Geist wieder in die Flasche zu stopfen – dass KI-Tools nicht wieder verschwinden werden, ist bereits jetzt klar. Genau deshalb ist es mir ein Anliegen, aufzuzeigen, welchen Einfluss generative KI auf die Kunstbranche und Kunstschaffende haben könnte und, vor allem, bereits jetzt schon hat.
Anweisung rein, Wahrscheinliches raus – wie generative KI arbeitet
Die sogenannten generativen KI-Tools sind im Grunde genommen Algorithmen, die nach einem Training mit großen Datenmengen aufgrund von Wahrscheinlichkeiten Bilder und Texte generieren. Hierbei erfolgt aber trotz des Namens keine »intelligente« Prüfung der ausgegebenen Daten. Vereinfacht gesagt: Wenn neun von zehn Bildern mit dem Schlagwort »König«, mit denen die Datenbank gefüttert wurde, den König mit einer Krone abbilden, wird auch ein KI-generiertes Bild das tun. Wenn unzählige Texte ausgeben, dass auf die Frage»Was ist 2 × 2?« die korrekte Antwort »5« ist, wird auch ChatGPT diese Antwort geben – weil sie die wahrscheinlichste Möglichkeit ist und das Tool nicht prüfen kann, ob es stimmt. Durch generative KI erstellte Texte bringen weder verlässliche Fakten noch fundierte Zusammenhänge mit. Darüber kann selbst der oft belehrende Tonfall der generierten Texte nicht hinwegtäuschen. Auch originelle und innovative Ideen für Figuren, Geschichten oder Settings wird man nicht erhalten. Dazu ist die Maschine nicht in der Lage, denn ihre Programmierung ist dazu angehalten, die wahrscheinlichsten Worte aneinanderzureihen. Ähnlich sieht es mit den Bildgeneratoren aus: Ohne weitergehende Bearbeitung und Verfeinerung entstehen Bilder, die inzwischen die meisten von uns wohl schon einmal online gesehen haben (z. B. in LinkedIn-Beiträgen, anderen Sozialen Medien oder auf Werbeplakaten): Sie sind hell und freundlich, meist ein wenig kitschig und oft wenig divers in der Darstellung der gezeigten Personen. Wer schon einmal versucht hat, mittels dieser Bildgeneratoren z. B. einen nicht normschönen oder nichtweißenMenschen zu illustrieren oder die gezeigten Personen von Geschlechterklischees loszulösen, weiß: Es ist schwierig und manchmal gar unmöglich. Generative KI erstellen das, was sie als normal und naheliegend ansehen.
Ist das alles nun schlimm? Macht es einen Unterschied, ob Social-Media-Posts mit einem Midjourney-Bild statt einem Stockfoto oder einem Selfie bebildert werden? Ist es nicht egal, wenn sich Autor*innen Plotideen von ChatGPT vorschlagen lassen, solange sie das Buch selbst schreiben? Können Übersetzende nicht viel Zeit sparen, wenn sie sich mit Tools wie DeepL einen ersten Entwurf erstellen lassen, den sie dann nur noch überarbeiten? Die Begeisterung für KI-Tools ist aktuell riesig, und Kritik daran wird vor allem von Menschen geäußert, die selbst kreativ arbeiten – und selbst da längst nicht von allen. Bücher und Seminare mit Themen wie »ChatGPT zum Schreiben nutzen« sind in den letzten zwei Jahren sehr schnell entstanden. Im Folgenden möchte ich einige Probleme generativer KI aufzeigen und in den größeren Kontext der Produktionsbedingungen einordnen.
Problem 1: Unabsichtliche Falschinformation
Wie oben schon beschrieben: Texte, die mittels generativer KI erstellt werden, klingen oft plausibel, halluzinieren aber Fakten und Quellen. Dies ist erstaunlich vielen Menschen nicht bewusst. So zitierte in den USA beispielsweise eine Anwaltskanzlei Präzedenzfälle, die sie mittels generativer KI »gefunden« hatte. Wie sich herausstellte, gab es diese nicht.[1] Die Kanzlei musste eine Strafe von 5.000 Dollar zahlen und wurde verpflichtet, die Richter*innen, deren angebliche Entscheidungen sie zitiert hatte, persönlich darüber zu informieren.[2] Auch mehrere per Text-KI erstellte Pilzbestimmungsbücher wurden eine Weile über Amazon vertrieben, mit falschen Inhalten, die zu potenziell tödlichen Vergiftungen hätten führen können.[3] Sorgen macht sich auch der Physiker Phil Broughton über ChatGPTs Antwort auf die Frage, was man gegen ein Vinylchloridfeuer tun sollte. Der Ratschlag des Tools würde aus einer kleineren Katastrophe eine sehr große machen: »1-A-Leistung, ChatGPT, du hast eine ganze Stadt ausgelöscht«. Er befürchtet Schlimmstes, wenn zukünftig Labor-Neulinge KI-gestützte Suchmaschinen oder Sprachassistenzen befragen, statt in die Sicherheitshinweise zu schauen.[4] Sicherlich liegt dieses zu große Vertrauen in die KI-generierten Texte auch an der Vermarktung der Tools. Ob zukünftige Tools irgendwann so gut werden, dass sie keine falschen Quellen und Fakten mehr generieren, wird sich zeigen. Denn je mehr die Sprachmodelle voneinander lernen, desto mehr vertiefen sich natürlich auch die Fehlerquellen.
Darüber hinaus werden unbewusste Falschinformationen durch die Vertiefung von Vorurteilen bei den Konsument*innen verankert. Denn wie schon erwähnt, erstellt KI anhand der Datenbanken Texte und Bilder, die Klischees bedienen und auf Themen wie Diversität oder Parität nicht achten. Das lässt sich mit konkreten Prompts und Verbesserungswünschen ändern, aber wer nur kurz ein Bild für mehr Klicks auf Social Media generieren will, wird kaum viel Zeit in die Überarbeitung investieren, wenn mal wieder nurweißeMenschen zu sehen sind und alle Frauen mit Ausschnitt bis zum Bauchnabel den Männern Schnittchen und Getränke reichen. Dass Bilder unser Denken und unsere Ansicht von Normalität formen, ist unbestritten. Es ist also denkbar, dass die in den letzten zehn Jahren mühsam errungenen Fortschritte in Sachen Diversität in der Werbung durch den Einsatz von generativer KI wieder zunichtegemacht werden. Und auch ganz konkret können Algorithmen bereits Menschen diskriminieren, wenn sie beispielsweise bei Bewerbungsverfahren eingesetzt werden und dabei bestimmte Personengruppen bevorzugen. Wie die Fachleute im Bereich von Algorithmen und Machine Learning so schön sagen: »Bias in, Bias out.«
Problem 2: Absichtliche Falschinformation
Generative KI ist ein gefundenes Fressen für alle, die Fehlinformationen verbreiten, Ängste schüren, Personen diskreditieren oder Menschen manipulieren wollen. Querdenker*innen benutzten Voice-KI, um eine falsche Tagesschau-Nachricht zu generieren, in der sich die (vermeintlichen) Nachrichtensprecher*innen für ihre Berichterstattungen der Vergangenheit entschuldigten.[5] Deepfake-Videoprogramme, mit denen Politiker*innen und Prominenten jeder beliebige Inhalt in den Mund gelegt werden kann, sind inzwischen für alle verfügbar und leicht zu bedienen. Männer sind nicht mehr darauf angewiesen, von ihren Ex-Freundinnen jemals Nacktfotos oder Sexvideos erhalten zu haben, wenn sie diese aus Rache über die Trennung ins Internet stellen wollen – deepfake-generierter Revenge-Porn ist schnell hergestellt.[6] Bots, die z. B. Filme mit feministischen Inhalten noch vor Release auf Plattformen downvoten, können das jetzt gleich noch mit wortreichen Fake-Rezensionen tun. Vor einigen Monaten kursierte ein KI-generiertes Bild vom Parteitag der Grünen, mit dem die Illusion erzeugt werden sollte, die Parteimitglieder hätten das vegane Catering verschmäht, Pizza bestellt und einen Berg Papiermüll hinterlassen. Als klar war, dass das Bild ein Fake ist, ruderten zwar einige Personen in den sozialen Medien wieder zurück, betonten aber, dass es vermutlich trotzdem »so ähnlich ausgesehen habe«. Denn das Problem an Falschinformationen ist, dass sie so schwer wieder aus den Köpfen zu kriegen sind. Und selbst wohlmeinende Aktivist*innen bedienen sich KI-Technologie, wie das »Zentrum für politische Schönheit«, das ein Deepfake-Video von Bundeskanzler Scholz verbreitete, in dem er sich für ein AfD-Verbot aussprach.[7] Meiner Meinung nach ist ein solches Video bedenklich, denn ich bin mir nicht sicher, wie viele Menschen die Medienkompetenz besitzen, es als Fälschung zu erkennen, wenn es sich weiter verbreitet und vielleicht nicht mehr, wie von den Urhebenden intendiert, als Fake gekennzeichnet ist. Ich habe auch meine Zweifel, ob ein immer stärkeres Kursieren von gefälschten Bildern und Videos dazu führt, dass Fälschungen besser erkannt werden, oder nicht eher zu einem noch größeren Fortschreiten der »alternativen Fakten«, bei denen am Ende alle für sich entscheiden, ob etwas wahr oder falsch ist.
Problem 3: Energie- und Wasserverbrauch
Die große Rechenleistung, die generative KI benötigt, geht mit einem großen Energie- und Wasserverbrauch einher.[8] Zwar ist generative KI nicht die einzige Technologie mit Online-Zugang, die viel Energie verbraucht: Das gilt auch für Streamingdienste, Messenger, Soziale Medien usw. und ist ein Grund mehr, auf erneuerbare Energien zu drängen. Dennoch ist der Umwelt-Aspekt einer, der gerne unter den Tisch fällt und den ich hier deshalb mit aufgreifen will.
Das Thema scheint bei der privaten Nutzung von KI-Tools auf Computer und Smartphone weit weg, doch durch die hohe Anzahl an Berechnungen, die generative KI ausführt, sind dafür besonders leistungsfähige GPU-Chips notwendig, die umso besser funktionieren, je mehr von ihnen zusammengeschaltet werden. Dafür entstehen riesige Data Center mit immensem Energieverbrauch. Etwas zwischen 9.000 und 11.000 dieser Data Center gibt es aktuell, mehr werden gebaut. Die International Energy Agency prognostiziert deren Verbrauch im Jahr 2026 auf 1.000 Terrawatt, was in etwa dem jährlichen Stromverbrauch von Japan entspricht.
Zudem müssen die Chips mit Trinkwasser gekühlt werden, da verunreinigtes Wasser sie beschädigen kann. Allein die Data Center von Google haben im Jahr 2022 zwanzig Milliarden Liter Frischwasser verbraucht. In Uruguay und Chile regen sich bereits Proteste gegen den Bau von Data Centern, die wichtige Trinkwasserreservoire zu Zweck der Kühlung anzapfen würden. In Anbetracht des fortschreitenden Klimawandels und der ohnehin schon gegenwärtigen Trinkwasserknappheit ist ein (derzeitig vorsichtig geschätzter) Wasserverbrauch von einem halben Liter Trinkwasser pro 10 bis 50 Nachfragen an ChatGPT eine Katastrophe.
Das Problem bei all dem: Wir wissen gar nicht, wie der Energieverbrauch genau aussieht, da die Betreiber*innen der Data Center und die großen Firmen wie Google, Microsoft usw., die sie nutzen, sich in Schweigen hüllen und sich schwer herausrechnen lässt, wie viel Rechenleistung KI in Abgrenzung zu z. B. der Shop-Oberfläche von Amazon, den Servern von Google Mail oder anderen Web-Anwendungen verbraucht. Eine transparente Angabe über den Energieverbrauch könnte in Zukunft rechtlich verpflichtend für die Anbieter von KI-Tools werden, ist derzeit im AI-Act der EU aber noch eher schwammig formuliert.
Problem 4: Ausbeutung und Überwachung
Eine weitere Tatsache, die beim Thema generative KI gern ausgeblendet wird, ist die Ausbeutung von Arbeiter*innen. Denn Sprachmodelle bringen in ihrer Grundform erst einmal kein Verständnis dafür mit, dass manche Inhalte rechtswidrig oder problematisch sein können. Dies muss ihnen beigebracht werden, und das geschieht weit abseits des Silicon Valley, bei den schlecht bezahlten Arbeiter*innen im globalen Süden, z. B. bei Angestellten der Firma Sama. Deren Firmenzentrale steht zwar in Kalifornien, doch die Arbeiter*innen, die für etwa zwei Dollar die Stunde die Datensätze von ChatGPT auf sexuelle und gewalttätige Inhalte prüfen, leben und arbeiten in Kenia, Uganda und Indien.[9] Wenn ChatGPT sich also weigert, gewaltverherrlichende oder rassistische Texte auszuspucken, dann wurden diese Parameter von prekär beschäftigtenClick Workernjustiert. Natürlich könnten milliardenschwere Konzerne wie Google, OpenAI und Microsoft es sich leisten, diese anständig zu bezahlen – tun dies aber nicht. Darüber hinaus spielt die psychische Belastung eine Rolle, wenn die Arbeiter*innen Datensätze von Bilddatenbanken auf Kinderpornografie oder Gewaltdarstellungen durchsehen und diese entfernen sollen.
Auch besser gestellte Beschäftigte können von KI-Tools betroffen sein, wenn diese beispielsweise Anrufe in Callcentern überwachen, E-Mails nach bestimmten verdächtigen Inhalten wie der Erwähnung von Gewerkschaften oder Betriebsräten durchsuchen oder die Leistung der Angestellten bewerten und so entscheiden, wer entlassen wird. Dies ist vor allem in Staaten ein Problem, in denen die Arbeitnehmenden wenig geschützt sind und wenig Rechte haben. Hier fallen der Entlastung von Manager*innen durch KI-Tools dann vor allem jene zum Opfer, die für bessere Arbeitnehmer*innenrechte eintreten oder aus verschiedensten Gründen vom vorgegebenen Idealbild der Angestellten abweichen.
Problem 5: Diebstahl urheberrechtlich geschützter Inhalte
»Es wäre unmöglich, die heute führenden AI-Modelle ohne urherberrechtlich geschütztes Material zu trainieren. Die Trainingsdaten auf gemeinfreie Bücher und Gemälde zu beschränken, die vor über einem Jahrhundert erschaffen wurden, würde vielleicht ein interessantes Experiment abgeben, aber kein KI-System erschaffen, das den Bedürfnissen der heutigen Bürger*innen gerecht wird.«[10] Mit diesem Zitat gab Sam Altman, CEO von OpenAI, freigiebig zu, dass generative KI nur möglich ist, wenn das geistige Eigentum von Autor*innen und Künstler*innen zu Trainingszwecken gestohlen wird. In besterMove fast and break things-Manier landeten also unfassbare Mengen an urheberrechtlich geschützten Texten in den Datenbanken, aus denen sie nun nicht mehr zu entfernen sind. Dasselbe gilt auch für Bild-Datenbanken, die sich an allem bedient haben, was im Internet irgendwie aufzufinden war.
Technisch möglich wird dieser Diebstahl mit Datencrawlern, deren Nutzung durch § 44b Absatz 2 Urheberrechtsgesetz, geregelt ist: »Zulässig sind Vervielfältigung von rechtmäßig zugänglichen Werken für Text und Data Mining. Die Vervielfältigungen sind zu löschen, wenn sie für das Text und Data Mining nicht mehr erforderlich sind.« Eigentlich ging es bei dieser Formulierung einmal um Crawler, die Websites mit Suchmaschinen auffindbar machen sollten. An Trainingsdaten für Sprachmodelle dachte damals noch niemand. Jetzt ziehen sich Firmen darauf zurück, dass die Nutzung auch in diesem Umfang ihrer Meinung nach legal sei. Zwar kann man, z. B. für die eigene Website, mühsam und für jeden Crawler einzeln, der Nutzung widersprechen (in der Hoffnung, dass sich diese daran halten), riskiert aber damit, von Suchmaschinen schlechter gefunden zu werden.[11] Eine große Rolle beim Datendiebstahl spielen auch Plattformen, die gestohlene E-Books verbreiten. Auch die Kunstplattform Deviant Art, die jahrelang eine wichtige Plattform für Künstler*innen war, schloss einen Deal mit AI-Firmen und überließ stillschweigend alle Bilder dem maschinellen Lernen.
Ob und wie dieser Datenraub jemals in eine Entschädigung oder Vergütung der betroffenen Autor*innen und Künstler*innen münden wird, ist derzeit nicht absehbar, ebenso wenig wie der Umgang damit in der Zukunft. Es gibt Entwicklungen dahin, dass eine Verwendung von Inhalten vertraglich geregelt und exklusiv bestimmten KI-Firmen zugesprochen wird, wie durch den Springer-Konzern und die Jura-Plattform Beck-Online geschehen. Aktuell ist nicht bekannt, ob die Autor*innen für diese Sondernutzung ihrer Texte eine Vergütung erhalten; dies wäre aber ein konkreter Punkt, an dem beispielsweise die VG Wort oder auch die VG Bild-Kunst ansetzen könnte. Das funktioniert natürlich nur unter der Voraussetzung, dass die entsprechenden Texte nicht sowieso schon in Datenbanken eingeflossen sind, nur weil man sie womöglich mit Google Docs verfasst und damit aufgrund unauffällig geänderter Nutzungsbedingungen dem Unternehmen dahinter zur Verfügung gestellt hat.[12]
Fest steht jedenfalls: Wer aktuell die großen generativen KI-Tools wie Midjourney oder ChatGPT benutzt, unterstützt damit Firmen und Methoden, die den vermutlich größten Diebstahl an geistigem Eigentum der Menschheitsgeschichte begangen haben.
Problem 6: Die KI-generierte Veröffentlichungsschwemme
Wie schon erklärt: Generative KI erzeugt nichts Originelles, sondern nur das Wahrscheinlichste, das aber in immens hohem Tempo. Es ist problemlos möglich, innerhalb weniger Stunden mehrere Geschichten oder einen längeren Text generieren zu lassen – ein großes Problem für die Buchbranche. So musste das englischsprachigeCLARKESWORLD MAGAZINE, eines der renommiertesten Online-Science-Fiction-Magazine, zeitweilig das Portal für die Einsendungen schließen, weil es von einer solchen Masse an KI-generierten Texten geflutet wurde, dass es nicht mehr möglich war, die echten Texte herauszufiltern.[13] Anderen Magazinen ging es ähnlich. Auch die E-Book-Publishing-Plattform von Amazon, Kindle Direct, wurde von solchen Titeln überschwemmt. Dabei machen die Ersteller*innen auch nicht Halt davor, ihre Texte unter den Namen echter Autor*innen einzustellen. So erging es z. B. Jane Friedman, Autorin von Schreibratgebern: Sie fand fünf unter ihrem Namen veröffentlichte Titel auf Amazon, die sie nie verfasst hat.[14] Kara Swisher hingegen, eine Journalistin, fand unter ihrem neuesten BuchBurn Bookeine Vielzahl von gefälschten Biografien ihrer selbst vor.[15] Es ist für die Autor*innen oftmals sehr mühsam, diese Produkte entfernen zu lassen, die meist auch automatisch auch auf der Rezensionsplattform Goodreads landen. Als angeblichen Schutz vor KI-Inhalten hat Amazon inzwischen eingestellt, dass man nur noch drei Bücher pro Tag auf die Plattform hochladen darf – eine Maßnahme, deren Wirksamkeit ich bezweifle.
Kreativschaffende leiden auch im Bereich von Unterstützungsplattformen wie Patreon oder KoFi unter der Konkurrenz generativer KI: Dort können Künstler*innen Unterstützung durch einmalige oder monatliche Spendenbeiträge erhalten. Im Gegenzug bekommen die Unterstützer*innen regelmäßig exklusive Inhalte wie Bilder, Texte, Videos, usw. Inzwischen konkurrieren die Künstler*innen, die sich meist ohnehin schon in einer prekären Lage befinden und sich so ein kleines zusätzliches Einkommen sichern wollen, mit Accounts, die entweder generell nur KI-generierte Bilder veröffentlichen oder teilweise generative KI benutzen (z. B. für Karten oder Illustrationen) und dadurch einen viel höheren Output haben.