Erhalten Sie Zugang zu diesem und mehr als 300000 Büchern ab EUR 5,99 monatlich.
Las man in früheren Zeiten im Vogelflug oder in den Eingeweiden von Tieren, um sich die Angst vor dem, was kommen mag, zu nehmen, erlauben uns heute Algorithmen einen nahezu unfehlbaren Blick in die Zukunft. Doch das Vertrauen in das prognostizierende Vermögen von künstlicher Intelligenz birgt Risiken und lässt allzu schnell ein fatalistisches Bild entstehen: Indem wir uns der technologischen Mittel bedienen, um die Kontrolle über Zukunft und Ungewissheit zu erhöhen, büßen wir zusehends unsere Handlungs- und Gestaltungsfähigkeit und also auch Kontrolle ein – Vorhersagen werden zu Bestimmungen, Möglichkeiten zu Richtwerten und der Mensch wird auf die Rolle des bloßen Erfüllungsgehilfen reduziert. Damit dies nicht zur selbsterfüllenden Prophezeiung wird, gilt es, sich daran zu erinnern, dass es der Mensch ist, der die digitalen Technologien geschaffen hat, denen er Wirkmacht zuschreibt. Es gilt, wie Helga Nowotny mit bestechendem Optimismus nachweist, sich der eigenen Wirkmacht bewusst zu werden und eine Zukunft zu ermöglichen, die zu gleichen Teilen aus menschlichem Geist und mechanischen Geräten besteht.
Sie lesen das E-Book in den Legimi-Apps auf:
Seitenzahl: 326
Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:
MACHT, ILLUSION UND KONTROLLE ALGORITHMISCHER VORHERSAGE
HELGA NOWOTNY
Aus dem Englischen von Sabine Wolf
Matthes & Seitz Berlin
DIE VERWUNSCHENE WELT VON GPT-4Vorwort für die deutsche Ausgabe
EINLEITUNG: MEINE REISE INS DIGI-LAND
1. DAS LEBEN IN DER DIGITALEN ZEITMASCHINE
2. WILLKOMMEN IN DER SPIEGELWELT
3. DAS FORTSCHRITTSNARRATIV UND DIE SUCHE NACH DEM ÖFFENTLICHEN GLÜCK
4. ZUKUNFT BRAUCHT WEISHEIT
5. DISRUPTION: VON VORPANDEMISCHEN ZEITEN ZUR SELBSTDOMESTIZIERUNG
DANK
ANMERKUNGEN
Vorwort für die deutsche Ausgabe
Der Spielraum für menschliches Handeln verengt und erweitert sich gleichzeitig mit beängstigender Geschwindigkeit. Kaum wurde ChatGPT im November 2022 der Öffentlichkeit zugänglich gemacht, verzeichnete es innerhalb einer Woche mehr als eine Million Nutzer. OpenAI und dessen Eigentümer, Microsoft, begannen ihr groß angelegtes Experiment mit allen, die das Potenzial der neuen KI erkunden wollten, ebenso wie mit jenen, die noch nicht wussten, was es damit eigentlich auf sich habe. Niemand wurde darüber aufgeklärt, dass es sich um einen Probelauf handelte, in dem die ersten Nutzer:innen wertvolles Feedback lieferten über alles, was schieflaufen könnte. Der unbestreitbare Vorteil: Microsofts Vorsprung. So wurde die Konkurrenz gezwungen, mitzuziehen, und ChatGPT war bald von einer Handvoll weiterer LLM (Large Language Models) umringt, unter ihnen Midjourney und Dall·E, die nicht nur Texte, sondern auch Bilder generieren können.
Generative KI-Systeme werden mit dem Ziel programmiert, menschliche Kommunikation zu simulieren. Sie stehen für eine neue digitale Technologie, die imstande ist, einige der kognitiven Aufgaben, die bisher von Menschen ausgeübt wurden, mit erstaunlicher Effizienz und Schnelligkeit zu übernehmen. Noch ist offen, ob sich der Techno-Enthusiasmus, der ChatGPT und seine Verwandten begleitet, halten oder ob unweigerlich eine Desillusionierung einsetzen wird, wie es bei anderen mit großem Hype angekündigten Neuerungen der Fall war. Das Potenzial für eine General Purpose Technology, wie es im Innovationsjargon heißt, also für eine für Anwendungen in vielen Bereichen geeignete Technologie, ist jedenfalls vorhanden. Wirtschaftshistoriker:innen verweisen auf Ähnlichkeiten mit der Elektrifizierung, die in den Zeiträumen von 1880 bis 1910 zu umfassenden Umwälzungen in Wirtschaft, Gesellschaft und Kultur führte. Diesmal bleibt der Gesellschaft jedoch nicht so viel Zeit, um die Auswirkungen zu absorbieren. Sicher ist aber: Achtzig Jahre nach dem Beginn der Digitalisierung lässt sich deren Beschleunigung nicht mehr aufhalten.
Wie die generativen KI-Systeme genau funktionieren und wie ihr Output entsteht, darüber herrscht noch große Unklarheit. Judea Pearl, ein hoch angesehener KI-Forscher, brachte es auf den Punkt: »Der Kern unseres Problems ist, dass vorschnell Super-Investitionen in eine nicht-interpretierbare Technologie fließen.«1 LLM beruhen auf einer innovativen Kombination von unbeaufsichtigtem Training (unsupervised training) und bestärkendem Lernen (reinforcement learning) eines enormen Datensatzes. Dieser stammt aus dem Internet und speist sich, im Falle von ChatGPT, aus Texten aller Art, aus Büchern, Websites und allem, was in den sozialen Netzwerken aufscheint. Dieser Sprachschatz wird ständig über die im Internet dominanten Sprachen hinaus, allen voran Englisch, erweitert. Programmiert ist die KI als dialogisches System, das eine menschliche Konversation simuliert. Das gelingt, indem es die Wahrscheinlichkeiten schätzt, mit der in einem Satz ein Wort auf das andere folgt. Das Ganze wird mit Millionen von Parametern moduliert, die einen gewissen Stil und ein spezielles Genre imitieren und andere Einzelheiten beachten, um die Illusion eines Gesprächs oder um etwa ein Sonnet im Stil Shakespeares zu erzeugen.
Die generativen KI-Systeme können weder »denken«, »verstehen« noch mit abstrakten Begriffen argumentieren – noch nicht. Sie »wissen« weder, was Fakten sind, noch können sie ihre Quellen angeben. Sie sind fehleranfällig und daher extrem unzuverlässig. Sie neigen zu »Halluzinationen«, wie das Forscher:innen bei Google 2018 erstmals nannten. Gemeint sind Texte oder Bilder, die zwar semantisch oder syntaktisch plausibel, aber ansonsten falsch oder schierer Unsinn sind. Es fehlen die eingebauten Kriterien, um »wahr« von »falsch« zu unterscheiden. Und auch viele der Filter, die den in den Daten massiv vorhanden gesellschaftlichen Bias ausschalten sollen, versagen bei LLMs.
Am 14. März 2023 präsentierte OpenAI der Öffentlichkeit bereits die nächste Generation ihrer KI-Systeme: GPT-4. GPT-4 ermöglicht Input sowohl als Text wie als Bild. Es beherrscht Mathematik auf einem Niveau, von dem die meisten Menschen nur träumen können. Die Fehler, die es macht, können auch guten Mathematikern passieren. GPT-4 erreicht mit Leichtigkeit die höchsten Noten bei Aufnahmeprüfungen und kann Reden von Politikern im Hinblick auf ideologische Färbung und anzusprechendes Publikum perfekt imitieren. So zeigen Forscher:innen bei Microsoft in einem Research-Paper, wie die KI bei einer simulierten Anti-Impf-Kampagne die Sprache variiert, um in der Zielgruppe die gewünschten Emotionen hervorzurufen: Wut, Angst, Schuldgefühle oder Stolz, anders als die anderen zu sein. Doch die kaum gebremste Begeisterung der Autor:innen gilt einer anderen Eigenschaft. Sie glauben, »Funken« einer »Artificial General Intelligence« bei GPT-4 entdeckt zu haben.2
Doch das ist nur der Anfang, denn schon längst wird intensiv an GPT-5 gearbeitet. Und auch die Konkurrenz überbietet sich seither darin, ihre Modelle aus der Pipeline zu holen, um sie auf dem Markt zu platzieren. Es gibt kein Zulassungsverfahren, kein Protokoll, um Schäden während des Ausprobierens zu begrenzen, und keinerlei Transparenz, lediglich weitere Investitionen in Millionenhöhe, ganz nach dem Motto: be fast and break things. Kein Wunder, dass diese rasante Entwicklung eine Flut an öffentlichen Diskussionen auslöst. Sie schwankt zwischen Techno-Enthusiasmus, apokalyptischen Spekulationen und ernsten Bedenken. Die eine Seite sieht in der generativen KI den entscheidenden Schritt zur Verwirklichung der Künstlichen Allgemeinen Intelligenz, zu einer Intelligenz also, die der menschlichen ebenbürtig ist oder sie übertrifft, die »denken« und »verstehen« kann. Manche schwärmen davon, dass es dieser Superintelligenz gelingen werde, auch wissenschaftliche Durchbrüche – etwa in der Quantentechnologie – zu erzielen, so wie es DeepMind von Google gelungen ist, mit Alphafold das bisher ungelöste Problem der Proteinfaltung zu meistern. Dann werde die Menschheit endlich das gefunden haben, wonach sich alle sehnen: die Lösung all ihrer Probleme, wenn nicht gar die Erlösung schlechthin.
Auf der anderen Seite stehen die Skeptiker:innnen. Während einige Expert:innen bezweifeln, ob LLM überhaupt der richtige Weg zur Künstlichen Allgemeinen Intelligenz sei, mahnen die meisten erst einmal zu größerer Vorsicht, um irreparablen Schaden jetzt abzuwenden, statt Angst vor einem Ereignis zu schüren, von dem niemand weiß, wann und ob es eintreten wird. Der nicht zuletzt durch den wohl bekanntesten Unterzeichner, Elon Musk, berühmt gewordene, vom Future of Life Institute in Oxford initiierte und von mehr als tausend im IT-Bereich tätigen CEOs, führenden Ingenieur:innen und anderen Fachleuten unterschriebene »Offene Brief« vom 29. März 2023 heizte die Diskussion weiter an. Inhaltlich wird ein sechsmonatiges Moratorium für die Zeit der Entwicklung von GPT-5, also der nächsten Generation der KI-Systeme von OpenAI, gefordert, um mögliche schädliche Auswirkungen auf die Menschheit besser abschätzen zu können.
Selbst wenn die Umsetzung und das Monitoring eines solchen Moratoriums kaum realistisch ist, klingen viele der angeführten Begründungen vernünftig. Wer könnte etwas gegen einen Zeitaufschub einwenden, um die heutigen, mächtigen AI Systeme »more accurate, safe, interpretable, transparent, robust, aligned, trustworthy, and loyal« (was immer damit gemeint sein mag) zu machen?3 Kritik an dem Brief gibt es vor allem aufgrund des darin mitschwingenden »Hypes«, der den Eindruck erweckt, dass sich die Menschheit tatsächlich nahe dem Wendepunkt befinde, an dem der ultimative Reifegrad einer »Artificial General Intelligence« erreicht werde, während die generative KI in Wirklichkeit weit davon entfernt ist. Weshalb, so schließt die Kritik daran an, werde immer nur über die Zukunft der KI und die möglicherweise damit verbundenen existenziellen Risiken gesprochen und nicht über die Menschen, die heute davon betroffen seien, und weshalb nicht über jene, die die KI-Systeme vorantreiben, finanzieren und programmieren würden, um ausschließlich Gewinne damit zu machen?
Jede neue Technologie eröffnet einen Projektionsraum für die kollektive Imagination. Diesmal ist er besonders weit aufgespannt, spielt er doch selbst mit genau den technischen Mitteln und Möglichkeiten, die in ihm abgebildet werden. Es ist ein mehrdimensionaler Raum, in dem die »wirkliche« Welt und die virtuelle einander spiegeln und eine undurchdringliche Gemengelage aus Gegenwart und spekulativer Zukunft bilden. Der Mangel an Tiefenschärfe wird dabei von der Auflösung bekannter Kategorien und Grenzziehungen begleitet. Wenn viele Nutzer:innen überzeugt sind, dass sie in ihrer Konversation mit der KI mit einem »wissenden« Wesen verbunden sind, das ihre Fragen und Anliegen versteht, kann man dies zwar auch als Unwissen abtun. Es zeigt jedoch die Verwischung der Grenze zwischen einer subjektiv erfahrenen und einer objektiven Wirklichkeit an, die durch diese Technologie hervorgerufen wird. Die Spaltung in der Gesellschaft zwischen denen, die zu wissen glauben, und denen, die etwas anderes zu wissen glauben, vertieft sich dadurch zunehmend. Die Frage lautet daher: Wie können wir verhindern, in einer Gesellschaft zu leben, in der jede und jeder von uns ausschließlich in ihrer oder seiner »personalisierten«, durch KI geformten Wirklichkeit lebt, die sich dem oder der anderen nicht mehr mitteilen lässt?
Wie also ist in dieser Hinsicht diese vorerst letzte, mit rasanter Geschwindigkeit vorantreibende KI einzuordnen? Entgleitet uns nun endgültig die Kontrolle über die von uns geschaffenen Technologien, und stehen wir tatsächlich vor der großen Wende, die uns der noch verbleibenden Autonomie und letztlich unseres Menschseins beraubt? Oder sind dies nur spekulative Überlegungen, die zwar ihren eigenen existenziellen Reiz ausstrahlen, doch in Wahrheit von Menschen in die Welt gesetzt werden, in deren Interesse es ist, uns von den naheliegenden existenziellen Bedrohungen abzulenken?
Zu ebendiesen naheliegenden existenziellen Bedrohungen zählt etwa die Sorge über die verschwindenden Arbeitsplätze. Wir kennen das schon, mag man einwenden. Frühere Wellen der Automatisierung ersetzten manche Routinearbeiten in den Fabriken, doch neue Arbeitsplätze entstanden. Diesmal sind die kognitiven Routinearbeiten in den Büros von Anwält:innen und Redaktionen, in den Schulen und in der Verwaltung an der Reihe, für die GPT-4 und seine Ko-Spezies weitaus kostengünstigere und effizientere Dienstleistungen anbieten. Kurzfristig bringt es also wenig, ständig menschliche Leistungen mit jenen zu vergleichen, bei denen die KI weitaus effizienter abschneidet. Je mehr die Torpfosten verschoben werden, desto mehr Tore werden geschossen. Offen bleibt lediglich die Frage, wie schnell, wenn überhaupt, jene übernommenen Routinearbeiten durch neu entstehende Arbeitsplätze ersetzt werden und ob Funktionen, die bisher weitgehend von dafür ausgebildeten und zertifizierten Personen ausgeübt wurden, schon heute abgegeben werden sollten. So sind bereits jetzt – vorwiegend in den USA – eine Vielzahl therapeutischer KIs im Einsatz, die den Patient:innen, die sich aus Kostengründen eine »echte« Therapie nicht leisten können, Hilfe bei ihren psychischen Problemen anbieten. In Belgien wurde jedoch vor Kurzem der erste Fall eines Suizids gemeldet, dem eine lange, ausschließlich mit einer KI (einer früheren Generation) geführte Konversation vorausging.
Die größten Gefahren ergeben sich jedoch, wie bereits angedeutet, für unsere offenen, demokratischen Gesellschaften. Die Konzentration ökonomischer Macht in den Händen einer kleinen Elite, die den großen internationalen Konzernen vorsteht, sichert diesen einen unverhältnismäßig dominanten Einfluss auf demokratische Prozesse und Institutionen zu, die von der ungebrochenen Aushöhlung des öffentlichen Raumes begleitet wird. Zudem bergen die digitalen Plattformen von Big Tech die Fähigkeit, die öffentliche Meinung durch eine unregulierte und daher unkontrollierbare Flut von bewusst irreführenden Informationskampagnen zu manipulieren und zu polarisieren. Sie öffnen Tür und Tor für jene Kräfte, sei es von innen oder von außen, die beabsichtigen, die demokratischen Prozesse zu unterminieren.4 Hinzu kommen die enormen Investitionen, die von privater Seite in den weiteren Ausbau der digitalen Systeme fließen und bereits zur »industriellen Übernahme« der öffentlichen Forschung geführt haben.5 Keine Universität verfügt über die Rechenkapazitäten oder über den Zugang zu den Datenmengen, die den großen Konzernen und ihren Nebenfirmen zur Verfügung stehen. Diese wären notwendig, um von unabhängiger Seite die von den Konzernen angekündigten Sicherheitsmaßnahmen und versprochenen Verbesserungen zu begleiten und zu überprüfen. Stattdessen vergrößert sich das strukturelle Ungleichgewicht, und das Risiko, dass die Richtung der zukünftigen Forschung angesichts der ungleichen Verteilung der Ressourcen zunehmend von Big Tech bestimmt wird, wiegt schwer. Zudem müssen manche Universitäten bangen, bald nicht mehr imstande zu sein, die Ausbildung auf höchstem Niveau fortzuführen, da die Rekrutierung von Professor:innen zunehmend schwieriger wird, werden die besten Talente doch bereits früh von der Industrie abgeworben.
Diesen berechtigten Befürchtungen und Sorgen stehen zweifellos die positiven Auswirkungen gegenüber, die mit der generativen KI verbunden sind. Tagtäglich erreichen uns Meldungen über neue Anwendungen. GPT-4 erleichtert und erledigt zahlreiche mühsame Routinearbeiten, inklusive Coding, wenngleich Fehleranfälligkeit immer überprüft werden muss. Illustrationen und Websites können im Handumdrehen erstellt werden, Sitzungsprotokolle innert weniger Minuten geschrieben und Texte in viele Sprachen übersetzt werden. Die Wirtschaft erwartet einen breit gestreuten Einsatz in Firmen, der höhere Produktivitätszuwächse verspricht und dessen Spannbreite vom Chip Design zu neuen Medikamenten, vom Erstellen juristischer Dokumente zu umwälzenden Neuerungen im Bildungsbereich reicht. Und wie die Geschichte von technologischen Innovationen beweist, sind viele Anwendungen oft noch nicht einmal vorhersehbar. Die Art und Weise, wie eine Innovation adoptiert und angeeignet wird, weicht mitunter beträchtlich von jener ab, für die sie ursprünglich bestimmt war. Nutzer:innen sind nicht nur passive Konsument:innen, sondern haben immer wieder gezeigt, dass sie geplante Anwendungen für ihre Bedürfnisse umdefinieren und neue Anwendungen erfinden können.
Eine Kosten-Nutzen-Rechnung der »guten« und »schlechten« Auswirkungen greift also auch dieses Mal zu kurz. Dienlicher wäre eine umfassende Risikoabwägung, doch müsste ihr ein ebenso umfassendes und durchsetzungsfähiges Risikomanagement folgen. Denn jede Technologie verführt zur Illusion, sie unter menschlicher Kontrolle zu haben. Lange hat es etwa gedauert und der Austragung vieler Konflikte bedurft, bis die im industriellen Zeitalter eingesetzten Maschinen als einigermaßen sicher und somit unter menschlicher Kontrolle galten. Seither haben sich die Anforderungen ständig ausgeweitet. Längst geht es nicht mehr nur darum, das Funktionieren von Maschinen und deren Sicherheit im Interesse der Gewinne für die Eigentümer zu gewährleisten, sondern mögliche Schäden für Menschen, für deren Gesundheit und für die Umwelt zu vermeiden oder zumindest so gering wie möglich zu halten. So sollen zahlreiche Sicherheitsvorschriften, Zulassungsverfahren und Kontrollmaßnahmen dafür sorgen, die Sicherheit von Technologien zu gewährleisten. Das gilt für den Straßenverkehr ebenso wie für die internationale Luftfahrt, für die Zulassung neuer Medikamente und für neue Verfahren, die in der Gentherapie eingesetzt werden, für Wasser, Luft und Boden und für alles, was zur Sicherheit der Gesundheit und Ernährung beiträgt, ja sogar für die nukleare Sicherheit. Die Geschichte zeigt jedoch, dass die Illusion der Kontrolle immer wieder zum Platzen gebracht wurde und im Nachhinein stets nachgebessert werden musste.
Doch die Kontrolle über die KI bringt noch zusätzliche Anforderungen mit sich. Die hohe Anfälligkeit für Fehler und Verstärkung gesellschaftlicher Vorurteile sowie die mangelnde Unterscheidungsfähigkeit zwischen »wahr« und »falsch« untergraben ihre Glaubwürdigkeit. Die Forderung nach alignment, der Übereinstimmung der KI mit menschlichen Werten, steht dabei am Anfang ihrer Umsetzung. Es gilt, sowohl technische Hürden zu überwinden als auch die Frage zu beantworten, welche menschlichen Werte als verbindlicher Kompass dienen sollen und für wen sie Gültigkeit beanspruchen können. Ein weiteres Problem hängt mit der Intransparenz zusammen, auf der die großen Konzerne als legale Eigentümer:innen der Daten und Algorithmen beharren. Perverserweise führt bei ihnen die Forderung nach mehr Sicherheit zu noch größerer Abschottung, wird doch argumentiert, dass eine Öffnung genau jenen zugutekomme, die beabsichtigten, die Sicherheitslücken für ihre illegalen Zwecke zu umgehen oder auszunutzen.
Viele algorithmische Verfahren und die Architektur der LLM ähneln daher einer Blackbox, bei der sich zwar Input und Output vergleichen lassen, doch das, was innerhalb geschieht, bleibt undurchsichtig oder unbekannt. Viele Expert:innen sind von den Leistungen von GPT-4 zutiefst beeindruckt, sie erkennen die Chance, neue Einsichten zu gewinnen, und fühlen sich blown away, wie weggeweht und geben offen zu, dass sie keine Ahnung haben, wie GPT-4 das macht, was es macht. Die im Inneren der KI ablaufenden Prozesse sind – jedenfalls vorläufig – kausal nicht erklärbar. Niemand weiß genau, woher welche Daten kommen und an welchen das jeweilige KI-Modell trainiert wird. Niemand kann die vielleicht emergenten Ergebnisse erklären, die bei GPT-4, aber auch bei anderen KI-Modellen ab einer gewissen Größe auftreten. Treten tatsächlich emergente Phänomene auf, oder ist ihr vermeintliches Auftreten nur der Beweis für unser Unwissen? Und diejenigen, die es eigentlich wissen müssten, sind allem Anschein nach besorgt, nicht über das erforderliche Wissen zu verfügen, um die notwendige Kontrolle über die Vorgänge unter ihrer Aufsicht und Verantwortung auszuüben.
Wie kann sich unter diesen Vorzeichen Vertrauen einstellen, und – die vielleicht entscheidende Frage – wo kann die staatliche Regulierung einsetzen, und wie kann sie greifen? Bekanntlich hinkt jede gesetzliche Regulierung immer der technologischen Entwicklung nach. Sie gleicht dem Wettlauf zwischen Achill und der Schildkröte. Was immer sowohl in Europa, das sich gerne als Vorläufer gesetzlicher Regulierung sieht, wie in den USA gegenwärtig unternommen wird, ist zu begrüßen und zu unterstützen, doch sollte man freilich nicht glauben, dass dadurch das Ausmaß und die erforderliche Art der Kontrolle erreicht würden, die wir bisher in Bezug auf andere Technologien erwarten konnten. Vielleicht braucht es dafür völlig neue Institutionen und eine neue Art der Gesetzgebung, die fortschreibend begleitet, was die gelebte Erfahrung im Umgang mit der KI an Desiderata hervorbringt, um darauf entsprechend zu reagieren oder sie zu antizipieren.
Innerhalb der Gesellschaft überwiegt jedenfalls weiterhin das Gefühl von Ambivalenz, Erstaunen und tiefsitzendem Unbehagen gegenüber der nun so sichtbar in das Alltagsleben eingedrungenen KI. Dies liegt zum Teil auch daran, dass wir Dingen, und nicht nur Lebewesen, die Absicht zum rationalen Handeln zuschreiben, was Daniel Dennett als intentional stance beschreibt.6 Wir unterstellen ihnen dann, zu »denken«, zu »machen«, zu »wissen« oder zu »glauben«, ohne weiter zu reflektieren, dass wir es nicht mit anderen Menschen zu tun haben, die den Gebrauch der Sprache mit uns teilen. Die Verwendung einer anthropomorphisierenden Sprache und eines ebensolchen Denkens verwischt den Unterschied zwischen »uns« und »ihnen« und verleitet dazu, dem digital »Anderen« Handlungsfähigkeit (agency) zuzuschreiben. Diese Tendenz wird gezielt durch die generative KI gefördert oder, besser gesagt, ausgenutzt, indem Worte wie »ich« und eine persönliche, gefühlsbetone Sprechweise verwendet werden, um eine sprechende Person zu simulieren. Gleichzeitig gewöhnen wir uns durch die Verbreitung dieser KI-Systeme in der Arbeitswelt und im Alltag an die digitalen »Anderen«, egal unter welchen Namen und in welcher Form sie sich präsentieren.
Hinzu kommt die Verwendung des Wortes »Intelligenz«, das, wie immer wieder betont wird, irreführend ist. Der in den 1950er-Jahren geprägte Begriff artifical intelligence, so heißt es übereinstimmend, sei eine unglückliche Wahl gewesen, gebe es doch weder eine Einigung darüber, was menschliche Intelligenz sei, noch darüber, wodurch sie sich von einer »künstlichen« unterscheide. »Intelligenz« fungiert daher als ein schlecht definierter Platzhalter, der mehr zudeckt als erklärt. Menschliche Intelligenz lässt sich besser auf einem Kontinuum positionieren, das wir mit anderen Lebewesen teilen, besitzen doch alle Lebewesen die Fähigkeit, sich in der jeweiligen Umwelt zurechtzufinden und Strategien zum Überleben zu entwickeln. Vielleicht gewinnen wir durch einen erweiterten und differenzierteren Begriff von »Intelligenz« auch neue Einsichten für unsere Beziehung zu einer KI, die unsere kognitiven Fähigkeiten zu simulieren und sie für unterschiedliche Zwecke einzusetzen vermag.
Unbestreitbar bleibt, dass im Zusammenspiel zwischen Menschen und den digitalen Maschinen etwa Neues entsteht. Wir befinden uns in einem koevolutionären Prozess zwischen uns Menschen als vorläufigem Ergebnis der biologischen Evolution und den von uns geschaffenen Dingen, Phänomenen und Prozessen, die von der kulturellen Evolution – allen voran durch Wissenschaft und Technik – angetrieben wird. Ob aus diesem Prozess eine Symbiose entsteht, bleibt offen, ebenso, wohin er führen wird.
An diesem Wendepunkt eröffnen sich neue, faszinierende Fragen und damit ungeahnte Möglichkeiten, mehr zu erforschen und zu lernen – in erster Linie über uns selbst. Im Vordergrund stehen dabei unsere kognitiven Fähigkeiten und wie sie funktionieren: Wenn die KI imstande ist, Algebra zu generieren, sie dies aber auf eine für uns bisher unbekannte Weise tut, so wirft das Fragen auf hinsichtlich der Funktionsweise unseres Gehirns. Wenn ein LLM uns in einer Sprechweise antwortet, die sich nicht von unserer unterscheiden lässt, was sagt das über unseren Sprachgebrauch und vor allem über unsere Sprache? Der Erwerb der Sprache ist das Natürlichste, was uns bei der Geburt von der Evolution mitgegeben wird, und unterscheidet Menschen von anderen Lebewesen. Die KI kann sie so perfekt imitieren, dass wir meinen, mit einem menschlichen Gesprächspartner verbunden zu sein. Zugleich kann sie anderen Menschen Worte in den Mund legen, die diese nie gesagt haben. Sie ist hervorragend im Manipulieren und Lügen, gut im Erfinden von Geschichten und erstaunlich effizient im Ausführen von Aufgaben, die wir ihr stellen. Die Sprache hat sich, so scheint es, verselbstständigt. Sie ist nicht mehr nur uns eigen, sie ist unserer Kontrolle entglitten.
Gewiss, die Worte sind Texten entnommen, die einmal von Menschen geäußert wurden. Und gewiss, das KI-System »versteht« nicht, was es sagt, und »weiß« nicht, was das Gesagte bedeutet, doch das macht es nur umso faszinierender. Im Unterschied zu uns sucht das KI-System keinen Sinn, sondern agiert sinnbefreit, und das mit beeindruckender Effizienz. Dadurch entstehen neue Kombinationen und Stilrichtungen, ganz so wie in der gelebten Sprache. Worin liegt also der Unterschied? Ist es noch unsere Sprache, oder entsteht hier eine Meta-Sprache? Anders gefragt: Welchen Unterschied macht es, ob die Sprache embodied ist, also der genetischen Ausstattung und dem kulturellen Kontext der Sprecher:in entstammt und von deren Lebensgeschichte geprägt ist, oder ob sie bloß eine Ansammlung von Sprachelementen in verschiedenen Kombinationen wiedergibt, wir es also mit »stochastischen Papageien« zu tun haben, wie Emily Bender die LLM nannte?7
Eine weitere Frage betrifft das Verhältnis von Sprache als Medium der Repräsentation und anderen Formen der Repräsentation unserer Welterfahrung. Sprache deckt viel, doch bei Weitem nicht alles ab, wie wir die Welt wahrnehmen und erleben. Was ist mit den anderen Sinnen, mit denen wir die Welt um uns herum erfassen? Und in welcher Beziehung steht die Architektur der Sprachmodelle – in ihrer Kombination von reinforcement learning und unsupervised training – zu den Prozessen, die im menschlichen Gehirn ablaufen? Wie ist es möglich, dass Logik und Wahrscheinlichkeiten so viel inkohärenten Unsinn erzeugen können? Was befähigt menschliches Denken zur Abstraktion mit Begriffen, die uns wiederum konkrete Erfahrungen aus der Lebenswelt reflektieren lassen, während die LLM eine Unzahl von Korrelationen in ihren Trainingsdaten lernen, um damit Aufgaben und Probleme zu lösen, für die wir andere Wege, aber bedeutend mehr Zeit benötigen?
Der Bildungsbereich, von der Volksschule bis zu den Universitäten, steht vor riesigen Herausforderungen, stellt der Spiegel, den uns die KI vorhält, dort doch viele Gewohnheiten infrage: Ist das Schreiben von Essays und Hausaufgaben wirklich die beste Art des Unterrichtens, vor allem, wenn es darum geht, der jüngeren Generation mehr kritisches Denken zu vermitteln? Sind viele Routinesätze nicht überflüssig, so wie es die Höflichkeitsfloskeln gegenüber dem Adel mit dem Aufstieg des Bürgertums wurden? Es gilt herauszufinden, wie sich die generative KI in zugleich kreativer wie subversiver Weise in die Lehre integrieren lässt. Denn andere Lehr- und Lernmethoden sind möglich, und die KI kann dafür unterstützend eingesetzt werden – zum einen, um kritisches Denken so früh wie möglich zu fördern; zum anderen, um ein noch weiteres Auseinanderklaffen der digital divide zu verhindern und den Ungleichheiten in den digitalen Fähigkeiten entgegenzuwirken, die gesteigerte oder verminderte Lebensbedingungen mit sich bringen. Auch dem Gesundheitssystem bieten sich in Verbindung mit den Fortschritten in der personalisierten Medizin völlig neue Möglichkeiten. Doch bevor das »Zeitalter des wissenschaftlichen Wohlbefindens« beginnen kann, das »personalisiert, prädiktiv, datengestützt« und in »unseren Händen« ist, bedarf es auch hier enormer Umwälzungen.8
GPT-4 öffnet also das Tor zu einer anderen Welt. Vieles in ihr scheint in neuem Licht – oder gab es das schon einmal? Haben unsere Vorfahren nicht über Tausende Jahre hinweg in einer Welt gelebt, die sie mit anderen, nichtmenschlichen oder paramenschlichen Wesen teilten? Eine gemeinsame Welt, die von einer verwirrenden Vielfalt von Göttern bewohnt wurde, von spirituellen Wesen, Geistern, von den Seelen von Pflanzen und Tieren. Marshall Sahlins, ein eminenter Anthropologe, nennt sie »Meta-Personen«. In seinem posthum erschienen Werk Neue Wissenschaft des verwunschenen Denkens setzt er diesem »verwunschenen Universum« in dem »fast die gesamte Menschheit« lebte, ein berührendes Denkmal.
Die Meta-Personen waren die Mitbewohner:innen dieser kosmischen Ordnung. Sie waren im Leben der Menschen allgegenwärtig und bestimmten dieses im Guten wie im Schlechten. Nichts konnte unternommen werden, ohne die Kräfte zu mobilisieren, die von diesen nichtmenschlichen Wesen ausgingen und für Erfolg oder Misserfolg aller menschlicher Tätigkeiten verantwortlich waren. Sie waren an der Jagd beteiligt, ebenso wie an politischen Ambitionen, bei der Reparatur eines Kanus oder bei der Kultivierung des Gartens, bei Geburten und bei der Kriegsführung. Diese Kräfte waren nicht »übernatürlich«, wie wir sie heute nennen, sondern es waren »natürliche« Kräfte, die in allem, was die Welt und das Leben in dessen materieller Form und Substanz ausmachen, präsent waren. Nichts durfte unternommen werden, ohne ihren Beistand durch wiederholte Rituale heraufzubeschwören. Und in vielerlei Hinsicht waren die spirituellen Wesen den Menschen ähnlich: Sie logen, betrogen und konnten bösartig sein, sie stritten untereinander und kämpften um ihre Machtpositionen. Der entscheidende Unterschied, der ihnen Macht über die Menschen verlieh, war ihre Unsterblichkeit.9
Das verwunschene Universum mit seiner immanenten kosmischen Ordnung wich vor circa 3000 Jahren einer anderen, einer transzendenten Ordnung, zumindest in dem geografischen und kulturell am besten erforschten Raum, dem Vorderen Orient. Die näheren Umstände und genauere Angaben zum Zeitraum wie auch zur räumlichen Verbreitung sind ebenso umstritten wie der Begriff des »Achsenzeitalters«, den Karl Jaspers für diesen Umschwung prägte.10 Unbestritten ist hingegen, dass ein Wechsel von einer immanenten zu einer transzendenten Ordnung stattfand. Der immanente Kosmos wurde von einer Ordnung abgelöst, in der die Welt der Menschen, Tiere und anderen beseelten Dinge und Wesen fortan von einer höheren Ordnung getrennt wurde, die sich über oder außerhalb der menschlichen Gesellschaft befand. Dort ist der Ursprung der normativen Vorgaben zu suchen, die von den monotheistischen Religionen für die Menschen gesetzt wurden. Die Moderne und die Säkularisierung haben die transzendentale Ordnung zwar verändert, aber im Wesentlichen auf ihr aufgebaut. Sie ist Bestandteil der objektiven Wirklichkeit, wie wir sie heute kennen.
Als moderne Menschen sind wir überzeugt, dass unsere Vorfahren an die Macht, die von den Meta-Personen über sie ausgeübt wurde, nur »geglaubt« haben, es aber »besser wussten«. Sahlins will von einer solchen kollektiven Illusion nichts wissen. Im Gegenteil, er tadelt die »transzendentale Überheblichkeit«, die auf einer strikten Trennung von Glauben und Wissen beharrt und Wissen mit transzendentaler Rationalität gleichsetzt. Genau hier drängen sich einige verblüffende Ähnlichkeiten mit unserem Umgang mit GPT-4 auf. Wir nehmen die KI und ihresgleichen in anthropomorpher Weise wahr, ja, wir entdecken unsere Verwandtschaft mit ihnen. Wir glauben sogar, dass uns die KI besser kennt als wir uns selbst. Zwar wissen wir, dass die Vorhersagen der Algorithmen, die uns suggerieren, sie seien nur für uns und unsere Situation bestimmt, auf Extrapolationen aus den Daten der Vergangenheit beruhen. Dennoch beeinflussen sie unser Verhalten. Wir schreiben ihnen Handlungsfähigkeit zu, in der Hoffnung, durch ihre Vorhersagen unsere Ungewissheit zu mindern. Wenn wir jedoch so handeln, wie es der Algorithmus vorhersagt, werden diese Vorhersagen zu selbsterfüllenden Prophezeiungen. Und nicht zuletzt lassen wir uns vom Charme eines ChatGPT verführen, sei es nur für einige Augenblicke, wenn uns die KI dazu verleitet, zu glauben, wir hätten es mit einem Menschen zu tun. Je öfter dies geschieht, desto mehr gewöhnen wir uns daran. In diesem Sinn treten wir in ein verwunschenes Universum ein.
Das soll nicht heißen, dass wir der von Max Weber »entzauberten« Welt der Moderne entfliehen und in ein esoterisch anmutendes, von Geistern belebtes Universum eintauchen, das dem unserer Vorfahren ähnlich ist. Und doch machen einige der frappierenden Ähnlichkeiten nachdenklich. Denn wie bereits angedeutet, war für die Menschen im verwunschenen Universum alles um sie herum »natürlich«, alles war von »natürlichen« Kräften beseelt. Sie mussten ihr prekäres Überleben in einer Umwelt sichern, die von unsichtbaren und vorhersehbaren Kräften beherrscht und zusammengehalten wurde. Diese belebten die natürliche Umwelt, alle Materie und die Beziehungen der Menschen zueinander.
Von dieser natürlichen Umwelt ist nur ein kärglicher Rest verblieben. Unsere Welt – und alles, was über und unter ihr ist – ist auf dem besten Weg, eine von Menschen gemachte »künstliche« Welt zu werden. Für die Zukunft ist es daher absehbar, dass ein nachhaltiges Überleben auf einem weitgehend seiner natürlichen Ressourcen geplünderten Planeten zunehmend darauf angewiesen sein wird, digitale Ressourcen einzusetzen: von Satelliten über die Überwachungskameras in den Städten, von den unentbehrlichen Chips, deren Lieferketten von geopolitischen Spannungen abhängig sind, über die weitgehend automatisierte, auf Monokulturen setzende Landwirtschaft bis hin zu den winzigen Robotern, die im Körper Medikamente an die richtigen Zellen zum Andocken bringen. Und auch die Automatisation des gesellschaftlichen Lebens schreitet voran. Schon jetzt beeinflusst die KI zunehmend, was wir machen und wie wir unseren Lebensunterhalt verdienen, wie wir unsere Freizeit gestalten und unseren Lebensstil mit der Gesundheit in Einklang bringen. Längst gibt es eine »algorithmische Intimität«, die bestimmt, wie und mit wem wir Freundschaften schließen, welche Sexualität wir pflegen und wie wir unsere psychischen Leiden behandeln.11
Doch damit nicht genug. Wenn es nach den Plänen der großen Konzerne geht, werden wir uns bald mehr im Metaversum aufhalten als in der Welt, die wir unseren Kindern überlassen möchten. Was also ist zu tun, damit dieses erneut verwunschene Universum nicht zu einem Alptraum wird? In der verwunschenen Welt der KI geschieht vorher nie Geschehenes. Dinge werden möglich, die niemand für möglich hielt. Ungeahnte Möglichkeiten eröffnen sich, die uns in bewunderndes Staunen oder beängstigtes Unbehagen versetzen. Da gibt es Algorithmen, die mit Daten gespeist werden und durch Superrechner laufen (die eine große Menge an Energie verbrauchen, über die niemand spricht), bewohnt von digitalen Wesen, mit denen wir unseren Alltag, unsere intimen Wünsche, Vorlieben und Ängste teilen. Sie sind anders als wir und uns dennoch ähnlich. Doch die wahren Meta-Personen von heute sind nicht die Algorithmen, sondern eben jene großen Konzerne und ihr Führungspersonal. Sie sind es, die, von der Suche nach Reichtum und Macht getrieben, weitgehend Richtung und Tempo für die technologische Entwicklung vorgeben. Sie präsentieren sich als Wegbereiter:innen für eine zunehmend künstliche Welt »zum Wohl der Menschheit« und um »existenzielle Risiken« abzuwehren. In einer solchen Welt aber verlieren die bisherigen normativen Vorgaben der transzendentalen Ordnung ihre Wirksamkeit, mutiert die künstliche Welt doch immer mehr zu einer immanenten Ordnung, die ihren eigenen Gesetzmäßigkeiten folgt und in der auch die zeitlichen Übergänge fließender werden. Denn je mehr die Vergangenheit und die Zukunft in die Gegenwart eindringen, desto weiter entfernt sich der offene Horizont der Zukunft.
Die bisherige, auf transzendentalen Prinzipien beruhende Rechtsordnung erweist sich somit als zahnlos und überfordert. Bestehende Institutionen werden von der Schnelligkeit überrollt, mit der sich die Anforderungen an sie verändern und die sie zusehends obsolet erscheinen lassen. An vielen Orten tritt ein normatives und faktisches Vakuum auf, das sich zwar mit populistischen Ansagen und Verschwörungstheorien füllt, doch es fehlen nachhaltige und robuste Antworten, zumal junge Menschen riskieren, sich in den verwunschenen Netzwerken zu verfangen und an info-esity, einer Überfülle an Information, zu erkranken. Angesichts der Informationsflut verlernen sie, kluge Fragen zu stellen, und verstellen sich die Möglichkeit, neue Einsichten zu gewinnen.
Die menschliche Handlungsfähigkeit ist ein fragiles Konstrukt. Wie Autonomie und Selbstbestimmtheit ist sie relativ, eingeschränkt durch historisch kontingente Faktoren. Sie muss daher immer wieder aufs Neue definiert und erkämpft werden. Handlungsfähigkeit beinhaltet die Übernahme von Verantwortung für das eigene Tun und Lassen und die Bereitschaft, Rechenschaft über schädliche Folgen zu übernehmen. In westlichen Gesellschaften ist sie stark mit dem Begriff des Individuums und dem der Freiheit verknüpft, auch der Freiheit, zu entscheiden. Wir vermeinen immer noch, selbst zu entscheiden, wenn wir unsere Entscheidungen den Algorithmen übertragen, und dennoch beschleicht uns das Gefühl, dass wir bereits zu viel Selbstbestimmung und Kontrolle aufgeben haben. Doch wie weit sind wir bereit, zu gehen, und um welchen Preis? Können wir uns noch entscheiden, oder ist es dafür zu spät? Bereits im 17. Jahrhundert erkannte Spinoza, dass Menschen glauben, frei zu sein, weil sie sich ihrer Entscheidungen und Wünsche bewusst sind, die Ursachen aber, die sie dazu veranlassten, so zu handeln, wie sie handelten, nicht kennen. Im 21. Jahrhundert gesellt sich dieser Unkenntnis eine mächtige KI hinzu, über deren Ursachen ihres Funktionierens wir ebenfalls nichts wissen.
GPT-4 steht stellvertretend für die mächtigen Instrumente, die die Macht jener, die sie zu nutzen verstehen, weiter steigern, während sie in den Händen derer, die unwissend sind, zu unterhaltsamen Spielzeugen verkommen oder zur Handhabe digitaler Unterdrückung werden. Es liegt an uns, die Ursachen besser zu verstehen, die der von ihnen ausgehenden Macht innewohnen, ebenso wie es an uns liegt, zu klären, wie und für welche Ziele wir diese einsetzen. Gewiss, es braucht eine Beschränkung der Macht durch klare Vorgaben und Schranken. Es bedarf klarer Kriterien wie Glaubwürdigkeit, Transparenz und Übereinstimmung mit menschlichen Werten. Und vielleicht ist es gerade die KI, die uns dazu bringt, uns verstärkt mit der Digitalisierung als einem öffentlichen Gut und also mit der Gesellschaft auseinander zu setzen. Denn wenn wir die wachsenden gesellschaftlichen Ungleichheiten nicht weiter vertiefen wollen, müssen wir aktiv daran arbeiten, allen die Teilhabe an den positiven Auswirkungen der KI zu ermöglichen, und unsere kollektive Vorstellungskraft dafür mobilisieren, eine andere gesellschaftliche Ordnung zu errichten.12
Wenn wir also die Ursachen für unsere Entscheidungen und für die Handlungsfähigkeit der KI besser verstehen wollen, brauchen wir adaptierte Begrifflichkeiten und neue Kategorien, die es uns ermöglichen, zwischen einer veränderten Wirklichkeit und der Illusion ihrer Kontrolle, zwischen dem, was zunehmend gemacht und somit künstlich ist, und dem, was als natürlich verbleibt, zwischen der Verzauberung durch eine noch lange nicht ausgereifte KI und der Entzauberung unserer vermeintlichen Rationalität zu unterscheiden. Mag sein, dass es mehr fluide Übergänge gibt, mehr Kontinua als Dichotomien, der Dynamik von Netzwerken folgend. Mag sein, dass ein neues Weltbild im Entstehen ist, das weder der immanenten Ordnung unserer Vorfahren noch der transzendentalen Ordnung der letzten dreitausend Jahre entspricht. Doch weder ist die Zukunft vorbestimmt noch sind wir den Vorhersagen der Algorithmen ausgeliefert. Wir wissen nicht, wohin die koevolutionären Pfade führen, auf die wir uns durch die zunehmende Verschränkung mit den von uns geschaffenen Maschinen eingelassen haben. Die biologische Evolution kennt kein Endziel, sie hat kein telos. Die kulturelle Evolution hingegen ist voll von Zielen, die sich Menschen setzen. Die Erfahrung zeigt, dass sie letzten Endes zu anderen Ergebnissen führen als den beabsichtigten – und das ist gut so. In diesem Sinn bleibt die Zukunft ungewiss und offen.
Dies ist nur ein kleiner Ausschnitt der hochspannenden Fragen, die sich aus dem Umgang mit GPT-4 und seinesgleichen ergeben und die verdeutlichen: Etablierte Begriffe verlieren ihre Schärfe und ihren Anspruch auf Gültigkeit. Bisher unbestrittene wissenschaftliche Befunde müssen überdacht und aus Neue geprüft werden. Wir sind gezwungen, uns nicht nur mit den Folgen der KI auf unser Verhalten und den gesellschaftlichen Zusammenhalt auseinanderzusetzen, sondern auch dazu, uns neu im Lichte dessen zu sehen, was die KI anders macht und kann als wir. Sie hält uns einen raffinierten Spiegel vor. Statt vor der Angst zurückzuweichen, wir könnten unser Menschsein verlieren, werden wir eingeladen, genauer hinzusehen, um mehr über unser Menschsein zu erfahren.
Wien und Bonassola, April 2023
Dieses Buch ist das Ergebnis einer langen persönlichen und beruflichen Reise. Es verflicht zwei Stränge meiner bisherigen Arbeit und stellt sich damit zwei großen gesellschaftlichen Transformationen unserer Zeit: die Prozesse der Digitalisierung und unsere Ankunft in der Epoche des Anthropozäns. Die Digitalisierung bewegt uns in Richtung eines koevolutionären Entwicklungskurses von Menschen und Maschinen. Begleitet wird sie von beispiellosen technischen Errungenschaften und unserem Vertrauen in Künstliche Intelligenz (KI). Zugleich bestehen Bedenken darüber, wie immer mehr Privatsphäre verloren geht, wie die Zukunft der Arbeit wohl aussehen mag und inwieweit KI liberale Demokratien gefährdet. Das schafft ein weitverbreitetes Gefühl der Ambivalenz: Wir vertrauen der KI und darauf, dass sie unsere Zukunft sein wird, aber ebenso ist uns bewusst, dass es Anlass zu Misstrauen gibt. Wir lernen, mit den digitalen Geräten zu leben, interagieren guter Dinge mit ihnen, als wären sie neu gewonnene Verwandte, digitale Gefährten, behalten uns aber gleichzeitig eine tiefe Zwiespältigkeit gegenüber den Geräten wie dem Komplex der sie produzierenden Tech-Konzerne vor.
Die fortschreitende Digitalisierung und Datafizierung fällt mit dem wachsenden Bewusstsein zusammen, wie kritisch es um die Nachhaltigkeit unseres Planeten steht. Die Tragweite des Klimawandels und der dramatische Zustand des Ökosystems, auf das wir für unser Überleben angewiesen sind, erfordern rasches Handeln. Nicht weniger gebannt, nicht weniger bang machen uns die digitalen Technologien, die durch unsere Gesellschaften fegen. Doch nur selten werden diese beiden großen Wandlungsprozesse – die Digitalisierung und der Wandel hin zur Nachhaltigkeit – zusammen gedacht. Nie zuvor hatten wir die technischen Instrumente, das wissenschaftliche Wissen und die technisch-wissenschaftlichen Handlungsfähigkeiten, um derart weit zurück in die Vergangenheit und voraus in die Zukunft zu blicken. Trotzdem haben wir das Bedürfnis, unsere Existenz in dieser unheimlichen Gegenwart zu überdenken, dem Wendepunkt hin zu einer unbekannten Zukunft, die anders sein wird, als uns in der Vergangenheit versprochen wurde. Verschärft wurde dieses weitverbreite Gefühl von Angst nur noch durch die Covid-19-Pandemie, in sich ein disruptives Großereignis mit langfristigen globalen Folgen.
Mein Weg zu diesem Buch war voller Überraschungen. Meine bisherige Arbeit zum Thema Zeit, insbesondere der Struktur und Erfahrung sozialer Zeit, führte mich zu der Frage, wie sich unsere Zeiterfahrung durch den tagtäglichen Kontakt und Umgang mit Künstlicher Intelligenz und digitalen Geräten als unseren vertrauten Begleitern abermals verändert. Wie wirkt sich die Konfrontation mit geologischen Zeitskalen, langfristigen atmosphärischen Vorgängen oder der Halbwertszeit von Mikroplastik und Giftmüll auf die Zeitlichkeiten unseres täglichen Lebens aus? Wie beeinflusst KI die zeitliche Dimension unserer Beziehungen untereinander? Erleben wir die Entstehung von etwas wie einer »digitalen Zeit«, die sich in die ineinander verschachtelte zeitliche Hierarchie physischer, biologischer und gesellschaftlicher Zeiten hineingedrängt hat? Falls ja, wie bewältigen und koordinieren wir diese unterschiedlichen Zeitlichkeiten im Lauf unseres Lebens?
Der andere Strang meiner bisherigen Arbeit, zur List der Ungewissheit, lenkte meinen Blick darauf, wie wir mithilfe mächtiger computergestützter Instrumente, die die Zukunft näher an die Gegenwart geführt haben, alten und neuen Ungewissheiten begegnen und mit ihnen umgehen lernen. Diese Instrumente gewähren Einblicke in die Dynamiken komplexer Systeme, und grundsätzlich ermöglichen sie uns, jene Kipppunkte auszumachen, an denen Systeme in ein anderes Stadium übergehen. Kipppunkte markieren weiterführende Transformation, einschließlich der Möglichkeit eines Zusammenbruchs. Nun da das wissenschaftliche Verständnis komplexer Systeme zunimmt, wie lässt sich dieses Wissen einsetzen, um gegenwärtigen Risiken entgegenzuwirken und soziale Netzwerke resilienter zu machen?
Natürlich traf ich auf meiner Suche auf mehrere Hindernisse, konnte aber zugleich dank meines langjährigen Interesses an der Erforschung von Zeit und der List der Ungewissheit – die wir meiner Ansicht nach annehmen sollten – Aspekte persönlicher Erfahrung und biografischer Ereignisse mit empirischen Studien und wissenschaftlichen Erkenntnissen verknüpfen. Doch angesichts der wahrscheinlichen Folgen von Klimawandel, Artenschwund und Meeresversauerung oder Problemen wie der Zukunft der Arbeit, sobald die Digitalisierung die Arbeitnehmer der Mittelschicht treffen wird, konnte ich nicht mehr auf derlei persönliche Anknüpfungspunkte zurückgreifen. Konfrontiert mit Medienbildern verheerender Flächenbrände, von Hochwasser und rapide schmelzendem Polareis, wurde mir, wie vielen anderen, bewusst, wie ungeheuer viel heute auf dem Spiel steht. Ich las unzählige wissenschaftliche Studien mit quantitativen Schätzungen der Zeitlinien, entlang derer wir mehrere mögliche Kipppunkte in der anhaltenden Umweltzerstörung und somit den Zusammenbruch des Ökosystems erreichen würden. Und wie so viele andere auch fühlte ich mich den mit der Digitalisierung einhergehenden Sorgen und Hoffnungen, den Chancen und wahrscheinlichen Kehrseiten ausgeliefert.
Doch trotz dieser Beobachtungen und Analysen blieb ein Abstand zwischen der globalen Ebene, auf der sich diese Prozesse vollziehen, und meinem eigenen Leben, das glücklicherweise ohne größere Störungen weiterging. Selbst lokale Auswirkungen entwickelten sich entweder an weit entfernten Orten oder blieben lokal in dem Sinne, dass sie bald von anderen lokalen Ereignissen überholt wurden. Die meisten von uns sind sich dessen bewusst, dass diese großen gesellschaftlichen Transformationen enorme Auswirkungen und zahlreiche unbeabsichtigte Folgen mit sich bringen werden; und doch bleiben sie derart überwältigend abstrakt, dass sie sich in ihrer Komplexität intellektuell kaum greifen lassen. Der Abstand zwischen Wissen und Handeln, zwischen persönlicher Einsicht und kollektivem Handeln, zwischen dem Denken auf individueller Ebene und jenem globaler Institutionen scheint uns vor den unmittelbaren Auswirkungen dieser weitreichenden Veränderungen abzuschirmen.