Kommunikation mit unverständlichen Maschinen - Elena Esposito - E-Book

Kommunikation mit unverständlichen Maschinen E-Book

Elena Esposito

0,0

Beschreibung

Ein brillanter Essay über den richtigen Umgang mit den zukünftigen Entwicklungen der Künstlichen Intelligenz. Sind ChatGPT und generative KI eine Bedrohung oder eine Chance für unsere Zivilisation? Die neuesten Algorithmen, die immer intelligenter zu werden scheinen, greifen in jeden Aspekt unseres Lebens ein – und sind für Menschen immer schwerer zu begreifen. Müssen wir uns Sorgen machen – und machen wir uns die richtigen Sorgen? Wie können wir Maschinen kontrollieren, die wir nicht verstehen? Wenn der Schwerpunkt der KI sich von Intelligenz auf Kommunikation verlagert, stellen sich ganz andere Fragen: Seitdem Algorithmen nicht mehr versuchen, die menschliche Intelligenz zu reproduzieren, haben sie gelernt, immer kompetentere und effizientere Kommunikationspartner zu werden. Nun liegt es an uns, zu lernen, wie wir mit ihnen kommunizieren können.

Sie lesen das E-Book in den Legimi-Apps auf:

Android
iOS
von Legimi
zertifizierten E-Readern
Kindle™-E-Readern
(für ausgewählte Pakete)

Seitenzahl: 106

Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:

Android
iOS
Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



Elena Esposito

Kommunikation mit unverständlichen Maschinen

Aus der Reihe »UNRUHE BEWAHREN«

Unruhe bewahren – Frühlingsvorlesung & Herbstvorlesung

Eine Veranstaltung der Akademie Graz in Kooperation mit dem Literaturhaus Graz und DIE PRESSE

Die Frühlingsvorlesung zum Thema »Kommunikation mit unverständlichen Maschinen« fand am 6. und 7. November 2023 im Literaturhaus Graz statt.

Diese Arbeit wurde vom European Research Council (ERC) im Rahmen des Advanced Research Project PREDICT no. 833749 unterstützt.

Bibliografische Information der Deutschen Nationalbibliothek.

Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.dnb.de abrufbar.

www.residenzverlag.com

© 2024 Residenz Verlag GmbH

Wien – Salzburg

Alle Rechte, insbesondere das des auszugsweisen Abdrucks und das der fotomechanischen Wiedergabe, vorbehalten.

Herausgegeben von Astrid Kury, Thomas Macho, Peter Strasser

Umschlaggestaltung: Kurt Dornig

Lektorat: Jessica Beer

ISBN Print 978 3 7017 3609 6

ISBN eBook 978 3 7017 4719 1

Inhalt

ERSTER TEIL

1. Maschinen als soziale Akteure

2. Die Risiken der Generativen AI

3. Platons Sorgen über ChatGPT

4. Die Intelligenz der Maschinen

5. Von der künstlichen Intelligenz zur künstlichen Kommunikation

6. Der Begriff der Kommunikation

7. Doppelte Kontingenz

8. Virtuelle Kontingenz

ZWEITER TEIL

9. Worüber sollten wir uns Sorgen machen?

10. Die Intransparenz der Algorithmen

11. Vorhersagen und Erinnern

12. Misalignment und Halluzinationen

13. Desinformation

14. Deepfakes

15. Schlussfolgerungen

Literatur

ERSTER TEIL

1. Maschinen als soziale Akteure

Dass Maschinen zur Gesellschaft gehören, ist sicherlich nichts Neues. Spätestens seit der industriellen Revolution vor mehr als zwei Jahrhunderten würden viele grundlegende Prozesse der westlichen Gesellschaft ohne den entscheidenden Beitrag von Maschinen nicht funktionieren – in der Landwirtschaft, in der Industrie, im Verkehr, in der Kommunikation erfordern immer mehr Aufgaben das Zusammenwirken von menschlicher Arbeit und Mechanisierung. Heute jedoch sind sogenannte »Algorithmen« in intensiverer und durchdringenderer Weise Teil der Gesellschaft geworden, als es alle früheren Maschinen waren, und sie tun andere Dinge als das, was Maschinen bisher getan haben. Das geht so weit, dass beispielsweise Erik Brynjolfsson und Andrew McAfee bereits 2014 von einem noch nie dagewesenen »Second Machine Age« sprechen.1

Aber was ist das Besondere an den neuen Algorithmen? Spätestens seit dem sensationellen Launch von ChatGPT im November 2023 ist eine Entwicklung, die bereits seit über zehn Jahren im Gange ist, für jedermann sichtbar geworden: Algorithmen können Aufgaben übernehmen, die bisher der menschlichen Intelligenz vorbehalten waren. Die neuesten digitalen Systeme scheinen in der Lage zu sein, selbstständig Informationen zu produzieren und sie den Nutzer:innen mitzuteilen. Chatbots reagieren präzise und angemessen auf unsere Anfragen, egal wie originell und ausgefallen diese sind: Sie finden Informationen über unwahrscheinliche Ereignisse (wie man ein Erdnussbuttersandwich aus einem Videorekorder entfernt) oder über Personen, die kaum jemand kennt (Jón lærði Guðmundsson, isländischer Zauberer des 17. Jahrhunderts), und präsentieren sie uns in einer klaren und deutlichen Art und Weise, je nach Wunsch im Stil von Shakespeare, als Rap oder im Duktus einer politischen Persönlichkeit. Sie finden für uns nicht nur bereits vorhandene Informationen, sondern geben uns auch passende Antworten auf unsere konkreten, vermutlich nie zuvor formulierten Anfragen – sie produzieren die Informationen scheinbar selbst, wie es ein kompetenter Kommunikationspartner im zwischenmenschlichen Gespräch tut.

Auf ChatGPT folgten schnell andere Generative AI Tools wie Dall-E oder Stable Diffusion, die in der Lage sind, ausgehend von unseren Beschreibungen in natürlicher Sprache Bilder zu produzieren, die noch von niemandem gezeichnet, fotografiert oder gefilmt worden sind, die aber dennoch lebensecht aussehen. Das können die verschiedenen skurrilen Bilder von Kätzchen sein, die mit Hunden spielen oder surfen gehen, aber auch das berührende Bild »Pseudomnesia: The Electrician«, mit dem Boris Eldagsen den Sony World Photography Award gewann,2 oder die Werke der »künstlerischen KI«, die laut Lev Manovich3 »häufig wirklich neue kulturelle Artefakte sind, mit bisher unbekannten Inhalten, Ästhetiken oder Stilen«. Und der Algorithmus kann auch das Gegenteil: Wenn wir ihm Bilder zeigen, ist er in der Lage, diese zu verarbeiten, um auf unsere Anfragen zu reagieren – er kann zum Beispiel eine Liste von Rezepten aus den Zutaten vorschlagen, die er auf einem Foto unseres Kühlschranks erkennt. Kürzlich hat ChatGPT auch sprechen gelernt: Die Nutzer:innen können mit dem Bot reden und erhalten Antworten von einer synthetischen Stimme. Das Gespräch mit der Maschine wird spontaner und kann sogar zu einer intimen Erfahrung mit dem Algorithmus als Vertrauensperson und Berater werden, wie Kevin Roose in der New York Times ausführt.4

Die Wirkung dieser Innovationen war und ist gewaltig, nicht zuletzt, weil die meisten dieser Tools kostenlos angeboten werden und sehr leicht zu bedienen sind. Jede:r stürzte sich in das Spielen, Arbeiten und Experimentieren mit den neuen Formen der sogenannten künstlichen Intelligenz und generierte dabei eine Vielzahl von neuen Informationen und Feedbacks, die die Entwicklung der Technologie weiter vorantrieben.5 Die Vorteile wurden sofort erkannt: Generative AI kann repetitive Aufgaben wie das Bereitstellen von Standardinformationen, das Ausfüllen von Formularen oder sogar das Zusammenfassen von Texten und das Synthetisieren von Informationen automatisieren – und Studierende, Journalist:innen oder Anwält:innen haben dies sofort zu nutzen gewusst. Die Hoffnung dabei ist, die kognitiven Kapazitäten der Menschen für komplexere und kreativere Aufgaben freizusetzen – oder sie weitgehend zu entlasten. Fortgeschrittene Algorithmen können auch der wissenschaftlichen Forschung einen großen Impuls geben, z. B. durch die Generierung synthetischer Daten, wenn reale Daten knapp oder schwer zu beschaffen sind, durch die Identifizierung von Wirkstoffen mit therapeutischem Potenzial zur Entwicklung neuer Medikamente und Behandlungen, durch die Anpassung von Medikamenten und Eingriffen an den einzelnen Patient:innen, durch die Erstellung und Analyse hochwertiger Bilder, durch die Simulation komplexer Phänomene und die Durchführung virtueller Experimente.

Doch ebenso schnell wurden auch die Risiken erkannt. Selbst wenn die von Maschinen erzeugten Ergebnisse korrekt und zuverlässig sind (was keineswegs selbstverständlich ist, wie wir im Einzelnen sehen werden), besteht die Sorge, dass Algorithmen menschliche Arbeit ersetzen könnten, weil sie intellektuelle Aufgaben schneller und kostengünstiger erledigen, oder sogar zu neuen Formen der Ausbeutung führen könnten, wie in dem Fall (entdeckt von Time6), in dem OpenAI kenianische Arbeiter:innen beschäftigte, um ein Tool zu entwickeln, das in der Lage ist, toxische Inhalte in ihren Algorithmen zu erkennen, und ihnen weniger als zwei Dollar pro Stunde zahlte. Man befürchtet auch ein generelles »Deskilling«, d. h. eine Reduzierung der Fähigkeiten von Nutzer:innen, die immer mehr Aufgaben an Maschinen delegieren: Kinder, die nicht mehr in der Lage sind, sich im Raum zurechtzufinden, weil sie sich immer auf Google Maps verlassen haben, aber auch Ärzte, die die Fähigkeit verlieren könnten, aus Anzeichen, Symptomen und Daten Informationen zu ziehen. Generative AI kann außerdem schwere Umweltschäden verursachen, da das Training von Modellen große Mengen an Rechenleistung erfordert. Der Energieverbrauch von Data-Centern weltweit macht 2,5 bis 3,7 Prozent der globalen Treibhausgasemissionen aus und übertrifft damit sogar die Emissionen der Luftfahrtindustrie.

All dies sind ernsthafte und berechtigte, aber nicht unbedingt neue Sorgen. Schon das erste »Machine Age« kannte sie und musste sich mit ihnen auseinandersetzen. Innovationen wie die fliegende Zündschnur und die Dampfmaschine oder auch die Entdeckung der Elektrizität und die Nutzung chemischer Prozesse sowie der weltweiten Erdölvorkommen haben die Art und Weise, wie Arbeit geleistet wird, tiefgreifend verändert und schwerwiegende Auswirkungen auf die erforderlichen (und verlorenen) menschlichen Fähigkeiten, auf soziale Beziehungen und auf die Umwelt gehabt. Und dies betrifft nicht nur mechanische Arbeiten, bei denen Maschinen den menschlichen Körper ersetzt haben. Tools wie die Druckerpresse, die Rechenmaschine, das Telefon oder die Kamera haben in die intellektuellen Aufgaben des menschlichen Geistes eingegriffen.

ChatGPT ist sicherlich nicht die erste Maschine, die all das tut, doch nun stellen sich andere, grundsätzlich neuartige Fragen. Zu den bereits vertrauten Sorgen fügt die generative KI andere hinzu, die uns unvorbereitet treffen und die in den Monaten nach der Einführung von ChatGPT eine hitzige und oft alarmierte Debatte ausgelöst haben. Algorithmen, so wird beobachtet und befürchtet, haben nicht gelernt, das, was der menschliche Geist tut, auf digitale Weise zu tun, sondern sie haben gelernt, andere Dinge zu tun. Kritiker wie Yuval Harari warnen, dass wir nicht künstlich einen Geist, der analog zum menschlichen funktioniert, aufbauen, sondern einen andersartigen Geist – eine »außerirdische Intelligenz«, die unverständlich und unkontrollierbar werden kann. Selbstlernende Algorithmen könnten autonom Programme generieren, die es ihnen ermöglichen, sich selbst weiter zu verbessern, bis hin zur Entwicklung eigener Ziele und Prioritäten und zur Konkurrenz mit der menschlichen Intelligenz.

Diese Befürchtungen wurden mit großer Medienresonanz in einem im März 2023 vom Future of Life Institute veröffentlichten offenen Brief geäußert,7 den schnell Zehntausende von Wissenschaftler:innen aus aller Welt unterzeichneten – viele der führenden Forscher:innen auf dem Gebiet der künstlichen Intelligenz sowie Unternehmer wie Elon Musk und Steve Wozniak, der Mitbegründer von Apple. In dem Brief wird davor gewarnt, dass »KI-Systeme mit einer den Menschen konkurrierenden Intelligenz weitreichende Risiken für die Gesellschaft und die Menschheit darstellen können«, bis hin zu einer »tiefgreifenden Veränderung der Geschichte des Lebens auf der Erde«. Die Unterzeichner:innen fragen: »Sollen wir nichtmenschliche Intelligenzen entwickeln, die uns irgendwann zahlenmäßig überlegen sein werden, uns überlisten, überflüssig machen und ersetzen könnten? Sollten wir den Verlust der Kontrolle über unsere Zivilisation riskieren?« Diese Sorgen fanden in den folgenden Monaten großen Anklang, interessanterweise gerade bei Wissenschaftler:innen und Expert:innen auf dem Gebiet der KI. Der »Pate der KI«, Geoffrey Hinton, verließ Google, weil er frei sein und davor warnen wollte, dass die neuen Chatbots eine Bedrohung für die Menschheit darstellten. Noam Chomsky, Eric Schmidt (Ex-CEO von Google), Yuval Harari und viele andere haben ähnliche Bedenken geäußert. Ende Mai 2023 schrieb eine Gruppe führender KI-Experten, darunter auch Sam Altman von OpenAI (dem Unternehmen, das ChatGPT entwickelt hat), dass »die Eindämmung des Risikos unseres Aussterbens durch KI neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg eine globale Priorität sein sollte«.8

Atomare Bedrohung, Pandemie, das Ende der Menschheit – emphatischere und dramatischere Vergleiche kann man kaum ziehen. Aber warum? Müssen wir uns wirklich so viele Sorgen machen? Worüber? Und vor allem: Sorgen wir uns um die richtigen Dinge? Auf den kommenden Seiten werden wir versuchen, diese Fragen zu beantworten.

2. Die Risiken der Generativen AI

Tatsächlich werfen die neueren Algorithmen, die von selbst lernen (und selbst entscheiden, was sie lernen), eine Reihe von Problemen auf, die sich von jenen der »traditionellen« Maschinen, die wir bereits kennen, unterscheiden.

Das offensichtlichste Problem ist, dass diese Maschinen zwar intelligent zu sein scheinen, es aber nicht sind. Seit Beginn der Entwicklung von Computern diente der Turing-Test, ein 1950 von dem Mathematiker Alan Turing vorgeschlagenes Experiment, das auf der Interaktion mit dem Nutzer beruht, als Kriterium für die Feststellung, ob eine Maschine intelligent ist. Die Maschine besteht den Test, wenn eine Testperson ihre Beiträge in einem natürlichsprachlichen Gespräch nicht von denen eines menschlichen Partners unterscheiden kann – das heißt, wenn der Nutzer nicht erkennt, dass er mit einer Maschine kommuniziert. Neuere Algorithmen – und insbesondere Bots wie ChatGPT – bestehen diesen Test jeden Tag: Heute sind unsere Online-Partner häufig Bots (in Webdiensten, Videospielen, sozialen Medien). Wir sind uns dessen oft gar nicht bewusst, und wenn wir es merken, wie im Fall der persönlichen Assistenten, ist es uns meist egal.9

Man könnte also zu dem Schluss kommen, dass Algorithmen intelligent geworden sind. Doch dies halten viele für einen Irrtum, der selbst wiederum zu einer Reihe von Missverständnissen führt, denn Algorithmen sind nicht in der Lage, zu denken. Systeme wie ChatGPT, warnt Noam Chomsky, verstehen die Phänomene, mit denen sie sich befassen, nicht, sind nicht in der Lage, sie zu erklären, sie haben weder Kritikfähigkeit noch moralische Kategorien – sie identifizieren lediglich »grobe Korrelationen zwischen Datenpunkten«. Eigentlich, so argumentieren zahlreiche Beobachter, funktionieren die Algorithmen wie »stochastische Papageien«10: Sie fügen Wortfolgen, die sie in den riesigen Datenmengen, mit denen sie trainiert wurden, gefunden haben, auf der Grundlage der Wahrscheinlichkeit ihres gemeinsamen Auftretens zusammen, aber sie verstehen nichts von den Wörtern und Sätzen, die sie uns präsentieren – sie wiederholen sie lediglich wie Papageien, und sie erscheinen nur Gesprächspartnern intelligent, die nicht wissen, wie Algorithmen funktionieren. Viele der Fehler dieser Tools, wie z. B. die berüchtigten »Halluzinationen«, auf die wir in Kapitel 12 näher eingehen werden, hängen genau von ihrem mangelnden Verstand ab.

Problematisch ist jedoch nicht nur, dass die Algorithmen nicht verstehen, sondern dass sie oft nicht verständlich sind. Neuere Systeme sind extrem effizient und leistungsfähig geworden, aber auch so raffiniert, komplex und autonom, dass sie sich praktisch selbstständig machen. Algorithmen wie tiefe neuronale Netze (deep neural networks) arbeiten auf vielen verschiedenen Ebenen, die voneinander unabhängig und verborgen sind, und jede von ihnen kann ihren Input anders behandeln, sodass es am Ende praktisch unmöglich wird, zu erkennen, was die Algorithmen zu ihrem Ergebnis geführt hat, d. h. zu verstehen, wie sie funktionieren. Maschinen arbeiten allein und ihr Output ist für menschliche Beobachter:innen oft nicht nachvollziehbar, ja unverständlich.11 Sogenannte Black Box-Modelle sind für ihre Nutzer:innen von Natur aus undurchdringlich oder undurchsichtig, und sogar die Programmierer:innen, die sie entwickelt haben, sind manchmal nicht in der Lage, zu verstehen, wie die Algorithmen zu ihren Ergebnissen gelangt sind. Die Forschungsrichtung »erklärbare KI« (Explainable AI: XAI