KI: Wenn wir wüssten... - Cortnie Abercrombie - E-Book

KI: Wenn wir wüssten... E-Book

Cortnie Abercrombie

0,0

Beschreibung

Als Führungskraft in einem der größten und fortschrittlichsten ­Technologieunternehmen der Welt im Bereich KI hat Cortnie ­Abercrombie aus erster Hand erfahren, wie die Führungskräfte und Data-Science-Teams der Fortune-500-Unternehmen über KI-Systeme denken und wie sie diese entwickeln. Das verschaffte ihr eine einzigartige Perspektive und führte dazu, dass sie ihren Job aufgab, um der Öffentlichkeit die ernüchternden Realitäten hinter KI aufzuzeigen. In diesem Buch erklärt Abercrombie leicht verständlich, wie KI funktioniert, und sie enthüllt, wie Unternehmen KI einsetzen – und wie dies unser aller Leben in höchstem Maße beeinflusst. Vor allem aber gibt sie praktische Ratschläge, wie wir mit KI in der Gegenwart umgehen und welche Veränderungen wir für die Zukunft fordern sollten.

Sie lesen das E-Book in den Legimi-Apps auf:

Android
iOS
von Legimi
zertifizierten E-Readern
Kindle™-E-Readern
(für ausgewählte Pakete)

Seitenzahl: 396

Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:

Android
iOS
Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



CORTNIE ABERCROMBIE

KI: WENN WIR WÜSSTEN …

Was künstliche Intelligenz alles über uns weiß und was wir über sie wissen sollten

Die Originalausgabe erschien unter dem Titel

What You Don’t Know: AI’s Unseen Influence on Your Life and How to Take Back Control

ISBN 978-1-63758-208-4

Copyright der Originalausgabe 2022:

Copyright © 2022 by Cortnie Abercrombie. All Rights Reserved.

A Post Hill Press Book

Copyright der deutschen Ausgabe 2022:

© Börsenmedien AG, Kulmbach

Übersetzung: Rotkel e. K.

Gestaltung: Daniela Freitag

Satz und Herstellung: Timo Boethelt

Lektorat: Claus Rosenkranz

Druck: GGP Media GmbH, Pößneck

ISBN 978-3-86470-878-7

eISBN 978-3-86470-879-4

Alle Rechte der Verbreitung, auch die des auszugsweisen Nachdrucks, der fotomechanischen Wiedergabe und der Verwertung durch Datenbanken oder ähnliche Einrichtungen vorbehalten.

Bibliografische Information der Deutschen Nationalbibliothek: Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über <http://dnb.d-nb.de> abrufbar.

Postfach 1449 • 95305 Kulmbach

Tel: +49 9221 9051-0 • Fax: +49 9221 9051-4444

E-Mail: [email protected]

www.plassen.de

www.facebook.com/plassenverlag

www.instagram.com/plassen_buchverlage

In Erinnerung an meine Großmutter Betty Ann, die mir in schwierigen Zeiten immer Kraft und Mut spendete und mich daran erinnerte, mir Zeit für die Dinge zu nehmen, die mir wichtig sind.

Für alle, die in diesen verrückten Zeiten der Pandemie auf der Suche nach ihrem Sinn und Zweck sind – für diejenigen habe ich eine Botschaft in der Danksagung.

Wenn man das Schiff erfindet,erfindet man auch den Schiffbruch;wenn man das Flugzeug erfindet,erfindet man auch den Flugzeugabsturz;und wenn man Elektrizität erfindet,erfindet man den Stromschlag …Jede Technologie trägt ihre eigene Negativität,die gleichzeitig mit dem technischen Fortschritt erfunden wird.

Paul Virilio,französischer Kulturtheoretiker, Urbanistund ästhetischer Philosoph

INHALT

Einführung

1Was ist künstliche Intelligenz und wie funktioniert sie?

2Ist KI wirklich überall um mich herum?

3Könnte KI meine Jobchancen limitieren?

4Könnte ich durch KI ersetzt oder entlassen werden?

5Könnte KI mir den Lebensinhalt nehmen?

6Könnte ich wegen KI gehackt werden?

7Was weiß KI über mich und wie kann es gegen mich verwendet werden?

8KI-Manipulation: Kann KI Kindern und Jugendlichen schaden?

9Kann KI Menschen polarisieren und radikalisieren?

10Verletzt KI meine Rechte und Freiheiten?

11Gesundheitswesen: Ist KI in Situationen involviert, in denen es um Leben und Tod geht?

12Meine Vision und Hoffnung für die Zukunft der KI

Danksagung

Endnoten

Einführung

Der Nebelschleier ist gelüftet

Wie um alles in der Welt wollte ein Zigarettenhersteller mithilfe von künstlicher Intelligenz (KI) den Krebs in der Welt „reduzieren“? Ich war neugierig und misstrauisch, als ich am Konferenztisch saß und einem beängstigend ehrgeizigen Digital Executive zuhörte, der darüber sprach, wie man alle starken Raucher in der Welt findet und anspricht. Auf der ganzen Welt! Welcher verrückte, arrogante Mensch glaubt, dass er jeden starken Raucher auf der Welt finden kann? Zuerst wollte ich lachen, aber ich riss mich zusammen, als ich bemerkte, dass niemand lachte, spottete oder abfällige Bemerkungen machte. Keiner. Ich schaute mich langsam im Raum um, um zu sehen, ob ich jemanden aus dem Data-Science-Team erkannte, und entdeckte dabei eine Person, von der ich ohne Zweifel wusste, dass sie das Unmögliche schaffen konnte. Anhand der anwesenden Data-Science-Talente und hochrangigen Führungskräfte meines Unternehmens konnte ich erkennen, dass die Herausforderung bereits angenommen und in Angriff genommen worden war. Der Gesichtsausdruck des leitenden Datenwissenschaftlers war völlig ernst. Und ich wusste es. Er würde alle starken Raucher finden – und jeden anderen, den der Digital Executive finden wollte. Wäre dieser Datenwissenschaftler nicht im Raum gewesen, hätte ich das als Selbstüberschätzung und Narzissmus des Digital Executive abgetan.

Gäbe es eine Forbes-Liste der „mächtigsten Menschen der Unterwelt“, so wäre dieser Digital Executive mit Sicherheit auf ihr vertreten. Warum? Weil er über mehr Geld verfügte als Gott und keine Scheu hatte, es auf jede erdenkliche Weise einzusetzen, um in der Big-Tobacco-Welt noch mächtiger zu werden. Er war auf dem Weg, der erste Chief Digital Officer zu werden, den das Zigarettenunternehmen je gesehen hatte, und da er auch der erste Hispanoamerikaner sein würde, der einen solchen Posten bekleidet, wollte er einen neuen Weg einschlagen – einen „rauchfreien“ Weg. Aber dazu kommen wir später.

Ich hatte mich in die Diskussion mitten in der Sitzung eingeschaltet. Mein Flugzeug landete mit Verspätung in LaGuardia. Ich schnappte mir meinen Koffer aus der Gepäckablage und lief zu der Mitfahrgelegenheit, die ich noch vom Flugzeug aus angefordert hatte. Als das Auto im Verkehr feststeckte, stieg ich aus, rannte zu meiner Firma und wartete ungeduldig, bis mir der Sicherheitsdienst einen vorläufigen Ausweis aushändigte. Dann rannte ich zum Aufzug und dann in den Konferenzraum. Eile bestimmte mein Leben, ich rannte buchstäblich von einem Ort zum nächsten. Die Menschen, die ich traf, waren auch immer in Eile. Ich gebe Ihnen einen kleinen Vorgeschmack darauf, wie in der KI-Welt schlimme Dinge passieren. Ich möchte zu Protokoll geben … wenn die Menschheit jemals gegen die KI verliert, dann wird dies nicht mit einem Knall oder einem Wimmern geschehen, sondern Hals über Kopf.

Mein Job war es, um die Welt zu fliegen und Lösungen für künstliche Intelligenz im Wert von zig Millionen Dollar bei Fortune-500-Unternehmen zu testen. Man könnte mich wohl als „Höhle der Löwen“-Juror für künstliche Intelligenz bezeichnen. Wie in der TV-Show war ich auf der Suche nach der nächsten großen KI-Idee, in die ich investieren und die ich von einer maßgeschneiderten Lösung für einen Kunden zu einer wiederholbaren Lösung machen konnte, die wir standardisieren und vielen ähnlichen Unternehmen in derselben Branche anbieten konnten.

Bei diesem Meeting ging es um eine KI-gesteuerte „Social-Media-Kommandozentrale“ für ein großes Tabakunternehmen. Halten wir kurz inne. Sie denken wahrscheinlich: Was zum Teufel ist eine KI-gesteuerte Social-Media-Kommandozentrale? Denken Sie an Filmszenen, in denen Menschen vor einer Reihe von Bildschirmen sitzen, die Welt beobachten und darauf warten, dass etwas passiert. Ja, genau. So ist es. Nur ist es eine Social-Media-Version. Stellen Sie sich eine KI vor, die Sie auf relevante Muster in Echtzeit-Tweets, Instagram-Fotos, Facebook-Kommentaren und Memes hinweist, die Ihr Unternehmen betreffen könnten. In der Vergangenheit waren es vor allem Konsumgüterunternehmen wie Coca-Cola, Nike und Unilever, die es zu schätzen wussten, schnell auf Stimmungen in den sozialen Medien reagieren zu können. Inzwischen tun dies jedoch die meisten Unternehmen, da sie erkannt haben, dass ein paar Personen mit einer großen Fangemeinde und ein paar kurze Tweets genügen, um den über Jahre aufgebauten Ruf einer Marke zu zerstören.

Wie funktioniert diese KI-Kommandozentrale für soziale Medien also genau? Die Unternehmen beschäftigen Menschen, die die sozialen Trendwarnungen des KI-Systems über ihre Kunden, ihre Marke, ihre Konkurrenten, Ereignisse, Situationen und Kundeninteraktionen in Echtzeit überwachen. Waren Sie schon einmal so verärgert über eine Fluggesellschaft, dass Sie sich direkt auf Facebook bei Ihren Freunden und Verwandten darüber beschwert und ihnen gesagt haben, dass sie niemals dort buchen sollen? Ja, Unternehmen hassen das. Sie wollen Sie glücklich machen, bevor Sie es tatsächlich schaffen, dass alle Ihre Freunde und Familienmitglieder sie hassen – vor allem, wenn Sie Tausende oder Millionen Follower haben. Zigarettenhersteller sind in vielen Ländern, auch in den Vereinigten Staaten, von den traditionellen Werbemöglichkeiten ausgeschlossen. Die sozialen Medien, in denen es nur wenige gesetzliche Bestimmungen und eine große Zahl junger Menschen gibt, sind für sie ein geeigneter Weg, um strategisch neue Kunden anzusprechen und Stammkunden dazu zu bringen, mehr zu rauchen.

Ich weiß nicht mehr, ob ich überhaupt wusste, dass dieses KI-System für Big Tobacco bestimmt war. Ich wusste zwar, wie vielversprechend die KI-gestützte Kommandozentrale war, aber ich hatte nicht darüber nachgedacht, dass diese Version für ein Tabakunternehmen bestimmt war. Es gibt zwei Gruppen von Menschen, wenn es um diese Art von Unternehmen geht. Die eine ist die Leben-und-leben-lassen-Gruppe, die andere ist die Ich-unterstütze-das-überhaupt-nicht-Gruppe. Das Schlimme ist, dass ich bis zu diesem Zeitpunkt dermaßen in Eile war. Ich hatte mit anderen Teams zusammengearbeitet, um ihre Geschäftsszenarien zu erstellen, damit ihre Lösung bei dem internen monatlich tagenden Prüfungsausschuss auf den Tisch kam. Ich flog los und landete in diesem Meeting, ohne mir Gedanken darüber zu machen, welcher Gruppe ich angehörte oder was die Lösung dem Kunden konkret bringen sollte. Ich erinnere mich, dass mir gesagt wurde, wir könnten dazu beitragen, den Krebs in der Welt zu reduzieren. Ich erinnere mich auch daran, dass ich davon fasziniert war, war mir jedoch nicht sicher, was das im Hinblick auf diesen Kunden bedeutete. Aber wer möchte nicht dazu beitragen, Krebserkrankungen einzudämmen?

Als ich in dem Meeting saß, durchlebte ich ein Wechselbad der Gefühle. Das „brennbare Produkt“ – so bezeichnete der Big-Tobacco-Konzern die normalen Zigaretten – setzte beim Anzünden über 200 krebserregende Stoffe frei. Wow! Ich wusste ja, dass Rauchen nicht gesund war, aber: Wow! Aber das neue Produkt – das „rauchfreie“ oder „risikomindernde Produkt“ (ja, so haben sie es bezeichnet) –, das nach Tabak schmeckte und Nikotin enthielt, nach dem sich starke Raucher sehnten, würde nur vier Hauptbestandteile enthalten, und diese würden nicht angezündet, sondern erhitzt werden. Sie vertraten daher den Standpunkt, dass das neue Produkt nicht so krebserregend sei. Theoretisch könnte ein starker Raucher „brennbarer Produkte“ auf das neue „zu erhitzende Produkt“ umsteigen und könnte so – in Gedanken ergänzte ich an dieser Stelle „seine Lebenszeit verlängern“ –, aber das war nicht das, was dann tatsächlich gesagt wurde. Stattdessen hieß es … „weiterhin Tabakprodukte konsumieren“. Halt, Pause!

Verstehen Sie das so, wie ich es verstanden habe? In meinen Worten, nicht in ihren: Starke Raucher starben zu schnell an normalen Zigaretten; um sie als Käufer zu behalten, musste man ihr Leben verlängern, indem man ihnen eine Alternative anbot, die sie langsamer töten würde. Wir sind endlich, wenn auch auf zweifelhafte Weise, an einem Punkt angelangt, an dem sie in gewisser Weise die Idee der „Krebsreduzierung“ verwirklichen. Aber, nebenbei bemerkt, es würde wahrscheinlich gentechnisch veränderten Tabak mit Nikotin enthalten, der mindestens doppelt so süchtig macht, und zwar über ein Gerät, das so viel kostet wie AirPods (und nur dann, wenn man sich nicht für die mit Swarovski-Kristallen besetzte Designerversion entscheidet) und andere Utensilien erfordert, die jedes Jahr so viel kosten würden wie die Studiengebühren pro Semester in den USA. Aber hey, wissen Sie, zumindest würden starke Raucher ein paar Jahre länger leben, die sie wahrscheinlich brauchen werden, um ihre neuen, „rauchfreien“ Zigarettengewohnheiten abzuzahlen.

Je weiter die Diskussion darüber voranschritt, wie man die Menschen für dieses neue, „rauchfreie“ Produkt gewinnen könnte, desto unwohler fühlte ich mich. Ich dachte immer wieder: Schieb diese lästigen Gedanken einfach beiseite und kümmere dich um die Details. Die Algorithmen waren bereits in Arbeit und der Zug in Bewegung. Aber dieses mulmige Gefühl überkam mich immer wieder. Und dann kochte es in mir über, als ein leitender Angestellter aus einem anderen Bereich unseres Unternehmens mich und meinen Chef beiseitenahm und unverblümt fragte: „Werden Sie wirklich dabei mitmachen, das Projekt auf die Beine zu stellen?“ Ich habe diese Frage so verstanden: Wollen Sie wirklich dem Big-Tobacco-Konzern dabei helfen, Menschen für seine neue E-Zigaretten-Erfindung zu gewinnen? Glauben Sie wirklich das Argument, dass sie den Krebs reduzieren, indem sie auf starke Raucher abzielen? Und ich werde hier absolut ehrlich zu Ihnen sein. Ein Wechselbad der Gefühle überkam mich. Zuerst das Gefühl der Schande: Wie konnte ich das überhaupt in Betracht ziehen? Dann Wut über die Anschuldigung: Finden Sie mich unethisch? Dann die Erkenntnis:Mist, ich glaube, er hat recht!

Anschließend erklärte er, dass seine Abteilung ihre Dienste einstellen musste, nachdem sie von einer Gruppe hinters Licht geführt worden war, die mit verschiedenen fragwürdigen Aktivitäten in Verbindung gebracht wurde. Obwohl es seinen Geschäftsbereich eine Menge Geld kostete, zogen sie sich zurück und erstatteten das Geld für ihre Dienstleistung. Es war ein abschreckendes Beispiel für uns, aber es gab mir das Gefühl, ein Tabakterrorist zu sein. Mein Chef und das Team, das an dieser Lösung arbeitete, waren gute Leute. Sie waren wirklich der Meinung, dass dies der richtige Weg sei, um die Krebsrate unter starken Rauchern zu senken. Sie waren begeistert, dass sie bei der Lösung helfen konnten – viele von ihnen hatten Angehörige, deren Gesundheit stark unter der Nikotinsucht litt. Mein Chef reagierte sofort entrüstet und distanzierte sich von den Äußerungen der anderen Führungskraft. Ich hatte das Gefühl, dass er nur darauf wartete, wie ich reagieren würde.

Mein Chef schätzte Vertrauen, Loyalität und Beziehungen mehr als alles andere – mehr als Fähigkeiten, Fachwissen oder den schulischen Werdegang. Dies war in der Welt des KI-Consultings selten. Er hatte mich aus einer Abteilung geholt, die er nicht mochte und der er kein Vertrauen entgegenbrachte, und er opferte seine Freizeit, um mich auf diese Führungsposition vorzubereiten. Ich war ihm dankbar für alles, was er für mich getan hatte.

Das. War. Hart. Ein Team mit guten Absichten. Ein toller Chef. Obwohl ich eigentlich kein Fan von Tabakunternehmen bin, war der Kunde selbst ein aufstrebender digitaler Marktführer, ein ehrgeiziger, freundlicher Außenseiter – die Art von Unternehmen, die man normalerweise anfeuert, wenn es darum geht, „die Großen“ zu besiegen. Nicht viele Minderheiten schafften es in die oberen Ränge von Big Tobacco, und dies war seine Art und Weise, dem Vorstand seine digitalen Führungskompetenzen unter Beweis zu stellen und sich den Titel „Chief“ zu verdienen.

Was tun? Ich habe mich gequält.

In dieser Nacht wälzte ich mich hin und her und fragte mich, was wohl mit all den starken Rauchern geschehen würde, die von diesem Algorithmus gefunden würden. Würden die durch künstliche Intelligenz gesammelten Informationen und Muster dazu verwendet werden, sie dazu zu animieren, mehr zu rauchen? Würde ein ehrgeiziger oder sogar leichtgläubiger Angestellter die Namen und Angaben zur Identität dieser starken Raucher, da all diese Angaben ja in der Cloud waren, an Datenbroker weitergeben, die ihre Daten dann an Krankenversicherungen verkaufen könnten, die dafür viel Geld bezahlen würden? Könnte dies dazu führen, dass starke Raucher keine Versicherung mehr bekommen können? Welche Auswirkungen hatten diese „rauchfreien Geräte“, mit denen man den Nikotinkonsum und die Rauchgewohnheiten der Menschen tracken konnte? Wenn die Tabakkonzerne die Gewohnheiten von Kettenrauchern erheben könnten, wäre es dann ein Leichtes für sie, mehr Menschen zum Rauchen zu bewegen?

Die Bilderkennung, eine Form der künstlichen Intelligenz, könnte so trainiert werden, dass sie Zigaretten in den Händen von Menschen auf Fotos auf Instagram und Facebook findet. Da so viele Menschen von ihren Freunden getaggt oder auf Fotos auf Facebook und Instagram mit Namen versehen werden, hätte das Zigarettenunternehmen dann die Namen der Personen, die auf den Fotos eine Zigarette in ihren Händen halten. Eine Liste von Rauchern und deren Freunden, wo sie sich aufhalten (zum Beispiel Namen von Bars, E-Zigaretten-Geschäfte) und ihren Vorlieben wäre sehr hilfreich, um Raucher mithilfe von KI-Funktionen, die über soziale Medien verwaltet werden, anzusprechen. Lassen Sie mich Ihnen das anhand eines Szenarios veranschaulichen, damit Sie es sich besser vorstellen können.

Unsere KI-gesteuerte Social-Media-Kommandozentrale von BigTobaccoX wird über sich abzeichnende Trends rund um #SuperRaves, @Felix (ein Social-Media-Influencer und Konsument rauchfreier Produkte, dem Tausende Menschen folgen) und @BigPopaSmokes (ein lokales E-Zigaretten-Geschäft in der von BigTobaccoX anvisierten Stadt) informiert. Das Social-Media-Team von BigTobaccoX hat sich vorgenommen, Tausende von Menschen dazu zu bewegen, sich für ein neues „rauchfreies“ Gerät zu entscheiden, wenn sie die folgende Botschaft auf den beliebtesten Social-Media-Seiten verbreiten würden: „Hey @Cortnie_CDO (das bin ich) @BigPopaSmokes (Name eines E-Zigaretten-Geschäfts) sponsert einen #SuperSecretRave (Veranstaltung im Zusammenhang mit BigTobaccoX). Dein Freund @Felix hat sich bereits angemeldet. Kostenlose rauchfreie Designergeräte und Eintritt zur Veranstaltung, wenn du dich vor der Party bei @BigTobaccoX anmeldest.“ Dann lehnt sich das Team in der Kommandozentrale zurück und beobachtet, wie die Social-Media-Kampagne läuft, und passt sie bei Bedarf weiter an. So können Sie sich das vorstellen.

Als ich diese Szenarien und die Wahrscheinlichkeit ihres Eintretens durchspielte, wurde mir klar, dass der digitale Marktführer es nicht ernst gemeint haben konnte, nur die starken Raucher in der Welt zu verfolgen. Ich glaube, sie waren definitiv ein Zielmarkt für ihn, aber nicht das einzige Ziel. Um das Potenzial der KI-gesteuerten Kommandozentrale voll auszuschöpfen, würde er Menschen verfolgen, die ihr Leben in den sozialen Medien führen, Partys wie Raves besuchen und dem Gruppenzwang unterliegen (zum Beispiel „Dein Freund Felix geht hin“). Gibt es bestimmte Altersgruppen, die Ihnen einfallen? Lassen Sie mich hier ein paar Zusammenhänge herstellen. Wenn Sie im Internet recherchieren, werden Sie schnell feststellen, dass das Durchschnittsalter, in dem jemand mit dem Rauchen beginnt, zwischen zwölf und 15 Jahren liegt. Studien des US-amerikanischen nicht staatlichen Meinungsforschungsinstituts Pew haben ergeben, dass Instagram von 72 Prozent der Teenager in den USA genutzt wird; die einzige Social-Media-Plattform, die von noch mehr Teenagern genutzt wird, ist Youtube. In krassem Gegensatz dazu nutzen lediglich 37 Prozent der Erwachsenen in den USA Instagram. Die Natur sozialer Medien und die Art und Weise, wie Veranstaltungen und andere Influencer-Aktivitäten vermarktet werden, spricht natürlich Teenager an. Dieses Aha-Erlebnis erleichterte die Entscheidung, was zu tun ist, erheblich.

Ich wurde hinzugezogen, um zu beurteilen, ob ich dies für eine gute KI-Lösung halte, die sich skalieren und wiederholen lässt. Der KI-Aspekt der digitalen Kommandozentrale war großartig, aber die Elemente, in denen es um die Suche nach starken Rauchern und die Konversion von Nichtrauchern ging, waren es nicht. Ich bin davon abgerückt. Für eine solche Lösung hätte man Anteile und massive Boni mit der Big-Tobacco-Industrie aushandeln können, aber das war es mir nicht wert. Ich habe mich auf andere Lösungen konzentriert, die ebenso vielversprechend waren, aber ohne die moralischen Fragen. Einige werden vielleicht denken, ich sei selbstgerecht. Andere mögen sich fragen, warum ich nicht weiter gegangen bin und versucht habe, die KI abzuschalten. Ich möchte anmerken, dass einige Social-Media-Gruppen nicht mit Big-Tobacco-Unternehmen zusammenarbeiten werden, und die Methoden, die sie anwenden, sind unorthodox, aber nicht illegal. Und deshalb habe ich diese Geschichte erzählt. Ganz gleich, ob Sie sich als Raucher sehen, der ohnehin keinen Anstoß braucht, oder als ehrgeizige digitale Führungskraft, die ihre Fähigkeiten unter Beweis stellen will, oder als Datenwissenschaftler, der einem potenziell unethischen Kunden ausgeliefert ist: Sie müssen sich vorab überlegen, wo Ihre Grenzen liegen und wozu Sie sich überreden lassen könnten, wenn es keine Gesetze und Normen gibt, die Sie anleiten. Nach diesem Treffen habe ich viel über meine Grenzen nachgedacht.

Ich kehrte nach Hause zurück und nahm mir Zeit, über all die Dinge nachzudenken, die ich gesehen hatte, während ich von der Entwicklung einer KI-Lösung zur nächsten eilte. Ich dachte an die Hektik, mit der man versucht, eine vielversprechende KI-Lösung zu patentieren und Investitionen einzuwerben. Es erinnert mich daran, wie die Mob-Mentalität funktioniert – wenn die KI-Aktion einmal begonnen hat, ist sie nicht mehr aufzuhalten. Ein Initiator fängt an, und die Nachfolgenden beeilen sich, Befehle auszuführen, die sie normalerweise nicht einmal in Erwägung ziehen würden. Im Zusammenhang mit KI wird der Zeitrahmen im Allgemeinen durch eine Produktentwicklungsmethode diktiert, die die meisten Datenwissenschaftler und Anwendungsentwickler anwenden: Agile. Die meisten Führungskräfte, die mit der Anwendung agiler Entwicklungsmethoden in der Softwarebranche vertraut sind, erwarten eine Minimalversion eines Produkts (auch Minimal Viable Product oder kurz MVP genannt) in sechs bis acht Wochen. Leider ist die KI keine gewöhnliche Softwareentwicklung. Sechs bis acht Wochen sind nicht annähernd genug, um ein Computersystem auf die Muster und die daraus resultierenden Empfehlungen zu trainieren, die letztendlich als Aktionen in großen Unternehmenssystemen automatisiert werden könnten.

Um diese unrealistischen Fristen einzuhalten, aber dennoch ihre MVPs zu den versprochenen Terminen in die Hände derjenigen zu bekommen, die über Investitionsgelder verfügen, habe ich beobachtet, wie führende Datenwissenschaftler betteln, leihen, stehlen, Daten erfinden (gefälschte Daten erstellen) und Daten extrahieren (Data Scraping). Beim Data Scraping wird ein Computerprogramm verwendet, um auf legale Weise Informationen zu stehlen, die auf Websites enthalten sind. Diese Praxis ist so alltäglich, dass jeder Datenwissenschaftler, der jetzt liest, dass ich diese Praxis als Diebstahl bezeichne, sicherlich innerlich zusammenzuckt, da bin ich mir sicher. Stellen Sie sich vor, Sie gehen in eine Buchhandlung und kopieren alle Bücher ohne Erlaubnis oder ohne dafür zu bezahlen – einfach deswegen, weil die Bücher vor Ihnen liegen und kein Gesetz es verbietet. Das einzige Ziel von führenden Datenwissenschaftlern bestand darin, die Geldgeber für ihre KI-Initiativen zu beeindrucken, damit sie sich das Budget und die Ressourcen für deren Aufbau sichern konnten. Sie hatten es so eilig, dass sie diejenigen vergaßen, die davon betroffen sein könnten. Deshalb habe ich gesagt, dass, wenn wir, die Menschheit, jemals gegen die KI verlieren sollten, dies auf einen Schlag geschehen wird, weil wir uns beeilt haben, Dinge zu entwickeln, die uns sabotieren oder töten könnten. Wir mussten es einfach vor der nächsten Gruppe entwickeln – aus Wettbewerbsgründen. Schließlich werden Ihnen die Entwickler von KI sagen, dass, wenn sie es nicht gebaut haben, es jemand anderes getan hat. (Das war schon immer eine stimmige Logik.)

Ich habe Unternehmen zugehört, die KI nutzen, um Ihren Standort zu tracken – nicht nur, während Sie in ihrem Geschäft waren, sondern auch, nachdem Sie es verlassen haben und zum nächsten gegangen sind. Sobald die Ortungsbake Ihres Smartphones in das geografisch abgegrenzte Gebiet eines konkurrierenden Geschäfts eindringt, erhalten Sie einen mobilen Coupon auf dem Bildschirm Ihres Telefons, der Sie in das andere Geschäft zurücklocken soll. Sie würden nie erfahren, dass Ihre Privatsphäre verletzt wird, um ein anderes Produkt zu verkaufen.

Ich beobachtete, wie die intelligente Automatisierung zunahm und damit auch das Potenzial für Entlassungen. Automatisierungsexperten würden Sie dazu bringen, jede Aufgabe in Ihrem Job zu dokumentieren, wie Sie sie erledigt haben, welche Systeme Sie verwendet haben und welche Entscheidungen Sie getroffen haben, damit sie eine Maschine programmieren können, die Ihre Arbeit erledigt – und das viel schneller, als Sie es jemals könnten. Sie würden nie erfahren, warum Sie gefeuert wurden oder dass Sie Ihren eigenen Nachfolger ausgebildet haben.

Ich musste schlucken, als mir Kollegen von Versicherungsunternehmen erzählten, die Expertensysteme suchten, die über den Ausgang der wichtigsten Momente im Leben eines Menschen entscheiden könnten – etwa über den Anspruch auf eine Krankenversicherung oder eine Berufsunfähigkeitsversicherung. Und obwohl sie wollten, dass sich das System wie ihre besten Versicherungsmathematiker verhält, würden sie nur die Dienste eines Junior-Praktikanten finanzieren, um das System zu schulen. Sie würden nie erfahren, dass ein lebensverändernder Versicherungsanspruch von einer Maschine abgelehnt wurde, und das nur, weil diese Maschine ein nicht fachkundiges Training erhalten hat.

Wir haben alle schon von den schlimmsten Fällen gehört, in denen der Einsatz von KI schrecklich schiefgeht oder für ruchlose Zwecke verwendet wird. Der vielleicht berüchtigtste Skandal der jüngeren Vergangenheit ist der Facebook-Cambridge-Analytica-Skandal von 2016, bei dem Millionen von Facebook-Nutzern in den Swing States unwissentlich von einem KI-Algorithmus als politisch „beeinflussbar“ eingestuft wurden. Ihre persönlichen Informationen wurden ohne ihr Wissen über einen Datenbroker – Cambridge Analytica – an die Trump-Kampagne verkauft, und dann wurde diese von der KI identifizierte Gruppe in ihren Facebook-Feeds mit Anzeigen, Memes und „Nachrichten“ bombardiert, die den gegnerischen Kandidaten in einem negativen Licht darstellen. Oder vielleicht haben Sie davon gehört, dass die US-Supermarktkette Target Frauen einen „Schwangerschaftsvorhersagewert“ zugewiesen hat, der auf Daten aus ihrem Einkaufsverhalten basiert. Wenn der Algorithmus eine Frau als schwanger einstufte, schickte das Unternehmen ihr Gutscheine zum Thema Baby. Dies führte zu einem bekannten Fall, in dem der Vater eines 16-jährigen Mädchens Target aus diesem Grund wütend zur Rede stellte – nur um dann von der Tochter selbst zu erfahren, dass es stimmte.

Da KI immer intelligenter und leistungsfähiger wird, kann sie zu noch größeren Problemen führen, wenn Menschen versuchen, Algorithmen, die für einen bestimmten Zweck entwickelt wurden (zum Beispiel für die Modellierung finanzieller Risiken), für einen anderen Zweck zu nutzen (zum Beispiel für die Priorisierung von Pflegeleistungen). Im vergangenen Herbst ergab eine Studie in einem großen Lehrkrankenhaus, dass der Algorithmus, der zur Festlegung der Versorgungspriorität verwendet wurde, erhebliche rassistische Verzerrungen enthielt. Der Algorithmus kam zu dem Schluss, dass schwarze Patienten nur 18 Prozent der Hochrisikogruppe des Krankenhauses ausmachten, obwohl die tatsächliche Zahl bei 47 Prozent lag. Infolgedessen wurde weißen Patienten der Zugang zur Gesundheitsversorgung vor schwarzen Patienten gewährt, die weitaus weniger gesund waren und deren Bedarf an medizinischer Versorgung dringender war. Was ist schiefgelaufen? In diesem Fall wurde der Algorithmus auf finanzielle Risiken trainiert. Was in den Nachrichten nicht berichtet wurde – was ich aber durch Befragungen herausfand –, war, dass das Krankenhaus einen Algorithmus zur Modellierung seiner finanziellen Risikoszenarien verwendete und beschloss, das lukrativste finanzielle Szenario Wirklichkeit werden zu lassen. Da weiße Patienten mehr für die Gesundheitsversorgung ausgaben, wurden sie vom Algorithmus als vorrangig zu behandelnde Patienten eingestuft.

Oder wie wäre es mit einer Verwechslung? Ein Mann in Michigan wurde vor den Augen seiner Frau und seiner beiden kleinen Töchter für ein Verbrechen verhaftet, das er nicht begangen hat. Grund dafür war eine Gesichtserkennungstechnologie, die ihn falsch identifizierte. KI-basierte Gesichtserkennungstechnologien werden weitgehend mit Bildern von Menschen mit heller Haut im Gegensatz zu dunkler Haut trainiert; daher können sie die Merkmale einer schwarzen Person nicht ohne Weiteres von denen einer anderen unterscheiden, wie die berühmte Gender-Shades-Studie von Joy Buolamwini vom MIT zeigt.

Und im Vereinigten Königreich wurde die Welt Zeuge des ersten Massenprotests gegen einen Algorithmus, als Studienbewerber vor dem Bildungsministerium des Landes skandierten: „Fuck the algorithm!“ Schülerinnen und Schüler, die aufgrund von Covid-19 nicht an den Abschlussprüfungen teilnehmen konnten, wurden stattdessen von einem Algorithmus benotet, dessen Daten auf den früheren Schulleistungen beruhten. Etwa 40 Prozent der Schüler erhielten schlechtere Noten als von ihren Lehrern prognostiziert, was ihre Aufnahme an der Hochschule ihrer Wahl gefährdete.

Trotz bekannter Misserfolge wie diesen möchte ich klarstellen: Künstliche Intelligenz hat uns einige unglaubliche Vorteile gebracht, und ich glaube, dass sie erstaunlich sein wird – sobald wir ihr vertrauen können.

Aber KI ist im Moment wie der Wilde Westen, und gerade jetzt ist es am gefährlichsten. Dies ist ein sich schnell entwickelnder, hoch experimenteller Bereich, in dem es nur wenig Transparenz oder Aufsicht und nur wenige Normen, Richtlinien oder Gesetze gibt, die Ihre Rechte, Ihre Privatsphäre und Ihre Arbeitsplätze schützen. Das Fehlen von Vorschriften, gepaart mit mangelndem Wissen des Durchschnittsbürgers über die Funktionsweise von KI und deren Auswirkungen auf seinen Alltag, führt zu einer unglaublich riskanten Situation. Wenn Sie kein Insider sind und nicht aus erster Hand erfahren haben, wie KI eingesetzt wird, können Sie nicht wissen, was schiefgehen könnte. Sie werden nur den Druck der unverantwortlichen KI um Sie herum spüren. Vielleicht wird Ihr Haus durch einen ungeprüften Hypothekenalgorithmus zwangsversteigert, oder ein Polizeibeamter taucht auf, um Sie oder einen nahestehenden Menschen auf Empfehlung einer fehlerhaften Gesichtserkennung zu verhaften, oder Ihr Bankkonto wird eingefroren, nachdem der unvorsichtige Umgang eines KI-Unternehmens mit Daten zum Diebstahl Ihrer Identität geführt hat.

Vielleicht haben Sie schon einige der Anzeichen bemerkt, wussten aber nicht, warum diese Dinge geschehen. Sie haben Ihrer Familie zum Beispiel eine E-Mail über Ihre Fehlgeburt geschickt und sehen nun in Ihren Pinterest- und Amazon-Feeds Werbung für Trostkarten, Schmuck und Bücher. Das ist die KI, die digitale Werbung auf Sie zuschneidet. Vielleicht ist Ihnen auch aufgefallen, dass es immer schwieriger wird, einen Job zu finden (das Ergebnis einer künstlichen Intelligenz, die Ihre Persönlichkeit auf der Grundlage Ihrer Äußerungen in den sozialen Medien überprüft), oder dass Ihre Kinder scheinbar endlos süchtig nach Youtube sind. Dies ist dank der KI-Empfehlungsmaschinen möglich, die ein Video nach dem anderen vorschlagen. Oder vielleicht ist Ihr Facebook-Feed von ideologischen Gruppen übernommen worden, die hasserfülltes Zeug verbreiten, das Ihnen ehrlich gesagt völlig egal ist. Oder vielleicht haben Sie eines dieser genetischen Abstammungs-Kits genutzt, nur um hinterher festzustellen, dass Ihnen „zufällig“ eine Lebens- oder Berufsunfähigkeitsversicherung verweigert wurde.

Vorfälle wie diese sind alle auf den unethischen oder unverantwortlichen Einsatz von KI zurückzuführen und werden mit zunehmender Intelligenz und Reichweite der KI nur noch häufiger auftreten. Bis Regulierungsbehörden und Pädagogen den Anschluss gefunden haben und die Wildwest-Phase der KI unter Kontrolle ist, müssen Sie sich selbst darüber informieren, was wirklich mit KI geschieht, und sich das Wissen aneignen, das Sie brauchen, um sich und Ihre Lieben zu schützen. Sie können nicht davon ausgehen, dass alle KI unfehlbar, vertraulich und sicher ist und dass ihre Schöpfer Ihre Interessen im Auge haben. Das ist nicht der Fall, und nicht alle tun es. Gehen Sie auch nicht davon aus, dass die Daten vertrauenswürdig sein müssen, nur weil sie überall zu finden sind – in unseren Smartphones und Uhren, in unseren Wohnungen, Autos, Computern und sozialen Netzwerken.

Gehen Sie aber auch nicht davon aus, dass KI zu komplex ist, um sie zu verstehen. Das ist sie nicht! Deswegen habe ich dieses Buch geschrieben. Mein Ziel ist es, Ihnen zu zeigen, wozu KI in der Lage ist, wo die größten Gefahren lauern und wie Sie sich schützen können, bis bessere Gesetze und soziale Normen in Kraft sind.

Das Buch basiert auf den häufigsten Fragen, die mir die Menschen, die mich täglich umgeben, zum Thema KI stellen. Ich habe Fragen von Geschäftspartnern, Lehrern, Ärzten, Kirchgängern, Mitfahrern und Taxifahrern, Familienmitgliedern und sogar von Leuten zusammengestellt, mit denen ich in der Schlange vor Postämtern, Starbucks, Walmart und Kohl’s gesprochen habe. Das sind keine KI-Forscher, sondern ganz normale Menschen, die neugierig auf KI und ihre Möglichkeiten sind und wissen wollen, worauf sie achten müssen. Ich werde diese Fragen in normaler Sprache ohne Fachjargon beantworten.

In den ersten beiden Kapiteln lernen Sie die Grundlagen der KI kennen: was sie ist, wie sie funktioniert, in welchen alltäglichen Dingen sie zum Einsatz kommt, die Vor- und Nachteile dieser Systeme und was Realität und was Hype ist, wenn es um KI geht. Dies wird Ihnen helfen, ein grundlegendes Verständnis für die folgenden Kapitel zu erlangen. In diesen Kapiteln erfahren Sie, auf welche Weise Sie in Ihrem Alltag direkt von KI betroffen sein könnten. Wir werden die wichtigsten Themen behandeln, die den meisten Menschen wichtig sind, wie zum Beispiel: wie sich KI auf Ihre Fähigkeit auswirken könnte, einen Job zu bekommen und zu behalten; wie böse Akteure KI nutzen könnten, um Sie zu hacken; was KI über Sie weiß und warum das wichtig ist (selbst wenn Sie denken, dass Sie „nichts zu verbergen“ haben); wie Sie von KI manipuliert werden könnten, ohne es zu wissen; wie Sie Fehlinformationen, Deepfakes und Fake News erkennen und eindämmen können; die vielen Rollen, die KI im Gesundheitswesen spielt, und was Sie tun können, um sich für die beste Versorgung einzusetzen; und wie KI Ihre Rechte und Freiheiten einschränken könnte. Dabei gebe ich Ihnen konkrete Tipps und praktische Schritte zum Schutz Ihrer Privatsphäre, Ihrer Rechte und Ihrer persönlichen Daten – ohne technisches Fachwissen.

Was Sie nicht über KI wissen, kann Ihnen wirklich schaden. Aber nicht mit mir!

1

Was ist künstliche Intelligenz und wie funktioniert sie?

Ein Jahr in Künstliche-Intelligenz-Forschung reicht aus, um an Gott zu glauben. – Alan Perlis

WAS IST KI?

Bevor wir darüber sprechen, was KI ist, sollten wir darüber sprechen, was sie nicht ist, damit wir vorgefasste Meinungen hinter uns lassen können. Schließen Sie die Augen und stellen Sie sich vor, wie KI aussieht. Was war das Erste, was Ihnen in den Sinn kam? War es ein Roboter oder ein Androide? War es eine auf Hollywood basierende Version der KI – vielleicht HAL aus dem Film 2001: Odyssee im Weltraum oder der Terminator oder Ava aus Ex Machina? Das sind alles sehr fortschrittliche Vorstellungen von KI. Wenn Sie diese Kriterien als Grundlage für die heutige KI verwenden, sollten wir einen Reset machen, damit Sie sich die tatsächlichen Möglichkeiten der KI, wie sie heute bestehen, vergegenwärtigen können.

KI sind menschenähnliche Intelligenzsysteme. Roboter und Androiden sind etwas anderes als KI – obwohl KI-Systeme durchaus in sie eingebettet werden können, um sie intelligent zu machen. KI kann überall dort existieren, wo es genügend Rechenleistung für ihren Code gibt (zum Beispiel Smartphones, Computer, Autos). Das Ziel jedes künstlich intelligenten Systems ist es, Analysen durchzuführen und Entscheidungen zu treffen, die mindestens so gut oder exponentiell besser sind als die des Menschen.

DREI ARTEN VON KI-SYSTEMEN

Der unterschiedliche Grad der Leistungsfähigkeit von KI im Vergleich zur allgemeinen menschlichen Intelligenz bestimmt, welche der drei KI-Typen eine KI ist.

Artificial Narrow Intelligence (ANI) – schwache KI

Der allgemeinen Intelligenz des Menschen unterlegen

Die heutigen KI-Systeme sind alle „schwache KI“. Diese KI ist wirklich langweilig. Sie hat weder einen glatten Androiden-Körper, wie man ihn sich in Filmen vorstellt, noch plant ein böses Superhirn die Übernahme der Welt. Bei dieser KI handelt es sich um Codebits, die überall dort eingebettet werden können, wo genügend Rechenleistung vorhanden ist (zum Beispiel in Autos, Computern, Flugzeugen, Traktoren, Kühlschränken und Smartphones). Sie konzentriert sich auf bestimmte Aufgaben mit bestimmten Zielen; sie ist noch kein echtes Multitasking-Talent wie wir Menschen. Es gibt derzeit keine KI-Systeme, die Sie sicher zur Arbeit fahren, sich um Ihre Kinder kümmern und ein Unternehmen führen können. Sie können eine dieser Aufgaben übernehmen, aber nicht alle drei. Diese Art von KI würde uns zwar nicht im Bereich der allgemeinen Intelligenz übertreffen, aber sie könnte viele Aufgaben in einem Beruf wie zum Beispiel der Buchhaltung meistern und mit der Automatisierung von Prozessen durch Roboter kombiniert werden, um unsere Arbeitsplätze in diesem Bereich zu übernehmen. Sie kann auch viel mehr Daten und Informationen für eine bestimmte Aufgabe verarbeiten als Menschen, was ihr das verleiht, was ich als „Taschenrechner-Intelligenz“ bezeichne. Man würde einem Taschenrechner nicht zugestehen, dass er mehr weiß als wir, nur weil er große Zahlen schneller berechnen kann.

Angesichts der Tatsache, dass die besten Roboter von heute nicht in der Lage sind, ein rudimentäres Fußballspiel zu spielen oder ohne Führung durch einen Raum zu schlendern, ohne umzufallen oder gegen Dinge zu stoßen, ist es unwahrscheinlich, dass wir diese KI einsetzen werden, um in absehbarer Zeit einen Terminator oder einen realistischen Androiden zu schaffen. Die heutigen Roboter lernen und reagieren nicht von selbst, sondern sind im Grunde ausgeklügelte ferngesteuerte Marionetten – sogar der berühmte Roboter Sophia. (Suchen Sie im Internet nach „Sophia, der Roboter“ und Sie werden sehen, was ich meine.) Jedes Beispiel von KI, das Sie in Kapitel 2 sehen werden, ist schwache KI.

Artificial General Intelligence (AGI) – starke KI

Entspricht der allgemeinen Intelligenz des Menschen

Das ist die Art von KI, an die die meisten Menschen denken, wenn sie gefragt werden, was KI ist. Außerdem wird sie in der Regel in einer Art Androidenform vorgestellt. Diese Art von KI wäre in der Lage, unsere intellektuellen Fähigkeiten im Großen und Ganzen zu erreichen. Wenn ich das KI-System in einem Roboter mit Beinen ausstatte und ihn bitten würde, zu laufen, würde er von selbst laufen lernen, ähnlich wie Kleinkinder lernen. Die KI würde auf das Trial-and-Error-Prinzip zurückgreifen und dann das eigene Lernen überarbeiten. Der Mensch lernt sowohl durch Beobachtung als auch durch Wissen, das ihm angeboren zu sein scheint – instinktiv, wenn man so will. Wenn wir eine heiße Herdplatte berühren, lernen wir, sie nicht wieder zu berühren, weil es wehtut. Ein Roboter oder eine KI wird keine fünf voll funktionsfähigen Sinne haben, zumindest nicht in unmittelbarer Zukunft. Benötigt sie unsere fünf Sinne, um menschenähnliche Reaktionen zu zeigen? Sollte man ihr zum Beispiel Gefühle wie Schmerz und Leid simulieren, damit sie mit den Menschen mitfühlen und wie sie lernen kann? Oder sollten wir die Stärke der KI in der Robotik nutzen und sie nicht anfällig für unsere Schmerzen machen? Wäre sie dann noch lernfähig? Ein Grund, warum wir beim Autofahren vorsichtig sind, ist, dass wir niemandem schaden oder bei einem Unfall verletzt werden wollen. Wir haben Emotionen wie Empathie für andere und Angst vor Verletzungen, die unser Verhalten beim Fahren einschränken, damit wir nicht rücksichtslos fahren. Aber wie können wir ein KI-System so einschränken, dass es mit unseren gesellschaftlichen Normen übereinstimmt?

Dank der Arbeiten von Philosophen wie John Searle und David Chalmers ist viel darüber diskutiert worden, ob wir Bewusstsein und Intentionalität in Computersystemen simulieren können. Ein spezifisches Argument zu diesem Thema ist das Gedankenexperiment, das als Chinesisches Zimmer bekannt ist. Der Grundgedanke ist, dass ein KI-System so programmiert werden kann, dass es chinesische Schriftzeichen lesen und sogar auf Chinesisch antworten kann, und zwar so überzeugend, dass eine Chinesisch sprechende Person glaubt, sie unterhält sich mit einem anderen Chinesen. Das bedeutet aber nicht, dass das Computersystem das, was es der Person gesagt hat, genauso gut versteht wie ein Mensch, der Anweisungen zur Beantwortung von Fragen auf Chinesisch erhält. Die KI wird einfach das tun, wofür sie trainiert wurde.

Der Google-CEO überraschte 2018 die Welt, als er einen neuen, erstaunlich menschlich klingenden KI-Sprachassistenten namens Duplex vorstellte.1 Er wurde entwickelt, um Termine für seine Benutzer zu buchen. So kann er Restaurants anrufen, einen Angestellten um eine Reservierung bitten und dann auf alle Fragen des Angestellten antworten. Er macht Sprechpausen und sagt sogar „ähm“ wie ein menschlicher Sprecher. Er ist so realistisch, dass Technikethiker sich zu Wort meldeten und forderten, dass Google sein Duplex-System von vornherein als KI ausweist, wenn es eine Person anruft. Aber nur weil KI-Systeme oberflächliche Gespräche oder sogar unsere Verhaltensweisen nachahmen können, bedeutet das, dass das KI-System so intelligent ist wie ein Mensch? Wir würden einen Menschen nicht für intelligent halten, wenn er nur Fragen zum Wetter beantworten oder Restaurantreservierungen vornehmen könnte. Warum also sollten wir zulassen, dass eine Maschine dafür als intelligent gilt? Ganz zu schweigen davon, dass Maschinen keine anderen Komponenten der Intelligenz wie Persönlichkeit, Absicht oder Emotionen haben.

Artificial Super Intelligence (ASI) – Superintelligenz

Der allgemeinen Intelligenz des Menschen überlegen

Ich habe bei einer Google-Präsentation eine Folie gesehen, auf der der Vortragende beiläufig erwähnte, dass Algorithmen des maschinellen Lernens bessere Datenarchitekturen erstellen als Menschen. Ich werde nicht lügen: Es hat mich beunruhigt. Warum? Die Datenarchitektur ist so etwas wie die Strategie, wie KI-Systeme ihre Daten erhalten. Wenn sie diese einrichten kann, könnte sie dann auch alle Arten von Kill-Switch-Programmen umgehen, die wir für sie einrichten könnten? Die Frage, die beantwortet werden muss, um das zu wissen, lautet: Könnte die KI sich selbst Ziele setzen? Werden ihre Ziele immer nur von menschlichen Programmierern kommen? Experten, die dies nicht für möglich halten, glauben auch nicht, dass Superintelligenz möglich ist. Aber einige Experten halten es für möglich. Ein Experte, Nick Bostrom, hat ein ganzes Buch mit dem Titel „Superintelligenz“ geschrieben, das sich mit diesem Thema beschäftigt. Ich kann mich wirklich nicht entscheiden, was ich glauben soll, bis ich Beweise für eine KI sehe, die sich entweder 1) absichtlich über die Ziele hinwegsetzt, die ihr von ihren menschlichen Programmierern vorgegeben wurden, oder 2) zeigt, dass sie sich selbst Ziele setzen kann. Ich glaube, dass KI unsere allgemeine Intelligenz übertreffen könnte – aber erst in einigen Jahrzehnten, und selbst dann müsste diese KI wissen, wie sie uns Menschen davon abhalten kann, ihren Strom abzuschalten oder ihren Code zu verschlüsseln.

WAS BEDEUTET ES, EINE MENSCHENÄHNLICHE INTELLIGENZ ZU BESITZEN?

Es gibt Menschen, die, so könnte man argumentieren, wie Computer denken und handeln. Es gibt Menschen, die sind Genies in Bereichen wie Mathematik und Wissenschaft, aber nicht klug in zwischenmenschlichen Beziehungen und Geschäftsstrategien und umgekehrt. Die Bestimmung der Intelligenz ist höchst subjektiv. Manchmal ist es etwas schwierig zu entscheiden, was menschenähnliche Intelligenz ist. Behalten Sie dies im Hinterkopf, wenn wir später eine Übung zur Definition von „menschenähnlichem“ Denken durchführen.

Um menschenähnliche Intelligenz zu entwickeln, muss KI verstehen, denken, lernen, interagieren und handeln wie ein Mensch. Das ist eine große Herausforderung. So groß, dass viele KI-Experten KI als irgendein System bezeichnen, das nur eines dieser Dinge kann, aber nicht alle. Sie werden vielleicht denken: Hey, ich kenne keine Systeme, die das wirklich können. Ich kann keine vollständige Unterhaltung mit Siri oder Alexa führen. Ich kann ihnen keine tiefgründigen und bedeutsamen Fragen stellen, auf die sie bedeutsame Antworten geben könnten. Sie haben recht. Ich kann fragen, wie das Wetter ist, und sie werden es mir sagen. Aber sie gehen in der Regel nicht über die Antwort auf genau die Frage hinaus, die ich gestellt habe. Sie fragen nicht, warum ich mich über das Wetter in Colorado informiere, obwohl ich in Texas lebe. Sie denken nicht daran, dass ich vielleicht eine Reise plane und mich über die Campingbedingungen in den Rocky Mountains informieren möchte. Sie verstehen meine Absichten nicht anhand meiner Körpersprache oder der Tatsache, dass ich ein T-Shirt trage, auf dem „I love the Rockies“ steht. Es mag zwar Systeme geben, die einige dieser Anforderungen erfüllen, aber sie sind nicht in einem einzigen Paket zusammengefasst und funktionieren ganzheitlich … noch nicht. Wenn das der Fall wäre, würden Pedro Domingos und die KI-Forscher, die an der Entwicklung des „Master-Algorithmus“ arbeiten, mit einer großen Flasche Champagner feiern.

Wenn diese KI-Systeme menschenähnlich sein sollen und wenn man bedenkt, dass nonverbale Hinweise den Großteil der Kommunikation ausmachen, müssten wir dann ein Gesicht, eine Mimik und eine Körperhaltung sehen, um den richtigen Ton und die richtigen Botschaften zu vermitteln? Müsste eine KI tatsächlich einen menschlichen Körper und ein menschliches Gesicht haben, um die Anforderungen wirklich zu erfüllen? Es gibt zwar Gruppen wie Soul Machines in Neuseeland, die sich mit solchen Dingen beschäftigen, aber sie sind heute noch nicht allgegenwärtig.

WARUM KI SO VERWIRREND SEIN KANN

Im Zuge der Entwicklung von KI werden alle möglichen Begriffe verwendet. Und wir alle haben Vorurteile gegenüber KI. Manchmal sind uns diese bewusst, manchmal nicht. Manche Leute reden zum Beispiel von Robotern, als wären sie allein die KI. Manchmal definieren Forscher und KI-Entwickler KI nur als den Algorithmus des maschinellen Lernens, weil dieser der eigentliche Motor der KI ist. Ich ertappe mich dabei, dass ich das ständig tue. Aber in Wirklichkeit ist KI ein Bündel von Technologien und Datenquellen. Es ist ein bisschen so, als würde man über eine Person sagen, dass ihre Augen oder ihre Beine menschlich sind. Das ist wahr. Sie gehören zum Menschen als Teile, die ein Ganzes ermöglichen, aber sie sind für sich genommen kein ganzer Mensch. Für viele ist das verwirrend. Denn wie weit gehen wir mit dieser Beschreibung, um „menschenähnliche Intelligenz“ zu haben, oder geht es nur darum, menschenähnliche Intelligenz an den Tag zu legen? Ist es nur Intelligenz, und wenn ja, welche Komponenten unserer Intelligenz müssen ihr entsprechen? Muss sie gleichwertig mit unserer gesamten Intelligenz sein? Gibt es in diesem Fall Aspekte unserer Intelligenz, die wir als Kriterien für menschenähnliche Intelligenz festlegen sollten, wie zum Beispiel emotionale Intelligenz, Schlussfolgerungen, Absicht, Ehrgeiz, Logik und die Fähigkeit, Fragen zu beantworten?

Ist der Turing-Test noch gut genug? Er wurde 1950 entwickelt, um herauszufinden, ob ein Computer Fragen so gut beantworten kann, dass er mit einem Menschen verwechselt werden kann. Hätte die KI heute nicht einen unfairen Vorteil? Könnte sie nicht einfach alles, was sie direkt gefragt wird, im Internet nachschlagen? Würden wir das als ausreichend betrachten, um die Definition von KI zu erfüllen? Ist das nicht im Grunde das, was Siri oder Alexa heute auch können? Das ist es, was die Suchmaschine von Google tut. Ist Google eine vollwertige KI? Die Wissenschaftler von Google haben auf dem Gebiet der KI zweifellos Pionierarbeit geleistet. Aber bedeutet das, dass eine Suchmaschine wirklich KI ist? Ist es eine ganze KI oder nur ein Teil davon? Oder würden wir sagen, dass es sich nicht wirklich um KI handelt, weil Google nicht in der Lage ist, mit uns zu diskutieren und klärende Fragen zu stellen, um die bestmöglichen Antworten auf der Grundlage unserer Absichten zu geben? Stellen Menschen nur oberflächliche, eindimensionale Fragen? Nicht oft. Wie menschenähnlich muss eine KI also sein, damit sie alle unsere bestehenden Annahmen über KI erfüllt?

Testen wir unsere Theorie über die Google-Suchmaschine anhand der soeben definierten Kriterien: Verstehen, Lernen, Denken, Interagieren und Handeln.

KI-Test der Google-Suchmaschine

KRITERIEN FÜR KI

Versteht wieein Mensch

Ich kann mit ihr sprechen, und sie kann erkennen, was ich sage, solange sie meine Syntax versteht. Was ich meine, ist, dass sie mir möglicherweise keine Antwort geben kann, wenn ich ein Thema jenseits derer aufgreife, für die sie ausgebildet wurde. Wenn ich sie zum Beispiel etwas in juristischem Fachjargon frage, kann sie möglicherweise keine sinnvolle Antwort geben, weil sie nicht auf juristische Begriffe trainiert wurde. Man könnte aber auch argumentieren, dass dies auch bei Menschen der Fall ist. Menschen, die kein Jura studiert haben, verstehen vielleicht den juristischen Fachjargon auch nicht.

Begründet wie ein Mensch

Wenn ich die Google-Suche beauftrage, mir bei der Suche nach Möglichkeiten zur Kostensenkung zu helfen, wäre sie dann in der Lage, mir eine Reihe von klärenden Fragen zu stellen? Würde sie von Natur aus verstehen, dass es nicht in Ordnung ist, Geld auf eine Weise zu sparen, die die Gesundheit oder das Leben von Menschen gefährden könnte? Oder alles zu tun, was gegen gesellschaftliche Normen verstößt, um Kosten zu sparen? Ich denke, dass sie hier versagt. Andererseits kann man aber auch argumentieren, dass einige Menschen oder andere juristische Personen wie Unternehmen dies ebenfalls tun.

Lernt wie ein Mensch

Lernt die Suchmaschine von Google wie ein Mensch? Nein. Aber es wurde viel getan, um der KI hier zu helfen. Der Teil unserer Erfahrung, der für die KI unerklärlich ist, beruht jedoch oft auf unseren Sinnen und Gefühlen. Wir berühren etwas, das heiß ist, und das tut weh, also tun wir das nicht noch einmal. Dann lernen wir all die Dinge, die heiß sind, und assoziieren den gleichen Schmerz mit diesen Gegenständen. Wissenschaftler würden sagen, dass es hier um Belohnung und Bestrafung geht. Aber oft kennen wir uns selbst nicht gut genug, um eine KI mit Belohnungen oder Bestrafungen auszustatten.

Interagiert wie ein Mensch

Interagiert die Suchmaschine von Google wie ein Mensch? Nein. Technisch gesehen gibt es Chatbots, die auf Fragen in einem Online-Chat-Format antworten können. Sie können sogar mit Ihnen sprechen, aber die meisten haben eine sehr roboterhaft klingende Stimme. Sie haben normalerweise kein Gesicht mit ausdrucksstarken Emotionen. Sie verwenden in der Regel keinen Tonfall und keine Wortwahl wie Slang oder Humor als Teil ihrer Kommunikation. Sie regen sich nicht auf oder machen Pausen, um ihren Standpunkt zu verdeutlichen. Sie können unsere Hand nicht berühren, uns nicht umarmen und keine nonverbalen Hinweise geben, damit wir uns besser fühlen, wenn wir ihnen etwas Traumatisches erzählen. Sie können nicht wie ein Mensch lachen, wenn wir ihnen einen Witz erzählen.

Verhält sich wie ein Mensch

Nehmen wir an, ich flüstere Google Search zu, dass ein Einbrecher in meinem Haus ist. Was würde Google Search tun? Was würde ich von der Google-Suche erwarten, wenn sie von einem Menschen durchgeführt würde, im Gegensatz zu dem, was ich von einem Computersystem erwarte? Was würde ein Mensch tun? Ein Mensch, der das am Telefon hört, würde wahrscheinlich innehalten, auf meinen Tonfall hören, um festzustellen, ob ich scherze oder es ernst meine, und die Polizei anrufen und sie zu mir nach Hause schicken. Würde Google Search das tun? Wahrscheinlich nicht, denn dies würde Schlussfolgerungen und Ableitungen erfordern, im Gegensatz zu einer Befehlssprache wie „Wähle den Notruf“. Die Google-Suche an sich kann derzeit keinen Notruf absetzen, da dies nicht ihr Zweck ist. Sie kann nicht wie ein Mensch Multitasking betreiben, da die meisten KI nur für einen einzigen Zweck entwickelt wurden.

Sollte die Suchmaschine von Google auf der Grundlage aller oben genannten Kriterien als KI betrachtet werden? Nein. Enthält sie Elemente von KI? Ja. Wenn sie einige Elemente enthält, aber nicht alle, ist sie dann noch KI? Ich würde sagen ja. Und genau das ist es, was die Dinge verwirrend macht. Ich würde sagen, dass die Google-Suche eine „schwache KI“ ist im Gegensatz zu einer „starken künstlichen Intelligenz“, von der die meisten von uns denken, dass sie in der Lage ist, eine breite menschliche Intelligenz an den Tag zu legen.

WIE „VERSTEHT“ KI?

Die Fähigkeit einer KI, „Verständnis“ zu simulieren, hängt von den Daten ab, die sie aufnimmt, davon, wie sie diese Daten erhält, und vom Zweck der KI. Für einige Anwendungen der KI braucht sie die fünf Sinne des Menschen, um zu „verstehen“.