Alles über Künstliche Intelligenz - Andreas Dripke - E-Book

Alles über Künstliche Intelligenz E-Book

Andreas Dripke

0,0

Beschreibung

Künstliche Intelligenz (KI) kann die Menschheit ins Paradies führen oder vernichten. So lassen sich die beiden Pole beschreiben, mit denen über eine der wichtigsten Entwicklungen unserer Zeit heftig gestritten wird. Dieses Buch vermittelt auf über 200 Seiten alles, was man über Künstliche Intelligenz wissen muss, um mitreden zu können. Leicht verständliche Beschreibung der Grundlagen. Alle gängigen Begriffe werden deutlich erklärt. Die wichtigsten Einsatzgebiete und Branchen. KI als Produktivitätsfaktor und Jobkiller. Was kann KI heute schon leisten - und was (noch) nicht. Welche Fortschritte in den nächsten Jahren zu erwarten sind. Wie KI der Menschheit hilft und sie gleichzeitig in Gefahr bringt. Digitale Ethik: Was Künstliche Intelligenz (nicht) darf. Stand der Forschung und Anwendung in Deutschland und Europa. "Das einzige Buch, das man lesen muss, um alles über Künstliche Intelligenz zu wissen." (Presse)

Sie lesen das E-Book in den Legimi-Apps auf:

Android
iOS
von Legimi
zertifizierten E-Readern
Kindle™-E-Readern
(für ausgewählte Pakete)

Seitenzahl: 194

Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:

Android
iOS
Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



Inhalt

Vorwort

Die Idee der menschlichen Maschine

Vom Homunkulus bis zum Faust

Automaten und Androide

Vom Denken zum Computer

Kybernetik – alles wird geregelt

Parallele Computerwelt

Das Gehirn wird nachgebaut

Quantenphysik verändert die Welt

Geburt und Entwicklung

Die KI wurde 1955 in Hanover geboren

Von starker und schwacher KI

KI ist interdisziplinäre Forschung

Boolesche Algebra: Null und Eins

Vom Algorithmus zur KI

Software und Künstliche Intelligenz

Neuronale Netze und Deep Learning

Dem Menschen ebenbürtige Intelligenz

Legendäres Telefonat 2018

Von Turing bis Captcha

Intelligente Roboter – ein Menschheitstraum

Genetische Algorithmen und Kreativität

KI im Speziellen und im Allgemeinen

Treffen sich zwei KI-Algorithmen

Beschleunigte Evolution

Ethik für Künstliche Intelligenz

Wir überschätzen uns

Singularität kommt

Gehirn im Emulator

Generelle und Superintelligenz

Intelligente Ziele

Rationales Risikomanagement

Bewusstsein, das unbekannte Wesen

KI spaltet die Geister

2050 geht die Welt unter

KI verbreitet sich über das Internet

Als das Internet geboren wurde

Scheitern und Alltag

Spielerische Fortschritte

KI wichtiger als Smartphone

KI-Chips

KI der Konzerne

Das Internet gehört uns allen – KI auch

Wer im Internet was zu sagen hat

Das Internet der Dinge umschlingt uns

IoT betrifft uns alle

Die Cloud –– das digitale Nervensystem

Kampf um die Daten

China vs. USA

China marschiert nach vorne

Social Scoring

Ein Leben in der Smart City

KI im Alltag

KI in der Industrie

Welche Branchen sind in welchem Umfang betroffen

Vom Verkehrs- zum Gesundheitswesen

KI-Medizin

Suizgefährdete Häftlinge

Chatbots und „Mann im Ohr“

IoT und KI für neue Geschäftsmodelle

Maschinensprache auf dem Vormarsch

Texte verstehen

Social Media Mining

Big Nudging – die große Manipulation

Jobkiller KI

Kinder und KI

Antworten auf die Fragen der nächsten Dekaden

KI in Deutschland und Europa

KI-Allianz Europa

Deutschlands Fahrplan in die digitale Welt

Künstliche Intelligenz kommt nach Deutschland

Enquete-Kommission Künstliche Intelligenz

Gesetze für autonomes Fahren

Abhängigkeit von kritischen Infrastrukturen

Eine neue Menschheit

Unsere digitale Zukunft

Kampf um das Primat der Politik

Von Arbeitsplätzen und Populisten

Welche Krise?

Weltenwechsel

Science Fiction wird Realität

Die Welt in 100 Jahren

Die Ethik der digitalen Revolution

Die Robotergesetze für die 2020er

Über die Autoren

Andreas Dripke

Dr. Horst Walther

Bücher im DC Verlag

Über das Diplomatic Council

Quellenangaben und Anmerkungen

Vorwort

Künstliche Intelligenz kann die Menschheit ins Paradies führen oder vernichten. So lassen sich die beiden Pole beschreiben, mit denen über eine der wichtigsten Entwicklungen unserer Zeit heftig gestritten wird.

Eine genaue Definition, was Künstliche Intelligenz, kurz KI genannt, ist, scheitert schon daran, dass es gar keine klare Definition von „Intelligenz“ gibt.

Das hindert die KI allerdings nicht daran, sich zunehmend in unserem Alltag breit zu machen. Wenn unser Smartphone einen dezenten Hinweis gibt, dass es Zeit wird zum nächsten Termin aufzubrechen, um rechtzeitig anzukommen, so hängt das mit KI zusammen. Das Gerät hat die Strecke und die Verkehrslage nämlich analysiert, bevor es uns den Tipp zum Aufbruch gegeben hat. Und wenn uns die Sprachassistenzsysteme im Auto oder zu Hause immer besser verstehen, dann steckt ebenfalls KI dahinter. In der Wirtschaft ist die datenbasierte Ökonomie ebenfalls längst angekommen; die Auswertung der als „Big Data“ umschriebenen Datenberge erfolgt weitgehend mittels KI.

Die Auswirkungen Künstlicher Intelligenz haben ein derart immenses Potenzial, dass es etwa mit der Abwehr der Klimakatastrophe durchaus vergleichbar ist. Doch während es über das Klima unzählige politische und gesellschaftliche Auseinandersetzungen gibt, wird KI nach wie vor wie ein Randthema behandelt, das lediglich von technischem Interesse ist, statt unsere Gesellschaft ernsthaft zu tangieren.

Doch das ist völlig falsch: Die Bedeutung der Künstlichen Intelligenz kann gar nicht hoch genug eingeschätzt werden. Es wird höchste Zeit, dass wir eine politische und gesellschaftliche Debatte über die Nutzung von KI führen.

In diesem Sinne will das vorliegende Buch einen Beitrag zur Diskussion zum Thema KI leisten. Es ist nicht für „Techniker“oder geschrieben, sondern wendet sich ausdrücklich an die Allgemeinheit, um Verständnis zu wecken, warum die Auseinandersetzung mit Künstlicher Intelligenz für uns alle so wichtig ist.

Andreas Dripke, Dr. Horst Walther

Die Idee der menschlichen Maschine

Die Idee, dass sich das menschliche Denken automatisieren oder mechanisieren lässt, dass der Mensch eine Maschine konstruieren und bauen könnte, die auf irgendeine Art und Weise intelligentes Verhalten zeigt, ist schon sehr alt. Theoretische oder literarische Entwürfe von künstlich erzeugten Lebewesen, die in ihren Fähigkeiten und auch in ihrem Aussehen dem Menschen ähnlich sein sollten, existieren seit langem. Eine allgemeine Vorstellung von einem Homunculus, also einem künstlich geschaffenen Menschen, wurde bereits in der Antike beschrieben und im Mittelalter im Kontext alchemistischer Theorien wieder aufgegriffen.

Schon in der griechischen Mythologie wird der vom Gott des Feuers Hephaistos erschaffene bronzene Riese Talos beschrieben.1 Von Leonardo da Vinci ist die Skizze eines Roboters bekannt, der sich aufsetzen, seine Arme bewegen und seinen Kopf drehen kann.2 Unübersehbar ist die vermeintliche Gleichsetzung von menschenähnlicher Gestalt und Denkfähigkeit. Die damalige Idee: Eine Figur, die in etwa wie ein Mensch aussieht und sich auch analog einem Menschen zu bewegen vermag, könne auch ähnlich wie ein Mensch denken.

Vom Homunkulus bis zum Faust

Ein Plan für die angebliche Herstellung eines Homunkulus findet sich in der Schrift De natura rerum (1538), die allgemein Paracelsus zugeschrieben wird. 3 Im Grunde beschreibt Julien Offray de La Mettrie in seinem 1748 veröffentlichten Buch L’Homme Machine diesen Gedanken. 4 Auch die Idee des Laplace‘schen Dämons, benannt nach dem französischen Mathematiker, Physiker und Astronomen Pierre-Simon Laplace, kann man zu den theoretischen Vorläufern der Künstlichen Intelligenz zählen, weil ihm die Vorstellung zugrunde liegt, dass das gesamte Universum nach den Regeln einer mechanischen Maschine abläuft. Das schließt den Menschen, sein Denken und seine Intelligenz mit ein.5

Die wohl bekannteste Verwendung der Homunkulus-Idee findet sich in Goethes Faust Teil II. Als weitere Beispiele sind hier die jüdische Legende vom Golem6, einem aus Lehm geformten stummen menschenähnlichen Wesens von gewaltiger Größe und Kraft, sowie Mary Shelleys 1818 veröffentlichter Roman „Frankenstein oder der moderne Prometheus“ zu nennen.7 Sowohl im Buch als auch in mehreren Frankenstein-Verfilmungen werden das Entsetzen und die Tragik des Schöpfers wie auch des erschaffenen Wesens deutlich.

Automaten und Androide

Neben den theoretischen, literarischen und filmischen Ansätzen finden sich in der Geschichte etliche Berichte über mechanische Automaten, die in ein mehr oder weniger menschenähnliches Gehäuse eingebaut bestimmte Aufgaben verrichten. Schon von Leonardo da Vinci wurde die Skizze eines Roboters entdeckt, der seine Arme bewegen, sich aufsetzen und seinen Kopf drehen kann. Im 17. und 18. Jahrhundert erschienen viele Berichte über selbstfahrende Fahrzeuge und andere Automaten, die meist als Schwindel entlarvt wurden. Hier wurde in einem Wunschdenken eine Entwicklung vorgezeichnet, die es zu diesem Zeitpunkt noch nicht gab. Beispielhaft hierfür steht der „Schachtürke“ von Wolfgang von Kempelen, mit dem er Europa und die USA bereiste und dabei große Schachspieler herausforderte. In Wahrheit war jedoch in dem „Automaten“ nur ein sehr kleiner Mensch versteckt, der über eine Mechanik die Spielfiguren auf dem Brett steuerte.

Mit den Konstruktionen von Jacques de Vaucanson wurde im 18. Jahrhundert ein Höhepunkt in der Geschichte des Baus von echten Automaten erreicht. Über seine drei mechanischen Kunststücke hieß es damals: „Diese 3 Mechanische Kunststücke, welche menschlichen Verstand zu übertreffen scheinen, und deren Werth allein von grossen Kennern eingesehen und erkläret werden kan, enthalten in ihrem innerlichen Bau, einen Zusammenhang von vielen Künsten und Wissenschafften, hauptsächlich aber sind es Meisterstücke der Anatomie, Physic, Mechanic und Music. Kennere werden dabey Nutzen und Vergnügen finden, curiose Liebhaber aber darüber erstaunen. Die erste Figur stellet einen sitzenden Mann vor in Lebensgröße von Holtz, welcher II. unterschiedliche Arien auf der Flute-Traversiere bläßt, mit eben der Annehmlichkeit und Fertigkeit, wie es dieses Instrument erfordert, und zwar mit gleicher Mittheilung der Luft in das Mundloch, Greifung der Thöne, Bewegung der Finger, der Lippen und der Zunge, wie solches ein lebendiger Mensch zu thun pfleget. Die 2te ist eine Manns=Person von Pappendeckel, welche 20. unterschiedene Arien auf einer Pfeiffe, wie solche in der Provence geführet wird, und das schwerste blasende Instrument ist, nebst Rührung der Trommel mit der einen Hand, gleichfalls wie ein lebendiger Mensch bläset. et. Die 3te Figur ist eine Ente, von vergoldetem Meßing und Stahl, welche alle die Bewegungen, so eine lebendige Ente macht, nachahmet, von sich selbst das Essen u. Trincken hineinschluckt, verdauet, und wieder, wie einen ordentlichen Koth von sich gibt, nicht weniger die Flügel ober, unter sich und zur Seite schlägt, schnadert und alles dasjenige verrichtet, was eine natürliche Ente thun kan. Es ist unmöglich, alles so genau zu beschreiben, als es sich in der That befindet und im Werck selbsten zeigt, dahero nur noch dieses beygefüget wird, daß an einem einzigen Entenflügel 400. Theile und besondere Zergliederungen sich befinden.“

Nach Vaucanson wurden zahlreiche, oft sehr komplexe Androiden gebaut, die echte Funktionen ausübten. Die berühmtesten dürften die Automaten von Vater und Sohn Jaquet-Droz sein. Deren automatischer Schreiber ist beispielsweise ca. 70 cm hoch, hat eine Gänsefeder in der Hand, sitzt vor einem kleinen Tisch und hat bewegliche Augen und Kopf. Er kann jeden beliebigen Text mit bis zu 40 Buchstaben Länge schreiben. Der Text wird auf einem Rad codiert, wo die Buchstaben dann einer nach dem anderen abgearbeitet werden. Wenn er gestartet wird, taucht er zunächst die Feder in die Tinte und schüttelt sie leicht ab, dann schreibt er, wobei er wie ein echter Schreiber die Auf- und Abwärtsstriche richtig beachtet und auch absetzt. Er kann mehrzeilig schreiben und beachtet Leerzeichen. Man kann in diesem Automaten einen Vorläufer der Computer sehen, weil die Maschine über ein Programm und einen Speicher verfügt und auf verschiedene Art programmiert werden kann (beliebige Texte können geschrieben werden). Ende des 18./Anfang des 19. Jahrhunderts gab es außer den Automaten von Vater und Sohn Jaquet-Droz noch viele weitere. Diese Automaten waren liebevoll gefertigte Einzelstücke, erforderten Tausende von Stunden zu ihrer Herstellung und waren entsprechend teuer. Einer der damaligen Meisterkonstrukteure war Johann Nepomuk Mälzel, der zahlreiche Musikautomaten konstruiert hatte, darunter auch den damals in der internationalen Presse hochgelobten Tompeter, der in Wien oft stundenlang zur Belustigung des Publikums von einem Wohnungsfenster aus gespielt wurde. Für diesen Trompeter komponierten renommierte Komponisten wie Jan Ladislav Dusik und Ignaz Pleyel sogar Konzertstücke. In allen diesen Fällen sollte die Illusion eines künstlichen Menschen vermittelt werden – eine Idee, die sich bis in die heutige Zeit, etwa bei Figuren wie C-3PO aus dem Filmepos Star Wars, erhalten hat.

Vom Denken zum Computer

Was ist Denken? Diese Frage faszinierte schon in der Antike die Menschen. Dabei war die Idee vorherrschend, dass sich das Denken formalisieren ließe, um zu richtigen Entscheidungen zu gelangen. Das Fällen einer Entscheidung galt dabei als Abschluss eines Denkvorgangs. Schon der griechische Philosoph Aristoteles formulierte Verfahren, wie man aus Prämissen gültige Schlussfolgerungen ziehen kann.

Gottfried Wilhelm Leibniz hatte im 17. Jahrhundert eine Methode namens Cogitatius Symbolica entwickelt, um – so seine Hoffnung – Meinungsverschiedenheiten beizulegen und damit sogar Kriege zu verhindern. Er legte die Vorstellung zugrunde, dass es sich beim Denken um einen Prozess handelte, bei dem Zeichen nach Regeln verknüpft würden. Es war die Idee, dass sich Denken durch ein rein formales Verfahren beschreiben liesse, das – korrekt angewandt – zu den richtigen Schlüssen führen würde. Nicht die konkreten Inhalte, sondern allein die Methodik sollten zum Ziel führen. Damit war Leibniz schon vor über 400 Jahren recht nah an der Idee des Computers, der auch nach genau festgelegten Verfahren funktioniert. Der Klassiker einer solchen Verfahrensweise lautet sicherlich: „Alle Menschen sind sterblich. Sokrates ist ein Mensch. Also ist Sokrates sterblich“. Ähnlich funktionieren Computer, indem sie aus Prämissen nach festlegten Regeln Schlussfolgerungen ableiten. Daraus leitete sich die Annahme ab, dass das menschliche Gehirn und die Datenverarbeitung eng verwandt sind. Beides sind demnach Informationsverarbeitungssysteme, und Denken ist in diesem Modell nichts anderes, als Symbole zu manipulieren, um aus gegebenem Input nach klaren Regeln einen Output zu erzeugen. Anders ausgedrückt: Das Gehirn ist eine Art Computer, der Geist sein Programm. Mit dieser Prämisse ging tatsächlich auch die KI-Forschung an den Start.

Kybernetik – alles wird geregelt

Die digitale Ära ist verknüpft mit der Kybernetik, der Kunst des Steuerns. Ihr Begründer Norbert Wiener erklärte es 1960 wie folgt: „Die Kybernetik ist die Wissenschaft von Information und Kontrolle, gleichgültig, ob es sich um eine Maschine oder ein lebendiges Wesen handelt.“ Es ist der Grundgedanke, dass alle – Menschen und Maschinen – kontrollierbar und steuerbar sind.

Neu an der Kybernetik war das Konzept der Rückkopplung. Es wird ein Impuls gegeben, die daraus resultierende Veränderung registriert und darauf basierend der nächste Impuls gegeben. Als Klassiker gilt der Thermostat: Es wird ein Sollwert für die Temperatur vorgegeben, zum Beispiel 22 Grad, und bei jeder Abweichung des Istwertes wird die Heizung entsprechend reguliert, so dass sich der Ist- dem Sollwert angleicht.

Schon im 20. Jahrhundert wurde die Kybernetik in militärischen Führungssystemen genutzt. Mit der Bezeichnung „C3I“ (Command, Control, Communication and Information) lehnte man sich sprachlich an Wieners 1948 erschienenes Werk „Cybernetics: Or Control and Communication in the Animal and the Machine“ an.8 Damit gemeint war die Regelung sowohl von (Industrie-)Anlagen als auch von einzelnen Menschen oder ganzen Gesellschaften. Die Voraussetzung hierfür: Information. Und die ist im digitalen Zeitalter im Überfluss vorhanden.

Daher kann man die Digitalisierung als die perfekte Inkarnation der Kybernetik bezeichnen – jedenfalls solange der Mensch involviert ist. Jeder Klick erzeugt einen Datenstrom und aus allen Klicks zusammen entsteht ein Ökosystem Künstlicher Intelligenzen, die den Ist-Zustand aus unseren Daten extrahieren und mit einem Soll-Zustand abgleichen. Dahinter stecken maschinelle Kontrollstrategien, die unseren Alltag regeln. Beispiel Google: Sobald wir eine Suche starten, erhalten wir nicht etwa die beste Antwort, sondern eine Vielzahl von Verweisen, die unser weiteres Verhalten steuern sollen. Nur wenn wir eine Rückmeldung geben, schließt sich der Kreislauf. Ohne unsere Daten und ohne unseren Klick entsteht kein Regelkreis. Inwieweit die Grundsätze der Kybernetik unseren Alltag dominieren, bestimmen wir also selbst. Je öfter wir den Maschinen Antworten schuldig bleiben, je sparsamer wir mit unseren Daten umgehen, desto geringer kommt die Kybernetik zum Tragen. Allerdingskönnte mit dem Vordringen der KI genau dieser für die Digitalisierung hinderliche „Faktor Mensch“ übergangen werden. Ein KI-System, ein Personal Asssistant, der uns gut genug kennt, könnte uns viele dieser Klicks abnehmen, für uns vordenken und entscheiden, was wir wollen und was für uns wohl am besten ist. Dann funktioniert der kybernetische Kreislauf zwar mit uns, aber ohne unser Zutun. Der Freiheitsbegriff der Zukunft könnte dann eine ganz neue Bedeutung erfahren: Es ist die Freiheit, sich diesem Kreislauf zu entziehen.

Parallele Computerwelt

Die KI-Forschung ist untrennbar verbunden mit der Entwicklung der Computertechnik, und diese wiederum mit den Fortschritten bei der Elektronik. Doch mittlerweile wissen wir, dass der Vergleich des Menschen mit einem Steuerungskreislauf und des menschlichen Gehirns mit einem herkömmlichen Computer in vielerlei Hinsicht hinkt, nicht zuletzt, weil er sich am klassischen von Neumann-Rechner orientiert. Diese, nach dem österreich-ungarischen, später in den USA tätigen Mathematiker John von Neumann benannte Computerarchitektur, war bei ihrer Vorstellung 1945 revolutionär. Sie ähnelte jedoch dem schon 1937 von dem deutschen Bauingenieur Konrad Zuse realisierten mechanischen Computer Z1 und dem ersten funktionsfähigen Digitalcomputer der Welt, dem Zuse Z3 aus dem Jahr 1941. Während zuvor das Programm entweder über Lochkarten oder Lochstreifen in den Computer eingelesen werden musste oder sogar fest verschaltet im Gerät war, hatte von Neuman die Idee, dass Programme und Daten gemeinsam im Computerspeicher abgelegt werden. So konnte man Änderungen an Programmen ebenso schnell wie an den Daten durchführen, ohne Veränderungen am Computer vornehmen oder neue Lochkarten/-streifen anfertigen zu müssen. Diese damals neuartige Konstruktion ging von einem Single-Instruction-Single-Data-Verfahren aus, also mit jedem Schritt wird jeweils ein Datenelement verarbeitet, Schritt für Schritt. Diese Schrittgeschwindigkeit entspricht übrigens der sogenannten Taktfrequenz, die wir bis heute unter den technischen Spezifikationen von Computern finden. Unter anderem an dieser Stelle sind die Unterschiede zum menschlichen Gehirn unübersehbar: In unserem Gehirn finden viele Vorgänge gleichzeitig statt. In die moderne Computerwelt übersetzt nennt man das Parallelverarbeitung; sie basiert auf neuen Konzepten jenseits der von Neumann-Rechner. Diese modernen Modelle orientieren sich eher am Aufbau unseres Gehirns. Das ist unter anderem deshalb möglich, weil die Entwicklung der Elektronik als technische Grundlage für den Computerbau seitdem in rasender Geschwindigkeit verlaufen ist. Der Gründer des Mikroprozessorherstellers Intel Gordon Moore veröffentlichte am 19. April 1965 eine Prognose, mit der er über Jahrzehnte hinweg recht behalten sollte: Die Anzahl der Bauteile in einer integrierten Schaltung verdoppelte sich seitdem etwa alle 18 Monate. Das Moore`sche Gesetz, damals von vielen als Science-Fiction abgetan, versorgt uns heute mit einem Ausmaß an Computerleistung auf kleinsten Raum von Mikrochips, das vor 50 Jahren noch absolut als Utopie gelten musste. 2015 konnte dieses Gesetz seine 50-jährige Geltungsdauer feiern (es gab in dieser Zeit also 25-mal eine Verdopplung, eine Leistungssteigerung um den Faktor 2 hoch 25, also den Faktor 33.554.432. Es wird postuliert, dass das Moore’sche Gesetz ein Auslaufmodell sei, das im Jahr 2029 sein Ende finden werde. Als Begründung wird genannt: Mikrochips sollen bis dahin in atomgroßen Strukturen gefertigt werden und Computerchips könnten nicht kleiner als Atome werden. Andere Stimmen halten entgegen, dass man einfach mehrere Chipebenen übereinanderlegen könne, so dass atomare Chiphochhäuser entstehen würden, so dass Moores Gesetz weit hinein in die 2030er gelten könnte. 9

In jedem Fall wurde durch das Moore’sche Postulat der Weg für eine neue Computergeneration frei gemacht, die auf Parallelverarbeitung durch mehrere Prozessorkerne gleichzeitig setzt. Im Juni 2008 war der Roadrunner genannte Supercomputer von IBM der Erste, dem es gelungen war, die „Petaflop-Grenze“ zu durchbrechen.10 Ein Petaflop entspricht einer Billiarde Rechenoperationen pro Sekunde. Der leistungsfähigste Computer der Welt Anfang der 2020er Jahre „Summit“ arbeitete mit einer Rechenleistung von 148,6 Petaflops. In der Aufstellung der 500 weltweit schnellsten Supercomputer im Jahre 2000 kam erstmals selbst der an letzter Stelle gelistete Rechner auf eine Leistung im Petaflop-Bereich.11

Vor diesem Hintergrund und weil das menschliche Gehirn in seiner Leistungsfähigkeit nahezu konstant ist, hat man schon jetzt für einen in der Zukunft liegenden Zeitpunkt, an dem die Leistungsfähigkeit von Computern die des menschlichen Gehirns voraussichtlich übertreffen wird, den Begriff der technologischen Singularität geprägt. Das Wort kommt aus der Astrophysik und bezeichnet Orte im Weltall, an denen die Gravitation so stark ist, dass die Krümmung der Raumzeit divergiert, also „unendlich“ ist.12 In der Computer- und KI-Entwicklung bezeichnet Singularität den Zeitpunkt, an dem Computer selbstständig neue Systeme bauen können, die jeweils leistungsfähiger sind als das Vorgängermodell. Damit ließen sich über eine unbestimmte Zeit hinweg unendlich leistungsfähige Computer konstruieren, wobei sich die „unbestimmte Zeit“ dramatisch verkürzen würde, da jede Generation schneller neue Systeme bauen würde als ihre Vorgänger. Im Grunde könnte es zu einer Art „Urknall der Intelligenz“ kommen, bei dem sich die Künstliche Intelligenz binnen kürzester Zeit exponentiell weiterentwickelt. Der Erfinder und Zukunftsforscher Ray Kurzweil geht davon aus, dass der Zeitpunkt der technologischen Singularität im Jahr 2045 erreicht werden wird.13 Noch kein Datum gibt es für den Tag, an dem die KI-Computer beschließen werden, ohne den Menschen auszukommen – wobei es bloße Spekulation ist, ob dieser Tag jemals kommen wird.

Derweil setzt die Informationstechnologie auf völlig neue Modelle wie beispielweise Quantencomputer. Im Unterschied zum herkömmlichen Digitalrechner arbeitet der Quantencomputer nicht auf Basis der Gesetze der klassischen Physik bzw. Informatik, sondern auf Grundlage quantenmechanischer Zustände. Quantencomputer galten lange Jahre als ein überwiegend theoretisches Konzept und sind auch heute noch von einem Einsatz im größeren Stil weit entfernt. Das gilt auch für eine neue Generation sogenannter Neurocomputer, die auf neuronalen Netzen basieren und sich am menschlichen Gehirn orientieren. Neurocomputing ist ein Sammelbegriff für eine ganze Reihe unterschiedlicher Ansätze, denen eines gemeinsam ist: sie orientieren sich an biologischen Vorbildern. Ein typisches Beispiel hierfür stellt das System BrainScaleS der Universität Heidelberg dar, das mit vier Millionen Neuronen und einer Milliarde Synapsen ausgestattet ist.14 Das klingt nach viel, ist aber lächerlich wenig im Vergleich zu den etwa 100 Milliarden Neuronen mit jeweils etwa 10.000 Synapsen im menschlichen Gehirn.

Das Gehirn wird nachgebaut

BrainScaleS arbeitet ebenso wie viele andere der neuen Computerkonzepte mit neuromorphen Prozessoren, auch neurosynaptische Prozessoren, Neuralprozessoren oder schlicht KI-Prozessoren genannt. Das zugrundeliegende Neuromorphing ist eine Methode, um die Funktionsweise von Neuronen, also den biologischen Nervenzellen, nachzubilden. Erklärtes Ziel des Neuromorphing ist die Simulation und mögliche Nachbildung von Sinnesorganen wie der Netzhaut des Auges oder dem Innenohr und letztendlich (von Teilen) des menschlichen Gehirns. Langfristig soll es möglich werden, die entsprechenden Organe bzw. Organteile zu ersetzen. Genau diese Ansätze werden auch verwendet, um neuromorphe Prozessoren zu bauen. Diese haben ersten Experimenten zufolge schon verblüffende Ähnlichkeit mit dem menschlichen Gehirn: Sie können beispielsweise hervorragend Muster erkennen, tun sich aber schwer bei komplizierten Rechenaufgaben, für die klassische Computer geradezu prädestiniert sind. Zur Klarstellung: Es geht dabei tatsächlich um den Versuch, das menschliche Gehirn in Form von Chips nachzubauen. Es gibt übrigens auch eine Entwicklung „dazwischen“: Neuromimetische Chips kommen in Gehirn-Computer-Schnittstellen zum Einsatz. Neuromorphe Prozessoren sind zwar noch um ein Vielfaches kleiner als unser Gehirn, aber dafür deutlich schneller. Im Gehirn wird die Verarbeitungsgeschwindigkeit im neuronalen Netz durch die Biophysik der Zellen bestimmt, bei Chips mit neuronalen Netzen ist es die Halbleiterphysik - und die ist schneller. Bei BrainScaleS können die neuronalen Prozesse etwa 10.000-mal schneller ablaufen als im Gehirn. Einen Denkvorgang, für den ein Mensch rund einen Tag benötigen würde, könnte der Computer also binnen einer Sekunde erledigen. Deshalb können die neuromorphen Computer übrigens auch 10.000-mal schneller lernen als ein Mensch, ein für Künstliche Intelligenz wesentlicher Aspekt.

Quantenphysik verändert die Welt

Die rund 100 Jahre alte Quantenphysik ist dabei, im 2020er Jahrzehnt die Computertechnik zu revolutionieren und damit den Einfluss der Digitalisierung auf unser gesamtes Leben in ungeahnte Ausmaße zu potenzieren. Die Quantenphysik ist ein sehr komplexes Thema und es würde den Rahmen dieses Buches sprengen, sie umfassend zu erklären. Im Kern geht es darum, dass es keine Gewissheiten wie in der Newton‘schen Physik mehr gibt, sondern nur noch Wahrscheinlichkeiten. Die Erkenntnisse der Quantenphysik werden wohl noch viele Bereiche tangieren, eine davon ist die Art und Weise, wie Computer gebaut werden und funktionieren.

Schon im Jahr 2019 kam durch ein Versehen ein Forschungsbericht des Internetkonzerns Google ans Licht, der klarmacht, was das Unternehmen meint, wenn es über Jahre hinweg verspricht, man werde demnächst „Quantum Supremacy“ (Quantenüberlegenheit) erreichen. Die Grundlage hierfür bilden Quantencomputer, die mit sogenannten Quantenbits oder Qubits arbeiten. Im Unterschied zu herkömmlichen Computerbits können diesenicht nur die Zustände Null und Eins annehmen, sondern viele unterschiedliche Werte. Der Google-Report gilt seit 2019 als