44,99 €
Künstliche Intelligenz (KI) ist dabei, sämtliche Lebens- und Arbeitsbereiche zu verändern. Das Buch bringt mit zahlreichen Praxisbeispielen Klarheit in diese durchaus komplexe Materie. Es unterstützt beim Einstieg und nimmt auch die Angst vor dieser komplexen Materie. KI-Anwender:innen und Praktiker:innen sowie Forscher:innen stellen praxisnah und leicht verständlich den großen Nutzen vor und weisen auch auf mögliche Barrieren und Herausforderungen bei KI-Anwendungen in unterschiedlichen Funktionsbereichen und Branchen hin. Das Buch möchte aufklären und inspirieren und zugleich dabei helfen, eine kritische Sicht zu bewahren. Inhalte: - Was künstliche Intelligenz ist und wie sie sich von menschlicher Intelligenz unterscheidet - Moralische und ehtische Aspekte der KI - KI und Nachhaltigkeit - KI in Kundenkommunikation, Marketing und E-Commerce - Praxisbeispiele aus Luftfahrt, Verwaltung, Logistik, Einkauf, Medizindiagnostik, Bau-, Land- und Immobilienwirtschaft, Modewelt u. v. m.
Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:
Seitenzahl: 531
Alle Inhalte dieses eBooks sind urheberrechtlich geschützt.
Bitte respektieren Sie die Rechte der Autorinnen und Autoren, indem Sie keine ungenehmigten Kopien in Umlauf bringen.
Dafür vielen Dank!
Haufe Lexware GmbH & Co KG
[4]Bibliografische Information der Deutschen Nationalbibliothek
Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.dnb.de/ abrufbar.
Print:
ISBN 978-3-648-16204-0
Bestell-Nr. 10844-0001
ePub:
ISBN 978-3-648-16205-7
Bestell-Nr. 10844-0100
ePDF:
ISBN 978-3-648-16206-4
Bestell-Nr. 10844-0150
Prof. Dr. Markus H. Dahm (Hrsg.)
Wie Künstliche Intelligenz unser Leben prägt
1. Auflage, November 2022
© 2022 Haufe-Lexware GmbH & Co. KG, Freiburg
haufe.de
Bildnachweis (Cover): © lovemask, Adobe Stock
Produktmanagement: Bettina Noé
Lektorat: Helmut Haunreiter
Dieses Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Alle Rechte, insbesondere die der Vervielfältigung, des auszugsweisen Nachdrucks, der Übersetzung und der Einspeicherung und Verarbeitung in elektronischen Systemen, vorbehalten. Alle Angaben/ Daten nach bestem Wissen, jedoch ohne Gewähr für Vollständigkeit und Richtigkeit.
Sofern diese Publikation ein ergänzendes Online-Angebot beinhaltet, stehen die Inhalte für 12 Monate nach Einstellen bzw. Abverkauf des Buches, mindestens aber für zwei Jahre nach Erscheinen des Buches, online zur Verfügung. Ein Anspruch auf Nutzung darüber hinaus besteht nicht.
Sollte dieses Buch bzw. das Online-Angebot Links auf Webseiten Dritter enthalten, so übernehmen wir für deren Inhalte und die Verfügbarkeit keine Haftung. Wir machen uns diese Inhalte nicht zu eigen und verweisen lediglich auf deren Stand zum Zeitpunkt der Erstveröffentlichung.
Künstliche Intelligenz polarisiert. Den stärksten Kontrast zwischen den beiden Sichtweisen der Chancen auf der einen und Gefahren auf der anderen Seite habe ich während meines einjährigen Aufenthaltes im Silicon Valley in den Jahren 2017 und 2018 gespürt. Einen Kontrast, den ich schließlich in meinem Buch »Neu erfinden« beschrieben habe. Ich gehe nach wie vor jede Wette ein, dass bei einer Diskussion über Künstliche Intelligenz (KI) – egal wo – die Frage nach der Datensicherheit und nach ethischen Aspekten immer von einem Deutschen im Publikum gestellt wird. Dann wird leidenschaftlich darüber debattiert, ob ein selbstfahrendes Auto »gewissenhaft« abwägen kann: Überfährt es nun das Kind oder die alte Frau?
Wir Deutschen sind leider Bedenkenträger per se. Wenngleich unsere kritische Haltung zu Technologie durchaus eine hörenswerte Stimme ist, blockiert sie doch meist. Das ist zermürbend und steht uns massiv im Weg. Vordenker im Silicon Valley tun sich leichter, denn für sie ist Technologie nicht von sich aus gut oder böse, sondern das, was wir Menschen daraus machen. Mag dies auch etwas naiv klingen, so ist es doch überlebenswichtig, denn diese grundsätzliche Offenheit ermöglicht Chancen, die nur ohne vorauseilende Verurteilung sicht- und greifbar werden.
Die drastischen Auswirkungen digitaler Technologien auf die Lebens- und Arbeitswelt und somit auch auf Innovationen selbst sind so umfassend, dass sie ohne Übertreibung als digitale Revolution bezeichnet werden können. Es findet meiner Meinung nach nicht nur die viel beschworene Transformation statt, denn viele Unternehmen transformieren nicht, sie gehen weit darüber hinaus. Engagierte Mitarbeitende bauen digitale Geschäftsmodelle völlig neu auf, oftmals mit Daten und Künstlicher Intelligenz. Der wichtigste Rohstoff für alle digitalen Technologien und die wichtigsten Innovationen unserer Gegenwart sind enorme Datenmengen. Technologie an sich macht nämlich auch hier noch nicht den Unterschied, sondern vielmehr erst die Anwendung der Technologie und ihr erlebbarer Nutzen für die Menschheit.
Entscheidende Innovationen im Bereich der KI, die heute von Entwicklern weltweit angewendet werden, kamen aus Deutschland, z. B. von der TU München. Die Verbreitung von KI ist in Deutschland leider aktuell unterdurchschnittlich, was auch mit der generell skeptischen kulturellen Haltung zu großen Innovationsschritten in Verbindung gebracht werden kann. Die Pioniere unserer Wirtschaft waren mutiger und haben über Wissen und Experimente Weltkonzerne aufgebaut.
[16]Deutschland ist das Industrie-4.0-Land schlechthin, und wir sind richtig gut darin, Produktionsprozesse zu digitalisieren. Ich möchte aber nicht, dass wir das »China von morgen« werden. Wie meine ich das? Ich möchte nicht, dass die Welt Produkte erfindet und wir hier wie China vor einigen Jahren die Produkte zum günstigsten Preis herstellen. Das ist meine Hauptkritik an dem seit mehr als zehn Jahren wegweisenden Konzept Industrie 4.0. Konkret heißt das, wir müssen über den Grundgedanken von Industrie 4.0 hinausgehen und mit digitalen Geschäftsmodellen »echtes Geld« verdienen. Darüber hinaus kann die kluge Anwendung Künstlicher Intelligenz in vielen Bereichen den Mangel an Fach- und Hilfskräften zumindest abfedern und den aktuell Beschäftigten höher qualifizierte, besser bezahlte und erfüllende Aufgaben ermöglichen. Ohne die konsequente, offene Anwendung von Algorithmen in einem gesellschaftlich akzeptierten Rahmen werden wir unseren Wohlstand nicht halten können. Ineffizienzen im Wirtschaftssystem binden Menschen, die woanders dringend gebraucht werden und durch eine Aufwertung ihrer Arbeit besser bezahlte und erfüllendere Tätigkeiten ausüben könnten. Für mich wird KI zusammen mit einer parallel unbedingt benötigten Migration zum Haupttreiber des notwendigen Wirtschaftswachstums und der dringend benötigten gesellschaftlichen Erneuerung. Nur so können wir unsere Position in der Welt finden und unseren lieb gewonnenen Wohlstand sichern.
Wir müssen das Wissen über diese vernetzten Technologien in unsere Gesellschaft und vor allem in unsere Unternehmen bringen. Sensoren sind wichtig für das Sammeln von Daten – und Datenintelligenz macht so gut wie jedes Produkt für seine Nutzer besser. Daten sind der Schlüssel zur Wertschöpfung – in jedem Unternehmen. Wir brauchen mehr Promotoren sowie mehr Beispiele und Erfolgsgeschichten, wie KI tatsächlich funktioniert. Lobenswerte Initiativen wie der Innovationspark KI in Heilbronn nahe meiner Heimat und der 2019 gegründete Verein ARIC in Hamburg als zwei mir gut bekannte Beispiele weisen die richtige Richtung und müssen unterstützt werden. Wichtig ist es, die gesamte Bevölkerung mitzunehmen, sie aufzuklären, ja, aber vor allem für KI zu begeistern.
An der entscheidenden Umsetzung und der Bedeutung für jede und jeden Einzelnen setzt dieses wichtige Buch an. Sachkundig kuratiert von Markus H. Dahm, berichten hochkarätige Expertinnen und Experten gut verständlich von Grundlagen, ethischen und gesellschaftlichen Fragestellungen und vor allem von Anwendungen der Künstlichen Intelligenz in den relevanten Bereichen, der Wirtschaft allgemein und in wichtigen Branchen ganz speziell. Dabei steht nicht die Technologie an sich oder der Fachkundige, sondern jeder Lesende und sein empfundener Nutzen im Vordergrund. »KI für alle« ist mir eine Herzenssache, denn es ist höchste Zeit, dass wir uns in [17]Deutschland KI zunutze machen, unsere internationale Position festigen und basierend auf unseren Stärken gesellschaftliche, politische und wirtschaftliche Strukturen radikal erneuern.
September 2022
Dr. Gunther Wobser
Geschäftsführender Gesellschafter LAUDA DR. R. WOBSER GMBH & CO. KG
Autor der Bücher »Neu Erfinden« und »Agiles Innovationsmanagement« Mitglied im Digitalrat der BDA
Liebe Leserin und lieber Leser,
schön, dass Sie dieses Buch zur Hand nehmen. Ich hoffe sehr, dass Sie es als nützlich und hilfreich empfinden und dass Sie auch Spaß beim Lesen haben werden.
Künstliche Intelligenz – wir nutzen sie alle, fast immer auch tagtäglich. Ob es sich um Google Maps handelt, das im Hintergrund bei jeder Autofahrt mitläuft, oder um Spracherkennungssoftware wie Alexa oder Siri, mit der wir zu Hause unsere Musik oder die Beleuchtung steuern, oder um den DeepL-Übersetzer, der einen langen deutschen Text in weniger als einer Sekunde ins Englische übersetzt. Manchmal merken wir gar nicht, dass im Hintergrund eine Künstliche Intelligenz (KI) und Algorithmen arbeiten. Firmen in der Medizintechnik, der Gesundheitsbranche oder aus dem Maschinenbau kommen ohne sie nicht mehr aus. Mit KI machen wir uns als Bürger, Konsument und Arbeitnehmer das Leben einfacher.
KI ist in aller Munde, sie ist unendlich facettenreich und es gibt sehr viele unterschiedliche Perspektiven zu diesem gar nicht mehr so jungen Thema, das in der Öffentlichkeit zum Teil sehr kontrovers diskutiert wird. Ich möchte mit dem Buch mehr Klarheit in diese durchaus komplexe Materie bringen. Ein besseres Verständnis über den Nutzen und die Anwendung von KI im Privat- und Geschäftsleben kann für uns alle nur von Vorteil sein, davon bin ich überzeugt.
KI ist nicht neu. Der Begriff Artificial Intelligence wurde von John McCarthy bereits 1956 geprägt. KI ist ein Teilgebiet der Informatik. Sie hat das Ziel, menschliche Fähigkeiten wie lernen, lesen, hören und sprechen zu imitieren. Man kann sie unterteilen in sogenannte schwache und starke Künstliche Intelligenz.
Was wir heute kennen, ist die schwache KI, auch als methodische KI bezeichnet. Sie besitzt keine Kreativität und keine expliziten Fähigkeiten, selbstständig zu lernen. Ihre Lernfähigkeiten sind auf das Trainieren von Erkennungsmustern (sog. Machine Learning) oder das Abgleichen und Durchsuchen von großen Datenmengen reduziert. Starke KI ist noch lange nicht in greifbare Nähe gerückt: Die Zielsetzung des Konzeptes der starken KI ist es, dass natürliche und künstliche Intelligenzträger (bspw. Menschen und Roboter) beim Arbeiten im selben Handlungsfeld ein gemeinsames Verständnis und Vertrauen aufbauen können. Starke KI gibt es bis auf Weiteres nur auf der Leinwand zu sehen, z. B. im Film Terminator aus dem Jahr 1984 oder auch in dem jüngeren deutschen Film aus dem Jahr 2021 »Ich bin Dein Mensch«. Wenn wir heute von realer KI sprechen, sprechen wir immer von KI, die nur einen Verwendungszweck kennt, z. B. die Unterstützung des Arztes bei der Diagnose von Krebs auf Röntgenbildern.
[20]Das Buch möchte dazu anregen, nachzudenken und neue Inspirationen zu bekommen. Es möchte aufklären und dabei helfen, eine kritische Sicht zu bewahren, aber auch dabei unterstützen, von Dystopien zur KI wegzukommen. KI ist nicht per se gut oder böse.
An dieser Stelle ein großes Dankeschön an alle Autorinnen und Autoren der vielen spannenden und inhaltsreichen Beiträge. Sie haben dieses Gemeinschaftsprojekt »Wie Künstliche Intelligenz unser Leben prägt« erst möglich gemacht.
Insbesondere danke ich auch dem Artificial Intelligence Center (ARIC) Hamburg für die gute Zusammenarbeit während der Vorbereitung des Buchprojekts. Viele Beiträge sind auch aus der Feder von Ambassadoren und Mitarbeitenden des ARIC entstanden. Mein besonderer Dank gebührt Jan Schnedler für die großartige Unterstützung bei der Autorensuche. Weiter bin ich dankbar, dass die FOM Hochschule für Oekonomie & Management den Rahmen für dieses Buchprojekt gestiftet hat und während der Erstellung jederzeit als Dialogpartner zur Verfügung stand. Auch und gerade in der akademischen Qualifizierung von Berufstätigen ist KI ein Schnittstellenthema von sehr hoher Bedeutung.
Zu guter Letzt möchte ich meinem Lektor, Helmut Haunreiter, danken, der jeden Artikel genauestens unter die Lupe genommen und kritisch geprüft hat. Auch gilt mein Dank dem Haufe Verlag und insbesondere der Programmmanagerin Bettina Noé für die Möglichkeit dieses Buch herauszugeben.
Hamburg, im Januar 2023
Markus H. Dahm, Herausgeber
Von Carsten Hagemann
Was Sie in diesem Kapitel erwartet
Dieses Kapitel zeigt, welche Ideen in den 1980er-Jahren hinter der KI standen, welche Vorgehensweisen es gab und wie sich die technischen Möglichkeiten der KI damals von denen in den 2020ern unterscheidet.
In den 1980ern wurde mit der KI mithilfe von Expertensystemen das Ziel verfolgt, die menschliche Logik durch die Repräsentation von Wissen nachzubilden.
Unter anderem haben die technischen Voraussetzungen wie Rechengeschwindigkeit und Speicherkapazität die Möglichkeiten der KI in den 1980ern limitiert. Auch die Bild- und Spracherkennung als Schwerpunkte der heutigen KI waren noch in einem frühen Entwicklungsstadium.
Die KI hat sich als eine junge Wissenschaft und bereits sehr stark in ihren Ideen, Methoden und Vorgehensweisen verändert. Es gab zum einen Sackgassen, gleichzeitig aber auch Fortschritte, die aufgrund der Entwicklung neuer Theorien möglich waren. Ohne die technische Weiterentwicklung der Computer wäre die KI nicht auf ihrem heutigen Stand. Anhand dieses Kapitels kann der Leser die wesentlichen Entwicklungsschritte der KI nachvollziehen und den aktuellen Stand der KI für sich bewerten.
Künstliche Intelligenz (KI – englisch Artificial Intelligence: AI) ist keine neue Disziplin oder Technologie. Es gibt sie schon seit den 1950er-Jahren. Sie ist eher als angewandte Mathematik zu sehen, die mit Rechenmaschinen (Computer) umgesetzt wird. Mit dem Entstehen des Fachgebiets Informatik wurde die Künstliche Intelligenz eines ihrer Teilgebiete.
Während der Anfänge der Künstlichen Intelligenz versuchte man ab 1957 in Forschungseinrichtungen in den USA – die USA waren damals führend im Bereich der KI –, ein Computersystem zu entwickeln, das alle ihm gestellten Probleme lösen konnte: den General Problem Solver (GPS). Der GPS versuchte nach dem Prinzip des Morphologischen Kastens die zu lösenden Probleme in Teilprobleme zu strukturieren und aufzuteilen, die dann wiederum in Teilprobleme strukturiert und aufgeteilt wurden. Dies wurde so lange gemacht, bis ein Teilproblem gelöst werden konnte. Aus den Lösungen der Teilprobleme sollte dann die Gesamtlösung hervorgehen. Nach über 10 Jahren vergeblicher Versuche wurde dieses Vorhaben eingestellt. Stattdessen verlegte man [24]sich auf Computersysteme, die gezielt spezielle Probleme lösen konnten, die sogenannten Expertensysteme. Dieser Schritt wurde Ende der 1970er-Jahre eingeleitet und hatte seine Hauptzeit in den 1980er-Jahren.
An der KI wurde auch an den deutschen Hochschulen als Teilgebiet der Informatik intensiv geforscht. Dabei war die Informatik selbst noch sehr jung. Entsprechend klein war auch die Anzahl der Personen, die sich mit Künstlicher Intelligenz auseinandergesetzt hatten.
Abb. 1: Zeitleiste ausgewählte Meilensteine der KI
Das Hauptforschungsgebiet waren in den 1980er-Jahren die Expertensysteme (XPS) oder auch wissensbasierenden Systeme (WBS). Dies sind Computersysteme, welche die menschliche Logik durch die Repräsentation von Spezialwissen und Entscheidungsprozessen nachbilden, um ein Problem zu lösen. Expertensysteme können dabei nur Probleme für ein sehr eng definiertes Fachgebiet lösen.
Der eine wesentliche Bestandteil war die Erfassung des gesamten heuristischen Wissens für das Fachgebiet, und zwar so, dass es mit Programmen verarbeitet werden konnte.
Das Wissen in der Wissensdatenbank besteht zum einen aus Fakten wie z. B.
Temperatur:(<-20 0C; sehr kalt)(-10 0C; kalt)(30 0C; warm)(>30 0C; heiß)und aus Regeln. Diese können als einfache Regel (Wenn <Bedingung> Dann <Aktion>) bis hin zu strukturierten und komplexen Regeln mit Vorbedingung und Wahrscheinlichkeiten der Aktionen vorliegen.
[25]Das führte zu mehreren Herausforderungen.
Zumeist handelt es sich um heuristisches Wissen, also etwas, das nicht scharf definiert ist, sondern einer Interpretation bedarf. Die Begriffe »kalt«, »warm« oder »heiß« kann ein Computerprogramm beispielsweise so nicht verarbeiten. Werden dafür Temperaturen angegeben (kalt: < -10 0C; warm: zwischen 0 und 30 0C; heiß: > 30 0C), so können diese in einem Programm verarbeitet werden.Dieses Daten sind jetzt in einer Struktur zu speichern, um das Wissen in den richtigen Bezug zu einem Objekt zu bringen. Luft z. B. fühlt sich bei 20 C warm an, während die gleiche Temperatur im Wasser als kalt empfunden wird.Man musste also das gesamte Know-how bestehend aus Fakten und Regeln zu dem Fachgebiet erfassen und in einer Datenbank speichern, um alle möglichen Fälle in diesem Fachgebiet bearbeiten zu können. Das war somit eine kleine, in sich abgeschlossene Welt (Closed World Assumption). Hatte man jetzt einen Fall, der nicht mit dem gespeicherten Wissen abgedeckt wurde, konnte dieser Fall nicht bearbeitet werden bzw. führte zu keinem befriedigenden Ergebnis.
In dieser Zeit wurde die Rolle des Knowledge Engineers entwickelt. Ein Knowledge Engineer ist ein Fachmann, der sich mit der Entwicklung von fortgeschrittener Logik in Computersysteme beschäftigt. Seine Aufgabe war es, das Wissen von Experten so zu erfassen und zu strukturieren, dass es in einem Expertensystem verarbeitet werden konnte. Die Arbeit des Knowledge Engineers hatte entscheidende Bedeutung für die Qualität der Wissensbasis und somit auch für die Ergebnisqualität des Expertensystems.
Der zweite wesentliche Bestandteil für ein wissensbasierendes System ist die Inferenzmaschine. Die Inferenzmaschine ist der Teil des wissensbasierenden Systems, der das vorhandene Wissen verarbeitet und daraus neue Aussagen ableitet. Sie ist der Teil, der eine anzuwendende Regel auswählt und ausführt. Dabei entstehen neue Fakten, auf die wieder eine Regel anzuwenden ist. Ist keine Regel mehr anwendbar, ist ein Ergebnis gefunden. Die Inferenzmaschine sucht also in der Wissensbasis nach ausführbaren Regeln. Sind mehrere Regeln anwendbar, ist eine davon nach einer festzulegenden Auswahlstrategie anzuwenden.
Die ersten Expertensysteme wurden bereits in den 1970er-Jahren an amerikanischen Universitäten entwickelt. Ab Anfang der 1980er-Jahre begann die KI durch [26]den Einsatz von Expertensystemen praxisnäher zu werden. Obwohl sich die Forschung an Expertensystemen noch in den Kinderschuhen befand, gab es bereits vereinzelt kommerzielle Einsätze in der Praxis. Das hauptsächliche Anwendungsgebiet für Expertensysteme war die Analyse und Diagnose von Problemen. Hier ein paar Beispiele:
ELIZA
ELIZA ist ein Chat-Bot-Programm, das 1967 von Josef Weizenbaum noch vor dem ersten Expertensystem entwickelt wurde. Es hatte sich mit seinem Anwender »normal« unterhalten. Heute nennt man das Chatbot. Dieses Programm hieß ELIZA – angelehnt an Eliza Doolittle aus Pygmalion von George Bernard Shaw. Das Programm ELIZA ist eine oberflächliche Simulation einer Psychotherapeutin, die eine bestimmte Methode verwendet. ELIZA verwendet ein strukturiertes Wörterbuch (Thesaurus). Ein eingegebener Satz wird danach durchsucht, ob ein Wort aus dem Thesaurus darin enthalten ist. Ausgehend von diesem Wort wird nach Synonymen und Oberbegriffen gesucht. Diese werden in eine Phrase passend zum Themengebiet eingesetzt und mit einer Frage oder Aufforderung zu einer weiteren Eingabe ausgegeben. Kommt in einem Satz kein Wort aus dem Thesaurus vor, antwortet das Programm mit »Das habe ich nicht verstanden. Können Sie mir das bitte erklären?« oder »Davon verstehe ich nichts. Lassen Sie uns das Thema wechseln.« ELIZA kommunizierte derart »menschlich« mit den Benutzern, dass sie tatsächlich glaubten, mit einer realen Person zu kommunizieren. Dieses »menschliche« Erscheinungsbild wird neben der fachlichen Komponente auch heute noch von Chatbots verwendet, womit deren Erfolg bei ihren Benutzern erklärt werden kann.
MYCIN
MYCIN ist ein seit 1972 an der Stanford University in der Programmiersprache Lisp entwickeltes Expertensystem, das zur Diagnose und Therapie von Infektionskrankheiten durch Antibiotika eingesetzt wurde. Zu der Zeit seiner Entwicklung begann man die übermäßige Anwendung von Antibiotika kritisch zu betrachten und suchte daher nach Methoden, ihre Anwendung in Abhängigkeit vom jeweiligen Krankheitsbild zu optimieren. Hierzu mussten zahlreiche Parameter ermittelt und zueinander in Beziehung gesetzt werden, darunter der Erregertyp, der bisherige Krankheitsverlauf, bestimmte Labordaten usw. Die Komplexität dieses Problems wurde so groß, dass man die Entwicklung eines Expertensystems vorantrieb. So entstand schließlich MYCIN, das als eines der ersten Expertensysteme überhaupt gilt.
Wenn es auch für die Informatik als einer der wichtigsten Meilensteine im Bereich der Expertensysteme gilt, so erlangte es in der medizinischen Anwendung nicht die Bedeutung, die man sich erhofft hatte. Dabei erreichte MYCIN in seinen Diagnosen durchaus sehr hohe Trefferquoten. Doch zu der Zeit seiner Entwicklung war die allgemeine [27]Akzeptanz von Computersystemen gering, sodass die Bereitschaft fehlte, sich auf die Diagnose eines schwer durchschaubaren Systems zu verlassen1.
DART: Diagnosis of computer system malfunction
Der Zweck dieses Stanford-IBM-Projekts aus dem Jahr 1980 ist es, die Verwendung von kausalen, strukturellen und teleologischen Modellen von Computersystemen bei der Diagnose von Computersystemfehlern zu untersuchen. Die Hauptkomponenten der Forschung waren die Entwicklung einer angemessenen »Maschinendefinitionssprache« für die Kodierung eines solchen Modells und die Identifizierung allgemeiner Diagnosetechniken. Jedes Modell enthielt eine Beschreibung der »Anatomie« und »Physiologie« des Systems sowie Kenntnisse darüber, wie diese Struktur die Funktion des Systems in Bezug auf die allgemeinen Konstruktionsprinzipien realisiert. Das praktische Ziel der Forschung war die Entwicklung eines automatisierten Diagnostikers für ein modernes Computersystem, wie das IBM 4331. Weitere beabsichtigte Nebenprodukte der Forschung waren ein Programm zur Unterstützung menschlicher Außendiensttechniker, eine Schulungseinrichtung für Außendiensttechniker auf der Grundlage der Gerätemodelle und Feedback zum Hardwaredesign.
Es gab bereits zahlreiche weitere Expertensysteme, die auch in der Praxis eingesetzt wurden. Praxis bedeutet, dass die Expertensysteme auf den wenigen und teuren Computern, die es in der Zeit gab, liefen. Weitere Expertensysteme waren z. B.
•Medizin:PUFF (Dateninterpretation von Lungentests) CADUCEUS (Diagnostik in der inneren Medizin)•ChemieDENDRAL (Analyse der Molekularstruktur)•GeologiePROSPECTOR (Analyse von Gesteinsformationen)•Informatik-EquipmentSystem R1 zur Konfigurierung von Computern, das der Digital Corporation (DEC) 40 Millionen Dollar pro Jahr einsparte.Computer vor 40 Jahren
Auch wenn zu Beginn der 1980er-Jahre die ersten Personal Computer auf dem Markt erschienen, waren zumeist Großrechner (im wahrsten Sinne des Wortes) in der Forschung und Wirtschaft im Einsatz. Zugriff auf diese Computer hatte man über Terminals.
[28]Die Expertensysteme liefen auf diesen Computern, die sich in fast allen Belangen sehr deutlich von einem Computer der 2020er-Jahre unterscheiden. Die Rechenleistung und die Speicherfähigkeit waren um ein Vielfaches geringer (s. u.) und als User-Interface standen nur ein Monitor und eine Tastatur zur Verfügung. Mikrofone oder Kameras für Sprach- und Bildverarbeitung gab es in den Laboren der Universitäten. Die Forschung dazu war aber noch in den Anfängen.
Rechenleistung: Nach dem Gesetz von Gordon Moore verdoppelt sich die Transistoranzahl in einem Prozessor alle zwei Jahre. Ein Prozessor hat im Jahr 2020 ca. 5 x 1010 Transistoren, während der in den 80ern sehr weit verbreitete 80286Prozessor von Intel nur 105 besaß. Entsprechend gering war auf die Rechenleistung damaliger Computer. Mittlerweile ist Moore’s Gesetz aber an seine Grenzen gestoßen.
Abb. 2: Moore’s Law von Max Roser, Hannah Ritchie
Speicherkapazität: Einen ähnlichen Verlauf hat auch die Entwicklung der Kapazitäten des Haupt- und Massenspeichers genommen. Auch wenn es in den 1980er-Jahren bereits erste Massenspeicher mit einer Kapazität gab, die im Giga-Byte-Bereich lag, so waren die am meisten verbreiteten doch eher im mittleren Mega-Byte-Bereich angesiedelt.
Grob gesagt benötigte ein Computer inklusive Energieversorgung und Kühlung von 1985, der die Leistung eines Business-Notebooks von 2020 hatte, den Raum einer kleinen Sporthalle.
Zusätzlich war die Hardware in den 1980er-Jahren sehr teuer im Vergleich zu den Preisen, die in dem 2020er-Jahren gelten. Die Anschaffung und den Betrieb der für ein [29]KI-System notwendigen IT-Landschaft konnten sich somit nur Konzerne wie z. B. IBM oder gut ausgestattete Forschungseinrichtungen wie z. B. Stanford leisten.
Verglichen mit anderen Disziplinen der Wissenschaften gab es in den 1980er-Jahren nur sehr wenige Personen, die sich mit der Informatik und speziell mit Künstlicher Intelligenz beschäftigt hatten.
JahrStudienanfänger219752.04819804.827199013.124200038.083202039.048Auch wenn sich die Zahl der Informatik-Studierenden an Universitäten und Fachhochschulen Ende 1980er-Jahre verglichen mit 1975 vervielfacht hatte, waren die Absolventen noch nicht in der Wirtschaft oder der Forschung so angekommen, dass sie die KI dort nutzbringend einsetzen konnten.
Die Zusammenarbeit der KI-Experten beschränkte sich aufgrund fehlender digitaler Vernetzungsmöglichkeiten auf die Veröffentlichung von Arbeiten und den direkten persönlichen Austausch auf Konferenzen. Zudem war eine enge Zusammenarbeit von Forschung und Wirtschaft gerade erst am Entstehen, sodass auch hier die Austauschmöglichkeiten eher beschränkt waren.
Die gesamte KI-Entwicklung spielte sich mehr oder weniger in den USA, Japan und Westeuropa ab. Damit waren die Distanzen für einen schnellen Austausch oder eine Zusammenarbeit zu groß. Eine breite internationale Gemeinschaft an Forschern und Anwendern gab es somit nicht.
In Deutschland fehlten für die Gründung von Unternehmen direkt aus den Universitäten heraus neben dem Geschäftsmodell, einer öffentlichen Förderung und dem Wagniskapital auch die Vision in der Wirtschaft, mit Künstlicher Intelligenz »etwas Gewinnbringendes anzufangen«. Insofern wurden erfolgsversprechende Abschluss[30]arbeiten oder Promotionen nicht in Form von Start-ups fortgeführt, wie das heutzutage der Fall ist. Und damit entstand auch keine KI-Community.
Als KI-Winter bezeichnet man Phasen, in denen Forschungsförderung, Start-up-Finanzierung und Investitionen in die Künstliche Intelligenz sehr stark zurückgefahren werden. Der erste KI-Winter war Anfang der 1970er-Jahre, da sich die Forschungsrichtung neuronaler Netze zu dem Zeitpunkt in einer Sackgasse befand3.
Ähnliches passierte auch Ende der 1980er-Jahre, da sich die Idee der Expertensysteme nicht durchsetzen konnte. Die hochgesteckten Erwartungen an den Erfolg von Expertensystemen wurden nicht erfüllt. Dies führte zum zweiten KI-Winter.
Was macht man, wenn eine Idee nicht funktioniert? Man zieht sich zurück und entwickelt neue Ideen bzw. verfolgt andere Ansätze. Dies hat man hinsichtlich der KI während der beiden Phasen des KI-Winter auch gemacht4.
Bereits Mitte der 1980er-Jahre gab es in der Forschung wieder erste Arbeiten, die sich mit mehrschichtigen neuronalen Netzen beschäftigten, und dabei erfolgreich die Ursachen für den ersten KI-Winter beseitigten. Die neuronalen Netze waren damit wieder das Forschungsthema, in dem für die KI eine Zukunft zu sehen war. Die ersten neuronalen Netze waren noch sehr simpel, zumal die Rechenleistung keine komplexen Berechnungen zuließ. Dennoch gab es Erfolge in den Bereichen Bildverarbeitung und Spracherkennung.
Neuronale Netze haben sich heute in der KI etabliert, ebenso wie Kameras, Mikrofone und weitere Sensoren, die wie selbstverständlich als Benutzerschnittstellen dienen. Die Algorithmen in den KI-Systemen sind lernfähig geworden. Dazu beigetragen hat Mitte der 1990er-Jahre die Entwicklung des Data Mining – also der statistischen Auswertung großer Datenmengen – und die Entwicklung des Deep Learning Anfang der 2000er-Jahre. Deep Learning ist eine Methode des Machine Learnings in mehrschichtigen neuronalen Netzen, in der die KI lernt, mit der gestellten Aufgabe umzugehen. [31]Auch an regelbasierenden KI-Systemen wird wieder geforscht, denn man hat erkannt, dass regelbasierende Systeme ihre Vorteile haben und eine sehr gute Ergänzung zu datenbasierenden Systemen sind. Der wesentliche Unterschied von heute und den 1980er-Jahren ist die automatische Erzeugung der Regeln gegenüber der damaligen manuellen Arbeit des Knowledge Engineers.
Dies führt zu einer großen Zahl an unterschiedlichen Einsatzmöglichkeiten für KI-Systeme und damit einhergehend zu einer großen Zahl an Unternehmen, die KI-Systeme entwickeln und solchen, die sie einsetzen5.
Auch in Deutschland hat sich eine KI-Community entwickelt. Durch die europäische, nationale und regionale Förderung gibt es eine Vielzahl von wirtschaftlich erfolgreichen etablierten Unternehmen, deren Geschäftsmodell auf KI-Anwendungen basiert.
Beim praktischen Einsatz von KI-Systemen gilt heute China neben den USA als führende Nation. Darüber hinaus haben viele weitere Länder Pläne zur Entwicklung der KI-Forschung und zum praktischen Einsatz in der Wirtschaft entwickelt6. Länder wie Indien und China, die heute die KI neben den USA und Japan vorantreiben, waren in den 1980er-Jahren noch technologisches Entwicklungsland.
Weltweit ergeben sich täglich neue Einsatzmöglichkeiten für KI, z. B. in der Prognose von Einkaufs- und Absatzmengen, als Entscheidungshilfe in Produktionsprozessen, als Unterstützung in der medizinischen Diagnose oder als Assistenzsysteme für autonomes Autofahren. Und es gibt Herausforderungen in der KI wie z. B. die »Explainable AI«, die sich mit der Erklärbarkeit von Ergebnissen, die durch eine KI erzielt wurden, beschäftigt. Die Erklärbarkeit von KI-Ergebnissen ist eine Voraussetzung insbesondere für den Einsatz in sicherheitskritischen Umgebungen wie autonomes Autofahren. Eine weitere Herausforderung ist die Frage, wie robust KI-Systeme auf fehlerhafte Daten reagieren und dabei keine Sicherheitslücken offenbaren oder zu Fehlfunktionen führen. Es gibt also noch sehr viel zu tun, um die Künstliche Intelligenz weiterzuentwickeln und die offenen Fragen zu beantworten.
1 Diese Herausforderung existiert heute immer noch unter dem Begriff »Explainable AI«. Für bestimmte Anwendungen der KI wie z. B. autonomes Fahren ist die Herleitung des Ergebnisses einer KI-Anwendung zwingend notwendig.
2 Quelle: Statistisches Bundesamt, Wiesbaden.
3 M. Tim Jones: Artificial Intelligence: A Systems Approach. Jones & Bartlett, Sudbury (MA) 2015, ISBN 9781449631154, S. 8.
4 Amy J. Connolly, T. Grandon Gill (Hrsg.): Debates in Information Technology. Muma Business Press, Santa Rosa (CA) 2015, ISBN 9781681100005, S. 110–111.
5 Bundesverband Digitale Wirtschaft (BVDW) e. V.: KI-Monitor 2021.
6 Tim Dutton: An Overview of National AI Strategies.