Digitale Synapsen - René Schröder - E-Book

Digitale Synapsen E-Book

René Schröder

0,0

Beschreibung

Das Buch "Digitale Synapsen - Eine Reise durch Künstliche Intelligenz und ChatGPT" beleuchtet die spannende Welt der Künstlichen Intelligenz. Die Reise beginnt mit der Erklärung von Künstlicher Intelligenz und erklärt den Aufbau von neuronalen Netzen. Weiterhin wird ChatGPT detailliert betrachtet und die Erstellung von Prompts erklärt. Es gibt wertvolle Tipps zur Nutzung von ChatGPT. Die Reise beinhaltet zudem die Betrachtung von gesetzlichen und europäischen Bestimmungen, bekannte Anwendungen mit Künstlicher Intelligenz und einem interessanten Ausblick auf die Zukunft der Künstlichen Intelligenz. Eine ganzheitliche Betrachtung von Risiken und Chancen zieht sich durch das gesamte Buch. Künstliche Intelligenz ja - aber SICHER! Jeder der sich für Künstliche Intelligenz, ChatGPT und den Chancen und Risiken interessiert wird hier fündig.

Sie lesen das E-Book in den Legimi-Apps auf:

Android
iOS
von Legimi
zertifizierten E-Readern
Kindle™-E-Readern
(für ausgewählte Pakete)

Seitenzahl: 173

Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:

Android
iOS
Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



Für unseren Sohn

dessen Lächeln heller strahlt als der hellste Stern am Nachthimmel. Du bist das wunderbarste Geschenk des Lebens. Möge dein Weg stets von Liebe, Erfolg und unendlicher Entdeckungsfreude begleitet sein.

Inhaltsverzeichnis

1. Einleitung

2. Allgemeines

3. Grundlagen

3.1. Einführung in die Thematik

3.2. Ein zeitlicher Rückblick

3.3. Trends und Treiber

3.3.1. Technologische Trends und Treiber

3.3.2. Ökonomische Trends und Treiber

3.4. Was ist Intelligenz?

3.4.1. Der Ansatz von Thorndike

3.4.2. Die Grundintelligenz

3.4.3. Kognitive Fähigkeiten

3.4.4. Das Lernen

3.5. Was ist Künstliche Intelligenz?

3.5.1. Programmierte Systeme

3.5.2. Arten der Künstlichen Intelligenz

3.5.3. Schwache Künstliche Intelligenz

3.5.4. Kognitive Künstliche Intelligenz

3.5.5. Allgemeine Künstliche Intelligenz

3.5.6. Unterschiede

3.6. Anwendungsbereiche

3.6.1. Bereiche und Positionierung

3.6.2. Maschinelles Lernen

3.6.3. Nicht überwachtes Lernen

3.6.4. Überwachtes Lernen

3.6.5. Bestärkendes Lernen

3.6.6. Tiefes Lernen

3.7. Faszination Künstliche Intelligenz

3.7.1. Wie lernt Künstliche Intelligenz?

3.7.2. Unterschiede in den Netzwerken

3.8. Neuronale Netze

3.8.1. Elemente eines neuronalen Netzwerks

3.8.2. Eingabeschicht

3.8.3. Versteckte Zwischenschicht

3.8.4. Ausgabeschicht

4. Anwendungen im Privatleben

4.1. Recommendation Engines (RE)

4.2. Computer Vision (CV)

4.3. Natural Language Processing (NLP)

4.4. Large Language Models (LLM)

5. Sprachmodelle

5.1. Chancen von LLMs

5.2. Risiken von LLMs

5.3. Szenarien und Maßnahmen

5.4. Zusammenfassung

5.5. Chatbots und ChatGPT

5.5.1. Was sind Chatbots?

5.5.2. Geschichte der Chatbots

5.5.3. OpenAI und ChatGPT

5.5.4. Wie funktioniert ChatGPT?

5.5.5. ChatGPT – Anwendungen

5.5.6. ChatGPT – Grenzen

5.6. Prompts

5.6.1. Definition von Prompts

5.6.2. Was sind gute Prompts?

5.6.3. Was ist ein Prompt Engineer?

5.7. ChatGPT in der Praxis

5.7.1. Der perfekte Prompt

5.7.2. Die Prompt-Schablone

5.7.3. Übersetzungen

5.7.4. Zielsprachen

5.7.5. Textstil

5.7.6. Vereinfachung von Texten

5.7.7. Textzusammenfassung

5.7.8. Buchzusammenfassungen

5.7.9. Verbesserung von Formulierungen

5.7.10. Lektorat

5.7.11. Wortwiederholungen / Synonyme

5.8. ChatGPT Plugins

5.8.1. Plugin: Prompt Perfect

5.8.2. Plugin: Stories

5.8.3. Plugin: Photorealistic

5.8.4. Plugin: HeyGen

5.9. ChatGPT DALL-E 3

5.10. ChatGPT und GPTs

6. Bildgeneratoren

6.1. Bildentstehung

6.2. Datenquelle

6.3. Eigentümerschaft

7. Einhaltung von Gesetzen und Vorgaben

7.1. Datenschutz

7.2. Urheberrecht

7.3. Markenrecht

7.4. EU Artificial Act

7.4.1. Wer ist betroffen?

7.4.2. Was ist der Geltungsbereich?

7.4.3. Was ist zu erwarten?

7.4.4. Wie wird KI klassifiziert?

7.4.5. Transparenz und Rechenschaftspflicht

8. Moral und Ethik

8.1. Was ist Moral?

8.2. Was ist Ethik?

8.3. Was ist der Unterschied?

9. Chancen und Risiken

9.1. Chancen

9.2. Risiken und Nebenwirkungen

9.2.1. Fehlende Faktizität

9.2.2. Fehlende Reproduzierbarkeit

9.2.3. Fehlende Aktualität

9.2.4. Verzerrungen in den Daten

9.2.5. Datenschutz und Privatsphäre

9.2.6. Sicherheitsrisiken

9.2.7. Mangel an Erklärbarkeit

9.2.8. Fehlende Verantwortung

9.2.9. Fehlende Sicherheit bei generiertem Code

9.3. Prognose und Entwicklung

10. Fazit und Ausblick

10.1. Künstliche Intelligenz und Mensch

10.2. Künstliche Intelligenz und Gesellschaft

10.3. Künstliche Intelligenz und Wissenschaft

10.4. Künstliche Intelligenz und Ethik

1. EINLEITUNG

Begriffe wie Intelligente Systeme oder gar Künstliche Intelligenz sind keine Worte, die seit Jahrhunderten in der Gesellschaft Verwendung finden. In der Schöpfungsgeschichte der römisch-katholischen Bibel standen am Anfang nur die Menschen.

„Dann sprach Gott: Lasst uns Menschen machen als unser Abbild, uns ähnlich. Sie sollen herrschen über die Fische des Meeres, über die Vögel des Himmels, über das Vieh, über die ganze Erde und über alle Kriechtiere auf dem Land.“

(Bibelzitat, Buch Genesis, Kapitel 1, Vers 26)

Erst der Mensch entwickelte Hilfsmittel und später echte Maschinen. Dass diese Maschinen selbst denken, lernen und Entscheidungen treffen können, ist eine großartige Revolution, mit der die Menschheit im Laufe des 20. Jahrhunderts konfrontiert wurde.

Schon von Anbeginn der Zeit delegierten Menschen Aufgaben, die sie selbst nicht ausführen wollten. Zu Beginn nur an andere Menschen, wie Sklaven, Spezialisten oder auch Tiere. Später kamen mechanische Hilfsmittel hinzu.

Mechanik bedeutet die Kunst, Maschinen zu erfinden und zu bauen, um sich die Arbeiten zu erleichtern. Ungefähr 4.000 v. Chr. wurde das Rad erfunden, eine der größten und bedeutendsten Erfindungen der Menschheit.

Die Verbindung zwischen Sokrates, einem der großen Philosophen der Antike, und Künstlicher Intelligenz mag an dieser Stelle auf den ersten Blick nicht offensichtlich sein, aber es gibt mehrere Aspekte, in denen Sokratische Prinzipien und Methoden für das Verständnis und die Entwicklung von KI relevant sind.

Sokrates ist berühmt für seine Methode des Dialogs, bei der durch gezielte Fragen tiefere Einsichten und Erkenntnisse erlangt werden. Diese Methode des Hinterfragens und kritischen Denkens ist zentral für die Entwicklung von KI-Systemen, die darauf ausgelegt sind, komplexe Probleme zu lösen und Entscheidungen zu treffen.

Insgesamt bietet Sokrates' Philosophie wichtige Einblicke und Grundlagen, die bei der Entwicklung und Reflexion über Künstliche Intelligenz berücksichtigt werden können, besonders in Bezug auf Ethik, Erkenntnistheorie und das Verständnis menschlicher Intelligenz

Abbildung 1 Sokrates

(Generierung: DALL-E)

„Die größte Weisheit ist, zu wissen, dass man nichts weiß.“ (Sokrates 469 v.Chr.)

2. ALLGEMEINES

Künstliche Intelligenz polarisiert, weil sie sowohl immense Vorteile als auch signifikante Herausforderungen und Bedenken mit sich bringt.

Künstliche Intelligenz ist in aller Munde, sie ist facettenreich, und es gibt viele unterschiedliche Perspektiven. Die drastischen Auswirkungen digitaler Technologien auf die gewohnte Lebens- und Arbeitswelt sind so umfassend, dass sie als digitale Revolution bezeichnet werden können. Der wichtigste Rohstoff für alle digitalen Technologien sind enorme Datenmengen. Durch diesen Rohstoff wird die Künstliche Intelligenz zum Leben erweckt.

Bei geschicktem Einsatz kann Künstliche Intelligenz den Fachkräftemangel in vielen Bereichen zumindest lindern, so dass bereits berufstätige Menschen höherwertige, besser bezahlte und erfüllendere Aufgaben übernehmen können. Das Wissen über diese Technologie muss in das Unternehmen eingebracht werden. Dieses Buch erklärt die Grundlagen, geht auf ethische und soziale Fragen ein und geht auf Chancen und damit verbundene Risiken ein.

Viele Themen und Fragestellungen stehen der Künstlichen Intelligenz gegenüber, insbesondere die nachfolgenden:

Arbeitsplatz und Wirtschaft

Künstliche Intelligenz hat das Potenzial, viele Arbeitsplätze zu automatisieren, was einige als Chance für erhöhte Effizienz und Produktivität sehen. Andere hingegen sehen darin eine Bedrohung für menschliche Arbeitsplätze und befürchten, dass die Vorteile der Künstlichen Intelligenz ungleich verteilt sein könnten, wobei die reichsten und mächtigsten Personen und Unternehmen den größten Nutzen ziehen.

Datenschutz

Systeme der Künstlichen Intelligenz sind auf große Mengen von Daten angewiesen, und das Sammeln, Speichern und Verarbeiten dieser Daten wirft ernsthafte Datenschutzbedenken auf. Menschen sind besorgt darüber, wie ihre persönlichen Daten genutzt und geschützt werden.

Verantwortlichkeit und Transparenz

Systeme der Künstlichen Intelligenz können oft Entscheidungen treffen, die Menschenleben beeinflussen können, wie z.B. in der medizinischen Diagnostik oder im autonomen Fahren. Es ist jedoch oft schwer zu verstehen, wie diese Systeme ihre Entscheidungen treffen (ein Problem, das oft als "Black-Box"-Problem bezeichnet wird), und es kann schwierig sein, Verantwortlichkeit festzustellen, wenn etwas schiefgeht.

Ethik und Voreingenommenheit

Systeme der Künstlichen Intelligenz können die Vorurteile widerspiegeln, die in den Daten vorhanden sind, auf denen sie trainiert wurden. Das hat zur Sorge geführt, dass Künstliche Intelligenz dazu beitragen könnte, bestehende Ungerechtigkeiten zu verstärken.

Sicherheit

Es gibt Bedenken, dass Künstliche Intelligenz in schädlicher Weise eingesetzt werden könnte, z.B. in autonomen Waffen oder durch Deepfakes, die zur Verbreitung von Desinformation beitragen könnten.

Langzeitfolgen

Einige Denker und Wissenschaftler haben ihre Besorgnis über die potenziellen langfristigen Auswirkungen der künstlichen Intelligenz geäußert, darunter die Befürchtung, dass eine hochentwickelte Künstliche Intelligenz, die menschliche Intelligenz weit überragt, eine Gefahr für die Menschheit darstellen könnte.

Diese und andere ähnliche Überlegungen führen dazu, dass Künstliche Intelligenz von verschiedenen Personen und Gruppen sehr unterschiedlich wahrgenommen wird, was zu geteilten Meinungen führt.

Es ist daher wesentlich, dass die Gesellschaft einen offenen und ausgeglichenen Diskurs über diese Themen pflegt, um sicherzustellen, dass die Vorteile der Künstlichen Intelligenz voll ausgeschöpft und die damit verbundenen Risiken und Herausforderungen angemessen bewältigt werden.

3. GRUNDLAGEN

In den letzten Jahren hat sich die Künstliche Intelligenz zu einem unverzichtbaren Hilfsmittel entwickelt, auch wenn viele Menschen nicht wissen, dass sie diese täglich einsetzen. Künstliche Intelligenz unterstützt bei der Bereitstellung von Suchergebnissen im Internet, bei der Aufnahme von Fotos mit einem Smartphone oder die bekannten Sprachassistenten wie Siri, Alexa oder Google Home.

Künstliche Intelligenz hat das Potential, sehr große Herausforderungen der Menschen zu bewältigen. Die nachstehenden Erläuterungen sind vereinfacht dargestellt und sollen ein Grundverständnis vermitteln.

3.1. Einführung in die Thematik

Künstliche Intelligenz (KI – englisch Artificial Intelligence: AI) ist keine neue Technologie, sie gibt es schon seit den 1950er Jahren. Sie kann als angewandte Mathematik gesehen werden, die mit Computern unterstützt wird.

Der Begriff „Artificial Intelligence“ (Künstliche Intelligenz) ist ein Teilgebiet der Informatik und wurde bereits 1956 auf einer Konferenz in New Hampshire am Dartmouth College geprägt. Teilnehmer dieser Konferenz waren unter anderem John McCarthy und Marvin Minski, zwei Begründer der Künstlichen Intelligenz. In den frühen Jahren der Künstlichen Intelligenz versuchte man ab 1957 in Forschungseinrichtungen der USA Computersysteme zu entwickeln, die alle gestellten Probleme lösen sollten. Man nannte sie General Problem Solver (GPS). Nach gut 10 Jahren wurde dieses Vorhaben eingestellt.

Stattdessen fokussierte man sich nun auf Computersysteme, die gezielt spezielle Probleme lösen sollten. Diese wurden Expertensysteme genannt. Die Expertensysteme liefen auf Computern, die sich in allen Belangen sehr deutlich von Computern der 2020er Jahre unterscheiden. Themen wie Rechenleistung und Speicherkapazität sind in diesem Anwendungsbereich ein sehr wichtiger Aspekt.

Die Entwicklung stieß Mitte der 70er Jahre an ihre Grenzen, das lag auch vor allem an den mangelnden Rechenkapazitäten. In den 1980er Jahren gab es nur sehr wenige Personen, die sich mit Künstlicher Intelligenz beschäftigt hatten. Die Zusammenarbeit beschränkte sich aufgrund fehlender digitaler Vernetzung auf die Veröffentlichung von Arbeiten und Austausch auf Kongressen. Mitte der 1980er Jahre gab es erste Forschungsarbeiten, die sich mit mehrschichtigen neuronalen Netzen beschäftigen. Dadurch entstand für die Künstliche Intelligenz wieder eine Zukunft der Machbarkeit. Die ersten neuronalen Netze waren noch sehr simpel, zumal die Rechenleistung keine komplexen Berechnungen zuließ. Damit entstand keine Community zur Künstlichen Intelligenz.

Durch den Sieg der IBM Maschine „Deep Blue“ gegen den Schachweltmeister Kasparow Mitte der 90er Jahre kam das Thema wieder in die Öffentlichkeit.

Abbildung 2 Schach: Mensch gegen Maschine (Generierung: DALL-E)

Die Erwartungen an Art und Leistung von Systemen zu Lösungen von Aufgaben hat sich zunehmend verändert. Der wesentliche Vorteil von heute ist die automatische Erzeugung von Regeln gegenüber der damaligen manuellen Arbeit eines Knowledge Engineers. Durch starke Entwicklungen in der Technologie und Rechenleistung, neuen Verfahren und dem rasanten Wachstum der nutzbaren Datenmenge. Diese Entwicklung hält bis heute an. Es gibt immer noch sehr viel zu tun, um die Künstliche Intelligenz weiterzuentwickeln und die offenen Fragen zu beantworten.

In den 60er Jahren entsprachen die damaligen Taschenrechner den Vorstellungen Künstlicher Intelligenz. Diese Taschenrechner sind heute völlig normal und erwecken kein großartiges Interesse mehr. Die „Taschenrechner“ der heutigen Zeit sind z.B. Gesichtserkennung und autonom fahrende Fahrzeuge. Es erweckt den leichten Eindruck: sobald es funktioniert, gilt es nicht mehr als Künstliche Intelligenz.

Eine Frage in Bezug auf Künstliche Intelligenz stellt sich immer wieder. Warum wird die Künstliche Intelligenz in der Regel immer als menschenähnliche Roboter oder als Gehirne dargestellt? Es gibt verschiedene Gründe, warum Menschen Künstliche Intelligenz oft als humanoide Roboter darstellen. Einer dieser Gründe ist der Anthropomorphismus.

Anthropomorphismus bezeichnet den Prozess, bei dem Menschen nicht-menschlichen Entitäten oder Objekten menschenähnliche Merkmale, Gefühle oder Verhaltensweisen zuschreiben. Dies umfasst eine Vielzahl von Entitäten, wie Tiere, Pflanzen, geographische Formationen (z.B. Flüsse, Berge), Gottheiten, künstlerische Werke, Animationen und sogar abstrakte Ideen.

Diese Praxis ist weltweit in unterschiedlichen kulturellen und künstlerischen Ausdrucksformen anzutreffen. In der Literatur, wie etwa in Fabeln, agieren Tiere wie Menschen oder sprechen, und in religiösen Schriften werden Götter mit menschlichen Eigenschaften dargestellt.

Abbildung 3 Vorstellung eines KI-Roboters

(Generierung: DALL-E)

Im zeitgenössischen Kontext begegnet uns Anthropomorphismus häufig in Animationsfilmen, Kinderliteratur und Werbung, wo er dazu dient, komplexe Themen zu vereinfachen oder emotionale Verbindungen zu schaffen.

Die Neigung, nicht-menschliche Objekte oder Wesen mit menschlichen Attributen zu versehen, hat möglicherweise auch psychologische Gründe. Es wird oft als Mittel betrachtet, mit dem Menschen ihre Umgebung begreifen und mit ihr interagieren, indem sie ihr menschliche Charakteristika zuschreiben. Zudem spielt Anthropomorphismus eine wesentliche Rolle bei der Entwicklung von Empathie und Verantwortungsbewusstsein gegenüber der Umwelt und nicht-menschlichen Lebewesen.

3.2. Ein zeitlicher Rückblick

Die Entwicklung der Künstlichen Intelligenz seit den 1950er Jahren ist eine faszinierende Reise von theoretischen Konzepten bis hin zu praktischen Anwendungen, die heute den Alltag prägen. Hier ist eine grobe Übersicht über die Entwicklung der Künstlichen Intelligenz seit 1950:

1950er Jahre:

1950: Alan Turing veröffentlicht das "Turing-Test"-Konzept, ein Kriterium für maschinelles Intelligenzverhalten. 1956: Der Begriff "Künstliche Intelligenz" wird auf der Dartmouth-Konferenz geprägt. Dies gilt als Geburtsstunde der Künstlichen Intelligenz als eigenständiges Forschungsfeld.

1960er Jahre:

Frühe Programme der Künstlichen Intelligenz, wie ELIZA und SHRDLU, werden entwickelt, die einfachen menschlichen Interaktionen und Sprachverarbeitung simulieren. Die Entwicklung von ersten autonomen Robotern beginnt.

1970er Jahre:

Es gibt Fortschritte in der Theorie und Praxis von Expertensystemen, die menschliches Wissen in einem spezifischen Bereich nachahmen. Die Forschung in der Künstlichen Intelligenz stößt nun langsam auf technische und finanzielle Grenzen, was zu einem "KI-Winter" führt, einer Periode reduzierter Finanzierung und Interesse.

1980er Jahre:

Ein Wiederaufleben des Interesses an Künstlicher Intelligenz, insbesondere durch den Erfolg von Expertensystemen in der Industrie. Die Einführung von Neuronalen Netzen und Backpropagation revolutioniert das maschinelle Lernen.

1990er Jahre:

1997: IBMs Deep Blue schlägt den Schachweltmeister Garry Kasparov. Weiterhin gibt es Fortschritte in Bereichen wie maschinelles Lernen, Logik und Robotik.

2000er Jahre:

Die Entwicklung von Algorithmen für Deep Learning beginnt, was zu bedeutenden Fortschritten in der Bild- und Spracherkennung führt. Künstliche Intelligenz wird in vielen Industriezweigen, von der Finanzwelt bis zur Medizin, immer häufiger eingesetzt.

2010er Jahre:

2011: IBMs Watson gewinnt bei "Jeopardy!" gegen menschliche Champions.

2016: AlphaGo von DeepMind besiegt den Go-Weltmeister Lee Sedol, ein Meilenstein, da Go als komplexeres Spiel als Schach gilt.

Fortschritte in der Sprachverarbeitung führen zur Entwicklung von Sprachassistenten wie Siri, Alexa und Google Assistant. Künstliche Intelligenz wird in einer Vielzahl von Anwendungen eingesetzt, von selbstfahrenden Autos bis hin zu medizinischen Diagnosesystemen.

2020er Jahre:

Modelle wie GPT-3 von OpenAI setzen neue Maßstäbe in der natürlichen Sprachverarbeitung. Es gibt eine wachsende Debatte über Ethik, Datenschutz und die gesellschaftlichen Auswirkungen von Künstlicher Intelligenz.

Die Künstliche Intelligenz hat seit den 1950er Jahren erhebliche Fortschritte gemacht, von einfachen Algorithmen bis hin zu komplexen Systemen, die menschenähnliche Fähigkeiten in bestimmten Bereichen übertreffen. Die Forschung und Entwicklung in diesem Bereich gehen weiter, mit dem Ziel, Systeme der Künstlichen Intelligenz zu schaffen, die sicher, ethisch und nützlich für die Gesellschaft sind.

Nachfolgend ein grober zeitlicher Rückblick:

1931

Kurt Gödel zeigt in der Prädikatenlogik erster Stufe alle wahren Aussagen herleitbar sind.

1937

Alan Turing zeigt die Grenzen intelligenter Maschinen auf (Halteproblem)

1943

Pitts und McCulloch modellieren neuronale Netze

1950

Alan Turing definiert über den Turing Test Intelligenz von Maschinen

1951

Marvin Minsky entwickelt einen Neuronenrechner. 40 Neuronen werden durch 3000 Röhren simuliert.

1955

Arthur Samuel baut lernfähige Dame Programme, die besser spielen als ihre Entwickler

1956

Auf der Konferenz im Dartmouth College wird der Name „Artificial Intelligence“ eingeführt. Der Computer "Logic Theorist" von Allen Newell und Herbert A. Simon beweist mathematische Theoreme.

1958

McCarthy erfindet die Hochsprache LISP. Er schreibt Programme, die sich selbst verändern können.

1961

Der General Problem Solver von Newell und Simon imitiert menschliches Denken.

1963

John McCarthy und Marvin Minsky gründen das "MIT Artificial Intelligence Laboratory" und fördern die Forschung auf dem Gebiet der künstlichen Intelligenz.

1966

Joseph Weizenbaum entwickelt den ELIZA-Computerprogramm, einen Vorläufer der Chatbots.

1969

Expertensysteme werden entwickelt, um menschliches Fach-wissen in Computern zu repräsentieren. Der Mediziner de Dombal entwickelt ein Expertensystem zur Diagnose von Bachkrankheiten.

1970

Die "Backpropagation"-Methode zum Trainieren neuronaler Netze wird entwickelt.

1981

Das "Japan Fifth Generation Computer Systems Project" wird gestartet, um die Entwicklung von KI-Technologien voranzutreiben.

1986

Renaissance der neuronalen Netze. Das System Nettalk lernt das Vorlesen von Texten.

1990

Pearl, Cheeseman, Whittaker und Spiegelhalter bringen mit den Bayes-Netzen die Wahrscheinlichkeitstheorie in die Künstliche Intelligenz.

1993

Weltweite RoboCup Initiative zum Bau Fußball spielender autonomer Roboter

1997

RoboCup Wettkampf in Japan IBMs Deep Blue besiegt den Schachweltmeister Gary Kasparow

2009

Google Self Driving Car fährt auf Freeway

2010

Autonome Roboter fangen an, ihr Verhalten mittels Lernens zu verbessern.

2011

„Watson“ von IBM schlägt zwei Teilnehmer in der TV-Show „Jeopardy“, und kann schwere Fragen sehr schnell beantworten.

2012

AlexNet, ein tiefes neuronales Netzwerk, gewinnt den Image- Net-Wettbewerb und revolutioniert Deep Learning.

2014

Google kauft DeepMind, ein britisches KI-Startup

2016

AlphaGo von DeepMind besiegt den Go-Weltmeister Lee Sedol.

2020

OpenAI veröffentlicht GPT-3, ein hochentwickeltes Sprachmodell.

2023

OpenAI veröffentlich GPT-4

3.3. Trends und Treiber

Die ersten Anwendungen von Systemen zur Künstlichen Intelligenz waren sogenannte „Expertensysteme“, also Systeme, die eine genau definierte Aufgabe lösen sollten. Allerdings konnten sie zunächst die Erwartungen nicht erfüllen. Dieses änderte sich, als unter anderem immer größere Rechenkapazitäten zur Verfügung standen. Durch diese größeren Rechenkapazitäten entstanden die Treiber der Künstlichen Intelligenz.

Die zwei wichtigsten Treiber der Künstlichen Intelligenz sind die technologischen und ökonomischen Trends.

3.3.1. Technologische Trends und Treiber

Es gibt viele technologische Trends und Treiber, die das Wachstum und die Entwicklung der Künstlichen Intelligenz beeinflussen. Einige der wichtigsten sind:

Steigende Rechenleistung

Die Fähigkeit von Computern, komplexe Berechnungen durchzuführen, hat in den letzten Jahrzehnten enorm zugenommen. Dies hat es ermöglicht, Modelle der Künstlichen Intelligenz zu entwickeln und zu trainieren, die immer größere Datenmengen verarbeiten können.

Big Data

Die zunehmende Menge an digital verfügbaren Daten aus verschiedensten Quellen, wie zum Beispiel sozialen Medien, IoT-Geräten oder Unternehmensdatenbanken, bietet eine reiche Informationsquelle für Systeme der Künstlichen Intelligenz und -Algorithmen.

Cloud Computing

Durch Cloud-Technologien können Unternehmen auf flexible Rechenressourcen zugreifen und Modelle der Künstlichen Intelligenz trainieren, ohne in teure Hardware zu investieren. Dies hat die Adoption und Entwicklung von Künstlicher Intelligenz erheblich erleichtert.

Automatisiertes maschinelles Lernen (AutoML)

Tools und Technologien, die den Prozess des maschinellen Lernens automatisieren, erleichtern es auch Nicht-Experten, Modelle zur Künstlichen Intelligenz zu erstellen und einzusetzen.

Neuromorphe Computing und Quantencomputing

Beide versuchen, die Art und Weise, wie Computer Daten verarbeiten und Probleme lösen, grundlegend zu verändern, was möglicherweise zu neuen Durchbrüchen in der Künstlichen Intelligenz führen könnte.

Edge Computing

Durch das Verarbeiten von Daten am "Rand" des Netzwerks, also in der Nähe, wo sie erzeugt werden, kann die Latenz verringert und die Leistung von Anwendungen der Künstlichen Intelligenz verbessert werden.

Ethik und Künstliche Intelligenz

Mit der zunehmenden Integration von Künstlicher Intelligenz in unser Leben wächst auch die Notwendigkeit, ethische Überlegungen und Richtlinien für den Einsatz von Künstlicher Intelligenz zu entwickeln. Dies hat zu einem wachsenden Fokus auf Themen wie Fairness, Transparenz und Datenschutz in Systemen der Künstlichen Intelligenz geführt.

Natürliche Sprachverarbeitung (NLP)

Fortschritte in der NLP, wie zum Beispiel die Entwicklung von GPT-3 und GPT-4 von OpenAI, haben es ermöglicht, immer menschenähnlichere Textgenerierung und Verständnis zu erreichen.

Es ist wichtig zu beachten, dass diese Trends und Treiber sich gegenseitig beeinflussen und die Art und Weise, wie Künstliche Intelligenz entwickelt und eingesetzt wird, weiterhin prägen werden.

3.3.2. Ökonomische Trends und Treiber

Die Rolle der Künstlichen Intelligenz im Kontext der ökologischen Nachhaltigkeit und des Umweltschutzes ist zweifach: Einerseits kann Künstliche Intelligenz erhebliche Umweltauswirkungen haben, insbesondere hinsichtlich des Energieverbrauchs von Trainings der Künstlichen Intelligenz. Andererseits kann Künstliche Intelligenz als Werkzeug zur Bewältigung ökologischer Herausforderungen eingesetzt werden.

Hier sind einige der wichtigsten ökologischen Trends und Treiber in Bezug auf Künstlicher Intelligenz:

Energieeffizienz von Systemen der Künstlichen Intelligenz

Trainings der Künstlichen Intelligenz, insbesondere bei großen Modellen, können erhebliche Mengen an Energie verbrauchen. Es gibt einen wachsenden Trend und Druck, diese Systeme energieeffizienter zu gestalten, sowohl durch hardwareseitige Verbesserungen als auch durch effizientere Algorithmen.

Künstliche Intelligenz zur Vorhersage und Modellierung von Umweltveränderungen

Künstliche Intelligenz kann genutzt werden, um Klimamodelle zu verbessern, die Ausbreitung von Krankheiten zu verfolgen oder den Verlust der Artenvielfalt zu modellieren, was wichtige Informationen für Entscheidungsträger liefert.

Künstliche Intelligenz zur Verbesserung der Energieeffizienz

Künstliche Intelligenz kann dazu beitragen, Energieverbrauch und -produktion zu optimieren, zum Beispiel durch Vorhersagen von Energiebedarf und -erzeugung in Stromnetzen oder durch die Verbesserung der Energieeffizienz in Gebäuden.

Künstliche Intelligenz in der Landwirtschaft

Künstliche Intelligenz kann dazu beitragen, die Effizienz und Nachhaltigkeit der Landwirtschaft zu verbessern, beispielsweise durch präzises Farming, bei dem Sensordaten und Künstliche Intelligenz genutzt werden, um den Einsatz von Wasser, Düngemitteln und Pestiziden zu optimieren.

Künstliche Intelligenz zur Überwachung der Umwelt

Künstliche Intelligenz kann genutzt werden, um Veränderungen in der Umwelt zu überwachen, beispielsweise durch die Analyse von Satellitenbildern zur Erkennung von Entwaldung oder illegalen Fischfangaktivitäten.

Künstliche Intelligenz zur Verbesserung der Kreislaufwirtschaft

Künstliche Intelligenz kann genutzt werden, um die Effizienz von Recyclingprozessen zu verbessern, den Energieverbrauch zu reduzieren oder Materialien besser zu sortieren.

Ökologische Auswirkungen von Hardwareproduktion