7,99 €
Emotionale künstliche Intelligenz gilt als Schlüsseltechnologie der Zukunft. Künstliche Systeme sollen mitfühlend sein und Empathie in uns auslösen. Doch wie erkennen und verarbeiten künstliche Systeme menschliche Emotionen? Können sie echte Gefühle und Empathie empfinden und entwickeln? Führt die Entwicklung schmerzempfindlicher Roboter in der Biorobotik zur Auflösung der Grenze hin zu biologischen Organismen? Haben wir auch moralische Pflichten gegenüber Robotern, die unser Mitgefühl rühren? Und was ist von Roboterliebe und Sexrobotern zu halten? Die Expertin für Maschinenethik Catrin Misselhorn diskutiert die ethischen und technischen Aspekte dieser Fragen an anschaulichen Beispielen aus der Praxis und gibt einen Überblick über neue Tendenzen in der emotionalen künstlichen Intelligenz, der sozialen Robotik und Biorobotik.
Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:
Seitenzahl: 180
Catrin Misselhorn
Vom Leben mit Emotionserkennung, Sexrobotern & Co.
Reclam
E-Book-Leseproben von einigen der beliebtesten Bände unserer Reihe [Was bedeutet das alles?] finden Sie hier zum kostenlosen Download.
3., vollständig durchgesehene und ergänzte Auflage
RECLAMS UNIVERSAL-BIBLIOTHEK Nr. 962268
2024 Philipp Reclam jun. Verlag GmbH, Siemensstraße 32, 71254 Ditzingen
Covergestaltung: Cornelia Feyll, Friedrich Forssman
Gesamtherstellung: Philipp Reclam jun. Verlag GmbH, Siemensstraße 32, 71254 Ditzingen
Made in Germany 2024
RECLAM, UNIVERSAL-BIBLIOTHEK und RECLAMS UNIVERSAL-BIBLIOTHEK sind eingetragene Marken der Philipp Reclam jun. GmbH & Co. KG, Stuttgart
ISBN978-3-15-962268-2
ISBN der Buchausgabe 978-3-15-014594-4
www.reclam.de
Vorwort
1. Emotionale künstliche Intelligenz
Starke und schwache KI
Von der künstlichen Intelligenz zur emotionalen künstlichen Intelligenz
Was sind Emotionen?
Basale Emotionen
2. Wie künstliche Systeme wissen, was wir fühlen
Gesichtsbasierte Emotionserkennung
Stimmbasierte Emotionserkennung
Sentimentanalyse
Bio-Sensoren
Multimodale Ansätze
Große Sprachmodelle
Technische Herausforderungen und ethische Probleme
3. Menschliche und artifizielle Empathie
Kognitive oder affektive Empathie?
Notwendige und hinreichende Bedingungen für Empathie
Perzeptuelle Empathie als Resonanz
Empathie im menschlichen Zusammenleben
Empathie und moralisches Urteilen
Artifizielle Empathie
Theoretische Grundlagen artifizieller Empathie
4. Von empathischen Pflegerobotern und virtuellen Seelenklempnern
NICA – ein Pflegeroboter mit Empathie
Psychologische Diagnose mit Ellie
Wie empathisch sind künstliche Systeme?
5. Können Roboter Schmerzen empfinden? – Neue Tendenzen der Biorobotik
Schmerzen als Grundlage von Empathie
Steht das Zeitalter der »Blade Runner« vor der Tür?
Ist der Dualismus das Problem?
Soft Robotics und homöostatisches Wohlbefinden
Programmierbare Organismen – eine neue Lebensform?
6. Arme Alexa! – Empathie mit Robotern und virtuellen Agenten
Ein kleiner Ausflug ins Reich der Science-Fiction
Empathie und Menschenähnlichkeit
Ist Empathie mit Robotern moralisch relevant?
Empathie mit Robotern und moralisches Urteilen
Empathie mit Robotern und moralische Motivation
Empathie mit Robotern und Moralentwicklung
Konsequenzen der Argumentation
7. Freundschaft, Liebe und Sex mit Robotern
Soziale Roboter als relationale Artefakte
Sexroboter auf dem Vormarsch
Sexroboter als Pornographie
Sexroboter als Ersatz für Frauen?
Solipsistische Liebe
Solipsismus und Selbstverdinglichung
Ausblick
Literaturhinweise
Zur Autorin
Der Siegeszug der künstlichen Intelligenz schreitet unaufhaltsam fort. Mehr und mehr dringt die Technologie in Bereiche vor, die bislang dem Menschen vorbehalten zu sein schienen. Zwar übertraf die künstliche Intelligenz immer wieder punktuell bestimmte menschliche kognitive Leistungen wie etwa im Go-Spiel. Doch der Weg zu solchen kognitiven Höchstleistungen bestand stets in der überlegenen Rechenfähigkeit der künstlichen Intelligenz. Menschliche Kernkompetenzen wie Emotionen und Empathie blieben außen vor. Das ändert sich zunehmend. Seit den 1980er Jahren macht sich der KI-Visionär Marvin Minsky dafür stark, auch Emotionen bei der Entwicklung künstlicher Intelligenz zu berücksichtigen, um komplexe Aufgaben besser zu bewältigen.1
Dies gilt umso mehr, wenn künstliche Intelligenz Menschen verstehen und mit ihnen interagieren soll. Entsprechende Fähigkeiten gewinnen zunehmend an Bedeutung, weil in der Wirtschaft in den letzten Jahrzehnten ein Umdenken stattgefunden hat. Das Paradigma des Menschen als Homo oeconomicus, der nur darauf aus ist, seinen Nutzen rational zu maximieren, ist in die Kritik geraten. Stattdessen hat sich herausgestellt, wie sehr Menschen sich auch in ihren ökonomischen Entscheidungen von Emotionen und Affekten leiten lassen. Geschäftsanwendungen künstlicher Intelligenz versuchen diesen Wandel abzubilden, um den Menschen als Kunden, aber auch als Mitarbeiter besser zu erfassen.
Durch die zunehmende Automatisierung wandelt sich auch das Erscheinungsbild menschlicher Arbeitsplätze. Soziale Interaktion und Kommunikation stehen immer mehr im Vordergrund. Doch selbst in diesem Feld sind die Menschen nicht mehr unter sich. Vielmehr lautet das neue Stichwort der sogenannten Arbeitswelt 5.0 Kooperation zwischen Mensch und Maschine. Künstliche Intelligenz soll nicht nur Routineaufgaben im Büro erledigen, Versicherungsfälle abwickeln oder Teile der Kundenkommunikation führen. Sie soll auch anspruchsvollere soziale Tätigkeiten übernehmen, etwa die Motivation von Schülern einschätzen oder auf psychische Störungen aufmerksam machen. Um diese Aufgaben zu erfüllen, müssen die Systeme in der Lage sein, menschliche Emotionen zu erkennen und angemessen auf diese zu reagieren.
Künstliche Systeme und Roboter sollen darüber hinaus Helfer, soziale Gefährten und Liebhaber sein. Kameras, Mikrofone und Sensoren im Haus sollen die Stimmung der Nutzer erkennen und etwa Beleuchtung und Musik entsprechend anpassen. Pflegeroboter sollen sich um alte Menschen kümmern, soziale Roboter Einsamen Gesellschaft leisten, und Sexroboter sollen nicht nur die üblichen sexuellen Bedürfnisse erfüllen, sondern auch solche Vorlieben, die in der realen Welt moralisch anstößig oder gar gesetzlich verboten sind.
Dieses Buch gibt einen Überblick über die noch recht junge Disziplin der emotionalen künstlichen Intelligenz und will zu einer kritischen Auseinandersetzung anregen. Der Schwerpunkt liegt auf Technologien, die ökonomisch relevant sind und unseren Alltag grundlegend verändern könnten:
Im ersten Kapitel werden die Grundbegriffe der emotionalen künstlichen Intelligenz erläutert. Das zweite Kapitel stellt die wichtigsten Methoden und Entwicklungen zur Erkennung von Emotionen durch künstliche Systeme dar und diskutiert sie aus ethischer Sicht. Wie sich zeigt, zeichnen sich diese Technologien durch einen grundlegenden Mangel an Empathie aus. Deshalb wendet sich das dritte Kapitel dem Schlüsselbegriff der Empathie zu und thematisiert die Bedeutung zwischenmenschlicher Empathie sowie die Möglichkeit, sogenannte artifizielle Empathie in künstlichen Systemen zu realisieren.
Das vierte Kapitel beschäftigt sich mit zwei Beispielen künstlicher Systeme, die den Anspruch haben, eine empathische Interaktion mit den Nutzern zu ermöglichen. Das eine stammt aus der Altenpflege und das andere aus der klinischen Psychologie. Beide werden zwar von den Nutzern durchaus als empathisch interpretiert, sie empfinden jedoch nicht wirklich Empathie. Um dies zu erreichen, wäre es notwendig, künstliche Systeme zu konstruieren, die selbst Emotionen haben können. Dieser Möglichkeit geht das fünfte Kapitel am Beispiel des Schmerzempfindens nach, das für die Entwicklung artifizieller Empathie besonders bedeutsam ist.
Das sechste Kapitel wendet sich der Beobachtung zu, dass Menschen nicht nur für Menschen, sondern auch für Roboter Empathie empfinden. Zwar gleicht dieses Gefühl einer optischen Täuschung, dennoch muss man es in moralischer Hinsicht ernst nehmen und sich fragen, in welchen Bereichen solche Technologien sinnvoll und wünschenswert sind.
Diese Frage stellt sich mit besonderer Dringlichkeit für soziale Roboter, die dafür geschaffen werden, uns als Freunde, Sexualpartner oder sogar Geliebte zu dienen. Im abschließenden siebten Kapitel wird geklärt, worin sich soziale Roboter von anderen unbelebten Objekten unterscheiden, zu denen wir eine emotionale Bindung aufbauen können. Heiß umstritten sind vor allem Sexroboter. Wir werden diskutieren, inwiefern sie moralisch problematisch sind und ob der Kampagne zum Stopp von Sexrobotern recht zu geben ist. Doch Roboter versprechen nicht nur Sex, sondern auch die perfekte Liebe. Ob sie dieses Versprechen einzulösen vermögen oder ob die Liebe die letzte Bastion des Menschlichen ist, in die die künstliche Intelligenz nicht vordringen kann, wird sich am Ende des Buchs zeigen.
Das Forschungsgebiet der künstlichen Intelligenz (KI) stellt sich die Aufgabe, intelligentes Problemlösungsverhalten durch Maschinen nachzubilden oder zu simulieren, beispielsweise visuelle Wahrnehmung, Spracherkennung und -produktion, automatisiertes Schließen und Entscheiden. Je nachdem, wie stark der damit verbundene Anspruch ist, lassen sich zwei Formen der KI voneinander unterscheiden.
Schwache KI ist auf die Lösung konkreter Anwendungsprobleme bezogen, menschliche Intelligenz wird im besten Fall nachgeahmt. Starke KI wird hingegen mit dem Anspruch verbunden, eine dem Menschen vergleichbare allgemeine und flexible Form der Intelligenz hervorzubringen. Die starke KI wirft die Frage auf, wann man einem System Intelligenz in einem menschlichen Sinn zuschreiben sollte.
In diesem Zusammenhang hat eine Versuchsanordnung namens Turingtest Berühmtheit erlangt. Alan Turing schuf mit der Turingmaschine die theoretischen Grundlagen des modernen Digitalcomputers. In den 1950er Jahren stellte er die These auf, dass ein künstliches System in einem menschlichen Sinn als intelligent zu gelten habe, wenn es ihm gelänge, einen menschlichen Gesprächspartner in einem Imitationsspiel davon zu überzeugen, dass es sich bei ihm um einen Menschen handelt.2 Da Mensch und Computer nur über ein Display miteinander kommunizieren, wird von den äußerlichen Merkmalen der Beteiligten in dieser Situation abstrahiert. Dies soll Vorurteilen vorbeugen, die sich aus der mechanischen Erscheinungsweise einer Maschine ergeben.
Lange Zeit galt der Turingtest als eine harte Nuss: Doch mit dem Aufkommen der großen Sprachmodelle, die etwa den diversen Versionen von (Chat)GPT zugrunde liegen, kann dieser Test als bestanden gelten. Diese Sprachmodelle werden in mehreren Schritten mit Hilfe einer Unmenge von Texten darauf trainiert, Eingaben in natürlicher Sprache zu erkennen und in natürlicher Sprache zu beantworten. Die neuesten Versionen können nicht nur Text verarbeiten, sondern auch visuelle oder auditive Informationen. Die Besonderheit daran ist, dass man mit diesen Systemen über Gott und die Welt kommunizieren kann wie mit einem Menschen. Sie kombinieren nicht etwa vorgegebene Textbauteile, sondern bringen auf der Grundlage der Trainingsdaten eigene Formulierungen hervor und können anscheinend jede Frage beantworten.
Dabei reihen sie vereinfacht gesprochen Wörter nach der Wahrscheinlichkeit ihres gemeinsamen Auftretens aneinander. Sie schließen etwa darauf, welches das nächste Wort in einer Abfolge sein könnte oder welches Wort an der verdeckten Stelle eines Satzes mit hoher Wahrscheinlichkeit einzusetzen ist. Deshalb werden sie auch als »statistische Papageien« kritisiert.3 Aus diesem Grund überzeugen die Chatbots zwar durch Sprachgewandtheit und eine flüssige Konversation, nehmen es aber mit der Wahrheit nicht immer so genau, so dass man ihnen nicht blind vertrauen sollte.
So gesehen deutet die Tatsache, dass die großen Sprachmodelle den Turingtest bestehen, weniger darauf hin, dass sie denken können, sondern spricht eher dafür, dass der Test nicht angemessen ist. Dennoch verschärfen sie bezogen auf die emotionale Interaktion den Befund, dass wir allzu leicht bereit sind, künstliche Systeme als emotionale Wesen wahrzunehmen, auch dann, wenn sie über keinerlei Gefühle verfügen.
Ursprünglich bezog sich der Begriff der künstlichen Intelligenz auf Computer allgemein. Heutzutage wird der Begriff jedoch häufig in einem engeren Sinn zur Bezeichnung neuronaler Netze verwendet, die den Neuronenverbänden im menschlichen Gehirn nachempfunden sind. Hierbei handelt es sich eigentlich um eine Methode der KI, die auch unter dem Begriff des maschinellen Lernens firmiert, jedoch oft als Synonym für künstliche Intelligenz allgemein steht. Im Wesentlichen fußt das Verfahren darauf, mit Hilfe neuronaler Netze Muster in großen Datenmengen zu erkennen. Die großen Fortschritte der KI sind besonders durch das Deep Learning möglich geworden, eine Fortentwicklung des maschinellen Lernens, die sich neuronaler Netze mit mehreren Schichten der Informationsverarbeitung bedient.
Obwohl künstliche neuronale Netze mutmaßlich anders lernen als Menschen, ist es dennoch aufgrund ihrer hohen kognitiven Leistungsfähigkeit gerechtfertigt, von künstlicher Intelligenz im schwachen Sinn zu sprechen. Allerdings handelt es sich nicht um eine allgemeine Intelligenz im menschlichen Sinn, die auf die unterschiedlichsten Problemfelder anwendbar ist, wie sie die starke künstliche Intelligenz anstrebt.
Der Begriff der emotionalen künstlichen Intelligenz (in Englisch auch affective computing) wurde in den 1990er Jahren im Zuge der Debatte um die emotionale Intelligenz geprägt.4 Sie lässt sich analog zur künstlichen Intelligenz als diejenige Disziplin definieren, die es mit der Nachbildung oder Simulation von Emotionen zu tun hat, also damit, ob und wie künstliche Systeme Emotionen erkennen, ausdrücken und vielleicht sogar selbst aufweisen können.
Die Notwendigkeit emotionaler KI erwuchs aus der Einsicht, dass Emotionen eine wichtige Rolle für intelligentes Verhalten spielen. So gibt es neurowissenschaftliche Evidenzen dafür, dass emotionale Störungen aufgrund von Hirnverletzungen zu irrationalem Verhalten führen.5 Das kann selbst dann vorkommen, wenn die kognitiven Fähigkeiten im engeren Sinn, die sich durch einen klassischen IQ-Test messen lassen, nicht beeinträchtigt wurden.
Auch theoretisch ist die emotionale KI von großem Interesse, da sich die Kognitionswissenschaften erhoffen, mit Hilfe künstlicher Systeme besser zu verstehen, wie der Zusammenhang zwischen Emotionen und Kognition bei Menschen beschaffen ist. Zwar spielt die Implementation von Emotionen in künstlichen Systemen in Anwendungskontexten bislang noch keine große Rolle, doch könnte sich dies ändern, sollte sich die Hypothese bestätigen, dass Emotionen entscheidend für intelligentes Verhalten sind.6
Von besonderer Bedeutung sind Emotionen für soziale Kommunikation und Kooperation. Dies führt zu einem weiteren Motiv, emotionale KI zu betreiben. Da das menschliche Sozialverhalten stark auf Emotionen beruht, ist es naheliegend, dass auch künstliche Systeme Emotionen berücksichtigen müssen, sofern sie mit Menschen zu tun haben. Wenn Mensch und Maschine sozial miteinander interagieren sollen, kommt es darauf an, dass künstliche Systeme menschliche Emotionen zuverlässig erkennen, einordnen und sozial angemessen darauf reagieren können. Sie brauchen jedoch nicht zwangsläufig selbst über Emotionen zu verfügen, um diese Ziele zu erreichen.
In der sozialen Interaktion spielen auch Faktoren wie die visuelle Erscheinung, Mimik und Gestik eine große Rolle. Deshalb liegt es nahe, auf Roboter zu setzen, die über einen Körper, Sensoren und Aktoren verfügen. Zwar muss insbesondere emotionale KI im schwachen Sinn nicht zwangsläufig auf die gleichen Prozesse zurückgreifen, die menschlichen Emotionen zugrunde liegen. Dennoch ist eine gewisse Vertrautheit mit den Emotionstheorien für biologische Lebewesen für das Verständnis der emotionalen KI hilfreich.
Gehen wir von unserem Alltagsverständnis von Emotionen aus, so scheint es sich um episodische Reaktionen zu handeln, denen wir weitgehend passiv unterliegen, etwa wenn wir von Panik ergriffen, vor Freude überwältigt oder von Schuldgefühlen erdrückt werden. Mit episodisch ist gemeint, dass sich Anfang und Ende einer Emotion relativ eindeutig bestimmen lassen.
Außerdem umfassen Emotionen zumeist Formen körperlicher Erregung. Dazu gehören etwa erhöhter Puls, Erröten, Schweißbildung oder Tränenfluss. Im Unterschied zu anderen körperlichen Vorgängen wie etwa der Verdauung sind diese körperlichen Erregungszustände typischerweise mit einer bestimmten subjektiven Erlebnisqualität verbunden. Es fühlt sich auf eine bestimmte Art und Weise an, Freude zu empfinden, traurig oder wütend zu sein. Diese subjektive Erlebnisqualität wird in der philosophischen Debatte auch als phänomenales Bewusstsein bezeichnet und ist nicht zwangsläufig an das Auftreten körperlicher Erregung gebunden.
Außerdem beziehen sich Emotionen auf ein Objekt. Man kann fragen: Worüber ist Anne wütend? Wovor fürchtet sich Julian? Worüber freut sich Paul? Die Antworten könnten beispielsweise lauten: Anne ist wütend auf Franz, weil er ihren Stift absichtlich zerbrochen hat. Julian fürchtet sich vor dem Hund. Paul freut sich über das Buch, das Marie ihm zum Geburtstag geschenkt hat. Eine solche Bezugnahme auf ein Objekt wird in der philosophischen Emotionstheorie als Intentionalität bezeichnet.
Der Begriff der Intentionalität wird manchmal auch im Sinn von Absichtlichkeit verwendet. Doch damit hat der Objektbezug von Emotionen nichts zu tun. Der weitgehend passive Charakter von Emotionen schließt aus, dass wir sie absichtlich herbeiführen. Wir können nicht direkt beabsichtigen, uns zu freuen, wenngleich wir natürlich absichtlich nach Objekten suchen können, die Freude in uns auslösen.
Die Bezugsobjekte von Emotionen bezeichnet man als intentionale Objekte. Diese Objekte müssen nicht immer konkrete materielle Gegenstände sein: Man kann auch über die Klimakrise besorgt sein oder eine Idee bewundern. Wichtig ist jedoch, dass die Bezugsobjekte von Emotionen auf eine ganz bestimmte Art und Weise gegeben sind.
Nehmen wir an, Julia ist traurig darüber, dass Deutschland bei der Fußballweltmeisterschaft in der Vorrunde ausgeschieden ist. Das Objekt ihrer Emotion ist nicht nur das Ausscheiden der Nationalelf als solches. So könnte ein Anhänger einer anderen Mannschaft über dasselbe Ereignis hocherfreut sein. Sie erachtet es vielmehr auf eine ganz besondere Art und Weise als schlecht, nämlich im Sinn eines Verlusts. Ihre Traurigkeit beinhaltet also eine negative Bewertung des Objekts als Verlust. Andere negative Bewertungen wären etwa Peinlichkeit (dann würde sie Scham empfinden), Kläglichkeit (dann würde sie Verachtung empfinden) oder Anstößigkeit (dann würde sie Ärger empfinden).
Die Art des Bezugsobjekts und seines Gegebenseins ist wichtig, um verschiedene Emotionen voneinander unterscheiden zu können. Die subjektive Empfindungsqualität allein reicht dafür nicht aus. So lässt sich der Unterschied zwischen der Scham und der Trauer über das Ausscheiden der Fußballmannschaft nicht allein anhand der subjektiven Erlebnisqualität ausmachen. Der Bezug auf ein intentionales Objekt ist auch verantwortlich dafür, dass Emotionen begründet oder unbegründet sein können. So wäre Julians Furcht vor dem Hund unbegründet, wenn dieser nicht gefährlich, sondern ganz sanftmütig ist.
Weiterhin sind Emotionen mit bestimmten Ausdrucksformen verbunden. Sie manifestieren sich in Sprache, Haltung, Gestik und Mimik und bewirken häufig bestimmte Verhaltensweisen. So führt Furcht zu Angriff, Flucht oder Erstarrung. Emotionen lassen sich anhand dieser Merkmale gut von anderen affektiven Phänomenen abgrenzen.
Stimmungen haben ebenso wie Emotionen eine subjektive Erlebnisqualität. Es handelt sich jedoch nicht um episodische Reaktionen, und sie verfügen nicht über Bezugsobjekte. Sie gehen auch nicht mit bestimmten körperlichen Veränderungen, Ausdrucksformen oder Verhaltensweisen einher. Emotionen sind auch von körperlichen Empfindungen (wie einem Prickeln oder Ziehen) zu unterscheiden. Körperliche Empfindungen sind zwar episodisch, sie haben aber typischerweise kein Bezugsobjekt und sind nicht mit spezifischen körperlichen Veränderungen, Ausdrucksformen oder Verhaltensweisen verbunden, sondern zeichnen sich vor allem durch ihre Erlebnisqualität aus.
Charakterzüge wie Extrovertiertheit, Offenheit oder emotionale Verletzlichkeit stellen ebenfalls keine Emotionen dar. Sie weisen keine der für Emotionen charakteristischen Merkmale auf, auch wenn sie etwas damit zu tun haben mögen, zu welchen emotionalen Reaktionen jemand in bestimmten Situationen tendiert.
Emotionstheorien unterscheiden sich darin, welche Merkmale von Emotionen sie als vorrangig betrachten und wie sie deren Wechselspiel verstehen. So kommt es für den Behaviorismus besonders auf die Verhaltensreaktionen an. Demnach wäre beispielsweise Furcht gleichzusetzen mit der Tendenz zu Flucht, Erstarrung oder Kampf. Somatische Theorien hingegen halten Emotionen für Wahrnehmungen körperlicher Veränderungen. Der Philosoph und Psychologe William James, auf den dieser Ansatz zurückgeht, prägte hierfür Ende des 19. Jahrhunderts den Slogan: Wir weinen nicht, weil wir traurig sind, sondern wir sind traurig, weil wir weinen.7
Kognitivistische Theorien konzentrieren sich auf die intentionalen Objekte von Emotionen. In der gegenwärtigen Psychologie ist der Ansatz verbreitet, Emotionen als Interpretation und Bewertung (engl. appraisal) einer Situation vor dem Hintergrund gewisser Ziele, Wünsche, Überzeugungen und Erfahrungen zu verstehen. Solche Bewertungen umfassen etwa die Relevanz für die eigene Person oder Gruppe, den Neuigkeitswert des Ereignisses, die hedonische Qualität (›angenehm‹ oder ›unangenehm‹), die Relevanz für die eigenen Bedürfnisse und die Wahrscheinlichkeit des Eintretens.
Emotionen lassen sich durch jeweils spezifische Bewertungsmuster voneinander abgrenzen, die verhältnismäßig stabil sind. Diese Bewertungsmuster unterscheiden sich in ihrer Komplexität und in ihrem kognitiven Anspruch. Sie variieren von niederstufigen biologisch bestimmten Mustern bis hin zu kognitiv anspruchsvollen, kontext- und kulturabhängigen Prozessen. Die Bewertungstheorien finden auch in der emotionalen KI Anwendung.8 Gefühlstheorien (engl. feeling theories) hingegen verstehen die subjektive Erlebnisqualität als das entscheidende Merkmal von Emotionen. Da es zweifelhaft ist, ob Maschinen tatsächlich über subjektive Gefühlsqualitäten verfügen, ist dieser Ansatz in der emotionalen KI nicht verbreitet.
Merkmale
Affektive Phänomene
Emotionen
Stimmungen
Empfindungen
Charakterzüge
Emotionstheorien
Reaktion
×
–
–
–
Episodisch
×
–
×
–
Behaviorismus
Ausdruck und Verhalten
×
–
–
–
Somatische Theorien
Körperliche Veränderungen
×
–
–
–
Gefühlstheorien
Subjektive Erlebnisqualität
×
×
×
–
Kognitivistische Theorien
Intentionalität
×
–
–
–
Tabelle 1: Emotionstheorien und affektive Phänomene
Zu den wichtigsten und in der emotionalen KI einflussreichsten psychologischen Ansätzen gehört die Theorie der basalen Emotionen. Ihre Ursprünge reichen auf Darwin (1872) zurück, der beobachtete, dass Emotionen bei Menschen und Tieren eng mit gewissen Gesichtsausdrücken und Verhaltensweisen verknüpft sind. Die Theorie der basalen Emotionen besagt nun, dass es eine Reihe von basalen Emotionen gibt, die universell geteilt und in bestimmten neuronalen Strukturen des Gehirns verankert sind. Sie werden durch eine eng begrenzte Klasse von Reizen ausgelöst und haben die evolutionäre Funktion, schnelles und effizientes Verhalten im Umgang mit bestimmten Herausforderungen der Umwelt zu ermöglichen. Sie sind nicht rational kontrollierbar und laufen weitgehend automatisch ab. Man spricht deshalb auch von Affektprogrammen.
Besonders bedeutsam für die emotionale KI waren die Arbeiten des Psychologen Paul Ekman, der diesen Ansatz seit den 1960er Jahren fortentwickelt hat.9 Im Zentrum seiner Untersuchungen stand der enge Zusammenhang zwischen basalen Emotionen und bestimmten Gesichtsausdrücken, die kulturübergreifend erkannt werden. Nach Ekman lassen sich solche Emotionen sogar allein auf der Grundlage des Gesichtsausdrucks zuordnen. Seine ursprüngliche Liste enthält sechs basale Emotionen: Furcht, Freude, Ärger, Traurigkeit, Überraschung und Ekel. Allerdings hat Ekman diese Liste später selbst modifiziert, und es wurden noch weitere, davon abweichende Aufzählungen basaler Emotionen erstellt.
Das Gegenstück zu den basalen Emotionen bilden nichtbasale oder komplexe Emotionen. Wie die rein negative Abgrenzung schon andeutet, lässt sich diese Art von Emotionen weit schwieriger unter einen einheitlichen Begriff fassen, und es gibt unterschiedliche Ansätze zu ihrer Erklärung. Einige gehen davon aus, dass komplexe Emotionen sich aus basalen Emotionen zusammensetzen. Nostalgie ließe sich etwa als Mischung aus Freude und Traurigkeit beschreiben. Für andere entstehen komplexe Emotionen aus der Ausrichtung basaler Emotionen auf ein neues, zumeist spezifischeres Bezugsobjekt. So entstünde etwa Eifersucht, indem Ärger auf eine ganz bestimmte Form der Anstößigkeit als neues Objekt bezogen würde, nämlich auf Untreue in einer Liebesbeziehung. Schließlich kann man komplexe Emotionen auch als ganz und gar eigenständige Phänomene verstehen, so dass die Klasse der Emotionen in zwei distinkte Arten auseinanderfiele.
Die Frage ist allerdings, ob es tatsächlich eine so strikte Abgrenzung zwischen basalen und nichtbasalen Emotionen gibt oder ob der Übergang zwischen automatischen und universellen Emotionsformen und ihren kognitiv anspruchsvolleren, kontextabhängigen Gegenstücken nicht eher fließend ist. Ein Beispiel wäre die Furcht vor einem gefährlichen Raubtier, die in Form eines Affektprogramms abläuft und auch im Tierreich vorkommt, gegenüber der Furcht vor einem Börsencrash, die deutlich anspruchsvollere kognitive Ressourcen sowie bestimmte soziale Organisationsformen voraussetzt. Furcht in diesem nichtbasalen Sinn scheint auch nicht mit einem bestimmten Gesichtsausdruck oder den drei Grundverhaltensformen des Affektprogramms (Flucht, Erstarrung oder Kampf) verbunden zu sein.
Da komplexe Emotionen in der emotionalen KI nur eine untergeordnete Rolle spielen, werden die unterschiedlichen Erklärungsansätze und ihre Probleme nicht näher ausgeführt. Die Theorie der basalen Emotionen hingegen gewann großen Einfluss in diesem Bereich, denn die Unterscheidung von Emotionen auf der Grundlage von Gesichtsausdrücken eignet sich vorzüglich für die algorithmische Emotionserkennung. Das Internet bietet zudem eine gute Quelle, um an jene Daten zu kommen, die notwendig sind, um solche Programme zu entwickeln.
Die automatisierte Emotionserkennung ist der derzeitig ökonomisch und sozial bedeutsamste Zweig der emotionalen KI. Diese Wachstumsbranche wird in Zukunft noch mehr an Gewicht gewinnen und Folgen für unser Zusammenleben haben. Es wurden eine Reihe von Methoden entwickelt, die in unterschiedlichen Bereichen Anwendung finden. Im Folgenden werden die grundlegenden Technologien und Verfahren zur Erkennung menschlicher Emotionen vorgestellt, die in künstlichen Systemen eingesetzt werden.