Künstliche Intelligenz -  - E-Book

Künstliche Intelligenz E-Book

0,0
25,99 €

-100%
Sammeln Sie Punkte in unserem Gutscheinprogramm und kaufen Sie E-Books und Hörbücher mit bis zu 100% Rabatt.
Mehr erfahren.
Beschreibung

Dieses ide-Heft beschäftigt sich mit dem Einfluss und den Auswirkungen der künstlichen Intelligenz auf den Deutschunterricht. Ausgehend von kultur- und bildungswissenschaftlichen Grundlagen werden die Implikationen für die unterschiedlichen Domänen des Deutschunterrichts reflektiert: Wie verändern sich schulische Schreibprozesse in Zusammenhang mit ChatGPT? Was muss zukünftig beim Lesen berücksichtigt werden, wenn Texte von künstlicher Intelligenz verfasst werden? Welche literatur- und mediendidaktischen Zugänge erfordern die neuen Technologien? Dabei sollen insbesondere auch anwendungsbezogene Szenarien im Umgang mit künstlicher Intelligenz im Unterricht darlegt werden. Die Beiträge zielen darauf ab, den wissenschaftlichen Diskurs über mediale Innovationen zu bereichern und praxisnahe Einblicke in den Deutschunterricht zu liefern.

Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:

EPUB
MOBI

Seitenzahl: 232

Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



 

 

Editorial

STEFAN KRAMMER, MATTHIAS LEICHTFRIED: Deutschunterricht im Zeichen Künstlicher Intelligenz

KI im Überblick: Grundlagen und Perspektiven

CLAUDIA DE WITT: Didaktik mit Künstlicher Intelligenz.Eine bildungswissenschaftliche Perspektive

STEFAN KRAMMER, MATTHIAS LEICHTFRIED: Zwischen Hype und Disruption. Künstliche Intelligenz im Deutschunterricht

KI in der Deutschdidaktik: Konzepte und Befunde

KIRSTEN SCHINDLER: Schreiben mit, durch und über KI.Herausforderungen und Chancen für das Schreiben in der Schule

MAIK PHILIPP: »Nun sag', KI, wie hast du's mit der Wahrheit?«Über die Lesekompetenz in Zeiten der Künstlichen Intelligenz

PHILIPPE WAMPFLER: Wie KI-Tools die Funktion vonSchriftlichkeit im Sprachunterricht verändern

CAROLIN FÜHRER, DANIEL NIX: ChatGPT als Lektürebegleitung.Können Antworten der Künstlichen Intelligenz (KI)literarisches Lernen unterstützen?

SEBASTIAN KUGLER: Literarische Intelligenz.KI als Sujet in der Literatur

MATTHIAS BALLOD: Sprachreflexion und Sprachbewusstsein fördern – durch und mit Künstliche(r) Intelligenz

KI im Klassenzimmer: Anregungen und Modelle

MELANIE HENDLER, JENNIFER-CARMEN FREY, STEPHAN SCHICKER, SABINE SCHMÖLZER-EIBINGER: Halluzinationen: Wenn KIs zu träumen beginnen. Didaktisches Konzept zur Förderung eines bewussten und kritischen Umgangs mit KI-generierten Texten in der Schule

ALEXANDER SIGMUND: Fluch oder Segen?Wie ChatGPT und Co. den Deutschunterricht verändern (werden)

MARTIN SCHASTAK, SIMON JUNG: Work smart, not hard?Analyse und Überarbeitung von KI-generierten Texten und maschineller Übersetzung

Service

MATTHIAS LEICHTFRIED: KI zum Nachlesen.Bibliographie und kommentierte Linksammlung

Magazin

GlossarMATTHIAS LEICHTFRIED:Wichtige Begriffe zum Thema Künstliche Intelligenz

KommentarURSULA ESTERL, LUCA MELCHIOR, NICOLA MITTERER, HAJNALKA NAGY, JOHANNES ODENDAHL, JÜRGEN STRUGER:Lehramtsstudium neu: kürzer, praxisnäher, attraktiver?

ide empfiehlt HANS LÖSENER:H. Heimböckel, J. Pavlik (2022): Ästhetisches Verstehen und Nichtverstehen

Neu im Regal

 

»Künstliche Intelligenz« und digitale Bildung in anderen ide-Heften

ide 2-2023

Textfeedback

ide 2-2020

Videospiele

ide 1-2019

Deutschunterricht 4.0

ide 4-2016

New Literacies

ide 2-2009

Internet

 

Das nächste ide-Heft

ide 3-2024

Dialekt und innere Mehrsprachigkeit erscheint im September 2024

 

Vorschau

ide 4-2024

Friedensbildung und Deutschunterricht

ide 1-2025

Kinder- und Jugendliteratur zwischen Pragmatik und Ästhetik

https://ide.aau.at

Besuchen Sie die ide-Webseite! Sie finden dort den Inhalt aller ide-Hefte seit 1988 sowie »Kostproben« aus den letzten Heften.

Sie können die ide auch online bestellen.

www.aau.at/germanistik/fachdidaktik

Besuchen Sie auch die Webseite des Instituts für GermanistikAECC, Abteilung für Fachdidaktik an der AAU Klagenfurt:Informationen, Ansätze, Orientierungen.

Deutschunterricht im Zeichen Künstlicher Intelligenz

Bereits 1673 denkt René Descartes in seiner Abhandlung über die Methode, richtig zu denken und die Wahrheit in den Wissenschaften zu suchen über Maschinen nach, die dem Menschen perfekt nachempfunden sind. Bei der Frage nach möglichen Unterschieden kommt er zum Urteil, dass

diese Maschinen nie sich der Worte oder Zeichen bedienen können, durch deren Verbindung wir unsere Gedanken einem Anderen ausdrücken. Man kann zwar sich eine Maschine in der Art denken, dass sie Worte äusserte, [...] aber niemals wird sie diese Worte so stellen können, dass sie auf das in ihrer Gegenwart Gesagte verständig antwortet, wie es doch selbst die stumpfsinnigsten Menschen vermögen. (Descartes 1870, S. 66)

Heute wissen wir: Descartes lag falsch. Während Maschinen zwar noch immer nicht alle unliebsamen Aufgaben des Menschen übernehmen können, sind die Fähigkeiten der durch maschinelles Lernen erzeugten großen Sprachmodelle wie GPT-4 so weit fortgeschritten, dass sie auf einen Input in natürlich menschlicher Sprache doch recht verständlich mit Worten und Zeichen antworten können, mitunter eloquenter als so manch geistreicher Mensch. Das geht sogar so weit, dass der künstlich generierte Output dann nicht immer zweifelsfrei einem Menschen oder dem Programm zugeordnet werden kann.

Bevor wir uns der deutschdidaktischen Diskussion dieses Phänomens zuwenden, ist es wichtig zu klären, wovon eigentlich die Rede ist, wenn man von Künstlicher Intelligenz (KI) spricht, zumal unter den Begriff mehr fällt als die gegenwärtig diskutierten Sprachmodelle.

Das Konzept der Künstlichen Intelligenz und seine Benennung stammen ursprünglich vom englischen Artificial Intelligence, einer Wortschöpfung, die auf einen Antrag auf Forschungsförderung für die 1956 abgehaltene Dartmouth-Konferenz zurückgeht. Künstliche Intelligenz »diente als Sammelbegriff für alle Verhaltensweisen von Maschinen, die man als intelligent bezeichnen würde, wenn Menschen sie zeigen« (Deutscher Ethikrat 2023, S. 87). Seit damals entwickelte sich ein weitläufiges Forschungsfeld der Künstlichen Intelligenz, wobei auf viele Arten und Weisen versucht wurde, Maschinen Verhaltensweisen beizubringen, die als intelligent eingestuft werden. Unter den verschiedenen Verfahren des sogenannten Maschinellen Lernens, das sich als eigener Fachbereich herauskristallisierte, setzte man mit zunehmender Verfügbarkeit von großen Datenmengen und Rechenleistungen vor allem auf deep learning, eine Methode, die auf künstlichen neuronalen Netzwerken beruht. Als generative KI – zu der auch Sprachmodelle wie GPT oder LLaMA zählen – bezeichnet man neuronale Netzwerke, die auf Basis eines enormen Datensatzes1 lernen, zu generalisieren und damit zu generieren – also etwas hervorzubringen, das im Datensatz in dieser Form nicht vorhanden war.2 Das können Bilder, Videos, Musik, aber eben auch Texte sein. Im Fall von Wörtern und Text spricht man daher von Large Language Models (LLM) oder großen Sprachmodellen.

Wer bereits Erfahrungen mit großen Sprachmodellen gemacht hat, mag über die Qualität des generierten Outputs, die Angemessenheit der Antworten und die geschliffene Sprache erstaunt gewesen sein. Der Eindruck entsteht, als wäre mit der Entwicklung der sogenannten Transformer-Architektur für Sprachmodelle (Vaswani u. a. 2017) etwas gelungen, das lange Zeit für unmöglich gehalten wurde: Einen Computer in die Lage zu versetzen, die durch Komplexität, Polysemie und Idiosynkrasien gekennzeichnete menschliche Sprache so gut zu imitieren, dass es wirkt, als würde der Computer die Sprache beherrschen. Ob Sprachmodelle menschliche Sprache nun auch »verstehen« oder nur gut täuschen, ist eine Diskussion, die weit zurückreicht: Bereits 1966 sorgte der erste Chatbot ELIZA für Aufsehen, der von Josef Weizenbaum (1966) entwickelt wurde, um den illusorischen Charakter von Computerintelligenz zu zeigen. Selbst das beschränkte sprachliche Repertoire löste bei Nutzer:innen den Eindruck von Intelligenz aus. Diese Illusion von Intelligenz nannte man daher ELIZA-Effekt (Natale 2021, S. 50–67). In der darauffolgenden Rezeptionsgeschichte wurde der Chatbot ELIZA als Beweis für zwei verschiedene konträre Sichtweisen interpretiert, die den Diskurs bis heute prägen: einerseits als Zeichen dafür, dass KI immer nur den Anschein von Intelligenz erzeugen kann, aber eben nicht intelligent ist, und andererseits, dass KI tatsächlich Intelligenz und Verstehen durch künstliche Mittel repliziert (ebd., S. 51). Während also KI-Skeptiker:innen auf die Beschränktheit und Tendenz zur Täuschung durch diese Systeme hinweisen und vor einem überzogenen Hype warnen (Marcus 2022; Bender u. a. 2021), erkennen Befürworter:innen gar Funken einer generellen Künstlichen Intelligenz (Bubeck u. a. 2023).

Nun stellt sich allerdings nicht nur die Frage, ob neuronale Netzwerke verstehen, sondern auch, ob Menschen überhaupt in der Lage sind, diese komplexen Strukturen zu verstehen3. Denn der schier unvorstellbar große Datensatz und die daraus emergierende Komplexität lassen »wenig Aufschluss über ihre inneren Abläufe zu, sind weder durch äußere Beobachtung des Outputs noch selbst durch das Wissen um die Details des Modells in jene eindeutigen Ablaufpläne übersetzbar, die einen klassischen Programmcode auszeichnen« (Bajohr 2021, S. 177). Dieser Umstand und die rasante Geschwindigkeit der Entwicklung von Sprachmodellen (Roser 2024) machen es zum einen schwierig, definitive Aussagen über die emergierenden Fähigkeiten und deren Limitationen zu machen, und legen zum anderen nahe, die Irreduzibilität mit Visualisierungen (Bycroft 2024) oder Vergleichen einzuholen. Imaginiert werden Sprachmodelle oftmals als Raum, man spricht von der Architektur von Modellen: Die »Übersetzung« menschlicher Sprache in von Computern verarbeitbare Zahlen (Wörter werden zu tokens und schließlich durch Zahlen in Vektoren repräsentiert), das anschließende embedding– also die im Vektorraum repräsentierte Verteilung von Wörtern und ihre Nähe bzw. Verbindungen zueinander – erzeugen einen meaning space (Wolfram 2023), der sich eben als »Modell des menschlichen Sprachgebrauchs begreifen« (Müller/Fürstenberg 2023, S. 327) lässt.

Germanist:innen mögen bei dieser Beschreibung vielleicht an Roland Barthes' Aufsatz zum Tod des Autors denken. Tatsächlich trifft sein Konzept von Text die vermutete Funktionsweise von großen Sprachmodellen ganz gut: Text bestehe Barthes zufolge nämlich nicht aus einer Reihe von Wörtern, »sondern aus einem vieldimensionalen Raum, in dem sich verschiedene Schreibweisen [écritures], von denen keine einzige originell ist, vereinigen und bekämpfen. Der Text ist ein Gewebe von Zitaten aus unzähligen Stätten der Kultur.« (Barthes 2000, S. 190) Der Autor ist für Barthes degradiert zum Schreiber [scripteur], der nicht registriert, konstatiert oder repräsentiert, sondern im Modus des Performativs schreibt, einer Verbalform also, die keinen anderen Inhalt hat »als eben den Akt, durch den sie sich hervorbringt« (ebd., S. 189). Tatsächlich lässt sich auch der nach mathematischen Prinzipien synthetisierte Text eines Sprachmodells als Performativ im Barthes'schen Sinne begreifen, eine Verbalform, die nicht repräsentiert, sondern selbstbezüglich generiert. Sprachmodelle können folglich als Phänomene der Algorithmizität gelten, also eine jener Formen, die nach Stalder konstitutiv für die Kultur der Digitalität sind: In algorithmisch vorsortierten Ordnungen wird die Welt »nicht mehr repräsentiert; sie wird für jeden User eigens generiert und anschließend präsentiert« (Stalder 2017, S. 189). Sprachmodelle sind daher – und das ist eine der wichtigsten Informationen – (noch) keine Wissensmodelle. Weder gibt es im Training eine Quelle für Wahrheit bzw. Faktizität noch kann sichergestellt werden, dass der generierte Output frei von Halluzinationen ist (siehe Hendler u. a. in diesem Heft).

Welche Vorstellungen von Sprachmodellen den Diskurs prägen und was man von generativer KI versteht, bestimmt in besonderer Weise den Umgang mit diesen Anwendungen: Ähnlich wie Barthes Folgerung, dass auf den Tod des Autors die »Geburt des Lesers« (Barthes 2000, S. 193) folgt, ist vor allem im didaktischen Kontext zentral, was Menschen mit diesen Sprachmodellen tun. In den Blick geraten dann Praktiken des Umgangs mit dieser (Sprach-)Technologie und es zeigt sich eine immanent didaktische Dimension: Über welches Wissen sollten Menschen verfügen? Wie können sie die Technologie kompetent nutzen, aber auch bewusst nicht nutzen? Wie kann eine kritische, reflexive Auseinandersetzung mit den gegenwärtigen technologischen Trends angestoßen werden?

Eine zentrale Aufgabe von Bildungssystemen besteht darin, Menschen zu befähigen, verantwortungsbewusst mit Technik und Medien umgehen zu können. Wenn eine Technologie nun so fundamental mit Sprache verknüpft ist, folgt daraus, dass jene, die mit Vermittlung von Sprache in verschiedenen Domänen betraut sind, in besonderer Weise aufgefordert sind, über diese Technologie und ihren Einsatz nachzudenken.

Im Zusammenhang mit dem Deutschunterricht stellt sich daher eine Vielzahl von Fragen: Kann generative KI als disruptive Technologie gelten, die die Grundfesten des Deutschunterrichts erschüttert? Welche Domänen sind dabei besonders betroffen und welche Auswirkungen hat das auf sprachliche, literarische und mediale Bildung? Wie verändern derartige Sprachmodelle Textrezeption und -produktion gerade auch im schulischen Kontext? Welche Medienkompetenzen brauchen Lehrpersonen und welche müssen sie ihren Schüler*innen nunmehr vermitteln? Und wie verändert sich die Lern- und Prüfungskultur, wenn nicht nachvollzogen werden kann, ob eine Aufgabe von Schüler*innen ganz selbstständig oder mithilfe von Künstlicher Intelligenz durchgeführt wurde? Im Lichte dieser Veränderungen gilt es nun auch fachdidaktisch zu reflektieren, welche Auswirkungen, Anwendungsfelder und Herausforderungen sich für den schulischen Deutschunterricht bzw. die Fachdidaktik selbst ergeben. Da derartige Programme auch eine schulpraktische Nutzung im Unterricht nahelegen bzw. in Schulen – wenn nicht verboten – schon verwendet werden, eröffnet sich auch ein anwendungsbezogenes Feld, das in diesem ide-Heft reflektiert werden soll.

Das Themenheft beschäftigt sich mit den Folgen der breiten Zugänglichkeit von Künstlicher Intelligenz für die Deutschdidaktik und den schulischen Deutschunterricht. Die Beiträge ergründen Implikationen für Literatur-, Medien- und Sprachdidaktik und fragen nach Konzeptionen und Good- Practice-Beispielen aus den verschiedenen Bereichen des Deutschunterrichts. Zur Diskussion stehen didaktische Konzepte und unterrichtspraktische Modelle, die angesichts von Sprachmodellen wie ChatGPT neu entwickelt oder anders perspektiviert werden müssen. Dabei werden zum einen Fragen der produktiven Nutzung bzw. anwendungsbezogene Szenarien erläutert. Zum anderen wird auch Raum für kritische Einschätzungen und Herausforderungen im Umgang mit Künstlicher Intelligenz gegeben.

Der erste Teil des Heftes gibt mit zwei einleitenden Artikeln einen Überblick über bildungswissenschaftliche und deutschdidaktische Zugänge. Claudia de Witt fragt nach den pädagogischen Implikationen, die generative KI-Systeme im schulischen Kontext mit sich bringen, und erläutert verschiedene didaktische Szenarien von der Primarstufe bis zur Universität. Stefan Krammer und Matthias Leichtfried loten dann das transformative wie auch disruptive Potential aus, das Sprachmodelle wie ChatGPT für den Deutschunterricht haben. Ausgehend von einem Problemaufriss werden aktuelle deutschdidaktische Beiträge zu Fragen der Künstlichen Intelligenz systematisiert und kommentiert.

Der zweite Teil des Heftes versammelt Beiträge zu den unterschiedlichen Lernbereichen des Deutschunterrichts. Schreibdidaktischen Fragen widmen sich Kirstin Schindler sowie Philippe Wampfler. Während Erstere Prinzipien zum Schreiben mit, durch und von Künstlicher Intelligenz darlegt, mit Fokus auf Schreib- und Textkompetenzen, wie sie in der Sekundarstufe vermittelt werden, widmet sich Letzterer dem Verhältnis von Schriftlichkeit und Mündlichkeit im Zeichen der Digitalisierung, um daraus neue Möglichkeiten der Textproduktion abzuleiten. Dass textgenerierende Programme auch für die Lesedidaktik und das damit verbundene Einüben eines epistemisch wachsamen Lesens wichtig sind, verdeutlicht Maik Philipp in seinem Beitrag. Carolin Führer und Daniel Nix fragen hingegen danach, welche Rolle ChatGPT als Lektürebegleitung von literarischen Texten spielen kann, und zeigen in ihrem Beitrag auf, inwieweit die Antworten des Programms Schüler:innen potentiell dazu befähigen, konstruktiv mit Literatur umzugehen. Sie greifen dabei auf Daten einer qualitativen Rezeptionsstudie zurück, in der Schüler*innen zu Franz Kafkas Vor dem Gesetz gearbeitet haben. Dass Motive von künstlichen Menschen und damit Künstlicher Intelligenz in der Literaturgeschichte bis in die Antike zurückgehen und seit damals eine Vielfalt von damit verbundenen Geschichten und Diskursen hervorgebracht haben, zeigt Sebastian Kugler auf. Die literarischen und filmischen Beispiele, die er anführt, dienen auch als Anregung für die Auseinandersetzung im Literaturunterricht. Schließlich ergründet Matthias Ballod in seinem Beitrag die Rolle von textgenerierenden Sprachmodellen in Hinblick auf Sprachlichkeit und Sprachreflexion.

Der dritte Teil des Heftes gibt Einblicke in die unterrichtliche Praxis im Umgang mit Künstlicher Intelligenz. Alexander Sigmund diskutiert allgemeine Implikationen für den Deutschunterricht aus der Perspektive eines HAK-Lehrers und weist auf eine Vielzahl von Anwendungsmöglichkeiten hin. Dabei skizziert er notwendige Spielregeln im schulischen Umgang mit ChatGPT, die u.a. Recherche, Textproduktion und Beurteilung betreffen. Melanie Hendler, Jennifer-Carmen Frey, Stephan Schicker und Sabine Schmölzer-Eibinger beleuchten in ihrem Beitrag die von Philipp problematisierte Eigenart von Sprachmodellen, Unwahrheiten zu verbreiten, aus unterrichtspraktischer Perspektive und stellen Materialien vor, die Schüler:innen einen kompetenten Umgang mit FakeNews und Falschnachrichten vermitteln sollen. Martin Schastak und Simon Jung nehmen schließlich Sprachbewusstsein und Mehrsprachigkeit in den Blick und liefern konkrete Unterrichtsideen im Zusammenhang mit KI-basierten Übersetzungstools. Zusätzliches Material dazu findet sich digital auf unserer Homepage: ide.aau.at.

Weiterführende Informationen liefert die Bibliographie und Link-Sammlung, die Matthias Leichtfried für dieses Heft zusammengestellt hat. Da viele Materialien und Beiträge zum Thema zunächst nur online erschienen sind, wird in der Bibliographie nicht nur relevante Literatur aus dem Forschungsfeld empfohlen, sondern es werden auch Links und Portale vorgestellt, die sich dem Thema der Künstlichen Intelligenz widmen. Ein Glossar bietet Erklärungen zu den im Heft verwendeten Hauptbegriffen zur Künstlichen Intelligenz.

Im Kommentar setzen sich Ursula Esterl, Luca Melchior, Nicola Mitterer, Hajnalka Nagy, Johannes Odendahl und Jürgen Struger kritisch mit der Anfang des Jahres verordneten Neustrukturierung des Lehramtsstudiums auseinander. In den Rezensionen stellen Hans Lösener, Jürgen Struger und Ursula Esterl aktuelle deutschdidaktische Publikationen vor.

Das Thema der Künstlichen Intelligenz ist – wie dieses Themenheft veranschaulicht – ein Anlass, um den Deutschunterricht und die damit verbundenen Praktiken und Deutungen noch einmal aus einer anderen Perspektive zu beleuchten und zu reflektieren. Wir möchten (zukünftige) Lehrpersonen, Fachdidaktiker*innen und Germanist*innen dazu einladen, sich auf diesen Prozess einzulassen und die Implementierung wie auch Verwendung von Kl-Systemen in Lehr- und Lernkontexten selbst produktiv mitzugestalten. Um hier professionell, umsichtig, mit gebotener kritischer Distanz, aber auch mit Offenheit und Neugierde handeln zu können, braucht es fachliches Wissen und Kompetenz im Umgang mit derartigen Technologien. Es ist aus der gegenwärtigen Perspektive sehr wahrscheinlich, dass die technologische Weiterentwicklung der kommenden Jahre mit hoher Geschwindigkeit und starkem Einfluss auf unseren Alltag verlaufen wird. Eine kritische und ausführliche Beschäftigung damit kann also gar nicht früh genug beginnen.

Das Heft möchte dazu einen Beitrag leisten, indem es Fehlvorstellungen und Mythen rund um Künstliche Intelligenz entgegenwirkt, didaktische Möglichkeiten und Limitationen aufzeigt, Denkprozesse anstößt und mit Vorschlägen zur Mitgestaltung anregt.

Wir wünschen eine informative Lektüre.

STEFAN KRAMMER MATTHIAS LEICHTFRIED

Literatur

BAJOHR, HANNES (2021): Künstliche Intelligenz und digitale Literatur. Theorie und Praxis konnektionistischen Schreibens. In: Bajohr, Hannes; Gilbert, Annette (Hg.): Digitale Literatur II. München: edition text + kritik (Sonderband), S. 174–185.

BARTHES, ROLAND (2000): Der Tod des Autors. In: Jannidis, Fotis; Lauer, Gerhard; Martínez, Matías; Winko, Simone (Hg.): Texte zur Theorie der Autorschaft. Stuttgart: Reclam, S. 185–193.

BENDER, EMILY M.; GEBRU, TIMNIT; MCMILLANMAJOR, ANGELINA; SHMITCHELL, SHMARGARET (2021): On the Dangers of Stochastic Parrots. In: Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency. FAccT '21: 2021 ACM Conference on Fairness, Accountability, and Transparency. Virtual Event Canada, 03 03 2021–10 03 2021. New York, NY, United States : Association for Computing Machinery (ACM Digital Library), S. 610–623.

BUBECK, SÉBASTIEN; CHANDRASEKARAN, VARUN; ELDAN, RONEN; GEHRKE, JOHANNES; HORVITZ, ERIC; KAMAR, ECE u. a. (2023): Sparks of Artificial General Intelligence: Early experiments with GPT-4. Online: http://arxiv.org/pdf/2303.12712.pdf [Zugriff: 21.5.2024].

BYCROFT, BRENDAN (2024): LLM Visualization. Online: https://bbycroft.net/llm?mj_campaign=nl_ref&mj_content=zeitde_text_link_x&mj_medium=nl&mj_source=int_zonaudev_Nat%C3%BCrlich%20intelligent [Zugriff: 21.5.2024].

DESCARTES, RENÉ (1870): Abhandlung über die Methode, richtig zu denken und Wahrheit in den Wissenschaften zu suchen. Berlin: Heimann. Online: https://www.digitalesammlungen.de/de/details/bsb11163821 [Zugriff: 21.5.2024].

DEUTSCHER ETHIKRAT (2023): Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz. Stellungnahme. Berlin.

MARCUS, GARY (2022): Deep Learning Is Hitting a Wall. Online: https://nautil.us/deeplearning-is-hitting-a-wall-238440 [Zugriff: 21.5.2024].

MÜLLER, HANS-GEORG; FÜRSTENBERG, MAURICE (2023): Der Sprachgebrauchsautomat. Die Funktionsweise von GPT und ihre Folgen für Germanistik und Deutschdidaktik. In: Mitteilungen des Deutschen Germanistenverbandes 70, H. 4, S. 327–345.

NATALE, SIMONE (2021): Deceitful media. Artificial intelligence and social life after the turing test. New York: Oxford University Press.

ROSER, MAX (2024): The brief history of artificial intelligence: The world has changed fast – what might be next? In: Our World in Data. Online: https://ourworldindata.org/brief-history-of-ai [Zugriff: 21.5.2024].

STALDER, FELIX (32017): Kultur der Digitalität. Berlin: Suhrkamp (= Edition Suhrkamp, 2679).

THOMPSON, ALAN D. (2024): GPT-4. Online: https://lifearchitect.ai/gpt-4/#summary, [Zugriff: 21.5.2024].

VASWANI, ASHISH; SHAZEER, NOAM; PARMAR, NIKI; USZKOREIT, JAKOB; JONES, LLION; GOMEZ, AIDAN N. u. a. (2017): Attention Is All You Need, S. 1–15. Online: https://arxiv.org/pdf/1706.03762 [Zugriff: 21.5.2024].

WEIZENBAUM, JOSEPH (1966): ELIZA – a computer program for the study of natural language communication between man and machine. In: Commun. ACM 9 (1), S. 36–45. DOI: 10.1145/365153.365168.

WOLFRAM, STEPHEN (2023): What Is ChatGPT Doing ... and Why Does It Work? Online: https://writings.stephenwolfram.com/2023/02/what-is-chatgpt-doing-and-why-does-it-work/ [Zugriff: 21.5.2024].

________________

 

STEFAN KRAMMER ist Professor für Neuere deutsche Literatur und ihre Didaktik an der Universität Wien. Seine Arbeitsschwerpunkte liegen im Bereich der Literatur- und Mediendidaktik. E-Mail: [email protected]

MATTHIAS LEICHTFRIED ist Postdoc-Universitätsassistent am Institut für Germanistik in Wien und lehrt bzw. forscht im Bereich der Fachdidaktik Deutsch. Seine Forschungsinteressen liegen in der Literatur- und Mediendidaktik, Forschungsschwerpunkte sind der Deutschunterricht in einer Kultur der Digitalität, Ästhetische Bildung sowie Künstliche Intelligenz.

E-Mail: [email protected]

________________

 

1 Unternehmen wie OpenAI verraten wenig über den zugrunde liegenden Datensatz, es wird allerdings angenommen, dass der Datensatz, der für das Training von GPT-4 verwendet wurde, 40 Terabyte Text enthält. Das sind geschätzt 16–20 Billionen Wortteile (siehe Thompson 2024).

2 Obwohl es eine breite Diskussion darüber gibt, ob generative KI wirklich originell sein kann, ist festzuhalten, dass die Generierung nicht auf einem Kopieren von bereits vorhandenem Material beruht.

3 Wolfram spricht von »computationally irreducible processes« und folgert: »But at least as of now we don't have a way to ›give a narrative description‹ of what the network is doing« (Wolfram 2023).

Claudia de Witt

Didaktik mit Künstlicher Intelligenz

Eine bildungswissenschaftliche Perspektive

Didaktik mit Künstlicher Intelligenz (KI) führt zu neuen Lehr- und Lemkulturen. Die damit verbundenen Veränderungen reichen beispielsweise von der Neuformulierung von Lernzielen, der Erweiterung didaktischer Methoden bis hin zu neuen Prüfungsformen. Anhand neuer didaktischer Szenarien zeigen sich verschiedene Möglichkeiten des Zusammenspiels von menschlicher und Künstlicher Intelligenz im Sinne einer hybriden Intelligenz. Letztlich geht es aber immer noch um bildungsbezogene Zielperspektiven, die es mit KI zu erreichen gilt, genauso wie um ethische und datenschutzrechtliche Anforderungen an eine Didaktik mit KI. Diesen Betrachtungen geht der Beitrag unter Berücksichtigung der derzeitigen technologischen Möglichkeiten nach.

Künstliche Intelligenz (KI) spielt in der Didaktik eine immer größere Rolle. Auf der Grundlage von Datenanalysen unterstützen regelbasierte und generative KI-Tools und Learning Analytics in Lehrveranstaltungen didaktische Maßnahmen, geben Empfehlungen für Interpretationen, Feedback zum Lernprozess oder helfen bei Prüfungsvorbereitungen. Mit ihren Möglichkeiten bewirkt KI eine Erweiterung didaktischer Maßnahmen und didaktischer Methoden, ein Überdenken und Neuformulieren von Lernzielen und Anforderungen an Studien- bzw. Prüfungsleistungen. Absehbar ist nicht nur eine Veränderung didaktischer Prozesse, sondern letztlich eine gravierende Veränderung langjährig tradierter Lehr- und Lernkulturen.

Im Deutschunterricht wirkt sich Künstliche Intelligenz in besonders intensivem Maße aus. Zu den Kernbereichen des Deutschunterrichts gehören die Vermittlung grammatikalischen Grundwissens und grundlegender Fertigkeiten des Schreibens und Redens sowie die Vermittlung von Kenntnissen über Textsorten, -analysen und -interpretationen. Gerade generative KI wie ChatGPT, Neuroflash oder andere KI-Schreibtools können die damit verbundenen Tätigkeiten abnehmen oder sogar teilweise besser umsetzen als der oder die Lernende selbst. Es besteht sogar die Gefahr, dass KI den Menschen davon abhält, bestimmte Fähigkeiten, zum Beispiel eine Sprache, zu erlernen, weil es dafür bereits maschinelle Übersetzer gibt. Gleichzeitig erfordern KI-Tools trotzdem neue Kompetenzen für eine effektive Nutzung und kritische Beurteilung ihrer Leistung und Qualität. Für den kompetenten und reflexiven Umgang mit KI-Tools wird daher natürliche Intelligenz gebraucht. Um KI-Tools sinnvoll und auf der Grundlage von klaren Regeln in Alltag, Beruf und Bildung einsetzen zu können, bleibt es ein zentraler Bildungsauftrag, dass Lernende selbstbestimmt sind, ihre Urteils- und kritische Reflexionsfähigkeit einsetzen und KI bei ihrer eigenen Kreativität mit einbeziehen können (Sharples 2023).

In diesem bildungswissenschaftlichen Beitrag geht es nicht um Künstliche Intelligenz (KI) als Gegenstand im Unterricht und nicht um die curriculare Gestaltung von Bildungsangeboten über KI, sondern um Didaktik mit KI. Er beschreibt zunächst die Besonderheiten generativer KI, reflektiert die didaktischen Potenziale bzw. Herausforderungen und stellt für die Didaktik das Konzept der hybriden Intelligenz in Aussicht.

1. Technologische Gründe für den Erfolg von generativer KI

Unter Künstlicher Intelligenz werden Technologien und Systeme verstanden, die intelligentes Verhalten simulieren und Aufgaben übernehmen, die mit kognitiven Leistungen vergleichbar sind. Zum »intelligenten« Verhalten von Maschinen gehören dann Möglichkeiten zur Wahrnehmung, Fähigkeiten zum logischen Schlussfolgern, Fähigkeiten zur Simulation selbstständigen Lernens und zum eigenständigen Finden von Problemlösungen. Sie sind in der Lage, komplexe Aufgaben selbstständig auszuführen, ohne dass ihnen jeder einzelne Schritt vorgegeben wird. Für zuverlässige Ergebnisse benötigen sie allerdings große Datenmengen. Es gibt zwei wesentliche Typen von KI-gestützten Bildungstechnologien, die sich in der Art der im System eingesetzten KI-Verfahren unterscheiden. Es handelt sich dabei zum einen um den lernenden Systemtyp bzw. datengesteuerte KI und zum anderen um wissensbasierte, symbolische KI (Pinkwart/Beudt 2020; Holmes/Tuomi 2022).

Bei datengesteuerter KI werden selbstlernende Algorithmen darauf trainiert, Muster und Korrelationen in großen Datensätzen zu finden, auf Basis dieser Analyse Entscheidungen und Vorhersagen zu treffen und ihre Vorhersagen durch Anpassung des Verhaltens stetig zu verbessern, ohne dafür ausdrücklich programmiert zu werden. Wissensbasierte Systeme, oder auch Expertensysteme, werden häufig dazu verwendet, die Entscheidungsfindung von Expert:innen zu imitieren. Sie benötigen keine expliziten Datensammlungen, sondern beinhalten eine Wissensbasis und einen sog. Inferenzmechanismus, mit dem über Wenn-dann-Regeln die Ableitung neuer Erkenntnisse wie die Diagnose eines Lernfortschritts erfolgt. Während wissensbasierte Systeme im Allgemeinen eher als zuverlässiger gelten, haben maschinelle Lernverfahren Vorteile im Erstellungsaufwand und breitere Anwendungsmöglichkeiten (Verarbeitung von Audio, Sprache, Bilddaten, Sensordaten etc.). Hybride KI-Ansätze kombinieren maschinelle Lernverfahren mit symbolischer KI und damit die Vorteile beider Verfahren.

Besonderen Eindruck wegen ihrer Übersetzungs-, Recherche- oder Schreibtätigkeiten im Bildungsbereich haben KI-Systeme auf der Grundlage maschinellen Lernens in Kombination mit Natural Language Processing hinterlassen. ChatGPT ist eines der prominentesten Tools, die generative KI nutzen. Generative KI stellt eine Ausprägung der datengesteuerten KI-Systeme dar, die auf Anfrage, mittels Prompts, aus Daten lernen, die sie während ihrer Trainingsphase erhalten haben, und selbstständig neue Inhalte erstellen. Mit generativen KI-Tools lassen sich Inhalte in Textform erzeugen, Bilder generieren, Musik komponieren oder Programmcodes zur Entwicklung von Anwendungen produzieren.

Sprachmodelle (Language Models, LM) sind eine Unterklasse der generativen KI. Diese Modelle lernen die Wahrscheinlichkeit von Sequenzen von Wörtern in einer bestimmten Sprache. Large Language Models (LLM) sind dementsprechend sehr große Sprachmodelle, die auf enormen Mengen von Textdaten trainiert wurden, und zeigen die großen Fortschritte von KI im Bereich der Verarbeitung natürlicher Sprache (Natural Language Processing, NLP). Die Neuerung bei Modellen wie ChatGPT liegt darin, dass beim Training neben einem Textkorpus auch ein menschliches Feedback (Reinforcement Learning from Human Feedback, RLHF) integriert wird, um möglichst gute Texte zu generieren. So wird nicht mehr nur versucht, das »nächste Wort oder die nächsten Wörter« vorherzusagen, sondern es wird versucht, die Antwort zu generieren, welche der Fragende am Wahrscheinlichsten lesen möchte (Ouyang u. a. 2022). So können ganz unterschiedliche Ergebnisse entstehen, die durch gut formulierte Prompts immer mehr präzisiert werden können. Es ist zudem wichtig zu wissen, dass von LLM erzeugte Quellenangaben nicht unbedingt stimmen oder die genannten Quellen oft gar nicht existieren.

2. Didaktik mit KI

Das Hauptinteresse von Didaktik liegt auf dem didaktischen Handeln und auf der Verbesserung der Lehr- und Lernprozesse. Als Lehre und Wissenschaft beschäftigt sich Didaktik mit der systematischen Betrachtung und mit Modellen des Lehrens und Lernens »in ihren Wechselbeziehungen und deren Voraussetzungen sowie Bedingungen« (Tulodziecki 2020, S. 369). Gegenstand von Didaktik sind Lehr- und Lernziele, Lerninhalte, Lernvoraussetzungen, Methoden und Medien, aber auch »die sozialen Gefüge von Lerngruppen sowie institutionelle und gesellschaftliche Bedingungen« (ebd.). Mit dem immer größer werdenden Einfluss digitaler Medien auf didaktische Interaktionsprozesse vergrößert sich die Nähe zur Mediendidaktik, der es besonders um die didaktische Konzeption von medialen Lernangeboten und Lernarrangements geht (Kerres/de Witt 2011).

Didaktische Entscheidungen werden oft auf der Grundlage eines Menschenbildes getroffen. So stellt zum Beispiel Tulodziecki (2020) – ausgehend von der Frage, was sich der oder die Einzelne selbst noch durch Lernen aneignen soll, wenn Informatiksysteme doch schon heute manches und in Zukunft noch vieles mehr besser können als der Mensch – Überlegungen darüber an, was die KI-Entwicklungen für die Didaktik bedeuten und was gegebenenfalls zu bedenken und zu tun ist. Er betont, dass

eine verantwortungsbewusste Didaktik [...] verpflichtet [ist], nicht nur nach möglichen Gegebenheiten, sondern ebenso nach dem Wünschenswerten zu fragen bzw. im normativen Sinne zu entscheiden, welches Menschenbild ihren konzeptionellen Überlegungen zugrunde gelegt werden soll. Bei dieser Blickrichtung tut sie meines Erachtens gut daran, den Leitgedanken eines reflexiv eingestellten und gesellschaftlich handlungsfähigen Subjekts nicht vorschnell aufzugeben, sondern ihn weiterhin als orientierende Kategorie beizubehalten – weil damit zum einen der Offenheit der zukünftigen Entwicklung Rechnung getragen wird und zum anderen Raum für sachgerechte und kreative Problemlösungen, rational begründete Beurteilungen, durchdachte Entscheidungen und sozial verantwortliche Gestaltungen entsteht. (Tulodziecki 2020, S. 371).

Abhängig von den Lehr- und Lernzielen ist es wiederum, welche didaktischen Methoden oder welche Aufgaben in der Lehre KI unterstützen soll. In allen Phasen der Lehrtätigkeit, von der Planung über die Durchführung bis zur Evaluation, ergeben sich zahlreiche Potenziale für den Einsatz von KI. Neben intelligenten tutoriellen Systemen, adaptiven Lernumgebungen oder personalisierten Feedbacksystemen, die Lernende individueller unterstützen können, liegt die Einschätzung der Potenziale großer Sprachmodelle in der Übernahme geistiger Routinearbeit und neuer Potenziale der kognitiven Arbeitsteilung. Damit verändern KI-Systeme die Art und Weise, wie wir lernen.

Anwendungen großer Sprachmodelle helfen nach Kasneci u. a. (2023) bei der Verbesserung von Lehr- und Lernerfahrungen auf allen Bildungsebenen, das heißt

in der Grundschule bei der Entwicklung

• der Lese- und Schreibfähigkeiten (z. B. durch Vorschläge für syntaktische und grammatikalische Korrekturen) sowie

• des Schreibstils und der Fähigkeit zum kritischen Denken