32,99 €
Grundlagen zum Schriftspracherwerb und Kenntnisse über Ursachen einer Lese-Rechtschreibstörung (LRS) bilden die Basis, um LRS zu verstehen. Dieses Buch bietet verständliche und ausführliche Information zu Früherkennung, Diagnose, Förderung und Therapie bei einer Lese-Rechtschreibstörung (LRS). Es gibt einen Überblick über Aufbau, Inhalte und Ziele gängiger Förderprogramme. Neueste Erkenntnisse werden mit konkreten Hinweisen für die schulische und therapeutische Praxis verknüpft.
Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:
Seitenzahl: 532
Eine Arbeitsgemeinschaft der Verlage
Brill | Schöningh – Fink · Paderborn
Brill | Vandenhoeck & Ruprecht · Göttingen – Böhlau Verlag · Wien · Köln
Verlag Barbara Budrich · Opladen · Toronto
facultas · Wien
Haupt Verlag · Bern
Verlag Julius Klinkhardt · Bad Heilbrunn
Mohr Siebeck · Tübingen
Narr Francke Attempto Verlag – expert verlag · Tübingen
Ernst Reinhardt Verlag · München
transcript Verlag · Bielefeld
Verlag Eugen Ulmer · Stuttgart
UVK Verlag · München
Vandenhoeck & Ruprecht · Göttingen
Waxmann · Münster · New York
wbv Publikation · Bielefeld
Wochenschau Verlag · Frankfurt am Main
Prof. Dr. Andreas Mayer, Sprachheilpädagoge, hat sich habilitiert zum Thema Früherkennung und Prävention von Schriftspracherwerbsstörungen und ist Inhaber des Lehrstuhls für Sprachheil-pädagogik (Förderschwerpunkt Sprache und Sprachtherapie) an der LMU München.
Prof. Dr. Sven Lindberg, Diplom Psychologe, ist assoziiertes Mitglied des Forschungszentrums IDeA in Frankfurt am Main und ist Inhaber des Lehrstuhls für Klinische Entwicklungspsychologie an der Universität Paderborn.
Außerdem von A. Mayer im Ernst Reinhardt Verlag erschienen:
Gezielte Förderung bei Lese- und Rechtschreibstörungen(3. Aufl. 2018, ISBN 978-3-497-02753-8)
Test zur Erfassung der phonologischen Bewusstheit und der Benennungsgeschwindigkeit (TEPHOBE). Manual (4. Aufl. 2020, ISBN 978-3-497-02965-5)
Test zur Erfassung der phonologischen Bewusstheit und der Benennungsgeschwindigkeit (TEPHOBE). Testheft Vorschulalter und 1. Klasse (4. Aufl. 2018, ISBN 978-3-497-02793-4)
Test zur Erfassung der phonologischen Bewusstheit und der Benennungsgeschwindigkeit (TEPHOBE). Testheft 2. Klasse (3. Aufl. 2017, ISBN 978-3-497-02703-3)
Mayer / Ulrich (Hg.) Sprachtherapie mit Kindern (2017, ISBN 978-3-8252-8714-6)
Bibliografische Information der Deutschen Nationalbibliothek
Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen National-bibliografie; detaillierte bibliografische Daten sind im Internet über <http://dnb.d-nb.de> abrufbar.
UTB-Band-Nr.: 8662
ISBN 978-3-8252-8803-7
© 2021 by Ernst Reinhardt, GmbH & Co KG, Verlag, München
Dieses Werk einschließlich seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne schriftliche Zustimmung der Ernst Reinhardt, GmbH & Co KG, München, unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen in andere Sprachen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Der Verlag Ernst Reinhardt GmbH & Co KG behält sich eine Nutzung seiner Inhalte für Text- und Data-Mining i. S. v. § 44b UrhG ausdrücklich vor.
Printed in EU
Einbandgestaltung: Atelier Reichert, Stuttgart
Cover unter Verwendung eines Fotos von © rcx / Fotolia.com
Satz: Bernd Burkart; www.form-und-produktion.de
Ernst Reinhardt Verlag, Kemnatenstr. 46, D-80639 München
Net: www.reinhardt-verlag.de E-Mail: [email protected]
Inhalt
Vorwort
1Das deutsche Schriftsystem
1.1Unterschiedliche Schriftsysteme
1.2Die deutsche Orthographie
1.2.1Das Grapheminventar des Deutschen
1.2.2Prinzipien der deutschen Orthographie
2Der ungestörte Schriftspracherwerb
2.1Dual-Route Modelle
2.2Das konnektionistische Modell der Worterkennung
2.3Das Modell des Simple View of Reading
2.4Entwicklungsmodelle
2.4.1Präliteral-symbolische Phase
2.4.2Logographemische Phase
2.4.3Alphabetische Phase
2.4.4Orthographische Phase
2.4.5Integrativ-automatisierte Phase
3Definition der Lese-Rechtschreibstörung
4Ursachen der Lese-Rechtschreibstörung
Von Sven Lindberg
4.1Zur Genetik der Lese-Rechtschreibstörung
4.2Neurobiologische Grundlagen der Lese-Rechtschreibstörung
4.2.1Theorien zur Ursache der Lese-Rechtschreibstörung
4.2.2Neurokognitive Korrelate der Lese-Rechtschreibstörung
4.2.3Übersicht und Ausblick
5Die phonologische Informationsverarbeitung
5.1Begriffsklärung
5.2Das Arbeitsgedächtnis
5.2.1Begriffsklärung
5.2.2Das Modell des Arbeitsgedächtnisses nach Baddeley
5.2.3Die Komponenten des Arbeitsgedächtnisses
5.2.4Zusammenhänge zwischen dem Arbeitsgedächtnis und dem Schriftspracherwerb
5.2.5Erklärung des Zusammenhangs zwischen dem Arbeitsgedächtnis und Schriftspracherwerb
5.2.6Möglichkeiten der Förderung
5.3Die phonologische Bewusstheit
5.3.1Begriffsklärung
5.3.2Das zweidimensionale Modell der phonologischen Bewusstheit
5.3.3Entwicklung der phonologischen Bewusstheit
5.3.4Zusammenhänge zwischen der phonologischen Bewusstheit und dem Schriftspracherwerb
5.3.5Erklärung des Zusammenhangs zwischen der phonologischen Bewusstheit und schriftsprachlichen Kompetenzen
5.4Die Benennungsgeschwindigkeit
5.4.1Begriffsklärung
5.4.2Überprüfung der Benennungsgeschwindigkeit
5.4.3RAN-Leistungen dyslektischer Kinder
5.4.4Persistenz des Naming-Speed Deficit
5.4.5Erklärungsmodelle
5.4.6Training der Benennungsgeschwindigkeit?
5.4.7Spezifische Einflüsse der phonologischen Bewusstheit und der Benennungsgeschwindigkeit auf den Schriftspracherwerb
5.4.8Die Double-Deficit Hypothese
6Früherkennung von Schriftspracherwerbsstörungen
6.1Das Problem der Früherkennung
6.2Diagnostische Verfahren zur Früherkennung von Risikokindern
6.2.1Bielefelder und Münsteraner Screening (BISC und MÜSC)
6.2.2Test zur Erfassung der phonologischen Bewusstheit und der Benennungsgeschwindigkeit (TEPHOBE)
6.2.3Der Rundgang durch Hörhausen
6.2.4Basiskompetenzen für Lese-Rechtschreibleistungen (BAKO 1–4)
7Diagnostik
7.1 SLRT II
7.1.1Überprüfungen
7.1.2Auswertung
7.1.3Testgütekriterien
7.2 Würzburger Leise Leseprobe
7.2.1Überprüfung
7.2.2Auswertung
7.2.3Testgütekriterien
7.3 Lesegeschwindigkeits- und -Verständnistest für die Klassen 5–12+
7.3.1Überprüfungen
7.3.2Auswertung
7.3.3Testgütekriterien
7.4 Lesetestbatterie für die Klassenstufen 6 – 7 (Lesen 6 – 7) und die Klassenstufen 8 – 9 (Lesen 8 – 9)
7.4.1Überprüfungen
7.4.2Auswertung
7.4.3Testgütekriterien
7.5 ELFE II
7.5.1Überprüfungen
7.5.2Auswertung
7.5.3Testgütekriterien
7.6 Hamburger Schreib-Probe (HSP)
7.6.1Überprüfung
7.6.2Auswertung
7.6.3Testgütekriterien
7.7 Deutscher Rechtschreibtest für das erste und zweite Schuljahr (DERET)
7.7.1Überprüfung
7.7.2Auswertung
7.7.3Testgütekriterien
8Förderung im Rahmen des Unterrichts
8.1 Ausgangslage
8.2 Kriterien für eine Förderung phonologischer Basisfähigkeiten
8.3 Erwerb der Graphem-Phonem-Korrespondenzen
8.3.1Grundlagen
8.3.2Erwerb der GPK-R mit Hilfe von Anlauttabellen
8.3.3Systematische Buchstabenanalyse
8.4 Unterstützung beim Erwerb der Worterkennung
8.4.1Erlernen der indirekten Lesestrategie
8.4.2Automatisierung der Worterkennung
8.5 Förderung sinnentnehmenden Lesens
8.5.1Problemstellung
8.5.2Begriffsklärung und Komponenten des Leseverstehens
8.5.3Vermittlung von Verstehensstrategien
8.5.4Sprachliche Optimierung von Lesetexten
8.6 Förderung orthographisch korrekten Schreibens
8.7 Nachteilsausgleich
9Prävention und Intervention
9.1 Hören, Lauschen, Lernen
9.1.1Grundlagen
9.1.2Aufbau und Inhalte
9.2 Leichter lesen und schreiben lernen mit der Hexe Susi
9.2.1Grundlagen
9.2.2Aufbau und Inhalte
9.2.3Evaluation des Trainingsprogramms
9.3 Olli, der Ohrendetektiv
9.3.1Grundlagen
9.3.2Aufbau und Inhalte
9.4 Münsteraner Trainingsprogramm
9.4.1Grundlagen
9.4.2Aufbau und Inhalte
9.5 Marburger Rechtschreibtraining
9.5.1Grundlagen
9.5.2Aufbau und Inhalte
9.5.3Evaluation des Programms
9.6 Lautgetreue Lese-Rechtschreibförderung
9.6.1Grundlagen
9.6.2Aufbau und Inhalte
9.7 Morphembasierte Ansätze
9.7.1MORPHEUS
9.7.2Die Wortbaustelle
9.8 IntraActPlus
9.8.1Grundlagen
9.8.2Aufbau und Inhalte
9.9 Blitzschnelle Worterkennung
9.9.1Grundlage
9.9.2Aufbau und Inhalte
9.10 PotsBlitz – Das Potsdamer Lesetraining
9.10.1Grundlagen
9.10.2Aufbau und Inhalte
9.11Lesetricks von Professor Neugier
9.11.1Grundlagen
9.11.2Prinzipien und Inhalte
Bildnachweis
Literatur
Sachwortregister
Hinweise zur Benutzung dieses Lehrbuchs
Verwendung der Icons
Beispiel
Informationsquellen print und online
Definition
Da sich die Lernziele in den Kapiteln 3, 7 und 9 jeweils auf das gesamte Kapitel beziehen, wurde dort auf die Angabe von Unterkapiteln zu den einzelnen Lernzielen verzichtet.
Vorwort
Mit einer Prävalenz von etwa sechs bis acht Prozent Betroffener gehören Lese-Rechtschreibstörungen zu den häufigsten Entwicklungsstörungen im Kindes- und Jugendalter (Shaywitz et al. 1990).
Spätestens seit der Veröffentlichung der ersten Ergebnisse der PISA Studien ist diese Problematik einer breiten Öffentlichkeit bekannt geworden. In der Folge wurden verstärkt Bemühungen unternommen, valide Verfahren zur Früherkennung sowie Förder- und Therapiekonzepte zu entwickeln und hinsichtlich ihrer Effektivität zu evaluieren. Zudem wurden in den letzten Jahrzehnten große Fortschritte gemacht, was die Erforschung der Ursachen im neurobiologischen Bereich sowie der sprachlich-kognitiven Grundlagen eines erfolgreichen Schriftspracherwerbs angeht.
Seit der Ratifizierung der UN-Konvention für die Rechte von Menschen mit Behinderungen (2006) und der damit verbundenen sukzessiven Umsetzung eines inklusiven Schulsystems, sehen sich neben Sprach- und Lerntherapeuten und Förderschullehrern zunehmend auch Lehrkräfte des Regelschulsystems mit der Problematik gestörter Schriftspracherwerbsprozesse konfrontiert.
Das vorliegende Buch ist das Resultat meiner langjährigen wissenschaftlichen und praktischen Auseinandersetzung mit diesem Störungsbild. Die Grundlage lieferte mein Habilitationsprojekt am Lehrstuhl für schulische und außerschulische Sprachbehindertenpädagogik der Universität zu Köln (Prof. Dr. Motsch), in dessen Rahmen eine empirische Studie mit mehr als 1.000 Kindern zur Früherkennung und Prävention von Schriftspracherwerbsstörungen im inklusiven Unterricht (Mayer 2014) durchgeführt wurde.
Dieses Buch verfolgt das Ziel, den genannten Berufsgruppen, die sich um Kinder und Jugendliche mit Lese-Rechtschreibstörungen kümmern, aber auch Lehramtsstudierenden unterschiedlicher Fachrichtungen sowie angehenden Sprach- und LerntherapeutInnen durch eine Aufarbeitung des internationalen Forschungsstandes wissenschaftliche Grundlagen dieses komplexen Störungsbildes zu vermitteln. Zu diesem Zweck gibt Kapitel 1einen Einblick in die Charakteristika und Prinzipien der deutschen Orthographie. Kapitel 2 verdeutlicht die kognitiven Prozesse beim Lesen und Schreiben und skizziert den Schriftspracherwerb als Entwicklungsprozess. Nach einer detaillierten Begriffsklärung (Kap. 3) werden in Kapitel 4 die angenommenen Ursachen im engeren Sinn und in Kapitel 5 das Konstrukt der phonologischen Informationsverarbeitung als Bindeglied zwischen Ursachen und Oberflächensymptomatik ausführlich erläutert.
Kapitel 6 bis 9 sind der Früherkennung, Diagnostik, Prävention, Förderung und Intervention gewidmet. Neben einer kritischen Analyse unterschiedlicher Herangehensweisen soll der Leser auch Anregungen für die praktische Tätigkeit der Diagnostik, des Unterrichts und der Therapie erhalten.
Aufgrund der leichteren Lesbarkeit wird bei Personenbezeichnungen zumeist die männliche Form verwendet. Doch es sind selbstverständlich Lehrerinnen und Lehrer, Schülerinnen und Schüler etc. gemeint. Beide Geschlechter sind immer mitzudenken.
Köln im Januar 2016 Andreas Mayer
1Das deutsche Schriftsystem
Lernziele
■ein Bewusstsein für die Charakteristika unterschiedlicher Schriftsysteme entwickeln und die Besonderheiten alphabetischer Orthographien kennen (Kap. 1.1)
■die unterschiedlichen Prinzipien der deutschen Orthographie kennen und die daraus resultierenden Rechtschreibbesonderheiten nachvollziehen können (Kap. 1.2)
Für einen Dozenten der Didaktik und Methodik des Biologieunterrichts oder einen Physiklehrer der Sekundarstufe ist es selbstverständlich, neben didaktisch-methodischen Kompetenzen über umfassendes fachspezifisches Wissen zu verfügen. Genauso selbstverständlich sollte es für alle Berufsgruppen sein, die Kinder, Jugendliche und Erwachsene mit Lese-Rechtschreibstörungen fördern oder therapieren, sich umfassendes Spezialwissen zu Aufbau, Struktur und Besonderheiten des deutschen Schriftsystems, den Entwicklungsprozessen beim Lesen- und Schreibenlernen sowie den dabei ablaufenden sprachlich-kognitiven Prozessen anzueignen.
Dieses Wissen zu vermitteln, ist das Ziel der Kapitel 1 und 2des vorliegenden Lehrbuchs. Der Leser soll sich Wissen über die wesentlichen Charakteristika der deutschen Orthographie aneignen, ihm soll deutlich werden, dass es sich bei der Aneignung dieses komplexen Systems um einen (meta-)sprachlich-kognitiven Entwicklungsprozess handelt, der sich in unterschiedliche Phasen gliedern lässt, in denen sich die Kinder von unterschiedlichen Strategien leiten lassen, um sich sukzessive den Fähigkeiten kompetenter Leser und Schreiber anzunähern.
1.1Unterschiedliche Schriftsysteme
Unter dem Begriff der Orthographie versteht man ein institutionalisiertes, normiertes System aus Zeichen und Regeln, das von kompetenten Benutzern gleich verwendet und verstanden werden kann (Crystal 2010).
Weitgehend selbstverständlich verbinden die meisten Menschen der westlichen Welt mit dem Begriff der Orthographie eine Schriftsprache, die die phonologische Struktur der jeweiligen Lautsprache nach bestimmten Regeln symbolisiert. Dabei handelt es sich aber nur um ein mögliches System, das historisch betrachtet zudem eher am Ende der Schriftentwicklung stand. Ausgehend von den Ursprüngen der Schrift im 3. Jahrtausend v. Chr. lassen sich unterschiedliche Schriftsysteme unterscheiden.
verschiedene Schriftensysteme
Diese werden üblicherweise differenziert in solche, die mittels Bildern oder Symbolen Inhalte abbilden, aber in keiner Beziehung zur jeweiligen Lautsprache der Sprachgemeinschaft stehen, in der sie verwendet wird (Piktographie, Ideographie) und solche, die sich an der Struktur der Lautsprache orientieren. In der zuletzt genannten Gruppe werden Systeme, deren Einheiten die Bedeutung von Wörtern symbolisieren (Logographie) von solchen unterschieden, die den Klang der Sprache entweder auf Silben- oder auf Phonemebene abbilden (Phonographie).
Entstehung
Der Ursprung der Schriftkultur ist im Zweistromland zwischen Euphrat und Tigris zu suchen, wo sich etwa 3400 v. Chr. die sumerische Keilschrift entwickelte, ein Terminus, der sich auf die dabei verwendete Technik bezieht, mit einem Griffel Zeichen in feuchten Ton einzuritzen.
Piktographie
Wie bei allen bekannten Schriften aus dieser Zeit handelte es sich dabei um ein piktographisches System, mit dessen Zeichen, den Piktogrammen, die gegenständliche Welt in recht konkreten Bildern wiedergeben wird, weshalb ausschließlich visuell Wahrnehmbares (z. B. Tiere, Pflanzen, landwirtschaftliche Geräte) abgebildet werden konnte. Neben der sumerischen Keilschrift gehören die Hieroglyphen, die zwischen 3000 v. Chr. und der Zeitenwende in Ägypten, aber auch in anderen Kulturen, bspw. der Hethiter oder der Maya, verwendet wurden, zu den bekanntesten Beispielen der Piktographie. Da die Bedeutungen der Piktogramme unmittelbar aus der visuellen Darstellung abgeleitet werden können und nicht an die Kenntnis einer bestimmten Sprache gebunden sind, kommen entsprechende Systeme auch heute noch in öffentlichen Einrichtungen oder bei internationalen Veranstaltungen bzw. an Orten zum Einsatz, an denen zahlreiche Menschen unterschiedlicher Nationalität zusammentreffen (z. B. Flughäfen) (Abb. 1).
Ideographie
Eine Weiterentwicklung der Piktographie stellt die Ideographie dar, deren Zeichen (= Ideogramme) meist aus Piktogrammen abgeleitet wurden, aber abstrakterer, schematisierter Natur sind und keinen unmittelbaren Bezug mehr zum Bezeichneten (signifié) erkennen lassen (Abb. 1). Deshalb können die Bedeutungen der Zeichen auch nicht mehr unmittelbar verstanden werden, sondern beruhen auf einer willkürlichen Vereinbarung, die gelernt werden muss.
Unter der Piktographie werden Schriftsysteme zusammengefasst, deren Zeichen (= Piktogramme) eindeutig und einfach sind, sodass der Inhalt auf Anhieb verstanden und wiedergegeben werden kann. Die Ideographie ist eine Weiterentwicklung piktographischer Systeme, deren Symbole (= Ideogramme) abstrakterer Natur sind, und keinen unmittelbaren Zusammenhang zur Realität erkennen lassen. Die Logographie referiert auf Systeme, deren Einheiten (= Logogramme) die Bedeutung von Wörtern symbolisieren (Crystal 2010).
Diese Weiterentwicklung der Piktographie zur Ideographie brachte den Vorteil mit sich, dass sich die Zeichen nicht mehr nur auf materielle Gegebenheiten beziehen, sondern auch auf abstrakte Begriffe, Ideen und Gedanken ausgedehnt werden konnten.
Logographie
Während Piktogramme und Ideogramme Gedanken, Ideen, Ereignisse symbolisieren können, handelt es sich bei einem logographischen System und den dabei verwendeten Logogrammen um eine visuelle Repräsentation der Bedeutung einzelner Wörter oder Morpheme.
Abb. 1: Historische und aktuelle Piktogramme sowie Ideogramme (Crystal 2010; Wikipedia 2015)
Die bekanntesten aktuellen logographischen Systeme mit ideographischen Elementen sind das japanische Kanji und die chinesische Schrift, wobei es sich bei den Zeichen des Chinesischen genau genommen um Phonogramme handelt, da sie neben dem Hinweis auf die Bedeutung des Zeichens auch einen lautandeutenden Teil beinhalten. Für ein Land wie China ist ein logographisches System, trotz der hohen Anzahl benötigter Zeichen, durchaus von Vorteil. Aufgrund der zahlreichen Regionalsprachen, deren Sprecher sich untereinander nicht verständigen können, ermöglicht die chinesische Schrift zumindest eine schriftliche Kommunikation, weil die Zeichen in den einzelnen Dialekten gleich aussehen und dieselbe Bedeutung haben, auch wenn sie lautsprachlich unterschiedlich realisiert werden.
Auch das System arabischer Zahlen und mathematischer Symbole kann als logographisches System verstanden werden, da sich die einzelnen Zeichen (1, 3, 6, +, : etc.) auf eine bestimmte sprachenunabhängige Wortbedeutung beziehen, die – die Kenntnis der Symbole vorausgesetzt – verstanden, aber lautsprachlich unterschiedlich realisiert werden (eins, one, un, uno).
Gemein sind den bislang genannten Schriftsystemen, dass die verwendeten Zeichen Bedeutungen symbolisieren, aber keine Hinweise auf die Aussprache liefern. Um die Zeichen dieser Schriften verstehen zu können, sind keine Kenntnisse über die Phonologie, Semantik, Lexik und Grammatik der Sprache erforderlich, man muss „nur“ die Bedeutung der Zeichen kennen.
Rebusprinzip
Eine grundlegende Veränderung fand statt, als man nach und nach begann, die Zeichen piktographischer oder ideographischer Systeme als Symbole für lautsprachliche Einheiten zu verwenden. Im System der ägyptischen Hieroglyphen bspw. kamen im Laufe der Zeit neben den Zeichen, die unmittelbar die Dinge der materiellen Welt symbolisieren (Piktogramme) auch solche zum Einsatz, die jeweils den Anlaut oder die erste Silbe des abgebildeten Gegenstandes repräsentieren sollten (Rebusprinzip).
phonografische Systeme
Dabei handelte es sich um einen ersten Schritt hin zu phonographischen Systemen, die also keine Bedeutungen, sondern den Klang der jeweiligen Sprache abbilden. In Abhängigkeit von der Größe der sprachlichen Einheit, die durch das jeweilige Schriftzeichen symbolisiert wird, lassen sich dabei Silbenschriften und alphabetische Schriften unterscheiden.
Silbenschriften
Die Zeichen der Silbenschriften symbolisieren die Silben der Bezugssprache, wobei einzelne Zeichen auch für eine Kombination aus Onset und Nukleus bzw. aus Nukleus und Coda (= Rime, im Folgenden auch Silbenreim genannt) stehen können (zum Begriff Onset und Rime sowie dem Aufbau der Silbe aus Onset und Silbenreim vgl. Abb. 13). Unter dem Onset einer Silbe versteht man den bzw. die Konsonanten einer Silbe, die vor dem Vokal (= Nukleus) stehen. Die Zahl der Zeichen in unterschiedlichen Silbenschriften schwankt zwischen 50 und mehreren hundert.
Hiragana, Katakana
Zu den bekanntesten aktuell noch verwendeten Silbenschriften gehören das japanische Hiragana und Katakana, das 75 Zeichen umfasst, wobei drei davon gewisse Kombinationen eingehen können, sodass weitere 36 Formen entstehen (Crystal 2010;Abb. 2).
Alphabetschriften
Bei Alphabetschriften besteht nun ein direkter Zusammenhang zwischen Phonemen und Graphemen, wobei in den seltensten Fällen eine Eins-zu-eins-Zuordnung vorherrscht.
Phoneme stellen die kleinsten bedeutungsunterscheidenden Einheiten der Lautsprache dar, während der Begriff des Graphems auf die kleinsten bedeutungsunterscheidenden Einheiten der Schriftsprache referiert.
Aufgrund der Symbolisierung der kleinsten bedeutungsunterscheidenden Einheiten der jeweiligen Sprache durch Grapheme handelt es sich bei Alphabetschriften um die ökonomischste und anpassungsfähigste Form der Orthographie. Anstatt einer riesigen Menge an Logogrammen oder Silbenzeichen benötigt eine Alphabetschrift nur eine relativ geringe Anzahl an Graphemen, mit denen sich alle vorhandenen Wörter aber auch neu hinzukommende Ausdrücke verschriften lassen.
unterschiedliche Alphabetschriften
Die vermutlich erste Alphabetschrift, auf der alle folgenden aufbauen, ist die in der ersten Hälfte des zweiten Jahrtausends v. Chr. entstandene phönizische Schrift, die aus 22 Konsonantenzeichen besteht und vorwiegend im Mittelmeerraum verwendet wurde. Aus der phönizischen Schrift entwickelten sich das aramäische und das griechische Alphabet, sodass diese als Grundlage aller heutigen alphabetischen Schriften betrachtet werden können.
Eine annähernd vollständige Abbildung der Laute einer Sprachgemeinschaft gibt es erst seit der Entstehung des griechischen Alphabets (800–900 Jahre v. Chr.). Die auch von der deutschen Orthographie verwendete lateinische Schrift stellt eine Modifikation der griechischen Schrift dar. Sie verbreitete sich im Zuge der Christianisierung über die Grenzen des Römischen Reichs hinaus in ganz Westeuropa (Kirschhock 2004).
transparente und opake Alphabetschriften
Trotz der verbindenden Gemeinsamkeit aller Alphabetschriften – der Symbolisierung der kleinsten bedeutungsunterscheidenden sprachlichen Einheiten durch visuelle Symbole – unterscheiden diese sich sehr stark hinsichtlich der Regelmäßigkeit und der Eindeutigkeit der Laut-Buchstaben-Verknüpfung. In einer völlig eindeutigen Alphabetschrift entspricht jedes Graphem genau einem Phonem und jedes Phonem wird immer durch dasselbe Graphem abgebildet. Das europäische Schriftsystem, das dem am nächsten kommt, ist das Finnische. Am anderen Ende des Kontinuums zwischen transparenten und sogenannten opaken (uneindeutigen) Schriftsprachen befindet sich das Englische. Es besteht dem Deutschen vergleichbar aus etwa 40 Phonemen und 26 Graphemen. Jedoch kennt das Englische für die 44 Phoneme etwa 1.500 unterschiedliche Möglichkeiten der Verschriftung und zahlreiche Möglichkeiten, ein bestimmtes Graphem lautsprachlich zu realisieren. Was die Aussprache der einzelnen Grapheme angeht, sind die Konsonanten – der deutschen Orthographie vergleichbar – zwar relativ eindeutig, jedoch sind die Lautwerte der Vokale weitgehend intransparent und werden stark durch den orthographischen Kontext und die morphologische Struktur der Wörter beeinflusst. Bspw. kann das Phonem /i/ durch die Buchstaben(-folgen) <e>, <ea>, <ee>, <y>, <i>, <ie>, <ei> (we, beat, see, fluency, unique, believe, ceiling) wiedergegeben werden. Das Graphem <u> wiederum kann abhängig vom Buchstabenkontext lautsprachlich u. a. als /ʌ/, /ʊ/, /ɜː//ju:/, /u:/ (just, bull, burn, curious, rule) realisiert werden.
Abb. 2: Ein Ausschnitt aus dem Zeicheninventar der Silbenschrift Katakana (Yee o. J.)
Literaturempfehlung zur Geschichte der Schrift
Crystal, D. (2010): Die Cambridge Enzyklopädie der Sprache. Haffmanns & Tolkemitt, Berlin
1.2Die deutsche Orthographie
1.2.1Das Grapheminventar des Deutschen
Das deutsche Schriftsystem gehört zu den relativ transparenten alphabetischen Schriften, wobei die Graphem-Phonem-Korrespondenz (Forward Regularity) regelmäßiger ist als die Phonem-Graphem-Korrespondenz (Backward Regularity) (Wimmer / Mayringer 2002; Klicpera et al. 2013).
Unter einer transparenten Graphem-Phonem-Korrespondenz (Forward Regularity) versteht man, dass Grapheme und Graphemverbindungen (z. B. <m>, <ack>, <ah>, <ie>) – Vokale und phonetische Feinheiten ausgenommen – in den meisten Fällen dasselbe Phonem bzw. dieselbe Phonemverbindung symbolisieren. Die Phonem-Graphem-Zuordnung (Backward Regularity) ist im Deutschen weit weniger eindeutig, da einzelne Laute eines Wortes durch unterschiedliche Grapheme symbolisiert werden. Bspw. kann ein langes und gespanntes [ɑ:] als <a>, <ah> oder <aa> (<Schal>, <mahlen>, <Saal>) verschriftet werden. Allerdings werden die meisten Phoneme sehr viel häufiger durch ein bestimmtes Graphem repräsentiert als durch andere. Die sprachsystematisch häufigsten Phonem-Graphem-Verknüpfungen werden als „Basisgrapheme“ bezeichnet. So wird das Phonem /a:/ in 89,8 % der Fälle durch das Graphem <a> abgebildet. In 8,9 % der Fälle wird es durch ein <ah> und nur in 1,3 % durch ein <aa> repräsentiert. Das Basisgraphem für ein /a:/ ist also das <a> (Bross, 2016).
Graphembegriff
Was die Zusammensetzung des Grapheminventars der deutschen Schriftsprache angeht, herrscht bislang keine vollständige Einigkeit darüber, wie der Graphembegriff zu definieren ist, sodass unterschiedliche Autoren zu unterschiedlichen Graphembeständen kommen. Ohne an dieser Stelle auf Einzelheiten dieser Diskussion einzugehen (vgl. dazu Rezec 2009), betrachtet die Graphematik den Graphembegriff aus zwei Perspektiven. Zum einen werden sie als visuelle Symbolisierung eines Phonems interpretiert. Diesem Repräsentanzkonzept nach werden dann alle Buchstaben(-verbindungen) als Grapheme betrachtet, die als schriftsprachliches Symbol für ein Phonem fungieren können (Öhlschläger 2011). Die Buchstabenkombination <ng> würde dieser Interpretation zufolge als ein Graphem betrachtet werden, weil sie die schriftsprachliche Entsprechung des Phonems / ŋ / darstellt und dieses im Deutschen Phonemcharakter ( / dɪŋ / vs. / dɪk / ) hat. Zum anderen können Grapheme aber auch völlig unabhängig von der lautlichen Ebene, ausschließlich hinsichtlich ihrer schriftsprachlichen Funktion betrachtet werden. In Analogie zur Phonologie und dem Phonembegriff werden Grapheme dann als kleinste bedeutungsunterscheidende Einheiten der Schriftsprache interpretiert (Distinktivitätskonzept, Öhlschläger 2011). Dieser Auffassung folgend lässt sich das Grapheminventar der deutschen Schriftsprache ohne Berücksichtigung der Lautsprache in Analogie zur Ermittlung des Phoneminventars mithilfe der Minimalpaarbildung bestimmen. Da ein Buchstabe oder eine Buchstabenverbindung aus dieser Perspektive nur dann Graphemcharakter hat, wenn es „als Ganzes ausgetauscht werden kann“ (Dürscheid 2006, 131), handelt es sich bei <ng> nicht um ein Graphem, da es noch weiter in kleinere bedeutungsunterscheidende Einheiten zerlegbar ist. Die Minimalpaare <Ring> vs. <Rind> und <singen> vs. <sinken> wären unter dieser Prämisse ausreichend, um der Buchstabenkombination <ng> Graphemcharakter abzusprechen.
Analog definiert Eisenberg (2009, 66) den Graphembegriff als kleinste Einheit des Schriftsystems und fasst darunter „alle Einzelbuchstaben, die eine Sprache als kleinste segmentale Einheiten verwendet und außerdem alle Buchstabenverbindungen (sogenannte Mehrgraphe), die wie Einzelbuchstaben als kleinste unteilbare Einheiten zu gelten haben.“
Abb. 3: Das Grapheminventar des Deutschen
Diesen Überlegungen folgend wären die Buchstabenverbindungen <sch>, <qu>, <ch> als Grapheme des Deutschen zu interpretieren, da es sich um Einheiten handelt, die in einem Wort nicht weiter zerlegt werden können, sondern nur als Ganzes ersetzt werden können.
Dem Distinktivitätskonzept folgend kommt den drei Diphthongen des Deutschen <ei>, <au>, <eu> kein Graphemstatus zu, da sich hier sehr wohl Minimalpaare finden, bei denen der Austausch eines der beiden Elemente zu einer Bedeutungsveränderung führt (<aus> vs. <bus>, <Eule> vs. <Eile> vs. <Elle>). Auch den Buchstaben <c> und <y> kommt im Deutschen kein Graphemstatus zu, da <y> in deutschen Wörtern gar nicht und <c> ausschließlich in Kombination mit den Graphemen <s> und <h> vorkommen.
Grapheminventar
Das Grapheminventar der deutschen Sprache auf der Grundlage des Distinktivitätskonzepts ist Abb. 3 zu entnehmen (Eisenberg 2009).
graphotaktische Regeln
Ferner formuliert die Graphematik graphotaktische Regeln, also Regularitäten hinsichtlich der in einer Schriftsprache möglichen Graphemkombinationen. Ein Beispiel für eine graphotaktische Regel, die eine vom phonologischen Prinzip der Orthographie abweichende Schreibweise erklärt, ist die im Deutschen geltende Besonderheit, dass im Anfangsrand einer Schreibsilbe das Phonem / ʃ / vor / p / und / t / niemals durch <sch> sondern immer durch <s> realisiert wird, um die Überlänge einer Schreibsilbe (Eisenberg 2009) zu vermeiden. Eine weitere graphotaktische Regel im Deutschen gilt der Schreibweise des /i/, das üblicherweise durch die Buchstabenkombination <ie> wiedergegeben wird, am Wortanfang aber als <i> oder <ih> verschriftet werden muss.
1.2.2Prinzipien der deutschen Orthographie
Die Systematik der deutschen Orthographie lässt sich mithilfe von drei dominanten Prinzipien, dem phonologischen (phonographischen), dem silbischen und dem morphematischen Prinzip weitgehend erklären. Die Komplexität der deutschen Orthographie resultiert weniger aus einer großen Anzahl an Ausnahmen, sondern aus der gegenseitigen Überlagerung dieser Prinzipien.
Das phonologische (phonographische) Prinzip
Das grundlegende Prinzip aller alphabetischen Orthographien besagt, dass in der Schriftsprache die phonologische Struktur der Lautsprache abgebildet wird, dass ein Phonem durch einen Buchstaben bzw. eine Buchstabenverbindung symbolisiert (Phonem-Graphem-Korrespondenz) und ein bestimmter Buchstabe durch das damit assoziierte Phonem lautsprachlich realisiert wird (Graphem-Phonem-Korrespondenz).
Symbolisierung von Phonemen
Dominanz des phonologischen Prinzips
Auch wenn im Zusammenhang mit der Rechtschreibung üblicherweise die zahlreichen Abweichungen vom phonologischen Prinzip betont werden, darf nicht übersehen werden, dass es sich dabei um das vorherrschende Prinzip des Deutschen handelt. Obwohl es aufgrund des unterschiedlichen Verständnisses des Begriff der Lauttreue schwierig ist anzugeben, wie hoch der prozentuale Anteil an Wörtern ist, die ausschließlich durch die Anwendung des phonologischen Prinzips orthographisch korrekt verschriftet werden können, erscheint es durchaus sinnvoll, Kindern in den Eingangsklassen an Grund- und Förderschulen zunächst dieses Prinzip zu vermitteln und ihnen zu ermöglichen, es anzuwenden und zu automatisieren. Bei den meisten Wörtern, die vom phonologischen Prinzip abweichen, lassen sich selten mehr als ein bis zwei Unregelmäßigkeiten identifizieren.
Dass das phonologische Prinzip im Deutschen aber nicht das allein bestimmende sein kann, dass es sich bei den Beziehungen zwischen Graphemen und Phonemen nicht um eine Eins-zu-Eins-Korrespondenz handelt, wird allein daraus deutlich, dass die deutsche Lautsprache aus etwa 40 Phonemen, das Schriftsystem jedoch nur aus 31 Graphemen besteht.
Tab. 1:Die häufigsten Graphem-Phonem-Korrespondenzen des Deutschen (Eisenberg 2009)
Das bedeutet aber nicht, dass die deutsche Orthographie diese Phonemkontraste auf Vokalebene unberücksichtigt lässt. Sie werden jedoch nicht auf Buchstabenebene, sondern auf Silbenebene deutlich gemacht (silbisches Prinzip).
Abweichungen vom phonologischen Prinzip
Die meisten Abweichungen vom phonologischen Prinzip lassen sich durch graphotaktische Regeln, das silbische Prinzip bzw. das Prinzip der Morphemkonstanz erklären.
Ein Beispiel dafür ist die bereits erwähnte Regel, dass der Laut [ʃ] im Onset einer Silbe vor [p] und [t] nicht durch <sch>, sondern durch <s> verschriftet wird (<Stein>).
Die vom phonologischen Prinzip abweichende Verschriftung der Phoneme / p / , / t / und / k / durch die Grapheme <b>, <d> und <g> (z. B. Korb, Hund, Burg) lässt sich wiederum durch das Prinzip der Morphemkonstanz erklären. Dieses Phänomen tritt wort- und silbenfinal immer dann auf, wenn in der Explizitform der Wörter, also der zweisilbigen trochäischen Struktur des Wortes, die durch Ableitung oder Verlängerung resultiert, ein stimmhafter Plosiv artikuliert wird (z. B. <Körbe>, <Hunde>, <Berge>).
Die unterschiedliche lautsprachliche Realisierung der Vokalqualitäten (lang, gespannt vs. kurz, ungespannt) kann wiederum primär durch das silbische Prinzip erklärt werden.
Das silbische Prinzip
Um dieses Prinzip und die damit verbundenen graphematischen Regeln nachvollziehen zu können, ist es zunächst notwendig, einen Blick auf die typische Struktur deutscher Wörter zu werfen.
trochäische Struktur
Die Struktur der meisten deutschen Wörter in ihrer Explizitform ist ein zweisilbiger Trochäus, d. h. es handelt sich um Wörter mit einer betonten ersten Silbe (Hauptsilbe) und einer zweiten unbetonten Reduktionssilbe (Bredel 2009; Moths 2011; Thelen 2002). Bei Abweichungen von dieser Struktur handelt es sich meist um einsilbige Funktionswörter und um Lehnwörter aus anderen Sprachen (z. B. Salat, Balkon, Regal).
Explizitform
Unter der Explizitform eines Worts versteht man die zweisilbige flektierte Form (Plural, Genitiv, Komparativ), wenn das Wort in seiner Grundform einsilbig ist. Die Explizitform des Wortes „Hund“ ist bspw. der Plural „Hunde“ oder der Genitiv „des Hundes“ (Eisenberg 2006). Die phonologische Explizitform eines Wortes ist linguistisch betrachtet die Grundlage der Graphematik.
Aufbau der Silbe
Betrachtet man nun den Aufbau der Silbe, so lässt sich diese in drei Elemente segmentieren, wobei nicht alle Elemente obligatorisch besetzt sein müssen. Jede Silbe verfügt über einen Silbenkern (= Nukleus N), das vokalische Element der Silbe. Die fakultativen konsonantischen Bestandteile links vom Nukleus werden als linker konsonantischer Anfangsrand (= Onset O), die Konsonanten rechts vom Nukleus als rechter Endrand (= Coda C) bezeichnet. Nukleus und Coda gemeinsam bilden den sogenannten Silbenreim (Abb. 13, s. S. 83).
Silbenstrukturen
Auf der Grundlage dieser Ausführungen lässt sich die Standardstruktur der Explizitformen zahlreicher deutscher Wörter formal folgendermaßen darstellen (Tab. 2).
Tab. 2: Die trochäische Struktur deutscher Wörter
Die Beispielwörter in Tab. 2 machen bereits einige typische Merkmale des Aufbaus deutscher Wörter ersichtlich.
■Aufgrund der trochäischen Struktur liegt die Hauptbetonung des Wortes auf dem Nukleus der ersten Silbe.
■In der ersten betonten Silbe muss in der schriftsprachlichen Modalität lediglich der Nukleus besetzt sein, Onset und Coda sind fakultativ (Bsp.: A-bend, I-gel, E-sel, O-fen), während der Onset der Reduktionssilbe fast immer besetzt ist (gegebenenfalls durch ein silbentrennendes <h>, s. u.).
■Ist der Onset der betonten Hauptsilbe besetzt, kann er durch einen (= einfacher Anfangsrand) oder mehrere Konsonanten (= komplexer Anfangsrand) besetzt sein. Mit Ausnahme der Kombination von / ʃ / mit / t / oder / p / , die schriftsprachlich als <st> und <sp> wiedergegeben wird, werden die Onsets ausschließlich auf der Grundlage des phonologischen Prinzips verschriftet (<schleichen>, <Treppe>, <Flasche>, <Klasse>).
■Der vokalische Kern der zweiten Silbe (Reduktionssilbe) ist orthographisch immer durch ein <e> besetzt. Wie dieses Graphem lautsprachlich umgesetzt wird, hängt von der Besetzung der Coda ab: Befindet sich im rechten Endrand ein <n> oder <l>, wird das <e> nur als sehr schwach oder gar nicht wahrnehmbares [ǝ] artikuliert (z. B. <Besen> →[bez(ǝ)n]). Ist der Endrand der zweiten Silbe unbesetzt, wird das <e> als Schwa-Laut [ǝ] (z. B. <Rose> →[rozǝ]) realisiert, während es als „vokalisiertes r“ ([ɐ] ausgesprochen wird, wenn im rechten Silbenrand der zweiten Silbe ein <r> steht, (z. B. <Wunder> →[vʊndɐ]) (Bredel 2009).
Auf Silbenebene lassen sich nun einige orthographische Besonderheiten und Zusammenhänge zwischen der Orthographie und der Phonologie veranschaulichen. Es lässt sich v. a. deutlich machen, wie die unterschiedlichen Vokalqualitäten der betonten Hauptsilbe (lang / gespannt vs. kurz / ungespannt) auf Silbenebene berücksichtigt werden, die auf der Ebene des Einzelbuchstaben (mit Ausnahme des <ie>) nicht unterschieden werden.
offene und geschlossene Silben
Handelt es sich bei der ersten betonten Silbe um eine offene Silbe, also um eine Silbe ohne konsonantischen Endrand (Tab. 3), wird der Vokal lang und gespannt realisiert (z. B. Ro – se, Lu – pe, Re – gen). Ist die erste Silbe dagegen geschlossen, ist der Endrand also durch einen oder mehrere Konsonanten besetzt (Tab. 4), so ist der Vokal kurz und ungespannt zu lesen (z. B. Hun – de, In – sel, kos – ten) (vgl. Eisenberg 2009). Eine anderweitige orthographische Markierung der Länge bzw. der Kürze des Vokals ist hier üblicherweise nicht vorgesehen.
Konsonantenverdoppelung
Befindet sich zwischen den Nuklei der ersten und der zweiten Silbe nur ein Konsonant (z. B. <Wesen>), wird dieser als ambisilbischer Konsonant (= Silbengelenk) bezeichnet, der aufgrund des Prinzips der Onsetmaximierung der zweiten Silbe zugeordnet (We-sen) wird. Da es sich bei der ersten Silbe dann um eine offene Silbe handelt, wird der Vokal der ersten Silbe lang gesprochen. Soll der Vokal des Wortes aber kurz und ungespannt realisiert werden, muss die Coda der ersten Silbe besetzt sein (s. o.), weshalb der ambisilbische Konsonant verdoppelt wird. Da es sich bei der ersten Silbe dann wieder um eine geschlossene Silbe handelt, wird der Vokal der ersten Silbe kurz und ungespannt realisiert (z. B. <wessen>; Tab. 5).
Schärfung und Dehnung
Die Kennzeichnung des kurzen und ungespannten Vokals durch die Verdoppelung des ambisilbischen Konsonanten („Schärfung“) geschieht im Deutschen sehr regelhaft. Zentrale Ausnahmen sind, dass Bi- und Trigraphe (<ch>, <ng>, <sch>) sowie <x> nicht verdoppelt werden (z. B. <wischen>, <Rechen>) und statt der Verdoppelung des <k> und des <z> <ck> bzw. <tz> geschrieben wird.
Tab. 3: zweisilbige Wörter mit offener betonter erster Silbe
Tab. 4: zweisilbige Wörter mit geschlossener betonter erster Silbe
Tab. 5: Beispiele für die Konsonantenverdoppelung nach kurzen ungespannten Vokalen in der ersten Silbe
Weniger regelmäßig ist die Dehnungsmarkierung durch die Verdoppelung des Vokals der ersten Silbe (<Seele>) oder das Einfügen eines Dehnungs-<h> vor Sonoranten wie <l>, <m>, <n> oder <r> (<Rahmen>, <Löhne>, <fahren>). Das Dehnungs-h lässt sich insgesamt als wenig regelhaft charakterisieren, da es nicht vor Plosiven und selten in Wörtern mit komplexen Onsets der ersten Silbe eingefügt wird. Da diese Dehnungsmarkierung aber nur im Fall einer Nichtbesetzung der Coda der ersten Silbe eingefügt wird und dies eigentlich ausreichend ist, um den Vokal als lang und gespannt zu identifizieren (s. o.), handelt es sich dabei letztendlich um eine zweifache Markierung der Vokallänge, die als nicht zwingende visuelle Stütze beim Lesen betrachtet werden kann (Eisenberg 2006).
silbentrennendes h
Vom Dehnungs-h klar zu unterscheiden und wiederum sehr regelmäßig auftretend ist das „silbentrennende <h>“. Es wird immer dann eingefügt, wenn die Coda der ersten und der Onset der zweiten Silbe leer sind, also zwischen den beiden Nuklei kein konsonantisches Material vorhanden ist. Wie das Dehnungs-h ist auch das „silbentrennende <h>“ ein „stummes <h>“ (z. B. [zeːən]). Das silbentrennende <h> tritt nicht auf, wenn der erste Vokal als Mehrgraph (z. B. <kauen>) geschrieben wird. Nur bei <ei> steht es in manchen Fällen, wie z. B. bei <Weiher> (Thelen 2002).
Das Prinzip der Morphemkonstanz
Das Prinzip der Morphemkonstanz (morphematisches Prinzip) verlangt, dass die Schreibweise des Wortstamms als kleinste bedeutungstragende Einheit auch in der Schreibung von flektierten und abgeleiteten Formen wieder erkannt werden soll. So werden die Adjektive <hell> und <kalt> zu <Helligkeit> und <Kälte>, nicht aber zu *<Hälligkeit> oder *<Kelte> nominalisiert, obgleich das phonologische Prinzip beide Schreibweisen zuließe, da die beiden Vokale der ersten Silbe durch denselben Laut [ɛ] realisiert werden.
Überlagerung der Prinzipien
Das silbische Prinzip und das Prinzip der Morphemkonstanz überlagern sich in der deutschen Orthographie, was die Rechtschreibung auf den ersten Blick unüberschaubar und regellos wirken lässt. Bspw. lässt sich die Verdoppelung des ambisilbischen Konsonanten in <kommen> als Zeichen für die ungespannte, kurze Realisierung des Vokals der ersten Silbe erklären. Die Schreibweise <drohen> spiegelt die Regel zum silbentrennenden <h> wider. Die Begründung für diese Abweichungen vom phonologischen Prinzip entfällt in den flektierten Formen dieser Wörter (z. B. <kommt> und <droht>), wird aber aufgrund des Prinzips der Morphemkonstanz beibehalten.
Das semantische Prinzip
Abschließend sei noch auf das semantische Prinzip verwiesen. Dieses Prinzip verfolgt das Ziel, dass homophone Wörter mit unterschiedlicher Bedeutung orthographisch auch unterschiedlich realisiert werden (z. B. Lied vs. Lid, Wahl vs. Wal).
Literaturempfehlungen zum deutschen Schriftsystem
Eisenberg, P. (2009): Phonem und Graphem. In: Dudenredaktion (Hrsg.): Duden Band 4. Die Grammatik. Unentbehrlich für richtiges Deutsch. Dudenverlag, Mannheim, 19–94
Bredel, U. (2009): Orthographie als System – Orthographieerwerb als Systemerwerb.
Zeitschrift für Literaturwissenschaft und Linguistik 39 (153), 135–154
Zusammenfassung
Das für das Schriftsystem des Deutschen grundlegende phonologische Prinzip wird vom silbischen und vom morphematischen Prinzip flankiert bzw. ergänzt. So wie viele andere Schriftsysteme ist also auch das Deutsche ein Mischsystem, das zwar auf dem phonographischen Prinzip basiert, in dem aber auch auf Silben und Wörter bzw. Morpheme Bezug genommen wird (Öhlschläger 2011).
Dass sich die unterrichtliche Förderung orthographischer Fähigkeiten dieses sprachwissenschaftliche Wissen zunutze machen kann, wird in Kapitel 8.6 deutlich werden. Zum anderen wurden in den 2000er und 2010er Jahren einige Konzeptionen für den schriftsprachlichen Anfangsunterricht entwickelt, die auf einer sprachwissenschaftlichen Analyse des orthographischen Systems aufbauen, aber in der schulischen Praxis noch kaum Eingang gefunden haben (Bredel 2009; Braun 2011; Moths 2011).
2Der ungestörte Schriftspracherwerb
Lernziele
■Modelle der Worterkennung und des Wortschreibens kennen (Kap. 2.1 und 2.2)
■Zusammenhänge zwischen der Worterkennung, dem Sprachverständnis und dem Leseverständnis verstehen (Kap. 2.3)
■die unterschiedlichen Phasen des Schriftspracherwerbs und die dabei vorrangig eingesetzten Strategien kennen und daraus Konsequenzen für einen entwicklungsorientierten Unterricht ableiten können (Kap. 2.4)
unterschiedliche Perspektiven
Schriftsprachliche Kompetenzen und deren Erwerb lassen sich aus zwei Perspektiven betrachten. Entwicklungsmodelle zum Lesen- und Schreibenlernen (Kap. 2.4) gliedern den Schriftspracherwerb in unterschiedliche Phasen und beschreiben dominante Strategien innerhalb dieser Abschnitte, während Prozessmodelle (Kap. 2.1 und 2.2), insbesondere Modelle zur Worterkennung, Hinweise auf die dabei ablaufenden grundlegenden kognitiven Prozesse und deren Einflussfaktoren liefern (Reber 2009).
2.1Dual-Route Modelle
Um gedruckte Wörter lesen und verstehen zu können, müssen die visuellen Symbolfolgen der Schrift in Sprache umgewandelt werden. Um die unterschiedlichen Strategien beim Lesen von Wörtern zu beschreiben und deutlich zu machen, welche Teilprozesse für deren Anwendung notwendig sind, und damit einen Rahmen für die Unterstützung beim Erlernen der Worterkennung abstecken zu können, wird üblicherweise auf das Dual-Route-Modell von Coltheart (1978, 2005) verwiesen, der zwei grundlegende Strategien beim Lesen von Wörtern unterscheidet, die indirekte Lesestrategie des phonologischen Rekodierens und die Strategie der direkten Worterkennung (auch lexikalische Strategie).
unterschiedliche Verarbeitungswege
Ausgangspunkt des Dual-Route Modells ist die Tatsache, dass es zum einen Wörter gibt, die auf der Grundlage der gelernten Graphem-Phonem-Korrespondenzregeln (GPK-R) erlesen und verstanden werden können, während die lautsprachliche Realisierung von Wörtern, deren Schreibweise von den typischen GPK-R abweichen, als wortspezifisches Wissen im orthographischen Lexikon abgespeichert werden muss. Zum anderen sollten Wörter, die im Langzeitgedächtnis repräsentiert sind, unabhängig davon ob es sich um regelmäßige Wörter oder Ausnahmewörter handelt, auf anderem Weg verarbeitet werden als Wörter, die dem Leser in der schriftsprachlichen Modalität unbekannt sind.
Um die beiden Wege des Dual-Route Modells beschreiben zu können (Abb. 4), wird als Ausgangspunkt die Konfrontation eines Lesers mit einer Buchstabenfolge (Wort oder Pseudowort) angenommen, deren Aussprache und Bedeutung aktiviert werden sollen.
indirekter Leseweg
Der erste Verarbeitungsprozess besteht in der visuellen Analyse des orthographischen Inputs, also der Buchstabenfolge. Kommt der Leser dabei zu dem Ergebnis, dass es sich um eine unvertraute Buchstabenfolge handelt, dass also im orthographischen Lexikon kein entsprechender Eintrag repräsentiert ist, muss das Wort über die indirekte Strategie des phonologischen Rekodierens erlesen werden (linke Seite der Abb. 4).
Umwandlung einzelner Buchstaben in Laute
Dabei wird jeder einzelne Buchstabe des Wortes bewusst verarbeitet und auf der Grundlage der gelernten GPK-R in den entsprechenden Laut umgewandelt. Diese in Laute umkodierten Buchstaben müssen in der phonologischen Schleife des Arbeitsgedächtnisses (Kap. 5.2.3) zwischengespeichert werden, damit sie koartikulatorisch zu einem Wort synthetisiert werden können. Die Semantik des Wortes wird dabei zunächst nicht berücksichtigt, der Weg zur Aussprache des Wortes führt am semantischen System vorbei.
phonologische Rohform
Das Ergebnis dieses Umwandlungsprozesses stellt eine phonologische Rohform dar, die aufgrund der wechselseitigen koartikulatorischen Beeinflussung der Laute bei der natürlichen Aussprache eines Wortes und der Bedeutung des Silbenkontextes bei der lautlichen Realisierung von Vokalen mit der tatsächlichen Aussprache nicht identisch sein muss, ihr aber aufgrund der hohen Transparenz der deutschen Orthographie üblicherweise recht nahekommt. Dennoch bilden auch deutschsprachige Leseanfänger zunächst oft ein künstlich synthetisiertes Wort, indem sie die im Erstleseunterricht gelernten Lautwerte der einzelnen Buchstaben aneinanderreihen (z. B. [e:n:te.]). Erst über auditive Rückkopplungsprozesse und einen Vergleich mit den im mentalen Lexikon gespeicherten Einträgen (beim Satz- und Textlesen unter Ausnutzung von Kontextinformationen) können dann die tatsächliche Aussprache und die Bedeutung des Wortes aktiviert werden [ɛntǝ]. Voraussetzung dafür ist, dass das Wort zum Wortschatz des Kindes gehört und die generierte phonologische Rohform der echten Aussprache nicht zu unähnlich ist.
Abb. 4: Dual-Route Modell
wechselseitige Einflüsse
Dass die Generierung der korrekten Aussprache inklusive der korrekten Betonung sowie der Zugriff auf die Bedeutung auch vom Kontext abhängig sind, zeigen die folgenden Beispiele:
■„Die Kissen sind modern, aber sie fangen an zu modern.“
■„Ich bin alle Montage auf Montage.“
■„Du wachst am Morgen auf und wachst die Skier.“
■„Wir rasten zum Parkplatz um zu rasten“ Brügelmann (1992, 17).
■„Die Ziegel des Dachs sind rot. Die Haare des Dachs sind rot“ (Costard 2011, 44).
Bei der indirekten Strategie handelt es sich um eine sichere, aber langsame, mühsame und unökonomische Vorgehensweise. Zum einen belastet sie die Kapazität des Arbeitsgedächtnisses, da die bereits verarbeiteten Grapheme für die anschließende Synthese in phonologischer Form im Arbeitsgedächtnis solange präsent gehalten werden müssen, bis die anderen Grapheme parallel verarbeitet wurden. Zum anderen wird ein großer Teil der kognitiven Ressourcen beansprucht, die dann nicht mehr für das Leseverständnis zur Verfügung stehen.
Verarbeitung größerer sublexikalischer Einheiten
Die Anwendung der indirekten Lesestrategie reduziert sich aber nicht auf die Anwendung der GPK-R. Auch das Erlesen von Wörtern durch die simultane Verarbeitung größerer sublexikalischer Einheiten als einzelne Buchstaben (Silben, häufig vorkommende Buchstabenfolgen) kann dieser Strategie zugeordnet werden. Es handelt sich dabei um einen wichtigen Lernschritt, der zwischen dem buchstabenweisen Erlesen und der direkten automatisierten Worterkennung angesiedelt ist, im klassischen Dual-Route Modell aber nicht explizit berücksichtigt wird. Die sukzessive Vergrößerung der schriftsprachlichen Einheiten, die ganzheitlich-simultan verarbeitet und mit der entsprechenden Phonologie assoziativ verknüpft werden können, dürfte den entscheidenden Schritt auf dem Weg zur Automatisierung der Worterkennung darstellen.
Die indirekte Strategie des phonologischen Rekodierens ermöglicht es Lesern, die eine relativ transparente Orthographie erlernen, von schriftsprachlich unbekannten, regelmäßigen Wörtern und Pseudowörtern eine phonologische Rohform zu bilden und diese der Artikulation zuzuführen, ohne dass damit ein Verständnis des Gelesenen zwingend verbunden ist.
direkter Leseweg
Ausnahmewörter, also Wörter, die von den üblichen GPK-R abweichen, können nur mittels der direkten lexikalischen Lesestrategie verarbeitet werden. Dabei geht das Dual-Route Modell von einer direkten Assoziation zwischen der Orthographie und den im mentalen Lexikon repräsentierten Bedeutungen, also der unmittelbaren Aktivierung der Bedeutung durch die Orthographie. Aufgrund der assoziativen Verknüpfung zwischen der semantisch-konzeptionellen Ebene und der Wortformebene im mentalen Lexikon kann in der Folge auch auf die Phonologie zugegriffen werden.
Mittels der direkten Lesestrategie können aber auch regelmäßige Wörter erlesen werden. In der Folge des wiederholten phonologischen Rekodierens von Wörtern bilden sich im orthographischen Lexikon sukzessive Repräsentationen aus, sodass dieselbe Verarbeitung wie bei Ausnahmewörtern angenommen wird, nämlich die unmittelbare Aktivierung der Bedeutung.
Über diese Route ist eine schnelle und mühelose Aussprache sowohl bekannter regelmäßiger Wörter als auch von Ausnahmewörtern möglich. Dagegen können Pseudowörter, von denen keine mentalen Repräsentationen im Lexikon angenommen werden, nur mit Hilfe der indirekten Strategie erlesen werden.
Da bei der direkten Worterkennung einige wesentliche Charakteristika des Wortes ausreichend sind, um die Bedeutung und natürliche Aussprache zu aktivieren, handelt es sich um eine Verarbeitungsstrategie, die das Lesen schneller, flüssiger und müheloser macht, das phonologische Arbeitsgedächtnis nur in geringem Maße beansprucht, sodass die vorhandenen kognitiven Ressourcen für die komplexen Prozesse des Leseverständnisses zur Verfügung stehen (LaBerge / Samuels 1974). Die indirekte Strategie durch die direkte Worterkennung zu ergänzen, stellt deshalb ein wesentliches Ziel des schriftsprachlichen Anfangsunterrichts dar.
Das Dual-Route Modell nimmt also an, dass bei der indirekten Lesestrategie das Schriftbild in eine phonologische Form umgewandelt wird, die genutzt werden kann, um auf die Bedeutung des Wortes zuzugreifen („prälexikalische phonologische Rekodierung“, Klicpera / Gasteiger-Klicpera 1995, 19). Für die direkte Lesestrategie werden dagegen direkte Assoziationen zwischen dem Wortbild und der Bedeutung angenommen. Erst deren Aktivierung ermöglicht in der Folge einen Zugriff auf die Phonologie („postlexikalische phonologische Rekodierung“, Klicpera / Gasteiger-Klicpera 1995, 18).
Kritik am Dual-Route Modell
Kritik am Dual-Route Modell wurde insbesondere hinsichtlich der angenommenen Unabhängigkeit der beiden Lesewege und der nur marginalen Bedeutung der Phonologie bei der Anwendung der direkten Lesestrategie formuliert.
Bspw. kommen Frederiksen / Kroll (1976, 373) aufgrund ihrer Forschungsarbeiten zu dem Ergebnis, „[…] that there is no evidence to support the idea that phonological translation must be performed prior to accessing the internal lexicon.”
Dagegen wurde von Coltheart (1978, 196) betont, dass Leser auch bei der Anwendung der direkten Lesestrategie den graphemischen Input in eine phonologische Form umkodieren:
„One thing is quite clear from the experiments […]. Subjects presented visually with a string of letters […] do derive a phonological recoding of the letter string, even when the task does not require this, and even when this can make the task more difficult.”
Die Annahme einer direkten Verknüpfung zwischen der Orthographie und der Wortbedeutung unter Umgehung der Phonologie resultiert aus den insbesondere im Englischen häufig vorkommenden unregelmäßigen Wörtern, bei denen das phonologische Rekodieren wenig zielführend ist und deren visuelle Charakteristika (Schriftbild) deshalb mit der Wortbedeutung assoziativ verknüpft werden müsse. Dagegen betonen Ehri (1997) und Seidenberg (2005), dass es auch in der englischen Orthographie kaum Wörter gibt, die vollständig von den üblichen GPK-R abweichen. Auch Ausnahmewörter hätten üblicherweise große Überschneidungen mit regelmäßigen Wörtern und nur einzelne Buchstaben eines Wortes weichen von den üblichen GPK ab, weshalb eine völlige Unabhängigkeit der Verarbeitung regelmäßiger Wörter und Ausnahmewörter wenig wahrscheinlich sei. Dass die Umwandlung einer Buchstabenfolge in einen phonologischen Code zwar beim Erlernen und der Anwendung der indirekten Lesestrategie eine zentrale, bei der Ausbildung der direkten Worterkennung aber keine Rolle mehr spiele, sei zudem deshalb nicht plausibel, weil die meisten Kinder, die Schwierigkeiten beim Erlernen des phonologischen Rekodierens haben, üblicherweise auch beim Erwerb des direkten Lesewegs beeinträchtigt sind.
visuell phonologische Assoziationen
Ehri (1992) zufolge sei es deshalb naheliegender, bei der sukzessiven Automatisierung der Worterkennung systematische Assoziationen zwischen visuellen und phonologischen Informationen und keine arbiträren Verbindungen zwischen dem Wortbild und der Bedeutung anzunehmen. Zum einen seien visuell-semantische Verknüpfungen aufgrund der fehlenden Systematik unökonomisch und eine enorme Belastung des Gedächtnisses. Zum anderen seien Wortbilder visuell auch nicht eindeutig genug voneinander zu diskriminieren, um die üblicherweise sehr hohe Lesegenauigkeit zu erklären. Der entscheidende Schritt zur automatisierten Worterkennung sei vielmehr den kontinuierlich verbesserten Fähigkeiten im Bereich des phonologischen Rekodierens geschuldet, die es dem Kind ermöglichen, sukzessive größer werdende orthographische Einheiten simultan zu verarbeiten und mit der entsprechenden Phonologie zu verknüpfen. Während zu Beginn des Leselernprozesses die Ausbildung von Assoziationen zwischen einzelnen Buchstaben und den entsprechenden Lauten im Mittelpunkt stehe, würden im Laufe der Entwicklung Silben, Morpheme, häufig vorkommende Buchstabengruppen und schließlich ganze Wörter ganzheitlich erfasst und mit der entsprechenden Phonologie verknüpft. Demnach lässt sich die direkte genauso wie die indirekte Lesestrategie durch systematische visuell-phonologische Assoziationen charakterisieren. Bei beiden Strategien handelt es sich demnach um denselben Zugangsweg zur Bedeutung über die Phonologie eines Wortes mit dem Unterschied, dass die Größe der verarbeiteten Einheiten zunimmt.
Diese Annahme wurde insbesondere von Seidenberg / McClelland (1989) im Rahmen des konnektionistischen Modells (Kap. 2.2) ausgearbeitet.
Schreiben
Analog zum Dual-Route Modell der Worterkennung nehmen Ellis / Young (1991), Cholewa et al. (2008) und Heber (2010) auch für das Schreiben einzelner Wörter eine segmentale und eine direkte lexikalische Verarbeitungsroute an.
Vereinfacht dargestellt (für eine detaillierte Darstellung des Modells von Ellis / Young sowie einer Weiterentwicklung des Modells vgl. Heber 2010) nimmt die Produktion eines diktierten Wortes seinen Ausgangspunkt im auditiven Analysesystem. Bei diesem Verarbeitungsschritt wird die phonologische Struktur des Wortes identifiziert, die dann in der phonologischen Schleife des Arbeitsgedächtnisses aufrechterhalten werden muss.
Die weitere Verarbeitung erfolgt nun entweder über die segmentale oder die lexikalisch-semantische Route. Obwohl sowohl das Schreiben orthographisch vertrauter Wörter als auch solcher, zu denen kein wortspezifisches Wissen im Langzeitgedächtnis vorhanden ist, beide Wege aktivieren, stellt die segmentale Verarbeitungsroute bei bekannten Wörtern eher einen Kontrollmechanismus dar und tritt erst beim Schreiben von schriftsprachlich unbekannten Wörtern in den Vordergrund.
segmentale Schreibstrategie
Die segmentale Route führt vorbei am semantischen System; das zwischengespeicherte Wort wird nach der auditiven Analyse in einzelne Phoneme, Silben oder Silbenbestandteile segmentiert, die so entstandene „Phonemkette“ (Heber 2010, 47) liefert den Input für den nächsten Verarbeitungsschritt, bei dem den identifizierten Phonemen bzw. Phonemgruppen die entsprechenden Grapheme bzw. Graphemgruppen zugeordnet werden (phonemisch-graphemische Konversion).
Nachdem schließlich für jedes aktivierte Graphem eine passende allographische Variante (Druckschrift, Schreibschrift, Groß- oder Kleinbuchstaben) ausgewählt wurde, werden diese schreibmotorisch umgesetzt.
Werden Wörter ausschließlich über die segmentale Route verarbeitet, führt dies nur bei lautgetreuen Wörtern und Pseudowörtern zu einem richtigen Ergebnis; Wörter, deren Schreibweise sich nicht ausschließlich am phonologischen Prinzip orientieren, werden mithilfe dieser Strategie zwar lautgetreu, aber orthographisch inkorrekt wiedergegeben.
lexikalische Schreibstrategie
Das Schreiben eines Wortes mittels direkter lexikalischer Strategie wird möglich, wenn das auditive Analysesystem zu dem Ergebnis kommt, dass das in der phonologischen Schleife gespeicherte Wort im orthographischen Inputlexikon vollständig repräsentiert ist. In einem nächsten Schritt können die korrespondierenden Formen in einem graphematischen Output-Lexikon aktiviert werden, sodass das Wort als Ganzes, ohne eine bewusste Segmentation in Einzellaute oder Silben, schreibmotorisch realisiert werden kann.
Wörter, deren Schreibweise stark von den üblichen Phonem-Graphem-Korrespondenzen (z. B. <Clown>) abweicht, können nur mithilfe der direkten lexikalischen Strategie korrekt geschrieben werden.
2.2Das konnektionistische Modell der Worterkennung
Die skizzierte Kritik am Dual-Route Modell, insbesondere die Annahme zweier weitgehend unabhängiger Verarbeitungswege für regelmäßige und Pseudowörter auf der einen und Ausnahmewörter auf der anderen Seite, führte zu Überlegungen, ob und wenn ja wie sich die Worterkennung auch durch ein einziges Verarbeitungssystem erklären lässt (Seidenberg 2005).
Annahme eines Verarbeitungssystems
Daraus resultierten unterschiedliche Modelle, wobei das konnektionistische oder Netzwerkmodell (Seidenberg / McClelland 1989; Seidenberg 2005, 2007) das bekannteste sein dürfte.
Dieses Modell nimmt weder für das Erlernen des phonologischen Rekodierens die Notwendigkeit eindeutiger GPK-R an, noch sei eine lexikalische Strategie mit einer unmittelbaren Beteiligung der semantisch-konzeptionellen Ebene des mentalen Lexikons bei der Rekodierung von Schrift in Sprache von zentraler Bedeutung. Es geht vielmehr davon aus, dass ein einziges Verarbeitungssystem ausreichend ist, um die Entwicklung der Worterkennung und die Verarbeitung unterschiedlich transparenter Wörter zu erklären.
Der zentrale Unterschied zwischen den beiden Modellen ist darin zu sehen, dass das Dual-Route Modell insbesondere für Wörter, deren Aussprache von den gelernten GPK-R abweicht, eine direkte Verbindung zwischen der Orthographie und der Bedeutung des Wortes annimmt, während konnektionistische Modelle für die Verarbeitung bedeutungstragender Einheiten (Morpheme, Wörter) denselben Mechanismus annehmen wie für sublexikalische sinnfreie Graphemfolgen. Die Aussprache von Wörtern wird demzufolge nicht erst als Resultat der Aktivierung der semantisch-konzeptionellen Ebene des mentalen Lexikon generiert, vielmehr werden im Laufe der Leseentwicklung direkte Verknüpfungen zwischen der Orthographie und der Phonologie ausgebildet. Lediglich für die korrekte Aussprache von homographen Wörtern mit unterschiedlicher Phonologie wird eine stärkere Beteiligung der semantisch-konzeptionellen Ebene des mentalen Lexikons angenommen (vgl. Beispiele von Brügelmann 1992 und Costard 2011 in Kap. 2.1).
Annahme einer Quasiregularität
Während das Dual-Route Modell von den zahlreichen Ausnahmewörtern der englischen Orthographie ausgeht, die mithilfe der indirekten Lesestrategie nicht verarbeitet werden können, weshalb eine zweite visuell-lexikalische Strategie angenommen wird, geht das konnektionistische Netzwerkmodell von einer Quasiregularität (Seidenberg / McClelland 1989; Seidenberg 2005, 2007) der englischen Orthographie aus, die aus einem Korpus an Regeln besteht, aber zahlreiche Unregelmäßigkeiten und Ausnahmen zulässt. Auch in der opaken (i. e.: Orthographien mit uneindeutigen GPK) englischen Schriftsprache sind die Verbindungen zwischen der Orthographie und der Phonologie nicht völlig arbiträr („HAVE is not pronounced ‚glorp’.” Seidenberg 2007, 12), vielmehr kann auch die Aussprache der Ausnahmewörter großteils durch visuell-phonologische Korrespondenzen erklärt werden, die im Englischen aber eher auf der Ebene des Silbenreims als auf Buchstaben-Lautebene zu suchen sind. Während der Buchstabe <a> im Englischen lautsprachlich unterschiedlich realisiert wird (Can, Heat, Plate), wird die Buchstabenkombination <air> durchgängig identisch als [ɛ:ɐ] artikuliert (Chair, Stair, Pair, Fair).
Bei den Assoziationen zwischen einer orthographischen Einheit und der entsprechenden Phonologie handele es sich demzufolge nicht um eine statische Regelhaftigkeit, sondern um Verknüpfungen, die in einer korrelativen Beziehung zueinander stehen. Manche Verknüpfungen sind wahrscheinlicher als andere. In der deutschen Orthographie wird das Graphem <v> in den meisten Fällen als [f] und nur in einigen wenigen Wörtern als [v] realisiert. Die Korrespondenz zwischen <v> und [f] wird also als wahrscheinlicher angenommen, ist assoziativ enger verknüpft als die Verbindung zwischen <v> und [v].
interaktive Netzwerke
Das Modell postuliert, dass das Wissen über Schriftsprache in Form eines interaktiven Netzwerks gespeichert ist, in dessen untereinander verknüpften Einheiten verschiedene Informationen zur Orthographie, Phonologie und Bedeutung repräsentiert sind, die sich wechselseitig Rückmeldungen geben können (Abb. 5).
Der zentrale Lernschritt im Laufe des Schriftspracherwerbs besteht nun darin, Assoziationen zwischen dem (visuellen) orthographischen und dem phonologischen System auszubilden, wobei das Netzwerk insbesondere in der Lage ist, die gebildeten Verknüpfungen unterschiedlich stark zu gewichten, also manche Verbindungen als wahrscheinlicher anzunehmen als andere.
Abb. 5: Das konnektionistische Netzwerkmodell (Seidenberg 2005, 239)
Entwicklung der Worterkennung
Die Entwicklung und sukzessive Automatisierung der Worterkennung erklärt das Netzwerkmodell folgendermaßen: Die Begegnung mit unterschiedlichem Wortmaterial während des Leselernprozesses führt dazu, dass das orthographische System sukzessive mit visuellen Einträgen gefüllt wird. Da die orthographischen Einheiten üblicherweise gemeinsam mit der entsprechenden Aussprache präsentiert, wahrgenommen und verarbeitet werden, werden die in diesem System gespeicherten Repräsentationen mit entsprechenden Einheiten im phonologischen System ein erstes Mal assoziativ verknüpft (z. B. <iege> – [i:gǝ]).
keine festen Zuordnungen
Damit gibt es dem konnektionistischen Modell zufolge keine festen Zuordnungen zwischen orthographischen und phonologischen Einheiten, die über explizite Regeln gelernt werden, sondern Verknüpfungen, die infolge umfassender Leseerfahrungen in Schule und Freizeit als wahrscheinlicher als andere angenommen werden.
Das konnektionistische Netzwerkmodell fokussiert die Verknüpfungen zwischen den orthographischen und den phonologischen Einheiten und grenzt sich dadurch vom Dual Route Modell ab, das für die lexikalische Lesestrategie eine unmittelbare Verbindung zwischen der Orthographie und der Semantik annimmt.
Dennoch räumt auch das Netzwerkmodell einer Verknüpfung von orthographischen und semantischen Informationen einen gewissen Stellenwert ein (Abb. 5, s. S. 34), die sich Seidenberg /McClelland (1989) zu Folge folgendermaßen darstellen lässt: Beim Lesenlernen würden dem Modell zufolge zunächst Assoziationen zwischen der Orthographie eines Wortes und der Phonologie ausgebildet. Da die Phonologie bedeutungstragender sprachlicher Einheiten (Morpheme und Wörter) im mentalen Lexikon immer auch mit der semantisch-konzeptionellen Ebene verknüpft sei, bilden sich sukzessive auch Verbindun- gen zwischen der Orthographie und der Wortbedeutung aus. Nach Abschluss dieser Lernprozesse würde die Worterkennung durch beide Ebenen des mentalen Lexikons (Phonologie und Semantik) gelenkt. Während das Dual-Route Modell aber eine direkte Verknüpfung zwischen Buchstabenfolge und Wortbedeutung ohne Beteiligung des phonologischen Systems annimmt, wird der semantisch-konzeptionellen Ebene im konnektionistischen Modell lediglich eine unterstützende Funktion bei der Generierung des phonologischen Outputs zugesprochen. Diese Unterstützung sei insbesondere notwendig, um die Aussprache homographer Wörter (orthographisch identische Wörter mit unterschiedlicher Phonologie) zu verifizieren (Der Dachs wandert über die Schindeln des Dachs.)
Daraus wird ersichtlich, dass auch im konnektionistischen Modell zwei mögliche Routen der Wortverarbeitung angenommen werden. „Ours is a dual-route model“ (Seidenberg / McClelland 1989, 559). Aber die Autoren betonen auch den zentralen Unterschied zum Dual-Route Modell von Coltheart (1978, 2005): Während dieses davon ausginge, dass ein Wort entweder phonologisch rekodierend oder mittels lexikalischer Strategie verarbeitet würde, nimmt das konnektionistische Modell ein System für die Worterkennung an, das sowohl von der Phonologie als auch von der Semantik gelenkt wird.
2.3Das Modell des Simple View of Reading
Das Dual-Route Model (Coltheart 1978, 2005) und das konnektionistische Netzwerkmodell (Seidenberg / McClelland 1989; Seidenberg 2005, 2007) fokussieren die Worterkennung. Beide versuchen deutlich zu machen, welche sprachlich-kognitiven Prozesse bei der Verarbeitung gedruckter Wörter ablaufen und wie sich Fähigkeiten in diesem Bereich sukzessive automatisieren. Auch wenn beide Modelle den Zugriff auf die Bedeutung im Blick haben, haben sie die Sinnentnahme allenfalls auf Wortebene im Blick.
Der Ansatz des Simple View of Reading (Gough / Tunmer 1986; Hoover / Gough 1990, für den deutschsprachigen Raum vgl. Marx / Jungmann 2000) berücksichtigt neben der Worterkennung nicht nur den Zugriff auf die Wortbedeutung, sondern auch das Leseverständnis auf Satz- und Textebene. Da das Modell kaum Aussagen über die bei der Worterkennung ablaufenden kognitiven Prozesse und deren Entwicklung macht, handelt es sich nicht um eine Alternative, sondern vielmehr um eine Ergänzung der beiden bislang skizzierten Ansätze.
Abb. 6: Simple View of Reading (Hoover / Gough 1990)
Das Modell des Simple View of Reading stellt eine einfache Gleichung auf, die Abb. 6 zu entnehmen ist.
Teilkomponenten des Leseverständnisses
Dabei ist den Autoren dieses Ansatzes sehr wohl bewusst, dass sich hinter den beiden Faktoren dieses Produkts jeweils sehr komplexe Fähigkeiten verbergen. Dennoch trifft das Modell keine Aussagen darüber, aus welchen Teilkomponenten sich die beiden Variablen Worterkennung (Decoding) und Hörverständnis (Comprehension) zusammensetzen, welche grundlegenden (meta-)sprachlichen und kognitiven Komponenten notwendig sind, damit sich diese Fähigkeiten ungestört entwickeln können oder welche Ursachen für Beeinträchtigungen angenommen werden können. Das Modell geht lediglich davon aus, dass sich das Leseverständnis trotz aller Komplexität auf diese beiden Faktoren reduzieren lässt.
Bedeutung der Worterkennung
Mit dem Begriff der Worterkennung nehmen die Autoren Bezug zum Dual-Route Modell und subsummieren darunter sowohl die indirekte als auch die direkte Lesestrategie. Es handelt sich hier also um die spezifische schriftsprachliche Fähigkeit, die Kinder in den ersten Schuljahren möglichst schnell und sicher erlernen und automatisieren müssen.
Auch wenn die Worterkennung für das Leseverständnis nicht ausreichend ist, die Umwandlung der Zeichenfolge in Lautsprache mittels der indirekten Lesestrategie vielmehr auch ohne Zugriff auf die Wortbedeutung möglich ist, stellt die Worterkennung nichtsdestotrotz eine Conditio sine qua non – also eine notwendige Bedingung – des Leseverständnisses dar, wobei dieser Umwandlungsprozess auf Satz- und Textebene auch durch semantische und syntaktisch-morphologische Antizipationen gelenkt werden kann. Bei beeinträchtigter Worterkennung müssen Kinder nun einen Großteil der vorhandenen kognitiven Kapazitäten auf die Lesetechnik lenken, sodass kaum mehr Ressourcen für das Leseverständnis (Reading Comprehension) zur Verfügung stehen.
Miller / Keenan (2009) ergänzen diese Annahme, indem sie betonen, dass Kinder im Fall der beeinträchtigten Worterkennung insbesondere nicht mehr in der Lage seien, ihre Aufmerksamkeit auf die textstrukturellen Hinweise zu lenken, die auf zentrale Aussagen und Ideen hinweisen, bzw. die wichtigsten Aussagen untereinander zu verbinden und von peripheren Informationen zu differenzieren. Die Worterkennung kann als die erste Hürde im Komplex des Leseverständnisses betrachtet werden, an der insbesondere Kinder mit einer spezifischen Lesestörung bereits scheitern.
Bedeutung des Hörverständnisses
Unter dem Begriff Hörverständnis (Listening Comprehension), dem zweiten Faktor in der Gleichung des Simple View of Reading, werden keine spezifisch schriftsprachlichen, sondern alle sprachlich-kognitiven Fähigkeiten verstanden, die allgemein zur korrekten und situationsangemessenen Interpretation von Sprechakten benötigt werden. Es handelt sich also primär um rezeptive semantisch-lexikalische, grammatische und pragmatische Kompetenzen. Sie werden üblicherweise durch die Wiedergabe der Inhalte eines vorgelesenen Textes, das Ausagieren mündlich präsentierter Äußerungen mit konkreten Gegenständen (Petermann et al. 2010) erfasst oder indem aus mehreren Alternativen das zu einem Satz am besten passende Bild ausgewählt werden muss (Fox 2020).
multiplikativer Zusammenhang
Von besonderer Bedeutung ist der in der Gleichung angenommene multiplikative Zusammenhang. Geht man davon aus, dass die beiden Faktoren und damit auch das Produkt Werte zwischen Null und Eins annehmen können, nimmt das Leseverständnis den Wert Null an, sobald einer der Faktoren dem Wert Null entspricht. Auf der anderen Seite wird durch die Gleichung ausgedrückt, dass bei perfekter Kompetenz in einem der beiden Faktoren das Leseverständnis der Qualität des zweiten Faktors entspricht. Eine perfekte Worterkennung vorausgesetzt, kann ein Text also genauso gut verstanden werden wie eine analoge lautsprachlich präsentierte Äußerung.
Allerdings relativieren die Autoren die Aussage dieser Gleichung zu Recht. Die Prozesse des Leseverständnisses können auch bei perfekter Dekodierfähigkeit nicht mit den Prozessen des Sprachverständnisses gleichgesetzt werden, weil die in der mündlichen Kommunikation vorhandenen nonverbalen Informationsträger wie Mimik, Gestik, Prosodie sowie der räumliche und situative Kontext, die für die Dekodierung lautsprachlicher Äußerungen eine nicht unbedeutende Rolle spielen, in der Schriftsprache nicht zur Verfügung stehen. Der Ansatz geht aber davon aus, dass die Unterschiede weniger stark ausgeprägt sind als die Parallelen.
Forschungsergebnisse
Die zentralen Annahmen des Simple View of Reading können aufgrund zahlreicher Forschungsergebnisse als bestätigt angenommen werden. Gough / Tunmer (1986) und Hoover / Gough (1990) fassen die Resultate zahlreicher Studien zusammen, die belegen, dass die beiden Faktoren jeweils unabhängige, spezifische Beiträge zur Varianzaufklärung des Leseverständnisses liefern.
Dabei lassen sich in Abhängigkeit vom Alter der Kinder unterschiedliche Zusammenhänge nachweisen. Vermutlich aufgrund der geringen sprachlichen Komplexität des Lesematerials, das auch von Kindern mit gering ausgeprägtem Sprachverständnis verarbeitet werden kann, ist der Einfluss der Worterkennung auf das Leseverständnis in den ersten Schuljahren größer als derjenige des Sprachverständnisses. Mit zunehmender Automatisierung der Worterkennung und paralleler Zunahme der sprachlichen Komplexität der Lesetexte, übernehmen lexikalische und grammatische Fähigkeiten in der rezeptiven Modalität (Sprachverständnis) sukzessive die dominante Rolle bei der Erklärung von Unterschieden im Leseverständnis, wenn auch die Worterkennung nach wie vor einen signifikanten Einfluss ausübt. Insbesondere in der Sekundarstufe scheint der Umfang und die Differenziertheit des Wortschatzes den stärksten Einfluss auf das sinnentnehmende Lesen auf Textebene auszuüben (Cromley/Azevdeo 2007, van Steensel et al. 2016). Die Prämissen des Simple View of Reading konnten für den deutschsprachigen Raum von Marx / Jungmann (2000, 83) bestätigt werden:
„Demnach scheinen Schwierigkeiten im Worterkennen bei Leseanfängern der Hauptgrund für Schwierigkeiten beim Leseverstehen zu sein. Mit zunehmend besseren Fertigkeiten zum Worterkennen bildet das Fertigkeitsniveau des Hörverstehens die obere Leistungsgrenze im Leseverstehen“.
praktische Implikationen