Erhalten Sie Zugang zu diesem und mehr als 300000 Büchern ab EUR 5,99 monatlich.
Die sogenannte vierte industrielle Revolution wälzt nach und nach immer mehr Bereiche von Wirtschaft und Gesellschaft um, stellt etablierte Geschäftsmodelle zur Disposition, verheißt für die glücklichen Gewinner dieser allumfassenden Transformation unsagbaren Reichtum und für den Rest die drohende Bedeutungslosigkeit. Die Kulturindustrie und dabei als erstes "Versuchskaninchen" die Musikbranche waren unfreiwillige Vorreiter dieser Entwicklung. Daher widmet sich diese Diskursanalyse am Beispiel von Musik und Literatur dem Kulturkampf um die digitale Zukunft vom Siegeszug des Filesharing-Programms Napster zu Beginn des neuen Jahrtausends bis zur Urheberrechts-Kontroverse um Acta 2012. Das Urheberrecht ist dabei von besonderer Bedeutung, da dessen Ausgestaltung eine der zentralen Verteilungs- und Machtfragen der digitalen Gesellschaft darstellt und eine Kritik am zunehmend im Zentrum der digitalen Wirtschaft stehenden geistigen Eigentum in letzter Konsequenz als eine Kritik an der kapitalistischen Wirtschaftsordnung verstanden werden kann. Die titelgebende Frage, ob es sich bei der digitalen Transformation nun um eine Art natürliche Evolution, mehr oder weniger "blutige" Revolution oder gar eine vor allem kulturelle Devolution handelt, spiegelt die sehr widersprüchlichen Reaktionen auf die Vernetzung der Welt zwischen Fortschrittsglauben und Kulturkritik. Mit dem Einzug der Digitalisierung in die "heiligen Hallen" der Literatur gerät dabei auch das bürgerliche Selbstverständnis in den Fokus der Aufmerksamkeit und in diesem Rahmen zunehmend auch grundsätzliche philosophische Fragen zum Wesen und der Zukunft des Menschen. Ist der Mensch Subjekt oder Objekt der digitalen Gesellschaft? Diese Frage rückt heute im Angesicht der Fortschritte künstlicher Intelligenz und der Realität von Massenüberwachung zunehmend ins Zentrum medialer Aufmerksamkeit, wird aber am Beispiel der Effekte der Digitalisierung auf die Kulturindustrie schon länger mit Leidenschaft diskutiert.
Sie lesen das E-Book in den Legimi-Apps auf:
Seitenzahl: 719
Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:
Brendan Erler
Digitale Evolution, Revolution, Devolution?
Das Kunstwerk im Zeitalter seiner digitalen Reproduzierbarkeit am vergleichenden Beispiel der Musik- und Literaturbranche
Die vorliegende E-Book wurde in einer längeren Fassung vom Fachbereich Sprache, Literatur, Medien der Universität Hamburg im Jahre 2015 als Dissertation mit dem Titel „Kulturkampf 2.0. Das Kunstwerk im Zeitalter seiner digitalen Reproduzierbarkeit am vergleichenden Beispiel der Musik- und Literaturbranche“ angenommen.
Brendan Erler, geb. 1979, Diplom in Politikwissenschaft an der Freien Universität Berlin, Promotion in Medien- und Kommunikationswissenschaft an der Graduate School Media and Communication der Universität Hamburg.
© 2016 Brendan Erler
Alle Rechte vorbehalten
epubli ein Service der neopubli GmbH, Berlin
Inhaltsverzeichnis
1 Einleitung
2 Theorie und Praxis
2.1 Forschungsfragen: Digitale Devolution, Evolution oder Revolution?
2.2 Struktur der Arbeit
2.3 Methodische Umsetzung
2.4 Diskursive Konstruktion von Wirklichkeit
2.5 Urheberrecht und kulturelle Grundversorgung: Naturrecht oder Naturalisierung historisch-spezifischer Eigentumsverhältnisse?
3 Studienlage: „Empirische Realität“
3.1 Rolle der Piraterie: Substitution oder Promotion?
3.2 Abschreckung und Kontrolle: Verwertungsschutz vs. Informationsfreiheit
3.3 Musikproduktion: Quantität vs. Qualität
3.4 Lage der Veranstaltungsbranche: Konzert als Plattenersatz?
3.5 Demokratisierung: Superstars vs. Long Tail
3.6 Lage der Literatur: Spaltung der Autoren und ambivalente Funktion des Urheberrechts
3.7 Fazit „Faktenlage“
4 2000-2003: Napster und die Folgen
4.1 Der Beginn der unendlichen Geschichte von der Krise der Musikindustrie
4.2 Der Musikdiskurs: Digitale Evolution
4.3 Lage der Literaturindustrie in Zahlen
4.4 Der Literaturdiskurs: Glaube und Optimismus
4.5 Kurze Einführung in das Urhebervertragsrecht
4.6 Der Diskurs zum Urhebervertragsrecht: Angemessene Vergütung in einer Marktwirtschaft
4.7 Kurze Einführung in das Urheberrecht in der Informationsgesellschaft (Erster Korb)
4.8 Der Urheberrechtsdiskurs: Privatkopie und Privateigentum
4.9 Metadiskurs Kultur, Digitalisierung, Urheberrecht: Digitaler Fortschritt
4.10 Fazit 2000-2003: Der Digitalisierungsdiskurs zwischen digitaler Evolution und kultureller Erosion
5 2004-2008: Google Books und eine weitere Reform des Urheberrechts
5.1 Die Lage der Musikindustrie in Zahlen.
5.2 Der Musikdiskurs zwischen andauerndem Krisenlamento und zaghaften Hoffnungsschimmern
5.3 Die Lage der Literaturindustrie in Zahlen
5.4 Der Literaturdiskurs: Digitalisierung als Chance
5.5 Kurze Einführung in den „Zweiten Korb“: Urheberrecht bleibt Baustelle
5.6 Diskurs zur Urheberrechtsreform: Privatkopie, Geräteabgabe und Durchsetzungsrichtlinie
5.7 Metadiskurs Kultur, Digitalisierung, Urheberrecht: Verstärkte Netzkritik
5.8 Fazit 2004-2008: Der Digitalisierungsdiskurs zwischen Vergötterung des Internets und Netzkritik
6 2009-2012: ACTA und die GEMA gegen des Rest der Welt
6.1 Die Lage der Musikindustrie in Zahlen
6.2 Der Musikdiskurs: Stabilisierung und Spaltung
6.3 Lage der Literaturindustrie in Zahlen
6.4 Der Literaturdiskurs: Kritik an Google und den Verlagen
6.5 Metadiskurs Kultur, Digitalisierung, Urheberrecht: „It’s the end of the world as we know it”
6.6 Fazit 2009-2012: Der Digitalisierungsdiskurs zwischen neuen Menschen und alten Geistern
7 Künstlerkritik, Netzkritik und die Dialektik des Kapitalismus
8 Gesamtfazit: Der Digitalisierungsdiskurs zwischen Fortschrittsglauben und Kulturpessimismus
9 Literaturverzeichnis
Ausgangspunkt und Quelle des zu untersuchenden Umbruchs in der Musik- und Literaturindustrie ist das Phänomen der Digitalisierung, womit die „Umwandlung von Informationen wie Ton, Bild oder Text in Zahlenwerte zum Zwecke ihrer elektronischen Bearbeitung, Speicherung oder Übertragung bezeichnet [wird]. Die Digitalisierung nahm ihren Anfang in der elektronischen Datenverarbeitung, bei der Informationen in binäre Zahlenwerte umgesetzte werden. Das breite Publikum erreichte sie zunächst mit der Einführung der CD als Tonträger im Jahre 1982“ (Hans-Bredow-Institut 2006, 95). Diese CD, die der Musikindustrie zu Beginn eine goldene Zeit bescherte, gilt später im Diskurs sozusagen als trojanisches Pferd, welches den Keim des Unterganges der alten Plattenindustrie in Form digitalisierter und damit theoretisch verlustfrei kopierbarer Musik schon unbemerkt in sich trug. Ihren öffentlichen Siegeszug feierte die Digitalisierung dann im Zuge der Popularisierung des Internets zur Verbreitung digitaler Inhalte und Informationen, wobei die Musikindustrie im Zusammenhang mit der Musiktauschbörse Napster und der damit verbundenen Piraterie wieder eine Schlüsselrolle spielte. Sie wird daher oft in einem Atemzug genannt mit dem vermeintlichen Wandel von einer Industrie- zur Informations- oder Wissensgesellschaft in einer globalisierten Welt. „Access. Das Verschwinden des Eigentums“, wie Jeremy Rifkin 2000 diagnostizierte.
Nach Castells bezeichnet das Informationszeitalter „eine historische Epoche menschlicher Gesellschaften. Das auf mikroelektronisch basierten Informations- und Kommunikationstechnologien sowie der Gentechnologie beruhende technologische Paradigma, welches diese Epoche charakterisiert, ersetzt bzw. überlagert das technologische Paradigma des Industriezeitalters, das primär auf der Produktion und Distribution von Energie beruhte“ (2001, 423). Wegen der Allgegenwart der Schlagworte von der Wissens- oder Informationsgesellschaft über alle politischen Grenzen hinweg gilt dessen Aussagekraft jedoch als begrenzt[1] oder, wenn damit normative Prämissen wie die neoliberale „Diagnose politischer Gestaltungs- und Regulierungsohnmacht“ verbunden sind, als strittig. „Insofern ist die Zeitdiagnose Wissensgesellschaft gerade im politisch-öffentlichen Diskurs mit einem spezifischen ‘Denkhorizont‘ (Pierre Bourdieu) verknüpft, der seinerseits zu einer verstärkten Naturalisierung und Verdinglichung gegenwärtiger Gesellschaftsstrukturen führt“ (Bittlingmayer / Bauer 2006, 13).
Dieser Denkhorizont im Rahmen des Einzuges der Digitalisierung in die Kulturindustrie ist es, der für diese Arbeit von besonderem Interesse ist. Mit welchen Kulturbegriffen wird dem digitalen Wandel begegnet und wie werden dementsprechend bestimmte umkämpfte Begriffe wie die Digitalisierung oder das Urheberrecht konnotiert bzw. naturalisiert? Und welche politischen Gesellschaftsvorstellungen zwischen Konservatismus und Liberalismus, Fortschrittsglauben und Kulturkritik liegen dem zu Grunde.[2] Die Rede von der Kulturindustrie impliziert nach Horkheimers / Adornos „Aufklärung als Massenbetrug“ schon ein normatives Urteil zum Wesen und der Qualität der von ihr produzierten Kunst und Kultur. Der Begriff findet hier Verwendung, da es sich sowohl im Bereich der Musik- als auch der Literatur unbestreitbar um globale Industrien der Kulturproduktion und Distribution handelt und er den Sachverhalt daher schlicht treffend umschreibt, weswegen man im englischen bzw. auf internationaler Ebene auch vollkommen selbstverständlich von „Cultural Industries“ spricht. Im Sinne der Cultural Studies folgt der Autor aber explizit nicht der implizierten normativen Ab- und Ausgrenzung in Kunst und Kommerz, in anspruchsvolle Hochkultur und minderwertige Unterhaltungs- oder Populärkultur, die im Rahmen eines normativen Kulturbegriffs oft einhergeht mit Formen der Technik- Modernitäts- und Kulturkritik, wie sie auch im Digitalisierungsdiskurs zu beobachten ist: [3]
Vor allem für die Frage des Urheberrechts im digitalen Zeitalter bleibt jedoch der Bezug zur Aufklärung als Bedingung und Motor der Moderne und ihrer Kritik interessant. Wegen der Manipulation der standardisierten „Pseudoindividuen“ durch die Bewusstseins- bzw. Kulturindustrie sei das Subjekt als bürgerlicher Erkenntnisträger ein (Selbst)Betrug (vgl. Horkheimer / Adorno 1947).[4] Mit eben diesem bürgerlichen Subjekt als Errungenschaft der Aufklärung wird im Diskurs jedoch sowohl die Verteidigung des Urheberrechts begründet als auch dessen Liberalisierung eingefordert. Solchen Oppositionen von hier aufeinandertreffenden divergierenden Kultur- und Gesellschaftsbegriffen soll im öffentlichen Digitalisierungs- bzw. Urheberrechtsdiskurs am Beispiel der Musik- und Literatur besondere Beachtung geschenkt werden.
Der Untertitel gemahnt dabei nicht zufällig an Walter Benjamin, dessen „Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit“ nicht nur der Schlagwortlieferant ist, als der er im Diskurs häufig missbraucht wird, sondern schon früh die historische Bedingtheit des vorherrschenden Kunst- und Kulturbegriffs, seine bürgerliche Verortung und den Zusammenhang mit technischem Fortschritt herausgearbeitet hat und deswegen eine der Inspirationen für diese Arbeit darstellt (Benjamin 1972). Kunstwerke seien nicht zeitlos, sondern geprägt durch die gesellschaftlichen Rahmenbedingungen. Durch die technische Reproduzierbarkeit der Kunst verlor sie den „Schein ihrer Autonomie“ (Benjamin 1972, 25), „die Kunst [ist] aus dem Reich des »schönen Scheins« entwichen“ (ebd., 21) und der Verlust der „Aura“ und „Echtheit“ veränderte ihre soziale Funktion von der „Fundierung aufs Ritual“ zur „Fundierung auf Politik“ (ebd.). Benjamin sah in den neuen Möglichkeiten technischer Reproduktion die Chance, das Kunstwerk aus dem Korsett bürgerlicher Konvention zu befreien, und so „das Verhältnis der Masse zur Kunst“ (ebd., 37) zu verändern. In der Politisierung der Massen liegt für ihn „der emanzipatorische Charakter der neuen Medien und künstlerischen Produktionsweisen“ (Moebius 2009, 51). Wenn er feststellt, dass „die Unterscheidung zwischen Autor und Publikum im Begriff [ist], ihren grundsätzlichen Charakter zu verlieren […] Der Lesende ist jederzeit bereit, ein Schreibender zu werden“ (Benjamin 1972, 33), dann scheint er damit das moderne Phänomen des „Prosumers“ vorwegzunehmen (siehe 4.9.1).
Kunst sollte vom Selbstvergewisserungsritual bürgerlicher Kreise zum Vehikel gesellschaftlichen Wandels werden - eine klare Abgrenzung von Vorstellungen bildungsbürgerlicher „Hochkultur“ verbunden mit einer Öffnung des Kulturbegriffs für die breite Masse und eine Aufwertung und Rehabilitation der weitläufig sogenannten Populär- oder Massenkultur.[5] In Anlehnung an die Dadaisten trete daher der bürgerlichen Kulturpraxis der „Versenkung, die in der Entartung des Bürgertums eine Schule asozialen Verhaltens wurde, […] die Ablenkung als eine Spielart sozialen Verhaltens gegenüber“ (ebd., 42). Hier lassen sich zahlreiche offensichtliche Parallelen zur heutigen Zeit ziehen. Im Digitaldiskurs gilt die Dauerablenkung im Netz als Bedrohung und Angriff auf das kulturelle Erbe und bürgerliche Selbstverständnis. Und ebenso lässt sich im Zeitalter digitaler Reproduzierbarkeit einerseits die Hoffnung auf Demokratisierung und Emanzipierung im Verbund mit der Absage an „eine Anzahl überkommener Begriffe – wie Schöpfertum und Genialität, Ewigkeitswert“ (ebd., 10) und der „Zertrümmerung“ (ebd., 18) der viel zitierten Aura finden, andererseits ein leidenschaftliches Festhalten an diesen Konzepten aus Angst zumindest von Teilen des sogenannten „bürgerlichen Lagers“ vor einer Revolution des digitalen Mob im und durch das Netz. Dieser Kulturkampf um die Frage digitaler Devolution, Evolution oder Revolution soll in seinem Verlauf geschildert und seine elementaren diskursiven Strukturen herausgearbeitet werden.
Ganz allgemein ist das Ziel der Studie festzustellen, inwiefern sich die öffentlichen Diskussionen[6] zur Digitalisierung an den Beispielen Musik- und Literaturbranche darstellen und voneinander unterscheiden. Verstärktes Interesse gilt dabei den der Debatte zu Grunde liegenden Vorstellungen von Kultur und Gesellschaft. Im Sinne der Cultural Studieswird Kultur als ein zentrales (diskursives) Feld gesellschaftlicher Auseinandersetzung um Deutungshoheit und Macht verstanden, „in dem Werte, Normen und Deutungsmuster ständig neu verhandelt werden“ (Keller 2009, 37). Dementsprechend soll unter anderem gezeigt werden, ob mit dem Angriff der Digitalisierung auf die „heiligen Hallen“ der Literatur im Vergleich zur „profanen“ Populärmusik nicht nur Urheberrechte der Autoren, sondern das bürgerliche Selbstverständnis zur Disposition stehen und es sich folglich um eine Art Kulturkampf um den Zustand und die Zukunft der Gesellschaft handelt. Dieses sehr allgemeine Forschungsinteresse lässt sich unter anderem in folgende Einzelfragen unterteilen:
· Welche Deutungsmuster über die Effekte der Digitalisierung lassen sich allgemein und im Vergleich von Musik und Literatur beobachten?
· Welche zentralen Kultur- und Gesellschaftsbegriffe kommen zum Vorschein? Gibt es dabei substantielle Differenzen zwischen Musik- und Literaturdiskurs? Welche Rolle spielt die Unterscheidung in Hoch- und Populärkultur, „ernsthafte“ Literatur und Unterhaltungsmusik?
Was sind die „diskurstragenden Kategorien“[7] und welche Begriffe und Objekte sind dabei zentral?
· Welche Verlaufsformen haben die verschiedenen Diskurse über die Digitalisierung? (Diskursive Karriere kultureller Deutungen und dominanter Deutungsmuster entlang ausgewählter Schlüsselereignisse?)
· Welche Diskurs-Koalitionen und diskursive Verschränkungen lassen sich im Verlauf der diskursiven Karriere feststellen? Welche Auf- und Abwertungen diskursiver Positionen und argumentativer Deutungsangebote finden in diesem Verlauf statt?
· Welche diskursiven Strategien sind zu erkennen?
· Welche substantiellen Differenzen gibt es bei der Problem-Definition bzw. Konstitution und möglichen Lösungsansätzen?
Die Analyse ist in drei Etappen unterteilt und orientiert sich dabei an den zwei schon verabschiedeten und einem noch im Entwurf befindlichen Urheberrechtskörben, die jeweils als Antwort auf die digitalen Veränderungen und Herausforderungen besonders für die Kulturindustrie konzipiert wurden. Die Analyse fokussiert sich dabei auf die vergleichende Analyse der diskutierten Lage und Entwicklung der Musik- und Literaturbranche zwischen technischen Neuerungen und juristischen Reaktionen im Verlauf von 2000-2012. Im Sinne der Cultural Studieswird Kultur als ein zentrales (diskursives) Feld gesellschaftlicher Auseinandersetzung um Deutungshoheit und Macht verstanden, „in dem Werte, Normen und Deutungsmuster ständig neu verhandelt werden“ (Keller 2009, 37). Werden die technische Entwicklung und deren Effekte auf die Gesellschaft positiv oder negativ konnotiert, mit Hoffnung oder Sorge beobachtet und wie gestalten sich dementsprechend die daraus hervorgehenden Urheberrechtsdiskurse?
Dieser Reihenfolge gemäß dienen die Urheberrechtsreformen als vorläufige „Endprodukte“ dieser Diskurse und als jeweiliger Endpunkt der zeitlichen Untersuchungseinheit: Erster Korb 2003, Zweiter Korb 2008. Da der dritte Korb 2013 eher zu einem „Körbchen“ an Einzelmaßnahmen mutierte, der Analysezeitraum aber 2012 endet, handelt es sich im dritten Abschnitt 2009-2012 um den Stand der Entwicklung des Diskurses zum dritten Korb bis 2012, der sich aber bis heute nicht grundlegend geändert hat. Begonnen wird immer mit der Beschreibung der Lage der Industrie, die dann in eine Analyse der juristischen und gesellschaftspolitischen Reaktion auf diese Lage mündet. Die eigentliche Diskursanalysen werden jeweils eingeleitet mit einer kurzen Einführung in den ökonomischen (Kulturindustrie) bzw. juristischen (Urheberrechtsreformen) Stand der Dinge. Zusätzlich zur separaten Zusammenfassung der Entwicklung der Musik-, Literatur- und Urheberrechtsdiskurse (bzw. der in ihnen präsenten Subdiskurse) werden zum Abschluss jedes Zeitblocks die herausgearbeiteten Metadiskurse in einen theoretischen Rahmen eingeordnet.
Aber erstmal wird nach der Beschreibung des methodischen Vorgehens und der gemachten Analyseerfahrung im nächsten Punkt das grundlegende Konzept der Diskurstheorie und dessen Geschichte etwas eingehender erörtert und in diesem Zusammenhang das Verhältnis von Subjekt / Struktur, Spezial- und Interdiskurs sowie die Rolle der Cultural Studies geklärt. Dieser theoretische Teil wird abgerundet mit einer Einführung in das Konzept des Urheberrechts zwischen Naturrecht oder der Naturalisierung historisch spezifischer Eigentumsverhältnisse.
Das dritte Kapitel soll vor der eigentlichen Analyse einen Überblick über die Studienlage zur Situation der Kulturindustrie im Angesicht der Digitalisierung und der so genannten „Internetpiraterie“ am Beispiel der Musikbranche liefern. Dies geschieht im Wissen darum, dass diese Differenzierung im Sinne Foucaults eine künstliche Trennung darstellt, da es sich in beiden Fällen um Diskurse und nicht um Fakten handelt, soll aber einführend veranschaulichen, dass die für den öffentlichen Diskurs charakteristische frohe Uneinigkeit und der Kampf um Deutungshoheit sich auch im wissenschaftlichen Diskurs zeigen. Außerdem soll es als Einführung in die Materie dienen.
Bleibt die Frage, wie dieses Forschungsprogramm in der Praxis umzusetzen ist. Mittels der „interpretativen Analytik“ soll die vermeintliche Kluft zwischen Strukturalismus und Hermeneutik überwunden werden. Keller erhoffte sich somit eine Überwindung des „mikrosoziologisch-situativen Bias des interpretativen Paradigmas“ (2004, 58), ohne auf die Vorzüge qualitativer Methoden und Instrumente verzichten zu müssen. Analog dazu wird mit den interpretativen Werkzeugen der Hermeneutik die Hoffnung verbunden, mittels der Anschlussfähigkeit an die qualitative Sozialforschung die „methodische Unterbelichtung“ (post-)strukturalistischer Theorien zu überwinden:
Da die poststrukturalistische Diskurstheorie nach Foucault kein eigenständiges Methodenwerkzeug zur Verfügung stellt, wird auf das Methodenrepertoire der qualitativen Sozialforschung zurückgegriffen und hier im Besonderen auf das von Glaser und Strauss 1967 entwickelte Prozedere der Grounded Theory. (vgl. Glaser / Strauss, 1967). Dem quantitativen Mainstream in der damaligen Wissenschaftslandschaft setzten sie eine zunächst sehr stark induktive, „unvoreingenommene“, möglichst theoriefreie Vorgehensweise entgegen, die neue Theorien in der Regel mittlerer Reichweite im Material entdecken und „erden“ sollte. Der bewusste Verzicht auf Kontext und Hintergrundwissen sowie vorhandene Theorien („Preconceived Theories“) sollte einen ungefilterten Blick auf den Untersuchungsgegenstand ermöglichen (vgl. Kuckartz 2005, 75f.).
Gegen dieses „Prinzip der Offenheit“ und die Zurückstellung von Hypothesen wurde der nachvollziehbare Vorwurf erhoben, es suggeriere die Möglichkeit einer „objektiven“ oder neutralen Perspektive, die der Forschungs- und Lebenswirklichkeit widerspricht. Ganz im konstruktivistischen Sinne gibt es keinen gänzlich unvoreingenommenen Zugang zu den Dingen. Die Grounded Theory negiert jedoch weder den subjektiven Blick (des Forschers), „the forcing of preconceived notions resident within the researcher's worldview (Holton 2007, 269), noch die Notwendigkeit von Fachwissen zur kreativen Interpretation und Theoriebildung, sie plädiert nur für eine offene Suche nach neuen Hypothesen im Material im Gegensatz zum eher quantitativen, naturwissenschaftlichen Verständnis des reinen Testens vorgefertigter Hypothesen (vgl. Rosenthal 2005, 48ff.; Holton 2007, 269ff.): “As a generative and emergent methodology, grounded theory requires the researcher to enter the research field with no preconceived problem statement, interview protocols, or extensive review of literature. Instead, the researcher remains open to exploring a substantive area and allowing the concerns of those actively engaged therein to guide the emergence of a core issue” (Holton 2007, 269).
Im Lauf der Jahre hat sich das Grundkonzept der Grounded Theory weiterentwickelt, differenziert und das Paradigma der totalen „Theorielosigkeit“ und reinen Induktivität relativiert. Dabei kam es zum, zumindest von Glaser, offen ausgetragenen Disput der Gründungsväter der Grounded Theory über Wesen und erkenntnistheoretischen Kern der Grounded Theory und zur Etablierung zweier, parallel existierender Forschungszweige unter gleichem Namen[8]. Glaser beharrte in seinem bezeichnenden Buch „Emergence vs Forcing: Basics of Grounded Theory“ (Glaser 1992) auf seiner strikt induktiven Sichtweise. Die Codes und Kategorien müssten direkt aus den Daten hervorgehen oder auftauchen („emerge“), während er Strauss vorwarf, durch seine Bezugnahme auf theoretisches Vorwissen (z.B. im Kodierparadigma) „die Daten in das Prokrustesbett einer implizit schon vorgedachten Theorie des Gegenstandes zu zwingen“ (Strübing 2008, 69). Dahinter verstecken sich die erkenntnistheoretisch konträren Annahmen einer schon existierenden, objektiven Wirklichkeit (Glaser) oder der Vorstellung der Konstitution der sozialen Wirklichkeit in Interaktion (Strauss) und deren korrespondierende Forschungstraditionen des eher quantifizierenden kritischen Rationalismus oder des tendenziell qualitativen-, interpretativen Interaktionismus. Die Details dieser Kontroverse können hier nicht ausführlich dargestellt werden.[9]
In Anbetracht dieser Meinungsverschiedenheiten ist „The discovery of grounded theory“ wohl als kleinster gemeinsamer, antipositivistischer Nenner ansonsten in Teilen unterschiedlicher Wissenschafts- und Wirklichkeitsverständnisse zu verstehen. Glasers inhaltliche Fundamentalkritik an Strauss / Corbin ist in manchen Punkten nicht unberechtigt[10], erscheint, was die regelrechte Verdammung jeglicher (Vor-)Theorie betrifft, jedoch teilweise inkonsistent, unrealistisch sowie übertrieben und seine erkenntnistheoretischen Prämissen scheinen mit dieser Arbeit inkompatibel. Daher wird im Folgenden auf Grundlage des „Ur-Werks“ auf die von Strauss / Corbin elaborierte Form der Grounded Theory Bezug genommen (vgl. Strauss / Corbin 1998). Strauss / Corbin betonen die Rolle von Vor- und Kontextwissen bei der Interpretation von Daten und überbrücken auf diese Art die vermeintlich entstandene Kluft zwischen Induktion und Deduktion. Jede Theorieentwicklung ist theoriegeleitet und sowohl Induktion als auch Deduktion und Verifikation sind essentielle, sich wechselseitig bedingende und abwechselnde Bestandteile des Forschungsprozesses. Ganz ohne Vorwissen und Koppelung an theoretische Annahmen ist beispielsweise eine produktive Hypothesengenerierung aus dem Material schwer vorstellbar. Fragen, Ideen und Hypothesen resultieren aus der kreativen Analyse des Datenmaterials und der Erfahrung (gleich ob aus früheren Forschungsprojekten, der Fachliteratur usw.) im Umgang mit derartigen Daten (vgl. Strauss 1994, 37ff.). Die Deduktion gilt als besonders geeignet zur Verifikation oder Erkenntnissicherung, der mit der Induktion assoziierte Schluss vom Einzelfall auf die Regel hilft bei der Generierung neuer Hypothesen, jedoch ist bei beiden zu bezweifeln, „ob auf diese Weise der Aspekt des Kreativen, der Entdeckung des theoretisch Neuen, angemessen erfasst werden kann“ (Breuer 2009, 54).
In diesem Zusammenhang spielt die Logik der Abduktion eine zentrale Rolle. Dieses schon Jahrhunderte alte und von Stuart Peirce im Rahmen des amerikanischen Pragmatismus adaptierte Konzept beklagt die mangelnde Innovationsfähigkeit der etablierten Konzepte der Induktion und Deduktion, betont die Bedeutung der Erfahrung und fordert ein kreatives Erschließen neuer Ideen (vgl. Peirce 1991). Erst durch freies, spekulatives, jedoch nicht willkürliches Vermuten und Geistesblitze, die zusammenbringen, was „zusammenzubringen "wir uns vorher nicht hätten träumen lassen“ (Peirce 1991, 400), entstehen wahrlich neue Hypothesen und Theorien und findet eine wirkliche Wissensmehrung statt, die nicht nur verifiziert und falsifiziert, was schon bekannt ist (vgl. Reichertz 2007, 214ff.; Breuer 2009 53f.): „Die Abduktion ist der Vorgang, in dem eine erklärende Hypothese gebildet wird. Es ist das einzige logische Verfahren, das irgendeine neue Idee einführt, denn die Induktion bestimmt einzig und allein den Wert und die Deduktion entwickelt nur die notwendigen Konsequenzen einer reinen Hypothese“ (Peirce 1991, 400).
In der Logik der Abduktion sollte besonders zu Beginn einer Untersuchung, weitestgehend losgelöst von logischen Regeln und Konventionen, eine ungehinderte Suche nach Erklärungen stattfinden für „such combinations of features for which there is no appropriate explanation or rule in the store of knowledge that already exists“ (Reichertz 2007, 219). Es geht um die Kunstfertigkeit „im richtigen Moment, sich abzeichnende neue Elemente zu erkennen und – durch den theoretischen Blick inspiriert – in bestimmter Weise zu verknüpfen, um auf die sie bildende Praxis zu schließen“ (Diaz-Bone 2010, 195). Mit den Prinzipien der Induktion, Deduktion und Verifikation lassen sich die gewonnenen Erkenntnisse dann überprüfen, editieren und gegebenenfalls wieder verwerfen. Auch wenn die Grounded Theory einen zunächst induktiven, also im Material geerdeten Ansatz verfolgt, so spielt Theorie, wie gesehen, dennoch eine wichtige Rolle. Jedoch soll eine Theorie im Gegensatz zu klassisch deduktiven Verfahren „den zu analysierenden Daten“ nicht „übergestülpt [werden] wie eine Haube“ (Strauss 1994, 40), sondern unter Kontrolle und im steten Austausch mit den Daten entdeckt oder weiterentwickelt werden. Schließlich geht es um die Erschließung neuer Sachverhalte, mithin neuer Wahrheiten, während „deductions are not only tautological but also truth-conveying: if the rule offered for application is valid, then the result of the application of the rule is also valid” (Reichertz 2007, 218).
Grundsätzlich muss unterschieden werden zwischen dem Korpus der Diskursanalyse und anderen Informationsmaterialien (von Gesetzestexten zu Verbandstexten der Spezialdiskurse), die der Vertiefung des Wissens zu den erörterten Themen dienen. Als vorläufige Grundgesamtheit der eigentlichen Diskursanalyse dienen als Ausgangsbasis alle Artikel der Tageszeitungen Süddeutsche Zeitung, Frankfurter Allgemeine, WELT und TAZ, sowie die Wochenmagazine ZEIT und SPIEGEL, jeweils inklusive Online-Ablegern zwischen 2000-2012. Diese Grundgesamtheit wird in einem ersten Schritt durch eine kombinierte Stichwortsuche mit sich in der Vorrecherche als relevant herausgestellten Schlüsselbegriffen auf ein überschau- und bearbeitbares Maß reduziert. Die Einzelsuche aller Begriffe erwies sich als zu grob, aufwendig und diese Kombination aus jeweils mindestens einem Kultur- und Technik- bzw. Rechtsbegriff als gute Mischung aus Quantität und Qualität. Im nächsten Schritt werden für jedes Jahr aus diesen Artikeln alle Fehltreffer aussortiert, also alle Artikel, die keinerlei Bezug zum aktuellen Thema haben, z.B. eindeutige Fehltreffer [11] oder Artikel, die zwar z.B. irgendwie Urheberrechte zum Thema haben, aber in einem eindeutig anderen Kontext stehen.[12]
Grundgesamtheit: Alle Artikel der Tageszeitungen Süddeutsche Zeitung, Frankfurter Allgemeine, WELT und TAZ, sowie die WochenmagazineZEIT und SPIEGEL, jeweils inklusive Online-Ablegern. Zeitung des neuen Jahrtausends (2000-2012) [13].
1. Selektionsschritt: Kombinierte Stichwortsuche aus jeweils mindestens einem Kultur- (Kultur, Musik, Literatur etc.) und Technik- bzw. Rechtsbegriff (Digitalisierung, Urheber, Copyright etc.) bei SZ und FAZ.[14] Gleiches Prozedere mit angepasster Stichwortliste[15], wiederholt für die Tageszeitungen WELT und TAZ, sowie die Wochenmagazine ZEIT und SPIEGEL jeweils inklusive Online-Ablegern. Der Korpus umfasst 5064 Artikel.
Der übrig gebliebene „Rest“ der Artikel jeden Jahres bildet das vorläufige theoretische Sample der Diskursanalyse, wobei im Sinne des „theoretical sampling“ der GT jederzeit gezielt neue Daten zu einem bestimmten Themenaspekt erhoben werden können, da im Gegensatz zum statistischen sampling das Ziel der theoretischen Stichprobe kein verkleinertes Abbild der empirischen Fälle einer Grundgesamtheit ist, sondern „ein Abbild der theoretisch relevanten Kategorien“ (Hermanns zit. nach Rosenthal 2005, 85). Vollständigkeit entwickelt sich erst im Laufe der Untersuchung. Fällt ein Begriff oder Ereignis vollständig durch das Raster, so kann man entweder davon ausgehen, dass er keine größere Relevanz besitzt, oder, falls dies nicht der Fall ist, es sich um typische strukturelle Exklusionsmechanismen handelt, denen man in der Folge nachspüren kann (vgl. Keller 2003, 228). Im Laufe der Untersuchung identifizierte neue Schlüsselwörter können jederzeit in die kombinierte Suche der folgenden Jahre integriert werden oder gezielt zur Anreicherung eines Diskursstranges in einer Einzelsuche verwendet werden.
Bei der ersten Durchsicht der Artikel eines Jahres lassen sich diskursive Ereignisse bzw. Diskursstränge, also thematisch verwandte Artikel, identifizieren.[16] Diese Schlüsselereignisse dienen dann als Wegweiser des Diskursverlaufes, um die herum sich diskursive Positionen im Kampf um Deutungshoheit gruppieren.[17] Reiner Keller orientiert sich in seiner Diskursanalyse der bundesdeutschen Abfalldiskussion an den „wesentlichen Stationen der gesetzlich-administrativen Bearbeitung des Abfalls in diesem Zeitraum“ (Keller 2009, 97), also an den zum Thema verabschiedeten Gesetzen und Verordnungen. Für die Zusammenstellung des Korpus griff er weitgehend auf die Pressedokumentation beim Presse- und Informationsamt der Bundesregierung und auf die Dokumentationsstelle der Landeszentralbibliothek Düsseldorf zurück. Diese Strategie der Vorauswahl bietet sich aus pragmatischen Gründen der Zeitersparnis sicher an, jedoch würde dies für unseren Fall eventuell einen erheblichen Verlust spannender und relevanter Auseinandersetzungen mit sich bringen.
Außerdem ist es doch gerade interessant, welche Ereignisse überhaupt im Diskurs eine Rolle spielen im Sinne des „was wird gesagt und kann gesagt werden“, welche Ex- und Inklusionsmechanismen dabei am Werk sind. Zu diesem Zweck wäre es sicherlich spannend zu sehen, inwiefern bestimmte Ereignisse in den „seriösen“ Medien gerade keine Rolle spielen, z.B. im Vergleich zu Netzpublikationen. Da es sich eben nicht um die Analyse eines abseits des Diskurses erfass- oder messbaren „Gegenstandes“ oder klar definierbaren Themas handelt, wäre eine starre Vorabfestlegung des Datenmaterials oder der Themendefinition kontraproduktiv und -intuitiv, da ja gerade die Frage von Bedeutung ist, wie das Phänomen / Thema / Ereignis diskursiv konstruiert wird. Daher ist die „Identifikation der Daten für eine Diskursanalyse […] deswegen ein eher offener Suchprozess in verschiedene Richtungen, der sich immer nur vorläufig an Themen, Referenzphänomenen, Schlüsselbegriffen usw. orientieren kann. Denn ein wesentliches Ziel der Diskursforschung ist ja gerade die Beantwortung der Frage, welche(s) Wissen, Gegenstände, Zusammenhänge, Eigenschaften, Subjektpositionen usw. durch Diskurse als ,wirklich’ behauptet werden“ (Keller 2008, 265).[18]
2. Selektionsschritt: Identifikation von Schlüsselereignissen und Themen, Sortierung der Artikel.[19] Mittels der Identifikation von Deutungsmustern[20], „typisierte Schemata, die für individuelle und kollektive Deutungsarbeit im gesellschaftlichen Wissensvorrat zur Verfügung stehen“ (Keller 2003, 209), lässt sich ein „diskurstypisches Interpretationsrepertoire“, ein typisierbarer Kernbestand an Grundaussagen erarbeiten, welches sich über eine „story line“ zu einem Diskurs zusammenfügt (Keller 2008, 274): „Während der Begriff des Interpretationsrepertoires das Gesamt der spezifischen und typisierten Grundannahmen eines Diskurses bezeichnet, bezieht sich ,story line‘ auf die in-terne Strukturierung des Zusammenhangs dieser Grundannahmen“ (Keller 2009, 47).
Die sukzessive Auswahl zu analysierender Diskursfragmente erfolgt nach den Kriterien minimaler bzw. maximaler Kontrastierung. Begonnen wird mit einem als besonders bedeutend, vorbildhaft oder auffallend eingestuftem Text (Schlüsseltext). Dieser wird nach vorhandenen Deutungsangeboten, Diskurspositionen und Argumentationsmustern durchsucht. Nach erfolgter Auswertung und Kodierung wird zunächst nach möglichst ähnlichen Diskursfragmenten Ausschau gehalten, um die gebildeten Codes und Kategorien zu testen und gegebenenfalls zu erweitern. Mit Hilfe der maximalen Kontrastierung möglichst unterschiedlicher Daten ist man hingegen in der Lage „nach und nach das Gesamtspektrum des oder der Diskurse innerhalb eines Korpus zu erfassen und dadurch mehrere Diskurse zu einem Thema oder innerhalb eines Diskurses seine heterogenen Bestandteile herauszuarbeiten“ (Keller 2004, 88). Die Ergebnisse lassen sich nach und nach zur idealtypischen Form eines Diskurses verdichten und abstrahieren (vgl. Glaser / Strauss 1967 55f.; Rosenthal 2005, 96ff.; Keller 2003, 221f.).
3. Selektionschritt: Identifikation von besonders „ergiebigen“ (meinungsfreudigen, kontroversen) Schlüsseltexten, Suche nach ähnlichen und oppositionellen Artikeln (Minimale/Maximale Kontrastierung), Ergänzung ausgewogenerer „Mischartikel“[21].Zu jedem Diskursstrang entwickelt sich ein Kategoriensystem vorhandener Diskursfragmente und diskursiver Positionen. Stellt sich heraus, dass man zu einem Diskursstrang keine wesentlichen neuen Fragmente und Aspekte entdecken kann und das Thema sich evtl. auch dem Ende zuneigt, z.B. im Rahmen eines Gesetzgebungsverfahrens, so geht es im nächsten Schritt darum, die Codes im Sinne des axialen Codierens zu abstrakteren Konzepten zusammenzufassen und deren latente Deutungsmuster und Interpretationsrepertoires herauszuarbeiten. So lässt sich der Diskursstrang zum „Urhebervertragsrecht“ von den ersten Unmutsäußerungen betroffener Autoren im Jahr 2000 bis zu den Résumés nach der Verabschiedung des Gesetzes Anfang 2002 nachverfolgen.
Abschluss der Codierung : Strukturierung und Verdichtung des Codesystems, Verschriftlichung der Diskursanalyse. Reihenfolge: Einführung in die Materie, Verlauf der Debatte, abstrahierende Diskursanalyse.Ziel ist es, soweit möglich, die einzelnen Deutungsmuster und Interpretationsrepertoires zum Abschluss abstrahierend zu dem oder den Diskursen zu verdichten und somit den diskursiven Widerstreit oder Kulturkampf um kulturelle Hegemonie und die Konstruktion des Phänomens „Digitalisierung“[22] am Beispiel der Musik- und Literaturbranche zu illustrieren.
Einige Anmerkungen zu den gemachten Codier- und Analyseerfahrungen und der Darstellung der Ergebnisse: Die Präsentation der Ergebnisse der praktizierten Wissenssoziologischen Diskursanalyse ist in zweierlei Hinsicht problematisch. Da nahezu alle Themen in irgendeiner Weise mit Fragen des Urheberrechts verbunden sind, stellt sich erstens die Frage nach dem Grad vor allem juristischer Details im Spagat der Notwendigkeit ausreichender Information ohne den Anspruch einer juristischen Arbeit. Um ein Verständnis für die Bedeutung der unterschiedlichen Diskurse zu erhalten, ist ein notwendiges Maß an Kontextwissen selbstredend von Nöten. Gleichzeitig erfordert dieser Kontext nicht zwingend ein Abtauchen in die Untiefen juristischer „Paragraphenreiterei“. Somit wird zu allen identifizierten Diskursereignissen eine bündige Einführung zu den Hauptstreitpunkten (im Falle von Gesetzen), dem Verlauf des Gesetzgebungsverfahrens und den wesentlichen Konfliktparteien vorangestellt. Wenngleich viele der angeführten Paragraphen für die eigentliche Diskursanalyse keine größere Rolle spielen, so soll der Leser, falls nicht schon der Fall, über den „Stand der Dinge“ ins Bild gesetzt werden.
Zweitens bleibt das Problem der schriftlichen Darstellung der Codierergebnisse. Die zu Diskursen abstrahierten Codierungen werden an Einzelfällen (Zitaten) belegt. Dies erweckt schnell den Eindruck einer Nacherzählung, stellt aber das Ergebnis umfassender Codier-arbeit, Aggregations- und Abstraktionsarbeit dar. In diesem Sinne sind sie „stilisiert, sie haben idealtypischen Charakter, von dem empirische Diskursfragmente mehr oder weniger weit abweichen“ (Keller 2009, 61). Die einführenden „Zitatteppiche“ dienen dabei als konkrete sprachliche Belege der Debatte sowie als abstrahierte Reinformen der einzelnen Diskurspunkte, um ein Gefühl für die spezifischen Argumentationsweisen zu erhalten, die dann mit einer Einordnung in die grundlegenderen Interpretationsmuster und diskursiven Strukturen unterfüttert werden. Zentrale Argumentationsmuster, Diskurselemente und Topoi werden zur Veranschaulichung fett markiert. Diskursmuster, wie der Glauben an „digitale Evolution“ oder das „Versagen der Industrie“, die abstrahierte Etiketten des Forschers und weniger stehende Begriffe im Diskurs darstellen, werden als Abstraktionen weder in Überschrift noch Fließtext in Anführungszeichen gesetzt. Die darin enthaltenen Wertungen entsprechen nicht der Meinung des Forschers. Eigene Positionen werden als solche deutlich gemacht. Schon ein- und ausgeführte typische Diskursfragmente in den einzelnen Unterkapiteln werden in den folgenden Zeitblöcken eher komprimiert dargestellt und ein Fokus auf Unterschiede und Neuerungen gelegt.
Je grundsätzlicher die Diskurselemente werden, umso mehr überschneiden sich die Punkte im Musik- Literatur- und Urheberrechtsdiskurs und ähneln den Mustern des abstrahierten Metadiskurses zur Fragen von Digitalisierung, Kultur und Urheberrecht. Auch diese Diskursmuster werden trotz Wiederholungen in den Subdiskursen ausgeführt, um ein vollständiges Bild zu zeichnen, einen interdiskursiven Vergleich zu ermöglichen und zu belegen, wie sehr die Einzeldiskurse auf das Basisrepertoire des Metadiskurses zurückgreifen. Der Metadiskurs stellt sozusagen die Essenz der Diskursanalyse dar, indem anhand besonders aufschlussreicher und grundsätzlicher Schlüsseltexte die den Einzeldebatten zugrundeliegenden divergierenden gesellschaftlichen Grundannahmen am deutlichsten zum Vorschein kommen.
Studiendesign und Forschungsfragen basieren auf der Prämisse diskursiver Konstruktion von Wirklichkeit: „Diskurse produzieren, formen ihre Gegenstände, Objekte, indem sie entlang ‘machtvoller Regeln‘ über sie sprechen, und indem die jeweiligen diskursiven Praktiken bestimmen, was in welchem Diskurs gesprochen, was verschwiegen, was als wahr anerkannt und als falsch verworfen wird“ (Hirseland / Schneider 2001, 374), oder mit Foucault Praktiken, „die systematisch die Gegenstände bilden, von denen sie sprechen. Zwar bestehen diese Diskurse aus Zeichen; aber sie benutzen diese Zeichen für mehr als nur zur Bezeichnung der Sachen. Dieses mehr macht sie irreduzibel auf das Sprechen und die Sprache. Dieses mehr muss man ans Licht bringen und beschreiben“ (Foucault 1981, 74). Somit spielen sie eine wichtige Rolle bei der gesellschaftlichen Konstruktion der „Ordnung der Dinge“ und dienen daher als Forschungsobjekte zur Analyse des Deutungskampfes um Wirklichkeit. Es wird nicht „die Existenz von Gegenständen außerhalb unseres Denkens […] bestritten, sondern die ganz andere Behauptung, dass sie sich außerhalb jeder diskursiven Bedingung des Auftauchens als Gegenstände konstituieren könnten“ (Laclau / Mouffe 2000, 144).[23]
Die Konsequenz dieser konstruktivistischen und kulturalistischen Weltsicht für „Philosophie und sozialwissenschaftliche Praxis kann nicht überschätzt werden. Seit der Aufklärung war die akzeptierte Aufgabe der »Wissenschaften« eine objektive, unparteiliche, rationale und wahrheitsgetreue Darstellung oder Wissensansammlung über die Welt“ (Hall 2002, 108). Dementsprechend ist nicht die Suche nach der ultimativen, einen Wahrheit das Ziel - „Foucault verabschiedet […] alle Vorstellungen einer kontinuierlichen historischen Wissenschaftsentwicklung im Sinne ständig fortschreitender Wahrheitsfindung“ (Keller 2008, 106) - sondern die Analyse der temporäre Konstruktion von Wahrheit und Wissen: „Die Welt ist kein Komplize unserer Erkenntnis. Es gibt keine prädiskursive Vorsehung, welche uns die Welt geneigt macht“ (Foucault, 1974, 34). Dementsprechend ist die „Wissensordnung […] keine ‘Darstellung‘ einer vordiskursiven Wirklichkeit“ (Diaz-Bone 2005, 186).
In diesem Sinne ist sie antiessentialistisch. Nicht das „natürliche Wesen“ ist von Bedeutung, sondern die gesellschaftliche Zuweisung von zeitweise stabilen Bedeutungsmustern. Die Konstruktion der Wissensordnung bedingt die Kontingenz des Wissens. Information wächst im Laufe der Zeit und Geschichte [24], aber dieses akkumulierte Wissen wächst nicht linear auf dem Weg zu absoluter Erkenntnis. Phänomene (Digitalisierung) erfahren ihre konkrete Gestalt erst im Lichte des Diskurses. Dementsprechend sind die Phänomenkonstitution, die Problemdefinition und daraus abgeleitete Lösungsansätze keine Frage objektiver Wirklichkeit, sondern diskursiver Wirklichkeitskonstruktion. [25] Diese gilt es zu analysieren.
Die zu diesem Zweck praktizierte Diskursanalyse folgt den Prämissen einer von Foucault inspirierten und um handlungstheoretische Elemente erweiterten Diskurstheorie[26] in Anlehnung an die von Reiner Keller elaborierte Form einer Wissenssoziologischen Diskursanalyse: „Die Wissenssoziologische Diskursanalyse beschäftigt sich mit Prozessen und Praktiken der Produktion und Zirkulation von Wissen auf der Ebene der institutionellen Felder der Gegenwartsgesellschaften. Ihr Forschungsgegenstand ist - mit anderen Worten - die Produktion und Transformation gesellschaftlicher Wissensverhältnisse durch Wissenspolitiken, d.h. diskursiv strukturierte Bestrebungen sozialer Akteure, die Legitimität und Anerkennung ihrer Weltdeutungen als Faktizität durchzusetzen. Sie begreift damit sozialen Wandel nicht nur als sozialstrukturellen Prozess, sondern als Verschiebung von Wissensregimen“ (Keller 2008, 192f.).
Im Gegensatz zu Diskurstheorien, die „allgemeine theoretische Grundlagenperspektiven auf die sprachförmige Konstituiertheit der Sinnhaftigkeit von Welt entwickeln, konzentrieren sich Diskursanalysen auf die empirische Untersuchung von Diskursen. Mit dem Begriff der Diskursanalyse wird allerdings keine spezifische Methode, sondern eher eine Forschungsperspektive auf besondere, eben als Diskurse begriffene Forschungsgegenstände bezeichnet. Was darunter konkret, im Zusammenhang von Fragestellung und methodisch-praktischer Umsetzung verstanden wird, hängt von der disziplinären und theoretischen Einbettung ab“ (Keller 2004, 8). Wesentlich sind hierbei folgende Aspekte: Realität und Wahrheit sind gesellschaftliche Konstrukte, keine objektiven, messbaren und verifizierbaren (wie im klassischen Positivismus / Rationalismus) oder falsifizierbaren (wie im kritischen Rationalismus) Tatbestände. Im Unterschied zum sozialen Konstruktivismus in der Tradition von Berger / Luckmann („social construction of reality“) geht die wissenssoziologische Versionen der Diskursanalyse von einer „diskursiven Konstruktion der Wirklichkeit“ aus und betont auf diese Weise den von Berger / Luckmann vernachlässigten und von Foucault betonten Machtcharakter von Wissen und Macht. Die Subjekte befinden sich in einer diskursiv zumindest vorstrukturierten Wirklichkeit. Im Kontrast zu (post-)strukturalistischen Theorien ist das Subjekt jedoch keine „Marionette anonymer Mächte“, sondern aktiver Teil der Wirklichkeitskonstitution im Sinne der steten Aktualisierung / Modifizierung von Bedeutung.[27]
„Im hier verfolgten Verständnis handelt es sich bei Diskursen um strukturell verknüpfte Aussagenkomplexe, in denen Behauptungen über Phänomenbereiche auf Dauer gestellt und mit mehr oder weniger starken Geltungsansprüchen versehen sind. Diskurse sind - in einer anderen Wendung der eingangs formulierten Definition - spezifizierbare und konventionalisierte Ensembles von Kategorien und Praktiken, die das diskursive Handeln sozialer Akteure instruieren, durch diese Akteure handlungspraktisch in Gestalt von diskursiven Ereignissen produziert bzw. transformiert werden und die soziale Realität von Phänomenen konstituieren. Diskussionen sind kommunikative Veranstaltungen, in denen verschiedene Diskurse aufeinander treffen (können)“ (Keller 2008, 236).
Während Foucault sich in seinem Frühwerk vor allem auf die Regelmäßigkeiten verstreuter Aussagen konzentrierte, diskursive Formationssysteme zu rekonstruieren suchte und diese als in sich autonom betrachtete („Archäologie des Wissens“), galt sein Augenmerk im Laufe der Zeit zunehmend den Machteffekten diskursiver Kontroll- und Ausschlussmechanismen, die durch die Etablierung von „Sagbarkeitsfeldern“ Wirklichkeit und Wahrheit erst erschufen („Genealogie“ von Macht/Wissen): „Als Genealogie bezeichnen wir also die Verbindung zwischen gelehrten Kenntnissen und lokalen Erinnerungen, die die Konstituierung eines historischen Wissens der Kämpfe ermöglicht sowie die Verwendung diese Wissens in den gegenwärtigen Taktiken“ (Foucault, 1978, 62). Macht kann sich nur über die Etablierung gültigen Wissens realisieren, Wissen stellt ein (Macht-)Produkt dar, auf diese Weise sind beide unauflöslich miteinander verschränkt.
Sein vornehmliches Interesse galt jetzt diesen Codes und Prozessen der „Wahrheitsbildung“, der diskursiven Praxis, die sein ehedem statisches Diskursverständnis aufbrach. Die konkreten Inhalte, das „Wesen“ der jeweiligen (diskurspezifischen) Wahrheit, waren für ihn dabei im wahrsten Sinne des Wortes zweitrangig[28], da Wahrheit gänzlich zur abhängigen Variable eines nach Nitzsche „Willens zur Wahrheit“ degradiert wurde, der „dazu tendiert, auf die anderen Diskurse Druck und Zwang auszuüben“ (Foucault 1974, 16). Er verabschiedete sich somit gänzlich von einer Suche nach „der Wahrheit“ und widmete sich den von Macht geprägten Prozessen der Wahrheitsbildung. Die „Illusion des autonomen Diskurses“ wich den Definitionswettkämpfen und „Spielen der Wahrheit“ (vgl. Ruoff 2007, 91ff.; Keller 2008 122ff.; Bührmann 2008, 27f.). „Wichtig ist, so glaube ich, dass die Wahrheit weder außerhalb der Macht steht noch ohne Macht ist […] Die Wahrheit ist von dieser Welt; in dieser wird sie aufgrund vielfältiger Zwänge produziert, verfügt sie über geregelte Machtwirkungen. Jede Gesellschaft hat ihre eigene Ordnung der Wahrheit, ihre ‘allgemeine Politik‘ der Wahrheit“ (Foucault 1978, 51).
Um diesen Machteffekten auf die Schliche zu kommen und gesellschaftlichen Wandel im Zusammenspiel diskursiver und nichtdiskursiver Praktiken erklären zu können, erweiterte er die Diskursanalyse zur Dispositivanalyse. Ein Dispositiv ist nach Foucault eine „entschieden heterogene Gesamtheit, bestehend aus Diskursen, Institutionen, architektonischen Einrichtungen […], kurz, Gesagtes ebenso wie Ungesagtes, das sind die Elemente des Dispositivs. Das Dispositiv selbst ist das Netz, das man zwischen diesen Elementen herstellen kann“ (Foucault 2003, 392). Indem er sich von der strukturalistischen Vorstellung selbstregulierender Diskurse befreite, gelang es ihm, die Verbindung von diskursivem und gesellschaftlichem Wandel in den Blick zu nehmen. Somit ließ sich der oft gegen den Strukturalismus erhobene Vorwurf „mit ihm lasse sich weder politische noch gesellschaftsverändernde Praxis theoretisieren (Moebius 2005, 145) entkräften.
Der Erweiterung des Diskurses zum Dispositiv ist eine klare Trennung von diskursiven und nicht diskursiven Praktiken immanent. So bezeichnet er die Institution als „Alles das, was in einer Gesellschaft als Zwangssystem funktioniert, ohne dass es eine Aussage ist, zusammengefasst, das gesamte nicht-diskursive Soziale“ (Foucault 2003, 396). Die Dispositive „>umstellen< das Subjekt und steuern seine Wahrnehmung der Welt. Sie bestimmen auf eine – in ihrem Wirken oft unerkannte, weil nicht bewusste und deshalb als >natürlich< genommene – Art und Weise, wie wir Welt wahrnehmen. Es liegt nahe, eine solche Konstruktion auch auf die Medien als gesellschaftliche Wahrnehmungsinstanzen zu beziehen, auch wenn dies Foucault selbst nicht explizit getan hat“ (Hickethier 2003, 187). Das Dispositiv stellt in diesem Verständnis eine Art Schnittstelle zwischen Diskurs und „der Welt“ dar, über die Macht zum Ausdruck kommt.
Die im Dispositivbegriff artikulierte Annahme einer Sphäre des „nicht diskursiv Sozialen“ widerspricht im Grunde der vorangegangenen Prämisse eines notwendig diskursiven Charakters der sozialen Welt. Foucault bleibt in diesem Sinne laut Jäger „der Trennung zwischen geistiger Tätigkeit und (ungeistiger?) körperlicher Arbeit verhaftet, in dieser Hinsicht eben auch ein Kind seiner Zeit bzw. seiner Herkunft, in der die Bürger die Kopfarbeit verabsolutierten und die Handarbeit für völlig ungeistig hielten“ (Jäger 2001, 93). Es erscheint daher durchaus plausibel, anstatt einer „künstlichen“ Trennung zwischen diskursiven Praktiken und „dem Rest“ im Sinne der Diskurs- und Sozialtheorie von Laclau / Mouffe (2000) von dem notwendig diskursiven Charakter aller sozialen Prozesse auszugehen. Alle gesellschaftlichen wie sozialen Phänomene, Ereignisse, Objekte und Institutionen erfahren ihre Sinnhaftigkeit erst durch Bedeutungszuweisung, sind also in einen diskursiven Kontext eingebettet. Es geht dann nicht um die Frage nach Foucault, inwiefern das „nicht diskursiv Soziale“ den Diskurs prägt oder von den diskursiven Praktiken seinerseits geprägt wird, sondern ALLES SOZIALE IST DISKURSIV. Da die soziale Welt ohne diskursiven Rahmen wahrlich bedeutungslos wäre, ist eine bedeutende gesellschaftliche Funktion abseits des Diskursiven nicht denkbar, der Diskurs ist Existenzbedingung für jede soziale Realität und Relation, die „im Feld der foucaultschen Diskursanalyse gebräuchliche Unterscheidung von diskursiven und nichtdiskursiven Praktiken entfällt damit“ (Nonnhof 2007, 9).
Agamben verallgemeinert in diesem Sinne den auf Foucault aufbauenden Dispositivbegriff als „alles, was irgendwie dazu imstande ist, die Gesten, das Betragen, die Meinungen und die Reden der Lebewesen zu ergreifen, zu lenken, zu bestimmen, zu hemmen, zu formen, zu kontrollieren und zu sichern. Also nicht nur die Gefängnisse, die Irrenanstalten, das Panoptikum, die Schulen, die Beichte, die Fabriken, die Disziplinen, die juristischen Maßnahmen etc., deren Zusammenhang mit der Macht in gewissem Sinne offensichtlich ist, sondern auch der Federhalter, die Schrift, die Literatur, die Philosophie, die Landwirtschaft, die Zigarette, die Schifffahrt, die Computer, die Mobiltelefone und - warum nicht - die Sprache selbst, die das vielleicht älteste Dispositiv ist“ (Agamben 2008, 26). Er behält zwar das Konstrukt des Dispositivs bei, die Differenz und Abgrenzung zum Diskurs erscheint dabei aber unklar.
Wegen der aus einem allumfassenden Diskursbegriff nach Laclau / Mouffe resultierenden Gefahr „sich im Nebel eines >alles ist Diskurs<“ aufzulösen und „zu einem unbestimmten >One Concept Fits All< zu werden“ (Bührmann 2008, 14) wird das analytische Konzept Dispositiv im Sinne der Wissenssoziologischen Diskursanalyse jedoch beibehalten. Keller adaptiert dementsprechend Foucaults Dispositivbegriff als „institutionalisierte infrastrukturelle Momente und Maßnahmenbündel - wie Zuständigkeitsbereiche, formale Vorgehensweisen, Objekte, Technologien, Sanktionsinstanzen, Ausbildungsgänge usw., […] die einerseits zur (Re-)Produktion eines Diskurses beitragen, und durch die andererseits ein Diskurs in der Welt intervenieren, also Machteffekte realisieren kann“ (Keller 2004, 63). Mit einer Berücksichtigung des Zusammenspiels diskursiver, nicht-diskursiver Praktiken und materieller Vergegenständlichungen würde „ im Vergleich zum Diskursbegriff der Analyseraum umfassender für solches, nicht-diskursives Wissen geöffnet, das nicht (noch nicht oder nicht mehr) Gegenstand diskursiver Praktiken ist“ (Bührmann 2008, 55). Wobei die Erläuterungen zum Dispositiv nur der theoretischen Verortung dienen, da sich die Analyse in der Praxis in Anbetracht der schieren Fülle des schon gesammelten Datenmaterials und der Machbarkeit auf die öffentlichen Diskurse beschränkt und nicht zur Dispositivanalyse erweitert wird.
Die Dispositive sind dennoch insofern für die Analyse von Diskursen von Bedeutung und präsent, als sie „Möglichkeitsräume für gültiges, >wahres< Wissen“ konstituieren und daher „in diesem Sinne immer schon Effekte von Machtbeziehungen“ (ebd., 53) zwischen diskursiven „Wahrheitsspielen“ und nicht-diskursiven Praktiken sind, also den Diskurs nachhaltig prägen. Macht ist im Foucaultschen Verständnis keine faktische Größe, kein zu besitzendes Gut, sondern „die Vielfältigkeit von Kräfteverhältnissen, die ein Gebiet bevölkern und organisieren“ (Foucault zit. nach Moebius 2009, 94). Die „Mikrophysik der Macht“ nach Foucault durchdringt alle Bereiche der Gesellschaft inklusive der Subjekte, „die im Prozess des Unterworfenwerdens durch die Dispositive zum Subjekt und gleichsam ins Leben gerufen werden“ (Moebius 2009, 95). Macht ist ein Konglomerat an „anonymen Strategien“ (Pundt 2008, 44), die gekoppelt an Institutionen von den Subjekten internalisiert werden und somit bestimmte (Macht-)Effekte erzielen. Macht wird hier umgedeutet von einem repressiven zu einem produktiven Begriff und „das Individuum und seine Erkenntnisse sind Ergebnisse dieser Produktion“ (Foucault zit. nach Thomas 2009, 65). Macht kann man nicht besitzen, sie ist kein handelbares Gut und sie ballt sich auch nicht in sogenannten Schaltzentralen zusammen, sie wirkt im Kleinen, im Alltag, im Subjekt.
Indem er von der Immanenz der Macht ausgeht, stellt er sich gegen ein linkes wie bürgerliches „ökonomisches“ Machtverständnis, welches Macht in Strukturen oder Individuen verortet und vornehmlich als Unterdrückungsinstrument „von oben“ wahrnimmt. Er habe versucht zu zeigen, „dass die Mechanismen, die in diesen Machtformationen wirksam sind, etwas ganz anderes als Unterdrückung, jedenfalls sehr viel mehr als Unterdrückung sind“ (Foucault, 1978, 74). Der Staat spielt in seiner Logik für den Prozess der Machtausübung nur eine sekundäre Rolle und Utopien (etwa einer „machtfreien“ Gesellschaft) sind nicht nur unrealistisch, sondern in ihren Grundannahmen von Staat und Gesellschaft fehlerhaft[29] (vgl. Thomas 2009, 64ff.). Foucault verortet den Machtkampf im Sinne der „Mikrophysik der Macht“ im Lokalen. „Der Grund dafür, dass die Macht herrscht, dass man sie akzeptiert, liegt ganz einfach darin, dass sie nicht nur als neinsagende Gewalt auf uns lastet, sondern in Wirklichkeit die Körper durchdringt, Dinge produziert, Lust verursacht, Wissen hervorbringt, Diskurse produziert; man muss sie als ein produktives Netz auffassen, das den ganzen sozialen Körper überzieht und nicht so sehr als negative Instanz, deren Funktion in der Unterdrückung besteht“ (Foucault 1978, 34). [30]
Ein derartiges Machtverständnis negiert zwar nicht die Existenz von Unterdrückungsverhältnissen, erschwert jedoch die Kritik an „den Verhältnissen“, was jedoch nicht mit Macht- oder Aussichtslosigkeit verwechselt werden darf, „[v]ielmehr ist der relationale Charakter der Machtverhältnisse hervorzuheben: Jede Macht erzeugt eine Gegenmacht in Gestalt von Widerstand“ (Lavagno 2006, 48). Im Angesicht des „befremdlichen Überlebens des Neoliberalismus“ (Crouch 2011) hat die moderne Kapitalismuskritik diese Mikrophysik und Immanenz der Macht als Erklärungsansatz aufgegriffen (siehe 7).
Die Formation von Diskursen und Dispositiven verweist insofern auf diesen „relationalen Charakter der Machtverhältnisse“, als sie gleichzeitig die Deformation ihrer Vorläufer erfordert. Ein Vorgang, der auf die Dynamik der diskursiven Praxis verweist im Kontrast zur starren Diskursordnung im klassischen Strukturalismus und zum Frühwerk Foucaults (Archäologie). Diese Praxis bedingt dabei Brüche im System, durch die (diskursiver) Wandel sich vollziehen kann. „Dispositive lassen sich nicht restlos und widerspruchsfrei totalisieren; so existieren in der sozialen Praxis immer >Risse< und damit unterschiedliche Aneignungs- wie Umdeutungsmöglichkeiten“ (Bührmann 2008, 53). Diese Risse an den Rändern des Diskurses lösen Unruhe aus „angesichts dessen, was der Diskurs in seiner materiellen Wirklichkeit als gesprochenes oder geschriebenes Ding ist“ (Foucault 1974, 10). Aufgabe der Diskurse und Dispositive ist es, mittels der Prozesse diskursiver Inklusion / Exklusion „die Kräfte und Gefahren des Diskurses zu bändigen, sein unberechenbares Ereignishaftes zu bannen, seine schwere und bedrohliche Materialität zu umgehen“ (ebd., 11).
Foucault registrierte dieses Wuchern an den Rändern des Diskurses mit Interesse, ohne es zum eigentlichen Gegenstand seiner Analysen zu machen. Laclau / Mouffe (2000) weisen im Anschluss an Foucault dem darin zum Ausdruck kommenden Widerspruch eine konstitutionelle Funktion zu. Der Antagonismus, die strukturelle Exklusion eines konstitutiven Außen, ist notwendige Bedingung für die schiere Existenz der Diskursstruktur, gleichzeitig ist es ihre immerwährende, jedoch sich nie erfüllende Bestimmung, an der (unmöglichen) Beseitigung dieses Widerspruchs zu arbeiten. Das Außen ist als Existenzgrundlage konstitutiv und gleichzeitig als Bedrohung des Systems Quell seiner auf kurz oder lang unweigerlichen Transformation oder Zerstörung: „Dem Ausgeschlossenen kommt dabei eine paradoxe Doppelfunktion zu: Zum einen wird es ausgeschlossen, weil seine Zugehörigkeit zum System dieses in Frage stellen würde, weil es die Identität des Systems konterkariert und beseitigt werden muss; zum anderen aber wird eben dieses System erst durch das Ausgeschlossene konstituiert (qua Abgrenzung)“ (Nonnhoff 2007, 10).
Diese Widersprüchlichkeit tritt in der Unübersichtlichkeit, Schnelligkeit und Interdependenz der modernen, globalisierten Welt als „Krise der Identität“ [31] besonders deutlich zum Vorschein und provoziert fortlaufend vergebliche Versuche der Homogenisierung nach innen und Abgrenzung nach außen. Klassisches Beispiel ist das Konzept der Nation im Angesicht ansteigender Flüchtlingsströme.[32] Rushkoff erkennt in den Konzepten der Tea Party und Occupy Wall Street Bewegungen zwei fundamental oppositionelle Antworten auf die um sich greifende Unübersichtlichkeit. „Während sich die Tea Party nach Entschiedenheit und Endgültigkeit sehnt, hat sich Occupy Wall Street die Aufrechterhaltung der Unbestimmtheit auf die Fahnen geschrieben […] Während die Tea-Party-Aktivisten das Chaos unserer geschichtenlosen Gegenwart beseitigen wollen, sieht die Occupy-Bewegung es als Chance, neue politische Formen und Möglichkeiten zu erproben“ (Rushkoff 2014, 63).
Um trotz der Mikrophysik der Macht und der vielfältigen Konfrontationslinien die Makroperspektive nicht aus dem Blick zu verlieren und die Diskurstheorie für Ansätze des Postmarxismus und der Cultural Studies (siehe unten) zu öffnen, wurde Foucaults Diskursbegriff häufig um Konzepte von Ideologie [33] oder Hegemonie[34] erweitert, die den Aspekt gesellschaftlicher Ausbeutung und Manipulation stärker in den Blick nehmen sollten. Der Begriff der Ideologie stellt auch einen Kernbegriff und eine Brücke zur Wissenssoziologie dar.
Das omnipräsente Schlagwort von der Wissens-oder Informationsgesellschaft offenbart die zentrale Bedeutung des Wissens im 21. Jahrhundert und rückt damit Fragen der Konstruktion und Konstitution von Wissen ins Zentrum (auch) wissenschaftlichen Interesses. In diesem Kontext spielt die Ideologie im Beziehungsgeflecht aus Wahrheit, Lüge und Wissenschaft den fehlenden vierten Mann als vermeintlicher Gegenspieler rationaler Erkenntnis. Die Frage nach dem Zusammenhang von Wissen und Wahrheit ist so alt wie die Geschichte der Philosophie, der neuzeitliche Begriff der Ideologie geht jedoch auf die Idolenlehre von Francis Bacon zurück. Bacons Traktat für eine induktive, empirische Wissenschaft jenseits scholastischer Debatten sah in den sogenannten Idolen, „Vorurteile des Geistes“, „jene Hindernisse, die das Erkennen behindern oder entstellen“ (Knoblauch 2005, 28) und somit die Wahrheit zugunsten herrschender Autoritäten verstellen. Im Zuge der Aufklärung wurde dieses Konzept unter Rückgriff auf das Ideal reiner Vernunft in Opposition zur Metaphysik und Religion fortentwickelt, wobei man nun aber im Gegensatz zu Bacons „sozial, psychologisch und anthropologisch bedingten Formen der Selbsttäuschung“ von „mehr oder weniger bewusste[r] Täuschung“ (ebd., 32.) ausging (Priestertrugstheorie vgl. ebd.). Besonders das Versprechen ewigen Lebens im Paradies galt als Besänftigung diesseitigen Leids und dementsprechend als Mittel des Machterhalts (Schützeichel 2007, 14f.). Während also bis dato die Kirche als letzte Glaubensinstanz über die Einhaltung der verbindlichen Dogmen wachte und somit Sinn und Stabilität stiftete, aber auch Herrschaft ausübte, fiel diese Funktion nun der Wissenschaft zu und „mit solcher Einsetzung des ‘Wahrheit‘ über die Welt erkennenden Subjekts als vernunftbegabtes Erkenntnissubjekt geht eine sich neu formierende gesellschaftliche Kontrolle der nun ‘subjekt-begründeten‘ Ideen-, Erkenntnis- und Wahrheitsproduktion“ einher. Die „‘Geburt der Ideologie‘ als einem ‘Kind der Neuzeit‘“ fußt dabei auf „einer grundlegenden Trennlinie zwischen ‘Ideologie‘ und ‘Wissenschaft‘“ (Hirseland 2001, 375f.). Diese frühe Form der Ideologiekritik war auch der Ursprung der modernen Wissenssoziologie.
Der für die hermeneutische Wissenssoziologie in der Tradition Berger Luckmanns charakteristische Sozialkonstruktivismus, der in Verbund mit Foucaults Diskurstheorie die theoretische Grundlegung der Wissenssoziologischen Diskursanalyse bildet, fußt wesentlich auf der Phänomenologie Alfred Schützs. Schütz sucht die Dichotomie von Basis und Überbau zu überwinden, indem er das Wissen integrativ als grundlegend für jegliches Handeln versteht und Handeln als Basis für Konstruktion von Wirklichkeit. Wissen ist nicht getrennt von gesellschaftlicher Praxis, in jedem Handeln äußert sich Wissen als Sedimentation und Typisierung von Erfahrung, wobei der Körper „den Nullpunkt des Erfahrens, […] das Medium der sinnlichen Erfahrung und des Handelns“ (Knoblauch 2005, 146) bildet. Die Konstruktion von Sinn in der sozialen Auseinandersetzung mit Hilfe eines Systems an Typisierungen erfolgt unter Rückgriff auf ein Relevanzsystem, welches vornehmlich unbewusst vielschichtige und mehrdeutige Erfahrungen zu einer sinnvollen Einheit formt, aus der wiederum Alltagsroutinen entstehen.
Das Bewusstsein ist hierbei die zentrale Kraft für die Konstruktion von Wissen und Wirklichkeit, was jedoch nicht bedeutet, dass es sich um einen rein subjektiven, nur auf eigenen Erfahrungen basierenden Akt handelt. Vielmehr stammt der Großteil des Wissensschatzes an Erfahrungen, auf den das Subjekt zurückgreift, von anderen, ist sozial abgeleitet. Der zentrale Ort ist hierbei die Lebenswelt des Alltags, in der sozusagen nicht nur gedacht, sondern auch gemacht wird und jeder somit aktiv an der Konstruktion der Welt partizipiert. Die eigene Handlung ist dabei in ihrer Bedeutung immer auf ein Alter Ego bezogen, wobei das sozial abgeleitete Wissen erst Verständigung ermöglicht, ohne jedoch in sich völlig logisch oder widerspruchsfrei sein zu müssen. Die Sprache stellt in diesem Prozess zwar die wichtigste Ausdrucksform des Wissens dar, wird aber ergänzt durch andere nonverbale Zeichen der Vermittlung von Bedeutung. Die soziale Ableitung des Wissens findet ihren Ausdruck im kollektiven Wissensvorrat, der jedoch mehr ist als die bloße Summe seiner subjektiven Gegenspieler, da er durch die Struktur einer Gesellschaft mitgeprägt, jedoch nicht vollends vorherbestimmt wird (ebd., 142 ff.).
Der mittlerweile zum Klassiker avancierte namensgebende Slogan von der „social construction of reality“ von Berger / Luckmann schließt unmittelbar an Schützs Phänomenologie an, verquickt diese jedoch u.a. mit Elementen der verstehenden Soziologie Webers und der deutschen Wissenssoziologie und sorgt somit nicht nur für eine Renaissance letzterer, sondern etabliert auch die Vorstellung und Theorie des Sozialkonstruktivismus (ebd., 153). Für Berger / Luckmann wäre die menschliche Existenz „würde sie zurückgeworfen auf ihre rein organischen Hilfsmittel, ein Dasein im Chaos“ (1969, 55). Zur Errichtung einer stabilen Ordnung konstruieren Subjekte in alltäglichen Interaktionen die soziale Wirklichkeit, wobei dem „Typus sozialen Handelns von Angesicht zu Angesicht […] als Fundament aller historischen Gesellschaften“ (Schnettler 2006, 174) ein besonderes Gewicht zukommt. Durch regelmäßige Wiederholung dieser Externalisierungen werden die Produkte ihres Handelns objektiviert, sie bekommen eine unabhängige Dimension, eine eigenständige Faktizität in Form von verfestigten Deutungsmustern, Habitualisierungen und Institutionen. Diese Objektivierungen wirken durch Internalisierung wiederum auf das Individuum zurück (ebd., 172.ff.).
Der Mensch ist dabei Ausgangspunkt und letztlich Empfänger intersubjektiv geteilten Sinns, „der Mensch produziert sich selbst“ (Berger / Luckmann 1969, 52). Die darin zum Ausdruck kommende Dualität von Handlung und Struktur formulieren sie wie folgt: „Gesellschaft ist ein menschliches Produkt. Gesellschaft ist objektive Wirklichkeit. Der Mensch ist ein gesellschaftliches Produkt“ (ebd., 65). Daraus entsteht „eine Theorie der sozialen Konstruktion von Deutungs- und Handlungswissen, das gesellschaftlich institutionalisiert und in Sozialisationsprozessen an Individuen vermittelt wird“ (Keller 2008, 41). Eben diese Dualität von Struktur stellt die Brücke zwischen Interaktionismus und Strukturalismus in Form der Wissenssoziologischen Diskursanalyse dar.
Trotz dieser Bücke existieren über den Prozess sozialer Fixierung objektiven Wissens im „konstruktivistischen“ Lager grundlegende Differenzen. Im Zentrum dieser Differenzen steht nicht nur die mittlerweile überkommene Frage von Basis und Überbau, sondern der Mensch als Produkt oder Akteur der ihm bedeutsamen Welt. Die Frage der Verortung des Menschen zwischen Handlung und Struktur ist die zentrale Scheidelinie strukturalistischer oder interaktionistischer Vorstellungen zur Konstruktion von Wirklichkeit.
Berger / Luckmann verlagern in ihrer „sozialen Konstruktion der Wirklichkeit“ (1969) den primären Prozess der Wirklichkeitskonstruktion in die Alltagswelt, denn ohne das „Allerweltswissen“ gäbe es „keine menschliche Gesellschaft“ (ebd., 16). Experten- und Spezialwissen spielt für sie gerade keine Rolle. Ihre Kernfrage lautete: „Wie ist es möglich, dass subjektiv gemeinter Sinn zu objektiver Faktizität wird?“ (ebd., 20). Der fundamentale Widerspruch zwischen dieser phänomenologisch-interpretativen Handlungstheorie und einer (post-)strukturalistischen Diskurstheorie ist der Fokus der Analyse und die Verortung und Definition des Subjekts. Eine von Foucault inspirierte Diskurstheorie setzt nicht bei den handelnden Subjekten an, sondern bei den überindividuellen diskursiven Strukturen, die nicht nur eine beliebige Summe an Aussagen darstellen, sondern eine Regelhaftigkeit aufweisen, die das Subjekt in seinen Handlungs- und Entscheidungsbedingungen (vor-)prägen.
Es handelt sich, wie Jürgen Link treffend formulierte, um eine „typische Henne-Ei-Problematik“ (Link 2005,79). Auch Berger / Luckmann gehen ja von einer externen „Mitbestimmung“ des Subjekts aus, durch, um in ihren Worten zu bleiben, „Internalisierung externalisierter Objektivierungen“. Jedoch scheinen sie, wie der Begriff der Externalisierung schon nahe legt, den Anfang dieses Prozesses in das Subjekt zu verlegen. Dies suggeriert „so etwas wie primäre, prädiskursive ‘personale Kerne‘, aus deren intersubjektiver ‘Externalisierung‘ allererst die Diskurse generiert würden“ (Link 2005,79). Diese „Prädiskursivität“ ist es, die im Widerspruch zur poststrukturalistischen Konzeption der diskursiven Konstruktion von Wirklichkeit steht und die die grundlegende erkenntnistheoretische Differenz beider „Wissenschaftslager“ darstellt. Während das Subjekt als Konstrukteur aus dem Chaos der Welt in Interaktion eine benötigte Ordnung macht, wird diese Ordnung im anderen Fall strukturell und überindividuell gemacht. Nach Foucault sind Diskurse „als Praktiken zu behandeln, die systematisch die Gegenstände bilden, von denen sie sprechen“ (Foucault 1988, 74). Diskurse werden folglich nicht von den sich in ihnen tummelnden „Subjekten“ und „Objekten“ geprägt, sie sind nicht nur Resultat oder Abbild, sondern die Quelle sozial konstruierter Wirklichkeit: „Diskurse produzieren, formen ihre Gegenstände, Objekte, indem sie entlang ‘machtvoller Regeln‘ über sie sprechen, und indem die jeweiligen diskursiven Praktiken bestimmen, was in welchem Diskurs gesprochen, was verschwiegen, was als wahr anerkannt und als falsch verworfen wird“ (Hirseland / Schneider 2001, 374).
Die dabei befürchtete strukturelle Determination und Degradierung des Subjekts zum vermeintlich reinen Spielball anonymer Kräfte wurde vielfach kritisiert. So monierte beispielhaft Jürgen Habermas Foucaults Wahrnehmung der Individuen „als die standardisierten Erzeugnisse einer Diskursformation – als gestanzte Einzelfälle“ (Habermas 1991, 343). Eine Kritik, die bei dem geschlossenen System des Strukturalismus sicher nicht unberechtigt war, jedoch im Poststrukturalismus durch Einbezug der (diskursiven) Praxis berücksichtigt und relativiert wurde. Nicht das „Ende des Menschen“ ist Programm, sondern die „Auflösung selbstverständlicher Identitäten“ (Geuss 2003, 152) und des Subjekts als rationalem, bewusstem Akteur humanistischer Prägung. Statt Diskurse im Sinne normativer Kategorien und ethischer Standards zu bewerten, geht es vielmehr darum, deren Struktur und Ordnung herauszuarbeiten. Das von Habermas ausgerufene Ideal des herrschaftsfreien Diskurses ist aus poststrukturalistischer Perspektive an sich ein Antagonismus. Diskurse üben immer Macht aus, sie wird, ähnlich der Internalisierung von Objektivierungen nach Berger / Luckmann, von den Subjekten verinnerlicht und die vom Diskurs betroffenen Subjekte sind nie gänzlich frei, autonom und rational.
Moebius (2005) wagt den Versuch, mit Hilfe der Diskurstheorie von Laclau / Mouffe und des Dekonstruktivismus von Derrida, handlungstheoretische und (post-)strukturalistische Prämissen zu einer erst mal paradox anmutenden „poststrukturalistischen Handlungstheorie“ zu verbinden. Das vermeintliche zu Grabe Tragen des Subjekts im (Post-)Strukturalismus betrachtet er als Verzerrung bzw. Fehlinterpretation. Im Kontrast zum geschlossenen, determinierenden System des Strukturalismus spielen das Subjekt und die Entscheidung im Poststrukturalismus sehr wohl eine („eigenständige“) Rolle, jedoch variiert diese Vorstellung von den gängigen neuzeitlichen Subjektbegriffen. Das Subjekt ist weder irrelevant noch bedeutungslos, es erfährt eine Neudefinition, die es nicht mehr aus sich heraus erklärt, sondern über den Anderen und das Außen. Derrida spricht in diesem Kontext von „Postdekonstruktiver Subjektivität“. Laclau / Mouffe sprechen von „Subjektpositionen“ und „Momenten des Subjekts“ (Moebius 2005, 129ff.).
Die konstatierte prinzipielle Offenheit der Struktur ermöglicht „Momente des Subjekts“ in Augenblicken der Unentscheidbarkeit. In diesen Momenten „ereignishaften Handelns im Gegensatz zum vorstrukturierten, regelhaften Handeln“ (Moebius 2005, 138) wird die vorgeprägte Subjektposition zum unvorhersehbaren Subjekt. Auch die Handlungstheorie nach Berger / Luckmann kennt dieses „regelhafte Handeln“, die „Habitualisierungen“, die „von der Notwendigkeit, Handlungen immer wieder neu entwerfen zu müssen, […] von angespannter Aufmerksamkeitszuwendung, von Unsicherheit und Improvisation“ (Schnettler 2006, 174) entlasten. Sowohl die strukturalistische als auch die interaktionistische Handlungstheorie gehen von einem Nebeneinander strukturell, routinierter und unvorhergesehen „spontaner“ Ereignisse und Handlungen aus.[35]
Unterschiede ergeben sich, wie zu erwarten, wieder im konkreten Zusammenspiel beider Elemente. Während das phänomenologische Subjekt als der Akteur der Praxis im Kern aus sich heraus erklärt wird und demzufolge agiert, so wird das poststrukturalistische Subjekt aus dem Widerspruch zwischen Struktur und Handlung geboren. Die im Poststrukturalismus eingeführte Unberechenbarkeit der diskursiven Praxis und „Wiedereinführung“ des Subjekts ist in einem geschlossenen diskursiven System nicht denkbar. „Die Bedingung für das Erscheinen des Subjekts (= die Entscheidung) ist, dass es nicht unter irgendeinen strukturalen Determinismus subsumiert werden kann“ (Laclau zit. nach Moebius 2005, 139). Der Moment des Subjekts, der Augenblick der Entscheidung resultiert aus der notwendigen Unabgeschlossenheit der Struktur. Bei Fragen, die der strukturellen Antwort entbehren, die nicht vorgesehen (oder im handlungstheoretischen Sinne habitualisiert) sind, kommt das konstitutive Außen ins Spiel. Erst dieses Außen definiert das Regelsystem in seiner Struktur, gibt ihm seine Form.
Nach Laclau / Mouffe (2000) bedarf es zur Errichtung kultureller Hegemonie des (sozialen) Antagonismus und der Logik der Äquivalenz. Während in der Logik der Differenz die Unterschiede und Verbindungen der Diskurselemente zum Ausdruck kommen[36], werden in der Logik der Äquivalenz durch die Abgrenzung von einem konstitutiven Außen die inneren Differenzen überbrückt und Identifikation gestiftet: Im Kontrast zum Anderen und Außen verschwimmen die inneren Unterschiede im Einklang der gefühlten Gleichheit und Einheit. Sogenannte leere Signifikanten (Nation, Gerechtigkeit, Zivilisation oder in unserem Fall z.B. Kultur, Urheberrecht, Freiheit) dienen Projekten kultureller Hegemonie in ihrer abstrakten Unbestimmtheit dabei als „Knotenpunkt[e] für eine ‘imaginäre Einheit‘ des Diskurses“ (Reckwitz 2006, 344), als sinnstiftende Projektionsflächen der Identifikation (vgl. Moebius 2005, 135; Reckwitz 2006, 344).
In den Augenblicken der Unentscheidbarkeit kommt es zu Rissen im System, durch die das konstitutive Außen dringt. Das sind die Momente des Subjekts. Derartige wirkliche Entscheidungen, im Kontrast zu strukturierten Handlungsanweisungen, bezeichnet Derrida als „passive Entscheidung des Anderen in mir“ (Derrida 2000, 105 zit. nach Moebius 2005). Diese wiederum etwas paradox anmutende Formulierung zielt darauf ab, dem Subjekt eine gewisse „Entscheidungsfreiheit“ zuzugestehen, ohne es damit in einen subjektivistischen Kontext bewusster und intendierter Handlung einzuordnen. Die Freiheit des Subjekts im poststrukturalistischen Sinne ist nicht in seinem Wesen, seinem Inneren begründet, es ist also eigentlich keine Entscheidungsfreiheit, sondern eine Freiheit im Moment der Entscheidung. „In der Entscheidung kommt es zum Ereignis einer In(ter)vention des Außen in den Diskurs, das bestehende Erwartungsstrukturen und diskursive Sinnzusammenhänge überschreitet“ (Moebius 2005, 141). Statt von der Dualität von Struktur zu sprechen, spricht Moebius von der Triade „Handlung - Struktur - Außen - Anderer“.
Ob man nun vom „konstitutiven Außen“ (Laclau / Mouffe), der „Entscheidung des Anderen in mir“ oder dem „polymorphen Wuchern an den Randzonen des Diskurses“ (Foucault) spricht, wichtig ist die Annahme einer gewissen kreativen Unvorhersehbarkeit und Widersprüchlichkeit, in der sich das Subjekt bewegt. Die somit über Umwege vollzogene Rehabilitation und Wiedereinführung des Subjekts und der Handlung, strukturalistisch hergeleitet, ermöglicht den Anschluss an Konzepte der Cultural Studies, der Wissenssoziologischen Diskursanalyse und der qualitativen Sozialforschung. Dennoch erscheint es in meinen Augen ohne eindeutige Evidenz nicht zielführend, das Subjekt als Akteur gänzlich aus dem Spiel zu nehmen und die Strukturen zum einzig maßgeblichen Faktor zu erheben. Die „Rehabilitierung“ des Subjekts über Umwege wiederum mit Hilfe der diskursiven Praxis und einer durch den Widerspruch bedingten zwangsläufigen Offenheit der Struktur, die dem Subjekt „als dem Anderen in mir“ Handlungsoptionen abseits einer so verstandenen Handlungsfreiheit zugesteht, erscheint mir unnötig. Im Konzept der Dualität von Struktur ist die wechselseitige Determinierung überzeugend dargelegt. Das Subjekt mag ohnmächtig, aber nicht gänzlich unwillig sein. Und die Rekonstruktion von Diskursformationen ohne die hermeneutische Suche nach Sinn, die ein sinnsuchendes Subjekt zwingend voraussetzt, erweist sich in der Forschungspraxis als unmöglich.
Die Weigerung poststrukturalistischer Strömungen das Subjekt als solches anzuerkennen, scheint mir eher eine Frage der strukturalistischen Ehre zu sein als Notwendigkeit und der Versuch die Frage des gesellschaftlichen Wandels mit allen Mitteln ohne die Figur des Subjekts zu lösen, nicht vorranging dem Erkenntnisinteresse geschuldet, sondern eher eine Fingerübung im akademischen Elfenbeinturm zu sein. In diesem Sinne folgt diese Untersuchung dem Anliegen der Wissenssoziologischen Diskursanalyse zur „Vermittlung Foucaultscher Konzepte mit der durch Peter L. Berger und Thomas Luckmann begründeten wissenssoziologischen Tradition“ (Keller, 2008, 13).