Schlüsselwörter

1 Einleitung

Für rekonstruktiv-interpretatives Forschen ist zentral, die als sinnstrukturiert verstandenen Untersuchungsgegenstände nicht unter vorab ausgewählte, bereits im Forschungsstand vorliegende Theorien und deren Kategorien zu subsumieren. Vielmehr nähern sich die Forschenden ihren Gegenständen mit einer möglichst offenen Grundhaltung und zeigen eine hohe Bereitschaft, sich von den Ergebnissen ihrer Rekonstruktionen überraschen zu lassen. Auf diese Weise wird es möglich, zu neuen und den bestehenden Forschungsstand konstruktiv irritierenden Ergebnissen zu gelangen (Herborth 2017 sowie in diesem Band). Zunehmende Verbreitung findet ein solches Vorgehen auch in der politikwissenschaftlichen Teildisziplin der Internationalen Beziehungen bzw. unter Forschenden, deren Erkenntnisinteresse den verschiedenen Formen und Aspekten von Weltpolitik gilt (siehe u. a. Franke 2010; Roos 2010; Bender 2013; Panetta 2013; Jasper 2014; Heck 2015; Roos und Seidl 2015; Roos und Rungius 2016; Hofferberth 2016; Lindhof 2019; Mehring 2019; Franke 2021; Franke und Hofferberth 2021; Kurthen 2021; Rahman 2021; Thomay 2021). Im Zentrum dieses Beitrags stehen mit der objektiven Hermeneutik und der Grounded Theory zwei rekonstruktive Forschungsansätze, die zwar im Kontext genuin (mikro-)soziologischer Fragestellungen entwickelt wurden, deren Anwendung aber auch auf dem weiten Feld der Weltpolitik keine Grenze gesetzt ist (siehe die Beiträge in Franke und Roos 2013).

Geteilte Prämissen rekonstruktiv-interpretativen Forschens werden in Abschn. 2 behandelt. Darauf folgen Einzeldarstellungen von objektiver Hermeneutik (Abschn. 3) und Grounded Theory (Abschn. 4) unter besonderer Berücksichtigung der zugehörigen Verfahrensweisen. Der Beitrag endet mit einem kurzen Fazit (Abschn. 5).

2 Geteilte Prämissen rekonstruktiver Forschungsansätze

Objektive Hermeneutik und Grounded Theory sind keine genuin politikwissenschaftlichen Forschungsansätze. Sie wurden im Rahmen von familien- bzw. medizinsoziologischen Arbeitszusammenhängen entwickelt (Oevermann et al. 1976; Glaser und Strauss 1967). Dass ihre Anwendung auf weltpolitische Fragestellungen gleichwohl problemlos möglich ist, soll in diesem Abschnitt verdeutlicht werden.Footnote 1 Hierzu werden einige jener geteilten Ansprüche und Ziele herausgearbeitet, die der gemeinsamen Wurzel beider Ansätze in der Philosophie und Gesellschaftstheorie des Amerikanischen Pragmatismus entspringen (Hellmann 2017 sowie in diesem Band).

Aus pragmatistischer Perspektive bilden menschliche Handlungen den Ausgangspunkt des Nachdenkens über die Welt. Denken wird dabei jedoch – genau wie Sprechen (Rorty 1967) – nicht in einen Gegensatz zum Handeln gerückt, sondern als eine Form desselben aufgefasst. Zudem gilt jede Handlung als sozial (im Sinne von gesellschaftlich vermittelt), da sie in dialogischer Form abhängig von intersubjektiv geteilten (Sprach-)Symbolen stattfindet (Peirce [1907] 2000, S. 240; Mead [posthum 1934] 1973, S. 188). Solche Symbole sind es, die als Ausdruck bestimmter Sinn- und Bedeutungsstrukturen den Gegenstand jedweder Untersuchung konstituieren, die mithilfe der von objektiver Hermeneutik und Grounded Theory bereitgestellten rekonstruktiven Verfahren operiert. Da jede Rekonstruktion auf etwas ihr Vorgängiges verweist, wird somit erkennbar, dass es der intersubjektive Sinn menschlicher Handlungen ist, der dem rekonstruktiven Tun der Forschenden vorausgeht und auf den eine Rekonstruktion stets gerichtet ist.

Ob die menschlichen Handlungen, deren Sinn rekonstruiert werden soll, eher auf der Mikro-, der Meso- oder der Makroebene von Gesellschaft anzusiedeln sind, macht dabei keinen kategorialen Unterschied. Die Bedeutung eines Gesprächs zwischen Familienangehörigen beim Abendessen oder zwischen Ärztin und Patient vor einem medizinischen Eingriff wird auf die gleiche Weise erschlossen wie der Sinn politischer Handlungen. Wer den Verlauf einer Verhandlung, die Unterzeichnung eines Abkommens, den Angriff auf das Territorium eines anderen Staates oder Parlamentsdebatten verstehen möchte, muss die intersubjektive Bedeutung dieser Ereignisse entschlüsseln. Im Gegensatz etwa zum Neorealismus von Waltz (1979), der Weltpolitik auf die Eigenschaften der Systemstruktur (Anarchie, gegebene Macht- und Ressourcenverteilung, Polarität, etc.) zurückführt, sind es aus pragmatistischer Perspektive die in Strukturen kollektiven Handelns (Franke und Roos 2010) eingebetteten Handlungen menschlicher Akteure, die das Weltgeschehen bestimmen. Dabei kann das weltpolitische Gesamt dieser Muster seinerseits den Blick auf systemweit besonders dominante, die einzelnen Akteure und Strukturen übergreifende Handlungsregeln eröffnen (Roos 2015). Im Zentrum rekonstruktiver Ansätze befinden sich daher die (Sprech-)Handlungen menschlicher Akteure und die davon ausgehenden Wirkungen. Entsprechend der pragmatistischen Maxime von Charles Sanders Peirce, nach der Handlungen ihre Wirkungen bedeuten,Footnote 2 werden die protokollierten Spuren menschlicher Interaktion auf ihre intersubjektive Bedeutung hin untersucht. Aus der Perspektive dieses Ansatzes stellt sich (Welt-)Politik als das Resultat des Zusammenwirkens der in Strukturen eingebetteten Handlungen sämtlicher beteiligter Akteure dar. Dabei ist die pragmatistische Annahme von zentraler Bedeutung, dass das Handeln der einzelnen Akteure von spezifischen, aber wandelbaren Überzeugungsstrukturen mitbestimmt wird. Als System von Handlungsregeln definieren diese Überzeugungsstrukturen die historisch je gegebenen Positionen, Beziehungen, Ziele und Mittel der politischen Akteure. Verfassungen, Gesetzestexte, Koalitionsvereinbarungen, Parteiprogramme, die Charta der Vereinten Nationen oder der Nordatlantikvertrag stellen aus dieser Sicht betrachtet institutionalisierte, also historisch verfestigte Aggregate von Handlungsregeln dar, von denen die Wirkung ausgeht, den Raum möglicher Handlungen der daran gebundenen oder freiwillig daran partizipierenden Akteure im Wesentlichen zu bestimmen. Auch wenn es menschlichen Akteuren, die im Rahmen solcher Strukturen kollektiven Handelns tätig sind, potenziell möglich ist, jederzeit Handlungsregeln und die ihnen zugrunde liegenden Werte und Logiken (oder Narrative und Diskurse) zu durchbrechen und neue Handlungsregeln zu schaffen, erfolgt dies letztlich nur unter der Bedingung, dass die aktuell politisches Handeln anleitenden Regeln in eine Legitimations- oder Effektivitätskrise geraten sind und deswegen durch neue Regeln, Werte bzw. Narrative ersetzt werden müssen. Eine solche Transformation des bestehenden Werte- und Regelwerks kann sehr verschiedene Verläufe annehmen, mehr oder weniger Zeit benötigen, zur Gänze misslingen, in großem Maße ambivalent bleiben oder zu einem mehr oder weniger konsistenten, neuen Ganzen führen – je nach Beschaffenheit des solcherart in einer Krise befindlichen Systems, also etwa in Abhängigkeit von der Zahl der beteiligten Teil-Strukturen und dem komplexen Machtsystem konkurrierender Veränderungsideen und konkurrierender Akteure sowie der Frage, wie politische Herrschaft, verstanden als System von Entscheidungsfindungsstrukturen und -prozessen, im konkreten Fall je ausgestaltet ist (Roos i.Vorb). Die rekonstruktiv-interpretativen Ansätze können dabei sowohl erkennen, ob Handeln entlang routinisierter Regeln erfolgt, als auch jene Sequenzen identifizieren, in denen neue Möglichkeiten und Politiken sich Bahn brechen.

Mithilfe welcher Verfahrensweisen objektive Hermeneutik und Grounded Theory die Rekonstruktion solcher Handlungsregeln konkret ermöglichen, zeigen separat die Abschn. 3 und 4 dieses Beitrags. Schon hier sei jedoch auf eine zentrale Gemeinsamkeit verwiesen, welche diese Verfahrensweisen inspiriert und das rekonstruktive Potenzial von objektiver Hermeneutik und Grounded Theory maßgeblich ermöglicht. Es handelt sich dabei um das Schlussverfahren der Abduktion, welches Peirce ([1903] 1965, S. 89 f. (5144)) unter Rückgriff auf Aristoteles in die moderne Wissenschaftstheorie einführte. Rekonstruktive Forschungsansätze wie objektive Hermeneutik und Grounded Theory entziehen sich der gängigen Entgegensetzung von Deduktion als dem aufgrund einer bestehenden Hypothese formulierten Schluss auf einen Fall und Induktion als dem Schluss von einem Fall auf eine bereits bestehende Hypothese. Stattdessen gründen rekonstruktive Ansätze auf dem Zusammenspiel der drei Schlussmodi Abduktion, Deduktion und Induktion (Roos 2010, S. 84–90; Franke und Weber 2012, S. 672–75; Franke und Roos 2013, S. 13–15). Abduktion bezeichnet dabei die Entstehung einer neuen Hypothese. Peirce ([1903] 1965, S. 106 (5171)) formuliert:

Abduction is the process of forming an explanatory hypothesis. It is the only logical operation which introduces any new idea; for induction does nothing but determine a value, and deduction merely evolves the necessary consequences of a pure hypothesis. Deduction proves that something must be; Induction shows that something is actually operative; Abduction merely suggests that something may be. Its only justification is that from its suggestion deduction can draw a prediction which can be tested by induction, and that, if we are ever to learn anything or understand phenomena at all, it must be by abduction that this is to be brought about.

Ein Verständnis von Abduktion als Bildung einer erklärenden neuen Hypothese, blitzartigem Einfall oder plötzlicher Aufschlüsselung eines bislang verborgenen, inneren Zusammenhangs (Wagner 2001, S. 108–113) ermöglicht Forschenden, anstatt bloß bestehende Theorien bzw. aus diesen abgeleitete Aussagen zu testen, zu neuen theoretischen Annahmen und überraschenden Perspektiven zu gelangen. Auf diese Weise wird Wissenschaft in Dienst genommen, um systematisch zu Tage zu fördern, was zuvor noch unbekannt oder unerklärt war. Übertragen auf die Internationalen Beziehungen bzw. Weltpolitikforschung bedeutet dies, dass Forschende nicht die Annahmen (neo-)realistischer, (neo-)liberalistischer, sozialkonstruktivistischer oder sonstiger Ansätze testen, sondern eigenständige Erklärungen für rätselhafte Erscheinungen der Weltpolitik entwickeln. In anhaltender Übereinstimmung mit dem Amerikanischen Pragmatismus gilt dabei jedoch der Grundsatz der Fallibilität: Sämtliche im Rahmen rekonstruktiver Forschung gewonnenen Wissensbestände, alle Hypothesen und sonstigen Überzeugungen der Forschenden werden als stets widerlegbar – fallibel – angesehen. Denn da jede menschliche (Forschungs-)Praxis an das Hier und Jetzt gebunden bleibt, stehen alle darin involvierten menschlichen Erkenntnisse und Annahmen grundsätzlich unter dem Vorbehalt des Irrtums (Rorty 1994a, S. 22, 1994b, S. 16; Nagl 1998, S. 121). Der Anspruch, Neues erkennen zu können ist bei rekonstruktiven Forschungsansätzen nicht ohne das Wissen darüber zu haben, dass sich dieses Neue – so wie jede einzelne Überzeugung der Forschenden – womöglich nicht bewährt.

3 Objektive Hermeneutik

Die Methodologie der objektiven Hermeneutik ist eng verknüpft mit dem Soziologen Ulrich Oevermann (1940–2021), der sie gemeinsam mit seinen Mitstreiterinnen und Mitstreitern in den späten 1960er-Jahren zu entwickeln begann (Oevermann et al. 1976, 1979; Oevermann 1986, 1991, 1993, 1996, 2000; Garz et al. 2019). Im Rahmen eines zuvorderst sozialisationstheoretischen und familiensoziologischen Erkenntnisinteresses entstanden, wurden die sinnerschließenden Verfahren der objektiven Hermeneutik sukzessive auf immer mehr sozial-, kultur- und geisteswissenschaftliche Fragestellungen angewendet. Ihr Einsatz in den Internationalen Beziehungen bzw. der Weltpolitikforschung kann daher auch, wie angedeutet, als prinzipiell unproblematisch angesehen werden. Die objektive Hermeneutik als rekonstruktiven Forschungsansatz vorzustellen, ist das Ziel dieses Abschnitts. In einem ersten Schritt wird es um die Theorietraditionen gehen, in denen die objektive Hermeneutik wurzelt (Abschn. 3.1), in einem zweiten Schritt werden die von ihr explizierten Verfahrensweisen skizziert (Abschn. 3.2). Überlegungen zur Qualität objektiv-hermeneutischer Rekonstruktionen bilden einen dritten und letzten Schritt (Abschn. 3.3) innerhalb dieses Abschnitts.Footnote 3

3.1 Die theoretische Verankerung der objektiven Hermeneutik

Die objektive Hermeneutik ist in mindestens drei Theorietraditionen verankert: dem Pragmatismus, dem Strukturalismus und der Hermeneutik. Letztere verweist auf die jahrtausendealte menschliche Praxis der Auslegung von Sinn – sei es der Sinn göttlicher Gebote, weltlicher Vorschriften oder anderer Artefakte. Abgeleitet vom griechischen Verb hermeneuein – etwas ausdrücken, interpretieren oder übersetzen – lässt sich Hermeneutik verstehen als Sammelbegriff für (wissenschaftliche) Verfahren der Interpretation bzw. Rekonstruktion von Sinn und Bedeutung.

Dass es sich bei Sinn und Bedeutung nicht um Bewusstseinsinhalte eines Einzelnen handelt, sondern um intersubjektive Strukturen, dafür steht das mitunter etwas missverständliche Attribut objektiv im Namen der objektiven Hermeneutik. Obgleich der Begriff objektiv häufig im Sinne von sachlich, vorurteilslos und unparteiisch gebraucht wird, soll er keineswegs suggerieren, mithilfe der objektiven Hermeneutik würden Forschungsergebnisse angestrebt, die unbestreitbar richtig, (ewig) wahr und somit immun gegen die Kritik von Kolleg:innen sind. Nicht die Qualität von Forschungsergebnissen wird als objektiv angesehen, sondern die eines je konkreten Untersuchungsgegenstands. Dieser liegt objektiv, intersubjektiv zugänglich, vor und harrt seiner Rekonstruktion. Hinter der Bezeichnung objektive Hermeneutik verbirgt sich somit die Abkürzung für eine Hermeneutik objektiv vorliegender Gegenstände. Was diesen Gegenständen ihre Objektivität verleiht, ist ihre Konstitution durch gesellschaftlich vermittelte, objektive Sinn- und Bedeutungsstrukturen. Diese Prämisse verdeutlicht die Verankerung der objektiven Hermeneutik in der im Rahmen von Abschn. 2 vorgestellten Theorietradition des Amerikanischen Pragmatismus.Footnote 4

Neben Hermeneutik und Pragmatismus ist für die Methodologie der objektiven Hermeneutik auch der Strukturalismus in der Tradition des französischen Ethnologen Claude Lévi-Strauss von besonderer Bedeutung. So wird der zu rekonstruierende Sinn in Form latenter Sinn- bzw. objektiver Bedeutungsstrukturen konzeptualisiert, „die durch bedeutungsgenerierende Regeln erzeugt werden“ (Oevermann 1996, S. 1). Für Lévi-Strauss ([1949] 1981, Kap. III; Wagner 2001, S. 42) geht solche Regelhaftigkeit, wie er anhand des Inzestverbots veranschaulicht, unmittelbar aus der Sozialität hervor – ganz so wie dies die Regelsysteme Sprache bzw. Sinn bei Mead tun.

3.2 Die Verfahrensweisen der objektiven Hermeneutik

Die Annahme, dass Sinn und Regeln konstitutiv sind für Praxis, für menschliches Handeln, ist zugleich von zentraler Bedeutung, wenn es darum geht, die Verfahrensweisen der objektiven Hermeneutik darzulegen. Vor dem Hintergrund, dass das Erkenntnisinteresse dieser Methodologie in der Rekonstruktion von regelgeleitet erzeugtem Sinn besteht und dass es sich bei den potenziellen Untersuchungsgegenständen um durch Sinn und Bedeutung konstituierte Ausschnitte sozialer Praxis handelt, die entlang geltender Regeln erzeugt worden sind (siehe hierzu auch die Ausführungen zu Handlungsregeln und Überzeugungsstrukturen in Abschn. 4.1), liegt den Verfahrensweisen der objektiven Hermeneutik die folgende Idee zugrunde: Latente Sinn- bzw. objektive Bedeutungsstrukturen können mithilfe jener Regeln rekonstruiert werden, die sie erzeugt haben. Diese Idee eines impliziten Regelbewusstseins als besonderer Kompetenz des Menschen geht zurück auf die Sprachtheorie des Linguisten Noam Chomsky.

Im Unterschied zur Sprachverwendung (Performanz), dem „aktuelle[n] Gebrauch der Sprache in konkreten Situationen“ (Chomsky [1965] 1969, S. 14), verweist (Sprach-)Kompetenz auf die Möglichkeit, „durch eine endliche Anzahl von Regeln eine unendliche Anzahl bisher nie formulierter Sätze zu erzeugen“ (Wagner 2001, S. 40) – Sätze, die mit den Regeln der Grammatik übereinstimmen wohlgemerkt. Chomsky beruft sich hierbei auf Wilhelm von Humboldts „Ansicht, daß die Sprache ‚von endlichen Mitteln einen unendlichen Gebrauch machen muß‘ und daß ihre Grammatik den Prozeß, der dies ermöglicht, beschreiben muß“ (Chomsky [1965] 1969, S. 9). Erworben wird die kommunikative Kompetenz indes durch die praktische Teilhabe am Dialog während der frühkindlichen Sozialisation – und zwar in Form einer individuellen Aneignung des generativen Regelsystems einer Grammatik im Rahmen der Verarbeitung wahrgenommener Sprachverwendungsdaten.Footnote 5 Die sich dabei allmählich einstellende performative Beherrschung grammatikalischer Regeln durch die Sprecher einer Sprache bedeutet jedoch nicht, dass sie diese Regeln auch explizieren können müssen; es handelt sich hier vornehmlich um implizites Wissen in Form von intuitiven Urteilen der Angemessenheit auf Basis der Kompetenz. Solchen Angemessenheitsurteilen auf der Grundlage impliziten Regelwissens bedient sich auch, wer die latenten Sinnstrukturen von Untersuchungsgegenständen mithilfe der Verfahren der objektiven Hermeneutik rekonstruiert. In Anlehnung an Chomskys Modell der generativen Grammatik als eines Regelsystems, „das auf explizite und wohldefinierte Weise Sätzen Struktur-Beschreibungen zuordnet“ (Chomsky [1965] 1969, S. 19), soll die prinzipiell unendliche Menge von Untersuchungsgegenständen der sozialen Welt auf eine endliche Menge an sie erzeugenden Regeln zurückgeführt werden.

Konkret erfolgt dies mithilfe von drei in der Forschungspraxis ineinander übergehenden Verfahrensweisen: der Sequenzanalyse, der Fallrekonstruktion und der Strukturgeneralisierung. Dabei liegt der Sequenzanalyse die Annahme zugrunde, „daß alle Erscheinungsformen von humaner Praxis durch Sequenziertheit strukturiert bzw. konstituiert“ (Oevermann 2000, S. 64) und somit regelgeleitet erzeugt sind. Weiterhin wird jeder Vollzug einer Handlung zugleich als Schließung zuvor eröffneter Möglichkeiten und als Eröffnung eines Spielraums neuer Handlungsmöglichkeiten konzeptualisiert (Oevermann 1996, S. 5). Als eine solche regelhafte Verkettung von Sequenzen gelten jedoch nicht nur das – per se flüchtige und methodischen Operationen nicht unmittelbar zugängliche – soziale Geschehen selbst, sondern auch dessen als Protokoll verstandene Spuren. Nach dem Verständnis der objektiven Hermeneutik wird das soziale Geschehen zwar überhaupt erst durch sein (selbst- oder fremd-)protokolliertes Vorliegen zu einem methodischen Operationen zugänglichen Untersuchungsgegenstand; sofern ein soziales Geschehen aber als Protokoll vorliegt, kann es als Text gelesen und seine Bedeutung rekonstruiert werden.Footnote 6

In Anlehnung an das Verhältnis von Möglichkeiten und Wirklichkeiten (als der Realisierung einer dieser Möglichkeiten) werden in Bezug auf jede Sequenz eines als Text verstandenen Untersuchungsgegenstands zwei Parameter voneinander unterschieden: Erzeugungsregeln und Auswahlprinzipien. Der erste Parameter setzt sich zusammen aus den Bedeutung erzeugenden Regeln, zu denen „die Regeln der sprachlichen Syntax, aber auch die pragmatischen Regeln des Sprechhandelns und die logischen Regeln für formale und für material-sachhaltige Schlüssigkeit“ (Oevermann 1996, S. 7) gehören. Indem sie immer wieder aufs Neue den Spielraum aller an eine gegebene Sequenz sinnlogisch anschließbaren Handlungsmöglichkeiten abstecken, generieren die Erzeugungsregeln regelhaft verknüpfte (Handlungs-)Sequenzen und legen damit jeweils vorweg die Bedeutung des die nächste Sequenzstelle füllenden Elementes fest. Demgegenüber regelt der zweite Parameter einer Sequenz die konkrete Auswahl aus dem Spielraum an Handlungsmöglichkeiten, den die Erzeugungsregeln eröffnet haben. Dieser Spielraum besteht aus dem als Fallstruktur bezeichneten Ensemble von Dispositionsfaktoren, welches „Motivationen, Wertorientierungen, Einstellungen, Weltbilder, Habitusformationen, Normen, Mentalitäten, Charakterstrukturen, Bewußtseinsstrukturen, unbewußte Wünsche u. a.“ umfasst und „die Entscheidungen einer konkreten Lebenspraxis auf wiedererkennbare, prägnante Weise systematisch“ strukturiert (Oevermann 2000, S. 65).Footnote 7

In der kumulativen und immanenten Rekonstruktion dieser spezifischen Fallstrukturen eines Untersuchungsgegenstands besteht das vorrangige Ziel einer Sequenzanalyse. Um es zu realisieren, wird jede Sequenz in drei Schritten untersucht. Zuerst werden möglichst vielfältige hypothetische Antworten auf die Frage entworfen, welche Handlungen an den in der gegebenen Sequenz enthaltenen Akt sinnvoll und regelgeleitet angeschlossen werden können. Anschließend wird die Bedeutung der tatsächlich folgenden Sequenz ausgelegt, ehe während des dritten und letzten Schritts der Versuch unternommen wird, diese aus einem Spektrum von Alternativen heraus erfolgte Auswahl sinnlogisch zu motivieren und auf fallspezifische Muster zurückzuführen – auf die Fallstruktur im Sinne des oben erwähnten zweiten Parameters einer Sequenz also (Oevermann 2000, S. 68–70). Bei der jeweils ersten Sequenz eines zu interpretierenden (Handlungs-)Texts tritt noch die Explikation der pragmatischen Erfüllungsbedingungen des eine Sequenz konstituierenden Aktes hinzu. Dabei wird gefragt, auf welche soziale Situation die erste Sequenz verweisen, an welche Handlung sie sinnhaft anschließen könnte.

Im Zuge der Rekonstruktion der spezifischen Strukturiertheit eines Gegenstands wird die Sequenzanalyse zur Fallrekonstruktion. Die dabei entzifferte Fallstrukturgesetzlichkeit regelt das Zusammenspiel bzw. den Einfluss der Fallstruktur und bewirkt so nicht nur die Bildung eines Falles, sondern auch dessen Reproduktion oder Transformation im Zeitverlauf; ob sich eine Fallstruktur im Prozess ihrer Reproduktion oder Transformation befindet, lässt sich dabei leicht mithilfe der Analyse von zeitlich vorausgehenden Textsegmenten feststellen (Oevermann 1996, S. 12). Indem die Fallstrukturgesetzlichkeit jedoch nicht nur den einzigartigen inneren Zusammenhang eines Untersuchungsgegenstands expliziert, sondern – in Form der allgemeinen Prinzipien seiner Genese und Entwicklung – auch dessen Systematik und Regelmäßigkeit (Oevermann 2000, S. 73–74 und 119–124), bildet sie wiederum die Basis der Strukturgeneralisierung. Die Strukturgeneralisierung gründet in der Annahme, dass jeder untersuchte Fall „immer schon allgemein und besonders zugleich“ ist (Wernet 2006, S. 19; siehe auch Oevermann 1991, S. 272–73). Ein Fall ist besonders infolge der konkreten Selektivität der getroffenen Auswahlentscheidungen und allgemein aufgrund seiner Bildung entlang geltender Regeln. Das Ziel der Strukturgeneralisierung besteht darin, die allgemeinen Struktureigenschaften des Untersuchungsgegenstands zu erschließen und eine empiriegesättigte, sachhaltige Theorie in der Sprache des Falles selbst zu formulieren. Die Dialektik von Allgemeinheit und Besonderheit eines Falles liefert derweil nicht nur eine Rechtfertigung des Anspruchs, weitreichende Forschungsfragen auf Basis einer extensiven Deutung von vergleichsweise geringen Datenmengen zu beantworten; darüber hinaus ermöglicht sie, dass Strukturgeneralisierung, Theoriebildung im Sinne der objektiven Hermeneutik also, analog zur Peirce’schen Abduktion erfolgen kann, „dem für die Konstitution von Erfahrung und Erkenntnis einzig relevanten, logisch aufklärbaren und explizierbaren Schlußmodus“ (Oevermann 2000, S. 188). In Anlehnung an Peirce’ Terminologie stellen die sogenannten Fallstrukturhypothesen ein wichtiges Hilfsmittel der Strukturgeneralisierung dar. Hierbei handelt es sich um „Schlussfolgerungen über die besondere Beschaffenheit des Falles“ (Wernet 2006, S. 37), die anhand der sukzessive erschlossenen und an Evidenz oder Triftigkeit gewinnenden Sinnmuster im weiteren Verlauf einer Fallrekonstruktion formuliert werden können.

3.3 Zur Qualität objektiv-hermeneutischer Rekonstruktionen

Als rekonstruktiver Forschungsansatz verbindet die objektive Hermeneutik Theoriegenese mit einem transparenten Forschungsprozess. Lückenlos verschriftete Sequenzanalysen von als Text verstandenen Untersuchungsgegenständen ermöglichen die unmittelbare intersubjektive Nachvollziehbarkeit von jedem einzelnen Moment einer Rekonstruktion. Kolleg:innen können somit an jeder beliebigen Stelle einer Analyse einhaken und den Blick auf jene Sequenzen lenken, deren Deutung ihnen fragwürdig erscheint. Dass die Rekonstruktion eines Untersuchungsgegenstands durch die Form ihrer Darstellung lückenlos intersubjektiv nachprüfbar wird, gilt insbesondere mit Blick auf die während des Forschungsprozesses angewendeten Regeln der Interpretation bzw. Rekonstruktion. Anhand der Einhaltung dieser Regeln entscheidet sich letztlich die Qualität einer Sinnrekonstruktion; Regeleinhaltung rückt damit an die Stelle traditioneller Maßstäbe zur Bewertung der Qualität von Forschung wie sie die Operationalisierung theoretischer Begriffe, die Prüfung von Validität und Reliabilität dieser Operationalisierungen oder die statistische Hypothesenüberprüfung darstellen. Zugleich sind es diese Regeln, denen die objektive Hermeneutik ihr Potenzial verdankt, zu überraschenden Ergebnissen und neuen Perspektiven zu gelangen; die Regeln der Interpretation bzw. Rekonstruktion haben also einen Doppelcharakter als beschränkend und ermöglichend.

Konkret kennt die objektive Hermeneutik etwa die Regeln, einen als Text aufgefassten Gegenstand in seine kleinsten Sinn und Bedeutung tragenden Elemente zu zerlegen (Sequenzialitätsprinzip) und im Verlauf der Untersuchung Bedeutungspartikel weder auszulassen (Totalitätsprinzip) noch hinzuzufügen (Wörtlichkeitsprinzip). Zudem darf ein Gegenstand nicht übereilt als nicht authentisch oder widersprüchlich abgetan werden (Aufrichtigkeitsregel), während sämtliche Deutungsvorschläge an den rekonstruierten Text selbst zurückgebunden sein müssen (Sparsamkeitsregel). Recht umstritten ist schließlich das Prinzip der Nichteinbeziehung des äußeren Kontextes. Es besagt, dass während einer Rekonstruktion möglichst von solcherlei (Vor-)Wissen abstrahiert werden soll, welches den zu erforschenden Gegenstand oder Fall im engeren Sinne selbst betrifft.

Im Lichte einer Differenzierung zwischen vier Typen von Wissen mag das Prinzip der Nichteinbeziehung des äußeren Kontextes etwas von seinem Konfliktpotenzial verlieren. So unterscheidet Reichertz (2013, S. 76; Hervorhebungen im Original) i) „Wissen um die Welt“ (von Forscher und Gegenstand), ii) „Wissen um den äußeren Kontext“ bzw. iii) „um den inneren Kontext“ eines zu rekonstruierenden Falles sowie iv) „Wissen um eine wissenschaftliche Erklärung des untersuchten Phänomens“. Für Letzteres gelte die Regel der Nichteinbeziehung „mit Maßen“ (Reichertz 2013, S. 77), während sie primär auf das Wissen um den äußeren Kontext gerichtet sei, weil dieses „ad-hoc-Erklärungen“ (ebd.) zu viel Raum lasse. Laut Oevermann (2000, S. 96) sollen auf diese Weise schlechte Zirkularitäten, bloße Reproduktionen von Vorwissen also, vermieden werden. Positiv gefasst besteht der Anspruch der Regel darin, die Geltung der immanenten Rekonstruktion zu stärken und eine offene Forschungshaltung auf Dauer zu stellen, die es ermöglicht, durch müßiges Betrachten eines Gegenstands von diesem überrascht zu werden, anstatt ihn voreilig unter altbekannte Muster zu subsumieren. Die Grenzen einer solchen immanenten Rekonstruktion eines (als sinnstrukturierter Text verstandenen) Gegenstands sind indes immer schon dort erreicht, wo Eigennamen oder alle möglichen Varianten unbekannter Bedeutungen ins Spiel kommen. In solchen Fällen sind Forschende unabdingbar auf jenes Wissen um die Welt angewiesen, das sich zum Beispiel in Lexika oder anderen externen Quellen befindet und nicht länger strikt vom Wissen um den äußeren Kontext eines Falles geschieden werden kann. Dem Problem der Reproduktion bestehender, mitunter „herrschaftlicher“ Wissensbestände ist somit nicht zu entfliehen; entsprechend kommt es vor allem darauf an, sich stets bewusst zu machen, aus welchen Quellen das Wissen stammt, das im Lauf eines rekonstruktiven Forschungsprozesses zur Anwendung gelangt und welche Implikationen damit einhergehen. Kurz: Zur objektiven Hermeneutik gehört immer auch eine Reflektion auf die Bedingtheit des eigenen Wissens.

Die hier beschriebene Regel zur Handhabung von (äußerem) Kontext- bzw. Vorwissen markiert zweifellos eine Differenz zwischen der objektiven Hermeneutik und der maßgeblich von Anselm Strauss inspirierten Variante der Grounded Theory, die im folgenden Abschnitt vorgestellt wird. Für Strauss (1994, S. 36) nämlich gilt das Anzapfen möglichst vieler Wissensquellen im Rahmen der Untersuchung als zweckmäßig. Doch auch im Lichte dieser Differenz eint beide Ansätze, dass Rekonstruktionen nicht völlig unvoreingenommen und voraussetzungslos erfolgen (sollen), sondern stets auf einer breiten Wissens- und Erfahrungsbasis. Aus der hier vertretenen Perspektive überwiegen somit die Gemeinsamkeiten zwischen der objektiven Hermeneutik und der Grounded Theory als zwei sinnverwandten, familienähnlichen Ansätzen für rekonstruktives Forschen (für eine anders gelagerte Debatte zu beider Verhältnis, siehe aber Hildenbrand 2004, 2006; Strübing 2006; Loer 2006).

4 Grounded Theory

Der Begriff „Grounded Theory“ lässt sich als „in Daten begründete Erklärung“ ins Deutsche übersetzen. Im Kern des Analyseverfahrens steht nicht der Test bestehender, sondern die Genese neuer theoretischer Annahmen. In den 1960er-Jahren legten die US-amerikanischen Soziologen Barney Glaser (geboren 1930) und Anselm Strauss (1916–1996) unter dem Titel The Discovery of Grounded Theory den ersten Entwurf einer Methodologie vor, die inzwischen im angelsächsischen Raum zum am häufigsten eingesetzten rekonstruktiven Forschungsverfahren wurde. Dies nicht zuletzt, da diese Methodologie sich als äußerst kompatibel mit den heute ebenfalls weit verbreiteten diskurs- bzw. narrationstheoretischen Ansätzen erweist. Denn maßgeblich geprägt haben die zentralen handlungs- und sozialtheoretischen Annahmen klassischer Pragmatisten, insbesondere die Beiträge von George Herbert Mead, ja nicht nur den Symbolischen Interaktionismus der Chicago School und den – gegen die Intentionen seiner Leitautoren Berger und Luckmann ([1966] 2007) – unter der Bezeichnung „Konstruktivismus“ bekannt gewordenen Ansatz, sondern eben auch die als Grounded Theory bezeichnete Vorgehensweise von Anselm Strauss und Barney Glaser. Und diese theoriegeschichtliche „Verwandtschaft“ verbindet bis heute etwa die Wissenssoziologische Diskursanalyse nach Reiner Keller (2001), die Situationsanalyse von Adele Clarke (2012), die Narrationsanalyse Willy Viehövers (2001) und jüngere Variationen der Grounded-Theory-Methodologie (siehe die Beiträge in Morse 2016) miteinander. Anselm Strauss und Barney Glaser wollten schon in den 1960er-Jahren einen Kontrapunkt zu den damals wie heute dominanten nomologisch-deduktiven Forschungsagenden setzen.Footnote 8 Forschung solle sich nicht darauf beschränken, die „Wahrheit“ besonders einflussreicher Großtheorien zu testen, sondern stattdessen bemüht sein, etwas Überraschendes über die zu untersuchenden sozialen Prozesse in Erfahrung zu bringen. Wissenschaft, erklärte Anselm Strauss (1995) auch noch einige Jahrzehnte später, soll etwas zu Tage fördern, was zuvor noch unbekannt oder unerklärt war und nicht aufzeigen, weshalb eine vermeintliche Universaltheorie bereits alles erklären kann. An die Stelle eines starren, bloß hypothesentestenden Verfahrens rückt Strauss daher die Idee eines beweglichen, zusätzlich auch permanent hypothesengenerierenden Analyserahmens.Footnote 9 Für ihn besteht der generelle Unterschied zwischen in erster Linie theorietestenden Ansätzen und dem Verfahren der Grounded-Theory-Methodologie darin, dass Erstere eine bereits bestehende Theorie den untersuchten Daten überstülpen, ohne hierbei eine neue Erklärung entwickeln zu wollen oder zumindest für eine Modifikation der getesteten Theorie offen zu bleiben. Die Grounded Theory greift zwar ebenfalls auf bestehende theoretische Annahmen zurück, doch im Laufe der Forschungsarbeit werden neue, modifizierte Theorien geschaffen (Strauss 2004, S. 443). Stark vereinfacht lässt sich festhalten, dass der Grounded-Theory-Ansatz alle drei wissenschaftlichen Schlussverfahren – Abduktion, Deduktion und Induktion – gleichermaßen berücksichtigt, während stärker subsumtiv operierende Forschungsagenden keinen systematischen Gebrauch vom abduktiven Schluss machen. Wissenschaft bedeutet in dieser Lesart, sich nicht den Weltformeln großer Denker:innen demütig unterzuordnen, sondern sich einen selbstständigen Blick auf die zu erforschenden Probleme zu erarbeiten und eigenständige Erklärungen zu generieren (Strauss 1994, S. 33). Diese Haltung liegt einem rekonstruktiv-interpretativen Verständnis von Forschung zugrunde.

Ein weit verbreitetes Vorurteil gegenüber der Grounded Theory besagt, dort würde der Standpunkt vertreten, die Forschenden könnten und sollten ihre Wissens- und Erfahrungsbestände während der interpretativen Rekonstruktionsarbeit möglichst zur Gänze ablegen und die Protokolle der untersuchten Praxis entsprechend einer tabula rasa-Annahme völlig unvoreingenommen analysieren. Dieses Vorurteil ist leicht zu entkräften. Strauss betont im Gegensatz zu Glaser, dass die Forschenden gar nicht dazu in der Lage wären, ihr Vorwissen bei der Analyse zu ignorieren. Selbst wenn ihnen dies gelänge, wäre ein solches Vorgehen dennoch nicht ratsam, da die Forschenden unter solchen Umständen auf ein unschätzbares Potenzial von Interpretationsimpulsen und Vergleichsfolien verzichten würden (Strauss 1994, S. 36). Was gemäß Strauss hingegen erreicht werden soll und kann, ist eine offene Forschungshaltung – und zwar indem die Wissenschaftler:innen versuchen, auch Lesarten und Interpretationen zu entwickeln, die sie selbst zunächst aufgrund ihres Vorwissens für unwahrscheinlich halten (Strauss und Corbin 1998, S. 43). In der Tat stellt der Erfahrungsschatz der Forschenden die notwendige Bedingung dafür dar, um überhaupt zu aufschlussreichen Befunden gelangen zu können.

4.1 Grounded Theory als Methodologie

Wie die einleitend skizzierten Ansprüche der Grounded Theory in die Praxis umgesetzt werden können, soll in diesem Unterabschnitt kurz dargelegt werden.Footnote 10 Die hier präsentierten methodologischen Überlegungen und Vorschläge sind von Strauss’ Gedanken stark beeinflusst, stellen jedoch ganz im Sinne seiner emanzipatorischen Empfehlung nur eine von vielen möglichen Interpretationen dieser Forschungstradition dar. Dies ist – zumal dann, wenn ganz verschiedene Phänomene von Weltpolitik erforscht werden sollen – auch der Überzeugung geschuldet, dass der methodische Zugriff immer den Forschungsgegenständen angepasst werden sollte, anstatt umgekehrt die Gegenstände mit Blick auf eine besonders präferierte Methodenkonstruktion zuzuschneiden:

Studieren Sie diese Faustregeln, wenden Sie sie an, aber modifizieren Sie sie entsprechend den Erfordernissen Ihrer Forschungsarbeit. Denn schließlich werden Methoden entwickelt und den sich verändernden Arbeitskontexten angepasst (Strauss 1994, S. 33, 2004, S. 437).

Im Kern der Grounded Theory steht das Ziel, soziale Prozesse, also die in Systemen, Strukturen und Institutionen eingewobenen Interaktionen menschlicher Akteure, in ihren verschiedenen Dimensionen zu erforschen (Strauss 1993, S. 108 ff.). Deswegen liegt jedem Grounded-Theory-Ansatz ein klar umrissenes Modell des Verhältnisses von Akteur und Struktur zugrunde. Das Modell von Strauss greift dabei, wie oben bereits erwähnt, die Ideen der einflussreichen philosophischen Strömung des Amerikanischen Pragmatismus auf und verbindet diese mit den Ideen der Chicagoer Schule des Symbolischen Interaktionismus. Allen diesen Ansätzen ist die Idee gemeinsam, dass die Welt der Menschen von intersubjektiv geteilten Begriffen, Regeln und Ideen bestimmt wird, die als Folge gemeinsamen Handelns entstehen, bestätigt, verworfen und modifiziert werden. Viele dieser sprachlich vermittelten Regeln und Normen, die das Handeln der Akteure bestimmen, sind so sehr zur Routine geraten, dass sie nicht mehr kritisch hinterfragt werden. Aufgabe der Sozialwissenschaften ist es dann, wichtige aber problematische Regelwerke zu entziffern, dem Bewusstsein der Menschen erneut zugänglich zu machen und dabei auch die im politischen Möglichkeitsraum denkbaren Alternativen zu berücksichtigen, um u. a. durch den Vergleich mit diesen Alternativen eine Grundlage für Kritik und Transformation zu erarbeiten. Gegenstand der Analyse sind entsprechend der philosophischen Rahmung des Pragmatismus sozial eingebettete, menschliche Handlungen. Jede Handlung findet in dialogischer Form, abhängig von intersubjektiv geteilten Sprachsymbolen, statt (Peirce [1907] 2000, S. 240; Mead [posthum 1934] 1973, S. 188). Das der Grounded-Theory-Methodologie zugrunde liegende sozialtheoretische Handlungsmodell betont dabei die wechselseitige Konstitution von Akteuren und Strukturen durch lebendige Prozesse. Dies ist der Grund, weshalb im Grounded-Theory-Verfahren sowohl die (Sprech-)Handlungen menschlicher Akteure und die davon ausgehenden Wirkungen als auch die Analyse von diskursiven Strukturen, Interaktionssystemen und gesellschaftlichen Institutionen im Fokus stehen. Da Handlungen ihre Wirkungen bedeuten (Peirce [1905] 1998, S. 338), werden textförmig protokollierte Spuren menschlicher Handlungen erforscht. Übersetzt in die Disziplin der Weltpolitikforschung bedeutet dies, dass die Forschenden die protokollierten Spuren der weltpolitischen Praxen auf deren Bedeutung, verstanden als deren Wirkungen, hin untersuchen. Zur Erforschung der Identität bzw. Bedeutung eines bestimmten weltpolitischen Phänomens – sei es die sogenannte BRICS-Staatengruppe oder die G20, die Nachbarschaftspolitik Russlands zu Beginn des 21. Jahrhundert oder die Agenda einer transnationalen Bewegung – sollten daher nicht allein die Handlungen und Selbstbeschreibungen dieser Akteure und Strukturen kollektiven Handeln (Franke und Roos 2010) als Material dienen, sondern auch die als Element der politischen Interaktion zu verstehenden Fremdbeschreibungen, Narrativierungen bzw. symbolischen Repräsentationen der Identität des Untersuchungsgegenstands seitens anderer am Diskurs Teilnehmenden. Denn diese im Diskurs von signifikanten Dritten veröffentlichten Interpretationen bestimmen die Bedeutung bzw. Identität des untersuchten Gegenstands maßgeblich mit. Anders formuliert: Wenn in rekonstruktiv-interpretativen Forschungsdesigns zusätzlich die im Diskurs bereits vorliegenden Interpretationen Dritter ebenfalls systematisch analysiert werden, steigert dies nicht nur die theoretische Sensibilität, also das Einfühlungsvermögen in bestimmte Eigenschaften und Dimensionen des Gegenstandes, sondern nur unter dieser Bedingung wird der Untersuchungsgegenstand in seiner diskursiven, weltgesellschaftlichen Verankerung und in seiner Prozessdimension in den Blick genommen. Noch einmal anders formuliert: Wer beispielsweise die Identität deutscher Außenpolitik, also deren grundlegende Handlungsregeln, Werte und Ziele begreifen will, sollte nicht allein die Sprechakte deutscher Außerminister und anderer Repräsentant:innen des deutschen Staates analysieren, sondern auch die öffentlich vorgetragenen, auf deutsche Außenpolitik bezogenen Lesarten möglichst vieler verschiedener, bezüglich ihrer diskursiven und politischen Positionierungen möglichst maximal kontrastierender Dritter untersuchen. Zum Datensample gehören dann zwar immer auch Protokolle und Spuren des Handelns der untersuchten politischen Institution, aber eben auch die Bewertungen, Interpretationen und Reaktionen von signifikanten Beobachter:innen und weltpolitisch Mit-Handelnden, die im Diskurs etwa als Positionen von Medien, Zivilgesellschaft und Unternehmen, anderen Staaten oder sonstigen politischen Institutionen formuliert werden.

Ohnehin obsolet werden solche methodologischen Reflexionen, wenn an die Stelle der Analyse einzelner Akteure und Strukturen der politische Prozess selbst tritt, die politische Interaktion und deren diskursive Resonanz also zum Untersuchungsgegenstand wird. Dies kann nur gelingen, wenn die Handlungsregeln (möglichst) aller beteiligten Akteure und Strukturen kollektiven Handelns sowie deren Wechselwirkungen analysiert werden. Dabei ist die pragmatistische Annahme von zentraler Bedeutung, dass das Handeln der einzelnen Akteure von durch sozial konstituierte Zeichen- und Bedeutungssysteme begrenzten, dabei allerdings je spezifischen und wandelbaren Überzeugungsstrukturen angeleitet wird. Als Gewebe von Handlungsregeln definieren diese Überzeugungsstrukturen die Positionen, Beziehungen, Ziele und Mittel der politischen Akteure. Grounded Theory untersucht die strukturell eingebetteten Überzeugungsstrukturen von Akteuren, um etwa erklären zu können, weshalb die US-Außenpolitik in den Amtszeiten von George W. Bush und Barack Obama sowohl Divergenzen als auch Konvergenzen aufweist und führt diese Gemeinsamkeiten und Unterschiede nicht auf die Stabilität oder Fluidität systemischer Machtverteilung zurück, wie dies der Neorealismus tun würde. Stattdessen gelten neorealistisch inspirierte Überzeugungen als innerhalb des Bedeutungssystems besonders einflussreiche Handlungsregeln menschlicher Akteure. Sie mögen gegenwärtig menschliches Handeln anleiten und orientieren, sind jedoch nicht alternativlos, sondern wandelbar. Wenn neorealistische Ideen eine Erklärungskraft entfalten, dann nicht, weil die internationalen Beziehungen nach naturgesetzgleichen Regeln verfahren, die jenseits des Handlungsspielraums menschlicher Akteure auf ewig, ahistorisch, objektiv operieren, sondern nur deshalb, weil sich eine große Zahl von Akteuren, die Weltpolitik betreiben, von neorealistischen Konzepten leiten lassen. Die nach dem Grounded-Theory-Verfahren Forschenden geben sich nicht mit bestehenden Erklärungen zufrieden, mit der Theorie der Machtverteilung oder dem Demokratischen Frieden etwa. Sie versuchen vielmehr, die sich stellenden Rätsel und Probleme der Weltpolitik immer wieder aufs Neue zu analysieren. Der Grund dafür ist die Annahme, dass die Überzeugungssysteme der Akteure und der Strukturen kollektiven Handelns im Rahmen der Interaktionsprozesse fortlaufenden Veränderungen unterliegen, so dass beispielsweise ein heute friedfertiger und demokratischer Staat morgen zwar noch immer ein demokratischer Staat sein kann, jedoch nicht mehr länger friedfertig sein muss; oder um ein zweites Beispiel zu geben, auch wenn die Europäische Union heute noch als ein starker Verbündeter der Vereinten Nationen (UN) wahrgenommen wird, kann sie morgen schon der Verfechter einer von einer Handvoll Großmächten bestimmten, neuen multipolaren Weltordnung unter Ausschluss der UN sein. Das gegenstandsbezogene Wissen der Wissenschaft muss von den Forschenden immer wieder aufs Neue, von Grund auf, in Form datenbasierter Theorien erworben werden. Die handlungsleitenden Überzeugungen der für ein Handlungsproblem zentralen Akteure und die grundlegende Entwicklung ideeller, diskursiver Formationen müssen deswegen immer wieder erforscht und hinterfragt werden: Das ist die Grundannahme der Grounded Theory. Sie erklärt die Geschehnisse der sozialen Welt durch die Analyse der diesen Handlungen zugrunde liegenden Handlungsregeln, die sich durch sprachlich vermittelte Zeichen ausdrücken.

Im Kern dieses Verfahrens stehen daher verschieden gelagerte Interpretationsvorgänge. Jede wissenschaftliche Methode bedarf der Interpretation von Daten, selbst die noch so sehr mathematisch bestimmten quantitativen Methoden. Aus diesem Grund sind sämtliche Ergebnisse (politik-)wissenschaftlicher Forschung angreifbar und – glücklicherweise – kritisierbar. Die „Wahrheit“ einer Theorie lässt sich letztlich nicht bestimmen, trotz aller Bemühungen um die Etablierung von Gütekriterien (Guba und Lincoln 1989; Steinke 1999; Lamnek 2005; Flick 2006). Die Konstruktionen zur Verteidigung wissenschaftlicher Ansprüche wie Reliabilität, Validität und Repräsentativität können doch letztlich nicht verbergen, dass in der sozialen Welt Ereignisse nicht unter ceteris paribus-Bedingungen wiederholbar sind und dass jede:r Forschende – geprägt durch individuelle Überzeugungsstrukturen – sicherlich eine individuelle Perspektive auf die objektiv vorliegenden Handlungsprotokolle einnimmt. Zugleich aber, und das ist entscheidend, sind sowohl die „individuellen“ Identitäten der Forschenden wie der Gegenstände und Diskurse durch sozial vermittelte Zeichen-, Bedeutungs- und Handlungssysteme konstituiert. Und dies bedeutet zweierlei: Weder die Individuen, noch deren Interpretationen sind derart unterschiedlich, wie dies von relativistischen Methodologien gerne nahegelegt wird. Die Realität wird nicht von isolierten, gottgleichen Akteuren gestaltet und interpretiert, sondern die sozialen Zeichen-, Bedeutungs- und Handlungssysteme verbinden wissenschaftliche Beobachter:innen und Handelnde. Sie bestimmen über deren Identitäten, weshalb die vermeintlich „subjektiven“ Interpretationen sozialer Phänomene sich immer weiter annähern werden, je intensiver sie erfolgen und je mehr Interpretationen miteinander verglichen werden. Grundsätzlich vertreten rekonstruktiv-interpretative Methodologien in Anlehnung an Peirce die Idee, die Qualität wissenschaftlicher Erkenntnisse werde von deren Plausibilität bestimmt, die ihrerseits von der Zustimmung der „community of scientists“ abhänge (Peirce [1903] 1965, S. 186 (5311)). Nicht jede beliebige Interpretation eines Rätsels vermag die anderen Expert:innen und Kolleg:innen gleichermaßen zu überzeugen, so dass nur als bewährte Annahme gelten kann, was zu überzeugen vermag. Neben diesen mit Blick auf die Idee einer „absoluten Wahrheit“ recht bescheidenen Ansprüchen – „Und was das Wort „Wahrheit“ betrifft, so kann man an diesem Punkt nur sagen, dass es die Menschen sicherlich hypnotisiert, aber sonst zu nicht viel gut ist“ (Feyerabend 1979, S. 318) – verpflichtet das Verfahren auf der Ebene des handwerklichen Vorgehens beim Interpretationsvorgang selbst jedoch zur größtmöglichen Strenge im Umgang mit den Daten, um eine möglichst große Plausibilität für sich beanspruchen zu können. Die Grundelemente dieses Handwerkszeugs sollen hier ebenfalls kurz dargestellt werden.

4.2 Grounded Theory als Methode

Die Vorgehensweise der Grounded Theory wurde von Anselm Strauss nicht dogmatisch festgeschrieben. Für ihn gab es nur drei Essentials, die er als spezifischen Kern der Methode verstand und die Forschende berücksichtigen sollten, wenn sie die eigene methodische Vorgehensweise als „Grounded Theory“ bezeichnen und sich dabei auf seine Vorarbeiten beziehen wollen. Die drei zentralen Verfahrensweisen waren das „theoretical sampling“, das stets auf Theoriegenese zielende Kategorisieren sowie die Technik des ständigen Vergleichs. Diese und einige weitere Elemente der Methode werden nachfolgend erörtert.

Prozesshaftigkeit der Forschungsfrage(n)

In einem ersten Schritt sollten sich die Forschenden möglichst sorgfältig überlegen, welches Rätsel, Problem oder welche Fragestellung sie in den Kern ihres wissenschaftlichen Arbeitens stellen möchten. Wie lautet die Forschungsfrage? Was bedeutet diese Frage genau? Warum erscheint diese Frage relevant bzw. warum interessiert sich die Forscherin gerade für diese Frage? Auf welchen (teils impliziten) sozialtheoretischen Annahmen bzgl. der Beschaffenheit des Untersuchungsgegenstands basiert dieses Erkenntnisinteresse? Diese Fragen können nicht bereits zu Beginn des Forschungsprozesses abschließend geklärt werden. Sie begleiten die Forschenden während des gesamten Projekts auf Schritt und Tritt. Das ursprünglich formulierte Erkenntnisinteresse wird sich durch die Auseinandersetzung mit dem Gegenstand verändern. Neue Aspekte geraten sukzessive in den Blick, ziehen Aufmerksamkeit auf sich. Die iterative Adaption der Forschungsfrage(n) ist daher kein Anzeichen für ein konzeptionelles Problem, sondern bedeutet nur, dass die Forschenden Fortschritte machen.

Aneignung des Forschungsstands und theoretische Sensibilität

Die Qualität der Studien wird maßgeblich davon bestimmt, wie intensiv die Auseinandersetzung mit dem bereits vorliegenden Forschungsstand ausfällt. Bereits weiter oben wurde auf das weit verbreitete Missverständnis hingewiesen, das Verfahren der Grounded Theory verlange von den Forschenden sämtliches Vorwissen auszuschalten und in einem Modus künstlicher Naivität, sich dem Gegenstand staunend und im Zustand einer tabula rasa zu nähern, um auf dieser Grundlage von keinerlei Vorurteilen kontaminierte Theorien zu entwerfen. Für Strauss – im Gegensatz zu Barney Glaser – war dieser Gedanke blanker Unsinn (Strauss 1994, S. 36).Footnote 11 Stattdessen gilt es, noch vor dem Beginn der Datenanalyse im engeren Sinne, den Forschungsstand zum Untersuchungsgegenstand so tief wie es im Rahmen des gegebenen Zeitbudgets irgend möglich ist zu durchdringen und dies auch im weiteren Verlauf des Forschungsvorhabens immer wieder zu tun, wenn die Arbeit am Datenmaterial im Zuge der Theoriebildung neue Aspekte zu Tage fördert. Idealerweise sollte die Erarbeitung des Forschungsstands genauso systematisch erfolgen, wie die Interpretation des Datenmaterials selbst. Welche Thesen werden im Forschungsstand aufgestellt? Was lässt sich aus der Gesamtschau aller im Forschungsstand vorliegenden Thesen schließen? Welche Eigenschaften des Untersuchungsgegenstands sind besonders umstritten, welche gelten als besonders eindeutig geklärt? Zu welchen Eigenschaften wurde bislang gar nicht systematisch geforscht? Welche weiterführenden Fragen geraten in den Blick, wenn alle bereits vorliegenden Thesen zum Gegenstand betrachtet werden? Welchen Zusammenhängen nachzuspüren könnte sich als vielversprechend erweisen, um ggf. Lücken im Forschungsstand zu schließen? Die akribische Aneignung des Forschungsstands verleiht den Forschenden außerdem eine deutlich bessere theoretische Sensibilität bei der später erfolgenden Datenanalyse. Das bedeutet, je detaillierter die Forschenden über die bestehenden Thesen und Überlegungen des Forschungsstands und darin bestehende Debatten Bescheid wissen, umso stärker können sie während der Analyse diese Eigenschaftsbehauptungen und Debatten mitdenken und bei der Interpretation berücksichtigen. Dieses deduktivistische Element von Forschung ist unumgänglich und nur dann problematisch, wenn daraus ein bloßer Test bestehender Hypothesen resultiert und die Analyse der Abduktion keinerlei Raum gibt – wenn also nicht zugleich auch neue, eigenständige Hypothesen entstehen, die den bisherigen Stand der Forschung ergänzen und konstruktiv herausfordern.

Theoretisches Sampling und Datenauswahl

Im Gegensatz zu den meisten quantitativen Verfahren, die zu Beginn der Untersuchung einen Datensatz fixieren, um bereits bestehende Theorien testen zu können, zielt das Verfahren der Grounded Theory darauf, eine aktualisierte Theorie zum gewählten Untersuchungsgegenstand zu entwerfen. Für Anselm Strauss war es dabei bedeutsam, die Auswahl des Datenkorpus offen zu halten und über den je nächsten zu analysierenden Datensatz immer auf Grundlage der bereits vorliegenden theoretischen Überlegungen zu entscheiden. Diese Vorgehensweise nannte er theoretical sampling. Das theoretische Sampling sieht vor, immer wieder die Frage zu stellen, welches Material aus dem gesamten „universe of cases“ als nächstes zu analysieren sei, weil es die Theoriebildung maximal vorantreibt. Zwar gibt es hierauf niemals eine eindeutige Antwort – weder bezüglich der Auswahl der ersten Analyseeinheiten noch im weiteren Verlauf; allerdings lassen sich einige hilfreiche Hinweise formulieren, die das theoretische Sampling erleichtern: Das Aktualitätskriterium, das Arenenkriterium, das Resonanzkriterium, das Zufallskriterium sowie das Kriterium der minimalen und maximalen Kontrastierung. So ist es für weltpolitische Fragestellungen oftmals naheliegend, möglichst aktuelle Quellen zu analysieren, da die Prozesse der Weltpolitik so dynamisch sind, dass die Eigenschaften der Akteure und Strukturen einem permanenten Wandel unterliegen. Daneben erscheint es plausibel, jene Handlungssequenzen des Gegenstands auszuwählen, die aufgrund der gegebenen Handlungsarena entweder ein besonders großes oder im Gegenteil ein besonders spezielles Publikum adressieren. Während Erstere Aufschluss über die grundsätzliche und allgemeine Positionierung ermöglichen, gewähren Letztere häufig Einblick in ansonsten weniger sichtbare Positionen. Material auszuwählen, das im Diskurs eine besonders hohe Resonanz erzielt hat, bietet sich an, da dies ein guter Hinweis darauf ist, dass dort über die Identität der Akteure und Strukturen ein politischer Kampf geführt wird. Solche Kämpfe nachzuvollziehen, erweist sich in aller Regel als äußerst wertvoll für die Theoriebildung. Hin und wieder dem Zufall eine Chance zu geben und Material entlang einer Zufallsstichprobe auszuwählen, ist – besonders wenn die Forschenden über ein gewisses Zeitbudget verfügen – ebenfalls naheliegend, um die Auswirkungen eines latenten Selektionsbias seitens der Forschenden abzuschwächen. Die Kriterien der minimalen und maximalen Kontrastierung schließlich sind innerhalb der Sozialwissenschaften wohl bewährt. Die Wahl fällt dabei entweder auf Material, das dem bisherigen besonders ähnlich oder besonders unähnlich ist, um zu klären, ob die bestehenden Thesen immer noch Bestand haben und um sie auf diese Weise zusätzlich zu plausibilisieren.

Das Kodieren und Memo-Schreiben

Strauss orientiert seine eigene Vorgehensweise am sogenannten Kodierparadigma – einer Ansammlung von Hilfsfragen, die den Forschungsprozess einrahmen (Strauss und Corbin 1998, S. 128). Die Forschenden sollten für jedes Forschungsvorhaben ein eigenes Kodierparadigma mit spezifischen Hilfsfragen entwerfen. Gemeinsam dürfte allen vorstellbaren Kodierparadigmen sein, dass sie dazu dienen, die Forschenden daran zu erinnern, nach jenen Handlungsregeln Ausschau zu halten, die den Untersuchungsgegenstand in seinen Ursachen, Wirkungen und Kontexten erklärbar machen. Unter „Kodieren“ versteht Strauss die Interpretation des Sinns von Spuren sozialer Praxis. Dabei unterscheidet er drei aufeinander aufbauende Dimensionen des Kodierens: das offene Kodieren, das axiale Kodieren und das selektive Kodieren. Diese Kodierverfahren sind nicht als sich zeitlich hintereinander reihende, separate methodische Schritte zu verstehen, sondern als drei gleichzeitig zu beachtende Dimensionen desselben Interpretationsverfahrens. Das offene Kodieren zielt darauf ab, den Sinn der einzelnen Handlungs- bzw. Textsequenzen zu interpretieren und die sich darin ausdrückenden Handlungsregeln mit einem Code zu versehen. Hierbei werden die verschiedenen Handlungsregeln gewissermaßen flexibel „inventarisiert“ und die Forschenden erhalten im Laufe des offenen Kodierens einen immer kompletteren Überblick über die im Material sich ausdrückenden Handlungsregeln. Dabei ist nicht allein die Interpretation der sich in den Textsequenzen ausdrückenden Handlungsregeln wichtig, sondern auch die systematische Anordnung der als Ergebnis der Interpretation rekonstruierten Codes. Das heißt, je akribischer die Forschenden bei der Interpretation vorgehen und je systematischer die Code-Ordnung ausfällt, umso leichter fällt es, den Überblick über die bereits rekonstruierten Codes und die zwischen diesen bestehenden Zusammenhängen zu behalten. Da die Menge der Codes im Laufe des Forschungsprozesses immer weiter zunimmt und damit die bestehenden Zusammenhänge zwischen den interpretierten Handlungsregeln immer komplexer werden, ist eine klare Ordnung der identifizierten Handlungsregeln entlang klarer Kodierungen und der diesen angehängten Protokollen, Memos und Notizen mitentscheidend für die Qualität des Unterfangens. Das Anfertigen von Memos stellt die zentrale Tätigkeit der Forschenden während des Analyseprozesses dar. Sämtliche ihrer Einfälle und Assoziationen werden darin schriftlich fixiert. Dabei zwingt das permanente Verschriften zur Konkretisierung der Gedankengänge. Die einzelnen Memos werden eindeutig systematisiert und den ihnen zugrunde liegenden Materialsequenzen zugeordnet. Im Laufe der Zeit entsteht so eine immer dichter werdende Ansammlung theoretischer Überlegungen: der sogenannte Kategorienbaum. Dieser ordnet das Material und die daraus entwickelten Thesen, die immer stärker untereinander verknüpft werden, aufeinander verweisen und so die Grundlage für die später erfolgende Explikation der gegenstandsbezogenen Theorie bilden. Beispiele für solche Kategorienbäume finden sich in vielen der Arbeiten, die in der Einleitung dieses Beitrags Erwähnung finden. Als naheliegende Elemente des Kodierparadigmas haben sich indes folgende Hilfsfragen bewährt:

  1. a.

    Auf welche Eigenschaft des Untersuchungsgegenstands bezieht sich die analysierte Sequenz? Wurde bereits Material zu dieser Eigenschaft des Gegenstands analysiert? Wenn nein: Welche bislang noch unerforschten Aspekte des Gegenstands werden in der Sequenz maßgeblich thematisch?

  2. b.

    Drücken sich in der Sequenz verschiedene Handlungsregeln aus – und wenn ja: In welchem Verhältnis stehen diese zueinander? Lagen die rekonstruierten Handlungsregeln bereits zuvor im Material vor und existieren weitere Memos dazu? Fügen sich die analysierten Handlungsregeln in den Bestand der bereits zuvor analysierten Handlungsregeln ein oder drückt sich hierin etwas bislang Unerforschtes aus?

  3. c.

    Welche Erklärung/Interpretation der Sequenz erscheint auf den „ersten Blick“ als besonders plausibel? Welche Erklärungen/Interpretationen der Sequenz lassen sich aus dem Kontextwissen der Forschenden zusätzlich ableiten? Welche darüber hinausgehenden Assoziationen löst die Analyse der Sequenz aus? Welche offensichtlichen Auslassungen liegen vor? Was wird also – obwohl möglich und/oder naheliegend – nicht gesagt oder getan?

Durch das fortschreitende offene Kodieren der Daten nimmt die Menge an rekonstruierten Handlungsregeln immer weiter zu. Durch das konsequente Anfertigen der Memos wird die Struktur des Hypothesenbestands immer dichter. Das heißt, es werden immer mehr Zusammenhänge zwischen immer mehr Codes rekonstruiert. Das axiale Kodieren setzt bereits vorliegende Interpretationen zu neu gefertigten Memos in Bezug und vergleicht die neu analysierten Daten mit den bereits gebildeten Codes und Kategorien, mit dem Ziel die Eigenschaften des Untersuchungsgegenstands in seinen verschiedenen Dimensionen durch den ständigen Vergleich noch besser zu begreifen. Die neuen Daten werden sowohl weiterhin offen kodiert (um den Blick für neue, bislang noch nicht rekonstruierte Elemente der Erklärung/Interpretation offen zu lassen) als auch gleichzeitig axial kodiert, also mit den bereits vorliegenden Elementen der sich entwickelnden Theorie verglichen, in Bezug gesetzt und durch das Fertigen neuer Memos darin integriert. Hierbei ist für die Qualität der entstehenden Theorie entscheidend, mit welcher Konsequenz die Forschenden von Beginn an theoretische Kodes entwickeln. Die Qualität des theoretischen Kodierens bemisst sich daran, dass in den Memos nicht bloß das Beobachtete paraphrasiert, beschrieben und dupliziert wird, sondern unter Einsatz des abduktiven Schließens Erklärungen, in Form von Hypothesen, formuliert werden, die das Beobachtete erklärend durchdringen wollen. Die Verschriftlichung aller Interpretationsvorgänge dient zugleich als Grundlage für die intersubjektive Nachvollziehbarkeit des Forschungsprozesses. Für das axiale Kodieren haben sich folgende Hilfsfragen bewährt:

  1. a.

    Inwiefern liefert die analysierte Sequenz neue Aufschlüsse über die bereits vorliegenden Erklärungen einer bestimmten Handlungsregel? Lässt sich im Laufe der Zeit eine Veränderung der Handlungsregel feststellen oder bleibt sie stabil?

  2. b.

    Verändern sich die Bezüge zwischen der analysierten Handlungsregel und anderen Handlungsregeln? Verändert sich die Qualität der Verweise auf andere Handlungsregeln oder deren wechselseitige Sinnzuschreibung?

  3. c.

    Handelt es sich um eine Handlungsregel, die auf einen bestimmten Aspekt des Gegenstands bezogen ist, oder wirkt die Handlungsregel aspektübergreifend?

Durch das selektive Kodieren können die Forschenden gegen Ende des Forschungsprozesses die Analyse auf einige der rekonstruierten Schlüsselkategorien hin orientieren. Als selektives Kodieren bezeichnet Strauss jenes Verfahren, in dem „systematisch und konzentriert nach der Schlüsselkategorie kodiert wird“ (Strauss 1994, S. 63). Als Schlüsselkategorie gilt jene Kategorie, „die alle übrigen Kategorien am ehesten zusammenhält (miteinander verknüpft)“ (Strauss 2004, S. 448). Strauss erachtet das selektive Kodieren als wichtiges Hilfsmittel, um den Blick für die zwischen den Codes bestehenden Zusammenhänge zu schärfen. Rekonstruktiv forschende Wissenschaftler:innen wissen aus eigener Erfahrung, dass sich im Laufe der Untersuchung einige Elemente der Interpretation als besonders grundlegend erweisen. Einige der rekonstruierten Handlungsregeln erweisen sich als so zentral, dass sie gute Ausgangspunkte für die Zusammenfassung der Befunde darstellen. Um eine konsistente Theorie für das erforschte Rätsel, Problem oder die offene Frage zu formulieren, kann der Rückgriff auf diese sogenannten Schlüsselkategorien hilfreich sein, da sie als Grundlage für die auszubreitende Erklärungsformel dienen können. Dabei ist die Zahl der Schlüsselkategorien nicht fixiert und die Forschenden sollten nicht versuchen, die „eine“ Schlüsselkategorie als funktionales Äquivalent der unabhängigen Variable in klassischen Forschungsdesigns zu behandeln. Schlankheit ist aus Perspektive dieses Ansatzes kein Wert an sich. Je nachdem wie komplex sich der analysierte Handlungszusammenhang darstellt, ist sogar eine große Zahl von Schlüsselkategorien denkbar. Als Hilfsfrage für das selektive Kodieren gilt: „Steht die Kategorie X in einem Verhältnis zur angenommenen Schlüsselkategorie A und, wenn ja, in was für einem Verhältnis?“ (Strübing 2004, S. 21).

Mit Blick auf das allgemeine Problem des Abschlusses einer Forschungssituation lassen sich schließlich keine allgemeingültigen Empfehlungen aussprechen. Entscheidend ist dabei die Frage, ob die reklamierten wissenschaftlichen Ansprüche in einem überzeugenden Verhältnis mit dem betriebenen Aufwand und der Güte der Vorgehensweise stehen. Anselm Strauss (1994, S. 49) beschrieb seine diesbezügliche Ansicht wie folgt: „Saturation is more a matter of reaching the point in the research where collecting additional data seems counterproductive […] or, as is sometimes the situation, the researcher runs out of time, money, or both.“

5 Fazit

Rekonstruktiv-interpretative Ansätze zur Untersuchung von internationalen Beziehungen und allen sonstigen Phänomenen der Weltpolitik teilen die Prämisse, dass Forschung ein Gegenüber von rekonstruierend tätigen Subjekten einerseits und etwas diesen Subjekten Vorgängiges – zu Rekonstruierendes – andererseits konstituiert. Bei diesem Vorgängigen handelt es sich um Sinn; entsprechend sind die von rekonstruktiv-interpretativen Forschungsansätzen oder Methodologien wie der objektiven Hermeneutik und der Grounded Theory explizierten Verfahrensweisen darauf ausgerichtet, Sinn zu dechiffrieren. Im Lichte der Philosophie und Gesellschaftstheorie des Amerikanischen Pragmatismus, von der sowohl die objektive Hermeneutik als auch die Grounded Theory maßgeblich inspiriert sind, liegt Sinn, vereinfacht ausgedrückt, stets dann vor, wenn Handeln Wirkungen zeitigt. Mit den Methoden der objektiven Hermeneutik und der Grounded Theory wird der Sinn von solchen sozial vermittelten Handlungen daher meist in Form von (Handlungs-)Regeln rekonstruiert, das heißt, als bewusste oder unbewusste Überzeugungen der Handelnden. Hierbei teilen rekonstruktive Ansätze die Prämisse, dass sich als Handlungsregeln verstandene Überzeugungen – und damit Sinn und Bedeutung – in Zeichensystemen manifestieren. Von diesen Zeichen wird angenommen, dass sie intersubjektiv gelten. Sie (und somit die von ihnen transportierten Sinnstrukturen und Sinnsysteme) werden regelgeleitet erzeugt, so dass ihre Bedeutung mithilfe derselben Regeln rekonstruiert werden kann, mit deren Hilfe diese Bedeutung zuvor kreiert bzw. konstruiert wurde.

Ungeachtet einiger Unterschiede bei der Ausgestaltung einzelner Arbeitsschritte auf der Ebene ihrer Methoden lautet eine weitere von objektiver Hermeneutik und Grounded Theory geteilte Prämisse, dass Rekonstruktionen vor allem der Muße bedürfen. Muße ermöglicht den Forschenden, am konkreten Material neue Hypothesen über ihre Untersuchungsgegenstände zu ersinnen und sich somit in jenem Modus des logischen Schließens zu üben, für den der pragmatistische Philosoph Charles Sanders Peirce unter Rückgriff auf Aristoteles den Begriff der Abduktion neuerlich in der wissenschaftstheoretischen Diskussion verankerte. Anstatt einen Gegenstand immer schon so zu betrachten, wie dies in der Hektik des Alltags sich als angemessen, nützlich oder üblich erweist, bietet die strukturelle Abgeschiedenheit der Forschungssituation die Gelegenheit, müßige Fragen zu stellen, einen dem Diktat der Routine entrissenen Blick auf das Untersuchungsobjekt zu werfen, in Alternativen zum Bestehenden zu denken und so Kritik artikulierbar zu machen. Gemeinsamkeiten dieser Art qualifizieren rekonstruktive Ansätze wie die objektive Hermeneutik und die Grounded Theory, obgleich sie in (mikro-)soziologischen Arbeitszusammenhängen entstanden sind, als unverzichtbare Werkzeuge der Erforschung von Weltpolitik.