Schlüsselwörter

1 Einleitung

Qualitative Methoden bilden neben den quantitativen Verfahren heutzutage ein gängiges und häufig angewandtes Instrumentarium der empirischen Forschung in der Disziplin Internationale Beziehungen. Diese Bedeutung hat die qualitative Forschung in den Internationalen Beziehungen jedoch erst in jüngerer Zeit erlangt. Während vor dem zweiten Weltkrieg einer Unterscheidung zwischen qualitativen und quantitativen Methoden wenig Beachtung geschenkt und beide Verfahren als gleichberechtigt angesehen wurden (Menzel 2001, S. 91–103), entbrannte durch den Einzug des Behavioralismus in den 1950er-Jahren ein epistemologischer Streit über methodische Fragen (Positivismusstreit). Noch der 1961 in der Soziologie besonders zwischen Adorno und Popper bzw. Habermas und Albert ausgetragene „Positivismusstreit“ behandelt mehr den Zugriff und die Problematik des Ausschnitts oder der Totalität, als dass er zur Klärung quantitativer und qualitativer Forschungslogiken beiträgt. Gegenstand dieses Streits war die Möglichkeit einer empirischen kritischen Sozialforschung gegenüber den Positionen der Totalität oder dem analytischen Verzicht auf Holismus und Telos angesichts der Kriterien von Auswahl und Falsifikation. Auf dem Axiom rationalen Handelns griffen Vertreter*innen des danach benannten kritischen Rationalismus methodologisch auf naturwissenschaftliche, mathematische und wirtschaftswissenschaftliche Erkenntnisse zurück, welche die bis dahin dominierende historische Methode in der Disziplin Internationale Beziehungen ablösten. Damit knüpften die Vertreter*innen des kritischen Rationalismus an den streng empirisch-analytischen Behaviorialismus (1920er-/1930er-Jahre) aus den Naturwissenschaften an, der nach Gesetz- oder aber Regelmäßigkeit sucht und methodisch auf Verfahren der Operationalisierung und der Quantifizierung (statistische Methode) zurückgreift. In den Internationalen Beziehungen hielt der Behaviorialismus ebenfalls durch die Spieltheorie Einzug, in der Spiele wie das Gefangenendilemma auf die internationale Politik übertragen wurden. Basierend auf der Spieltheorie entwickelten sich im Kontext des Kalten Krieges zum Beispiel die Abschreckungstheorien und die außenpolitischen Entscheidungstheorien, die sich ebenfalls methodisch an den Naturwissenschaften orientierten (vgl. Menzel 2001).

Erst mit dem Neomarxismus der 1970er-Jahre wurde das hypothesenorientierte Paradigma in Frage gestellt und konnten sich zunächst in Psychologie, Pädagogik und Soziologie sowie schließlich auch in der Politikwissenschaft qualitative Verfahren durchsetzen. Dennoch blieben auch in der Neo-Neo-Debatte zwischen dem Neorealismus und dem neoliberalen Institutionalismus der 1980er-Jahre die quantitativen Methoden das Leitbild für empirische Forschung in den Internationalen Beziehungen. Neben den neomarxistischen Theorien führte jedoch nicht zuletzt die sozialkonstruktivistische Wende in den 1990er-Jahren zu einer Stärkung qualitativer Methoden in den Internationalen Beziehungen. Der Sozialkonstruktivismus stellt das positivistische Denken des Neorealismus und neoliberalen Institutionalismus in Frage und sieht sich als hermeneutischer und postpositivistischer Ansatz.

Wurden die qualitativen Verfahren lange als feuilletonistisch, unpräzise und den wissenschaftlichen Standards nicht genügend kritisiert (Menzel 2001, S. 45), so zeichnen sich qualitative Verfahren heute durch hohe Standards und eine Vielzahl von Methoden aus, die in Lehrbüchern selbstverständlicher Bestandteil des Methodenkanons geworden sind. Dabei sollten qualitative und quantitative Methoden nicht als Gegensatz verstanden werden, sondern lassen sich ergänzend in einem Methodenmix gewinnbringend nutzen. Dennoch unterscheidet sich die qualitative Forschung grundlegend von quantitativen Ansätzen. Die qualitative Forschung richtet sich im Vergleich zu quantitativen Verfahren vielmehr nach dem Erkenntnisprinzip des Verstehens von komplexen Zusammenhängen als nach dem Prinzip der Erklärung von einzelnen Ursache-Wirkung-Beziehungen. Um komplexe Sachverhalte zu verstehen, greifen die qualitativen Methoden auf eine vertiefende Beschreibung des Forschungsgegenstands zurück, die es zugleich erlaubt, neue Erklärungsfaktoren herauszuarbeiten. Qualitative Forschung zeichnet sich somit durch eine hohe Offenheit vor allem bei der Datenerhebung aus und ist deshalb besonders für induktive Verfahren und explorative Studien geeignet (siehe Flick et al. 2012, S. 22–24). Ein Merkmal qualitativer Methoden ist somit, dass die Forscherin weniger auf Vorkenntnisse über den Gegenstandsbereich angewiesen ist. Aufgrund ihrer Offenheit und ihres Anspruchs, komplexe Zusammenhänge detailliert zu erfassen und zu beschreiben, konzentriert sich der methodische Zugang qualitativer Forschung meist auf eine Einzelfallstudie oder einen Vergleich einer kleinen Fallzahl (wenige Länder, Organisationen/Regime oder Akteure). Aufgrund der niedrigen Fallzahl weisen Ergebnisse qualitativer Forschung deshalb meist nur eine geringe Generalisierbarkeit oder Repräsentativität auf; jedoch bieten qualitative Methoden den Vorteil, neue Erklärungen ausfindig zu machen und Hypothesen zu generieren. Zudem sind qualitative Methoden besser geeignet, Kausalitäten anstatt Korrelationen nachzuweisen. Ein Vorwurf quantitativer Methodiker bleibt hingegen: die geringe Objektivität und daraus folgende niedrige Reliabilität und Validität qualitativer Methoden.Footnote 1

In diesem Artikel werden zunächst Typen von Fallstudien diskutieren. Daran anschließend werden vier der zentralen qualitativen Methoden der Datenerhebung und Datenauswertung, die häufige Anwendung in den Internationalen Beziehungen erfahren, exemplarisch vorgestellt: das process tracing, die Diskursanalyse, das Expert*inneninterview und die Qualitative Comparative Analysis (QCA). Bei allen vier Methoden werden zunächst Herangehensweise sowie Vor- und Nachteile erklärt, um anschließend noch auf hilfreiche Computersoftware für deren Anwendung sowie Anwendungsbeispiele in den Internationalen Beziehungen zu verweisen. Bei den vier genannten Methoden handelt es sich nur um eine kleine Auswahl qualitativer Methoden. Bei weiteren qualitativen Methoden wären zum Beispiel teilnehmende Beobachtungen, Dokumentenanalyse oder hermeneutische Verfahren zu nennen, die in diesem Artikel jedoch nicht näher erläutert werden können (siehe dazu Flick et al. 2012). Im letzten Abschnitt wird auf Möglichkeiten und Vorteile einer Triangulation qualitativer Methoden untereinander und mit quantitativen Methoden verwiesen.

2 Fallstudien

Bei einer Fallstudie handelt es sich strikt nicht um eine Methode zur Datenerhebung oder Datenauswertung, sondern vielmehr um einen grundlegenden Ansatz der empirischen Sozialforschung. Eine Fallstudie (case study) ist „an intensive analysis of an individual unit (as a person or community) stressing development factors in relation to environment“ (Stake 2008, S. 119–120). Eine intensive Analyse beschränkt sich dabei nicht nur auf qualitative Methoden, sondern kann auch quantitative Methoden oder einen Methodenmix umfassen. Für die Bestimmung einer Fallstudie ist nicht die Methode der Datenerhebung oder Datenauswertung entscheidend, sondern die Abgrenzung der Einheit. Da qualitative Forschung meist äußerst zeitintensiv und arbeitsaufwendig ist, beschränkt sie sich allerdings häufig nur auf einen oder eine Handvoll Fälle. Es stellt sich somit fast unausweichlich die Frage einer Fallauswahl für die qualitative Forschung. Was oder wer als individuelle Einheit zählt, ist abhängig von der Forscherin und deren Forschungsinteresse. Während sich in der Vergleichenden Politikwissenschaft Fallstudien häufig auf spezifische Länder beziehen, findet sich eine Vielfalt von Untersuchungseinheiten in den Internationalen Beziehungen; von Orten (z. B. Länder, Regionen oder Städte) über Akteure (z. B. Präsidenten oder Interessengruppen) bis hin zu Prozessen (z. B. internationale Verhandlungen oder Diskurse) oder Politiken (z. B. Gesetze). Eine Fallstudie kennzeichnet zugleich, dass die Einheit unter Berücksichtigung einer Vielzahl von Faktoren, deren zeitlichen Entwicklung und des spezifischen Kontexts untersucht wird (Flyvbjerg 2011; Muno 2009).

Obwohl in den Internationalen Beziehungen Fallstudien ein beliebter und verbreiteter Ansatz sind, bestehen gängige Missverständnisse über Fallstudien in der Forschung, denen u. a. Flyvbjerg (2011) entgegentritt. Zum Beispiel verweist er darauf, dass entgegen gängiger Meinung, allgemeines theoretisches Wissen nicht wertvoller als konkretes Fallwissen sei. So beruhe gerade Expertenwissen auf konkretem Fallwissen. Zudem seien die Sozialwissenschaften nicht erfolgreich bei der Erstellung vorhersagender Theorien. Auch sind Fallstudien entgegen gängiger Missverständnisse nicht nur für die Hypothesengenerierung geeignet, sondern auch für das Testen von Hypothesen und lassen Aussagen zu, die über den einzelnen Fall hinausgehen. Ein kritischer Punkt ist hierbei die Fallauswahl.

Forscher*innen wählen einen Fall nicht selten anhand ihres persönlichen Interesses oder aufgrund der historischen oder gesellschaftspolitischen Relevanz eines Falles aus. Allerdings lässt sich durch eine methodisch geleitete Fallauswahl die theoretische Erklärungskraft einer Einzelfallstudie gezielt erhöhen, weshalb eine Forscherin gut beraten ist, nicht zu voreilig ihre Fallauswahl zu treffen. Es lässt sich dabei zwischen einer Reihe von Typen von Fallstudien unterscheiden (siehe z. B. Eckstein 1975; Lijphart 1971). Ein Typ ist die atheoretische, ideografische Fallstudie, die vor allem der Informationsbeschaffung dient. Eine theoriieorientierte interpretative Fallstudie ist hingegen darauf bedacht, einen Fall mit Hilfe einer Theorie Sinn zu verleihen. Darüber hinaus gibt eine Reihe weiterer Typen von Fallstudien, mit deren Hilfe sich unterschiedliche (darunter auch nomothetische) Erkenntnisinteressen verfolgen lassen. Ein besonders interessanter Falltyp ist der abweichende Fall (deviant case). Ein solcher Fall liegt vor, wenn entgegen vorhandener Forschungskenntnisse das zuerwartende Ergebnis bei einem Fall überraschenderweise nicht eintrifft. Die Forscherin geht dann auf die Suche nach dem Erklärungsfaktor, der das abweichende Ergebnis erklären kann. Diese Erkenntnis kann wiederum genutzt werden, um bestehende Theorien zu modifizieren oder gar zu wiederlegen. Neben dem abweichenden Fall versprechen auch Extremfälle (crucial cases) Erkenntnisse, die über den Einzelfall hinausgehen. Der least likely case beschreibt einen Typ, bei dem ungünstige Bedingungen für die Bestätigung einer Hypothese vorliegen. Wenn trotz dieser ungünstigen Bedingungen eine Hypothese bestätig werden kann, kann wiederum stark davon ausgegangen werden, dass die Hypothese auch in vorteilhafteren Fällen zutrifft. Umgekehrt fällt es sich bei einem most likely case. Wenn hier trotz der vorteilhaften Bedingungen eine Hypothese widerlegt wird, ist davon auszugehen, dass die Hypothese auch in anderen Fällen nicht zu trifft (Gerring 2008; Muno 2009).

3 Process Tracing

Eine zentrale Methode qualitativer Forschung ist das sogenannte process tracing. Beim process tracing sucht die Forscherin nach kausalen Mechanismen zwischen der unabhängigen und abhängigen Variablen, um über eine bloße Korrelation hinaus die Kausalität einer Hypothese besser nachzuvollziehen und eine reine Scheinkausalität ausschließen zu können. So stellt sich die Forscherin beim process tracing die Frage, welche Prozesse ebenfalls gegeben sein müssen, wenn ein Fall mit einer Erklärung übereinstimmt, damit ein aufgestellter kausaler Mechanismus bestätigt wird. Kausale Mechanismen beschreiben die intervenierenden Variablen und verkleinern die zeitliche Lücke zwischen dem Explanans und dem Explanandum, wodurch eine mögliche Kausalität besser nachgewiesen werden kann. Beim process tracing ist es deshalb zunächst erforderlich, dass mögliche intervenierende kausale Mechanismen theoretisch dargelegt werden. In einem nächsten Schritt werden dann potenzielle kausale Pfade, die eine Erklärung für ein Ereignis liefern können, identifiziert und unwahrscheinliche Pfade, die keinen Beitrag zur Erklärung eines Phänomens liefern können, durch logische Schlussfolgerung ausgeschlossen. Über process tracing können jedoch nicht nur deduktiv Hypothesen getestet werden, sondern die Methode beinhaltet auch induktive Vorgehensweisen und ist geeignet zur Generierung von Hypothesen und Suche nach bisher unbeachtete Variablen (omitted variables) (Bennett und Elman 2008, S. 502–503; Checkel 2006; George und Bennett 2005; Muno 2009; Rohlfing 2009, S. 141).

Um eine kausale Inferenz nachzuweisen, wird beim process tracing ein historischer Zeitraum auf miteinander verkettete Ereignisse hin untersucht. Für eine historische Analyse von kausalen Prozessen ist eine detaillierte Beschreibung der einzelnen Ereignisse während des untersuchten Zeitraumes notwendig, weshalb eine statische Deskription als ein zentrales Element von process tracing angesehen werden kann. Diese Deskription muss sich dabei nicht auf qualitative Beschreibungen beschränken, sondern kann auch quantitative Daten beinhalten. Aus der reinen deskriptiven Inferenz lässt sich jedoch noch nicht notwendigerweise auf eine Kausalität schließen. Die Forscherin kann für den Nachweis kausaler Inferenz auf vier unterschiedliche empirische Tests zurückgreifen: den Straw-in-the-wind-Test, den Hoop-Test, den Smoking-gun-Test und den Double-decisive-Test. Auf welchen Test eine Forscherin zurückgreift, liegt jedoch nicht unbedingt in dessen Ermessen, sondern ist abhängig von dem bereits verfügbaren Wissen, den aufgestellten Annahmen und den abgeleiteten Hypothesen. Mit Hilfe des verfügbaren Wissens trifft die Forscherin Annahmen darüber, ob ein Ereignis als eher zufällig oder doch zu erwarten gelten kann, und kann auf dieser Basis einen gewissen Test annehmen und eine Bewertung über die kausale Inferenz vornehmen. Die Differenzierung zwischen den unterschiedlichen Tests ist nicht immer eindeutig und sollte nicht zu rigide angesehen, sondern vielmehr als eine Heuristik verstanden werden, auf die die Forscherin meist implizit während der Analyse der Daten zurückgreift (vgl. Collier 2010, 2011).

Die vier Tests lassen sich mit der Arbeit einer Detektivin vergleichen, bei der die Forscherin einen Fall lösen muss. Ein Straw-in-the-wind-Test ist der schwächste der vier genannten Tests, da er weder ein notwendiges noch hinreichendes Kriterium für die Bestätigung oder den Ausschluss einer Hypothese ist; jedoch erhöht oder verringert er die Plausibilität einer Hypothese. Über einen solchen Test lassen sich somit zwar keine genauen Beweise finden, jedoch kann die grobe Richtung, aus der „der Wind weht“, bzw. können Indizien für oder gegen eine Hypothese festgestellt werden. Im Vergleich zu den anderen Tests benötigt ein Straw-in-the-wind-Test hingegen auch weniger Vorwissen und nur schwache Annahmen. Im Falle eines Mordes könnten zum Beispiel Augenzeugin eine relativ große Person erkannt haben, woraus geschlossen werden kann, dass es sich wahrscheinlich um einen männlichen Täter handelt. Im Vergleich dazu benötigt die Forscherin ein größeres Vorwissen für einen Hoop-Test. Bei einem Hoop-Test wird ein notwendiges, aber nicht hinreichendes Kriterium für die Bestätigung einer Hypothese geprüft, d. h., dass über einen Hoop-Test Hypothesen zwar ausgeschlossen, aber nicht bestätigt werden können. Bildlich gesprochen bedeutet dies, dass wenn eine Hypothese durch einen ‚Ring‘ passt, die Hypothese zwar weiterhin als Erklärung dienen kann, jedoch nicht notwendigerweise richtig sein muss. Sollte die Hypothese den empirischen Test nicht bestehen, kann sie aber mit Sicherheit ausgeschlossen werden. Wenn zum Beispiel die Augenzeugin mit Sicherheit einen männlichen Täter gesehen haben, könnten zwar alle weiblichen Verdächtigen ausgeschlossen werden, jedoch ist dies noch immer kein Beweis, dass der bisherige männliche Verdächtige auch wirklich der Täter ist (siehe Collier 2010, 2011).

Ein Smoking-gun-Test hingegen ist ein hinreichendes, aber kein notwendiges Kriterium für die Bestätigung einer Hypothese, d. h., dass über einen solchen Test zwar eine Hypothese bestätigt, aber nicht notwendigerweise ausgeschlossen werden kann. Bei einem Mordfall kann zum Beispiel der Mörder über den Fund der Mordwaffe überführt werden. Sollte die Waffe beim Tatverdächtigen jedoch nicht gefunden werden, kann deshalb nicht ausgeschlossen werden, dass es sich dennoch um den Täter handelt. Ein Double-decisive-Test ist der stärkste der vier Tests, da er zugleich eine Hypothese bestätigt und gegensätzliche Thesen ausschließt. Dieser Test stellt somit sowohl ein notwendiges als auch hinreichendes Kriterium dar, benötigt jedoch auch am meisten Vorwissen und dürfte in den Sozialwissenschaften nur selten durchführbar sein. Dennoch kann eine mögliche Kombination von Hoop- und Smoking-gun-Test einen Double-decisive-Test ersetzen. Bei einem Mordfall könnte zum Beispiel ein möglicher DNA-Test einen Double-decisive-Test darstellen. Denn ein erfolgreicher DNA-Test ist sowohl notwendig als auch hinreichend für die Überführung eines Tatverdächtigen als Mörder (vgl. Collier 2010, 2011); Mahoney (2012) erläutert wie der Hoop- und Smoking-gun-Test genutzt werden können, um die Existenz eines Ereignisses oder eine kausale Inferenz, die möglicherweise nicht direkt beobachtbar sind, dennoch in Abhängigkeit vom Vorwissen und den getroffenen Annahmen indirekt nachgewiesen werden können.

Das process tracing verfügt über viele klassische Vor- und Nachteile qualitativer Methoden. Der klarste Vorteil von process tracing gegenüber quantitativen Methoden ist der tiefere Nachweis von Kausalität, der über eine einfache Korrelation hinausgeht. Ein weiterer Vorteil des process tracing ist die Verbindung von deduktiven und induktiven Elementen. So ist die Methode besonders geeignet, den kausalen Mechanismus bereits vorhandener Hypothesen zu testen, jedoch lassen sich zugleich bisher vernachlässigte Variablen ausfindig machen und dadurch neue Hypothesen generieren. Dennoch weist das process tracing allgemeine Nachteile qualitativer Methoden auf, darunter zum Beispiel dass die Methode besonders zeitintensiv ist und aus Sicht quantitativer Methodiker nur eine geringe Reliabilität und Validität besitzt. Außerdem lässt sich aufgrund der zeitintensiven Untersuchungen mit Hilfe des process tracing meist nur eine geringe Fallzahl untersuchen, weshalb die getroffenen Aussagen nur eine geringe Generalisierbarkeit aufweisen. Um den theoretischen Nutzen einer Einzelfallstudie zu erhöhen, kann jedoch eine gezielte Fallauswahl erfolgen.

Als Beispiele für die Anwendung von process tracing in den Internationalen Beziehungen empfiehlt sich zum Beispiel ein Blick in die Arbeit von Goemans (2000); Goemans (2000) untersucht die Außenpolitik Deutschlands gegen Ende des Ersten Weltkrieges und belegt seine Erklärung mit einem smoking gun-Test, während er alternative Erklärungen durch zum Beispiel hoop-Tests ausschließt. Ein weiteres Beispiel ist die Analyse von Tannenwald (2005), die unterschiedliche alternative Erklärungen für das friedliche Ende des Kalten Krieges mit Hilfe des process tracing untersucht (vgl. Bennett 2008).

4 Diskursanalyse

Seit den 1980er-Jahren ist in den Geistes- und Sozialwissenschaften ein „Wuchern der (Foucaultschen) Diskursanalysen“ (Jäger 2013, S. 199) festzustellen. Während der linguistic turn (Rorty 1967) vor allem in den Geisteswissenschaften die wirklichkeitsschaffende Funktion von Sprache und Diskursen betont, erhielt die Diskursanalyse erst mit dem argumentative turn (Fischer und Forester 1993) Einzug in die Politikwissenschaft und wird seit den 1990er-Jahren zunehmend angewandt (vgl. z. B. Angermüller et al. 2014).

In den Internationalen Beziehungen findet die Diskursanalyse vor allem in sozialkonstruktivistischen, poststrukturalistischen, postmodernistischen und einigen feministischen Ansätzen ihre Anwendung (vgl. Milliken 1999, vgl. auch Lundborg und Vaughan-Williams 2015; Herschinger und Renner 2014). Diese Ansätze eint die konstruktivistische Annahme, dass die soziale Welt (und das Wissen über sie) konstruiert und nicht, wie beim Rationalismus, exogen gegeben ist. Durch die Annahme der sozialen Konstruktion von Wirklichkeit, die sich durch gemeinsame Bedeutungszuweisungen und Handlungen von Akteuren in Wechselbeziehung zu historisch gewachsenen Strukturen konstituiert, erhalten Diskurse eine besondere Bedeutung, da in ihnen Ideen, Weltbilder und Normen transportiert werden. Ein Diskurs ist nach Weldes und Saco (1996, S. 371) „a social practice through which thoughts and beliefs are themselves constituted“. Dabei bildet ein Diskurs nicht die Welt ab, sondern repräsentiert ein temporär stabiles, spezifisches Verständnis von Identität und angemessenem Handeln in der Welt, wodurch andere mögliche Formen der Identität und des Handelns ausgeblendet werden (Milliken 1999, S. 229). Vorstellungen von „Wahrheit“ werden somit durch Diskurse in spezifischer Form konstruiert, damit Handlungsspielräume absteckend. So beinhaltet der Diskurs über ökologische Nachhaltigkeit mit der Vorstellung, durch weltweite Reduktion von CO2-Emmissionen den Klimawandel aufhalten oder zumindest abmildern zu können, einen Gestaltungsanspruch. Im Resilienzdiskurs hingegen wird der Klimawandel als unausweichlich angesehen. Nach diesem gilt es, entsprechende Maßnahmen zu ergreifen, um den Folgen des Klimawandels gegenüber gewappnet zu sein (vgl. Methmann und Oels 2014; Oels und Carvalho 2012; zur Green Economy vgl. Wanner 2015).

Die Diskursanalyse zielt darauf ab, mögliche Handlungsimplikationen von Diskursen und deren Wirkung zu spezifizieren bzw. ausgehend von der Wirkung eines Diskurses deren selektive Repräsentanz herauszuarbeiten und Alternativen aufzuzeigen (Neumann 2009, S. 62–63). Dabei lassen sich zwei Formen der Diskursanalyse unterscheiden (vgl. Herschinger 2012). Die Diskursanalyse kann zum einen eine historische Perspektive einnehmen und sprachliche Äußerungen chronologisch kontextualisieren. Die historische Perspektive zeichnet somit deskriptiv nach, wie Diskurse entstanden sind und wie sie sich entwickelt haben (Nonhoff 2011, S. 98–99). Diskurse sind jedoch zumeist weder ganz geschlossen, noch ganz offen. Vielmehr bestehen stets mehrere Diskurse, die jeweils ein spezifisches Interpretationsangebot der Realität liefern. Hier zielt zum anderen die strukturelle Diskursanalyse darauf ab, die Beziehungen zwischen den Diskursen sowie ihre jeweilige Relevanz herauszuarbeiten.

Eine eigene Methode hat die Diskursanalyse nicht hervorgebracht. Insofern ist der Begriff der Diskursanalyse potenziell irreführend, da sie kein spezifisches methodisches Instrument zur Verfügung stellt, sondern darunter diskurstheoretische Arbeiten gefasst (z. B. Diskurstheorie nach Foucault, Theorie hegemonialer Diskurse nach Laclau und Mouffe) sowie Analyseansätze (so u. a. von van Dijk, Fairclough, Wodak, Jäger, Link) diskutiert werden (vgl. Keller et al. 2003). Insofern ist der Feststellung Kellers et al. (2006, S. 115) zuzustimmen und eher von einer Diskursforschung zu sprechen. Dabei kann die Diskursforschung auf ein „multi-methodisches“ Feld (Keller et al. 2003) verschiedenster Disziplinen zurückgreifen.

Zunächst ist festzustellen, dass Diskurse methodisch nicht umfassend analysiert werden können, sondern sowohl die Menge an Quellen als auch der Zeitrahmen begrenzt werden müssen. Eine erste Eingrenzung erfolgt über die gewählte Theorie, aus der eine Fragestellung abgeleitet wird. Dadurch schränkt sich die Zahl der zu untersuchenden Quellen ein. Damit ist aber noch nicht die Frage geklärt, welche Quellen diskursrelevant sind. Hier hilft es, maßgebende Werke heranzuziehen. Dazu zählen Werke, die weit rezipiert und häufig zitiert werden. Diese Werke beziehen sich wiederum auf andere Werke, wodurch die verschiedenen Diskurse herausgearbeitet werden können. Eine zeitliche Einschränkung können einschneidende Ereignisse, die Realitätskonstruktionen in Frage stellen und somit bestehende Diskurse herausfordern, liefern (für die Finanzmarktregulation vgl. Wilhelm 2013).

Bei der deskriptiven Rekonstruktion eines für die Fragestellung relevanten Diskurses ist es wichtig, einen geschlossenen Diskurskorpus zu wählen. Ein solcher Diskurskorpus kann z. B. aus Veröffentlichungen internationaler Organisationen oder aus ausgewählten Zeitungen/Zeitschriften bestehen oder aber auch auf Transkriptionen von Expert*inneninterviews basieren. Die Vokabularanalyse ermöglicht es zum Beispiel, Schlüsselbegriffe und ihre Beziehungen zueinander zu untersuchen, um Bedeutungsverschiebungen – z. B. in der außenpolitischen Identität eines Staates – zu erfassen (vgl. Hellmann et al. 2008). In den letzten Jahren ist zunehmend der Einsatz von Verfahren der Lexikometrie und der Korpuslinguistik aus den Sprachwissenschaften zu beobachten, die induktiv-quantitativ vorgehen. Mit Hilfe dieser Verfahren können das Auftauchen und die Häufigkeit bestimmter Begriffe sowie deren Verknüpfung mit anderen Begriffen herausgearbeitet werden (vgl. z. B. Scholz 2013), die Hinweise auf Verschiebungen oder Brüche eines Diskurses liefern. Die Analyse erfolgt mit Hilfe computergestützter Diskursanalysen, die seit Ende der 1960er-Jahren in Frankreich entwickelt wurden und auf multivarianten Datenverarbeitungsverfahren basieren (ebd. 172).Footnote 2

Zur Analyse der Beziehungen verschiedener Diskurse zueinander kann zusätzlich zur Methode der Lexikometrie durch Triangulation auf neuere Ansätze der Narratologie bzw. der Erzähltheorie zurückgegriffen werden. Die Erzähltheorie ermöglicht es, die durch die lexikometrische Analyse ermittelten zentralen Wörter und Begriffe in narrative Muster einzubinden, die Aussagen zu deren spezifischen Beziehungen und damit Bedeutungen zulassen (vgl. Glasze 2007). Im Vergleich zur Lexikometrie kann durch die Narratologie der Diskurskorpus geöffnet (Pêcheux 1984) und die Ergebnisse der lexikometrischen Analyse können dadurch kontextualisiert und somit in Beziehung zu anderen Diskursen gesetzt werden. Eine solche Öffnung des Korpus ist notwendig, um die durch den hegemonialen Diskurs marginalisierten Diskurse zu erfassen. Die Erkennung narrativer Muster erleichtern Software-Programme der qualitativen Inhaltsanalyse (z. B. MAXQDA, vgl. auch Bennett 2015), jedoch geht die narrative Analyse über die qualitative Inhaltsanalyse hinaus, da mit ihr die konstitutive Bedeutung von Aussagen erfasst werden kann (Glasze 2007, S. 31). Allerdings kann aus den Ergebnissen der hier vorgestellten Methoden zur Diskursanalyse keine Kausalitätsaussage über die Auswirkung eines Diskurses formuliert werden (Diez 2010; Nonhoff 2011). Vielmehr sind verschiedene Folgen, die sich aus einem Diskurs ergeben können, denkbar.

Die Diskursanalyse, oder besser die Diskursforschung, greift also sinnvollerweise auf einen Methodenbaukasten unterschiedlicher Disziplinen zurück (vgl. Barking 2015). Dabei besteht einerseits die Gefahr, dass die eigentlich theoretische Faszination der Diskurstheorien nach Foucault oder Laclau und Mouffe, welche herrschende Realitätskonstruktionen in Frage stellen, mehr oder weniger verloren geht. Andererseits hat eine Diskursanalyse den methodischen Anforderungen einer intersubjektiven Überprüfbarkeit ihrer Ergebnisse zu genügen. Somit besteht die besondere Herausforderung, bei der noch notwendigen methodischen Weiterentwicklung der Diskursanalyse Theorie und Methode konstruktiv miteinander zu verbinden. Die methodische Auseinandersetzung um die Diskursanalyse zeigt, dass dabei nicht vor disziplinären Hürden zurückgeschreckt, sondern durch Triangulation versucht wird, Stärken sowohl quantitativer als auch qualitativer Verfahren zu nutzen.Footnote 3

5 Qualitative Expert*inneninterviews

Expert*inneninterviews beziehen sich allgemein auf eine Familie problemzentrierter, offener oder teilstandardisierter Interviews. Ausgewählt werden Expert*innen, deren besondere Rolle weiter präzisiert werden muss; befragt werden diese Expert*innen zu einem besonderen fachlichen Thema (meist zu Entscheidungen in dem Themenfeld, das auch den Expertenstatus definiert) oder zu einem besonderen Handlungsfeld oder zu einer besonderen Rolle in diesem Feld, wobei Kombinationen der Dimensionen (Thema, Feld, Rolle) möglich sind. Ebenso wie der Expertenstatus weiterer Klärung bedarf, so versteht sich auch die Auswahl des Forschungsakzents nicht von selbst. Den für solche Expert*inneninterviews geltenden Sammelbegriff umschreiben Bortz und Döring als „offene oder teilstandardisierte Befragungen von Expert*innen zu einem vorgegebenen … Thema“ (Bortz und Döring 1995, S. 290). Bereits solch eine Eingangsdefinition weist auf Dimensionen hin, die bezüglich der Expertenrolle und der Thematik weiterer Präzisierung bedürfen. Das oft mit diesem Verfahren verbundene Versprechen der Einfachheit (Behnke et al. 2006, S. 237) und des sicheren Erfolgs (Bogner et al. 2005), einfach weil wichtige Akteure zu ihrem Thema befragt werden, muss zurückgewiesen werden. Entgegen des Rufs müssen Expertenstatus, Themenwahl und Interviewform reflektiert werden; naive, direkte Anwendungen des Instruments sind unzulässig (Monke 2007; Pfadenhauer 2005, 2007).

Die von Bogner et al. betreute Sammlung (2005) leitet die elaborierte Sicht der Forschungsverfahrens ein; das Lehrbuch von Gläser und Laudel (2010) mit Beispielen für Frageleitfaden und Auswertung verdeutlicht den Forschungsstand. Jedoch zeigt ein aktuelles Anwendungsbeispiel (wie Seikel 2013, S. 296, 300), dass trotz dieses Reflexionsstandes im Forschungsprozess selbst noch Probleme auftauchen. Indem Akteure und Expert*innen gleichgesetzt werden, indem Expert*innen mit Institutionen identifiziert werden, indem Auswahl und Auswertung der Interviews als Selbstverständlichkeiten gelten, wird ein Klärungsbedarf belegt. Die Anwendung muss dem Reflexionsstand entsprechen und die bereits eingangs mit dem Sammelbegriff angesprochenen Probleme behandeln und transparent klären.

Expertin ist eine langjährige, exponierte, durch manifeste Aktivitäten und Qualifikationen mit dem Thema und Forschungsfeld verbundene Informantin. In der Regel ist die Expertin im fraglichen Feld und zum fraglichen Thema aktiv in einer entscheidenden Position tätig. Alle Expert*innen sind somit mit dem Thema vertraut. Im Forschungsfeld bekleidet die Expertin eine komplexe, unterschiedlich ausgestaltete und akzentuierte Rolle bei den Aktivitäten (Entscheidungen, Prozessen, Darstellungen und Deutungen); nur diese Expertenrolle steht im Zentrum der Forschung und der Interviews. Aus dieser Rolle ergibt sich die Differenzierung der Expert*innen als Informant*innen oder Kritiker*innen, als Entscheidungszuarbeiter*innen, als Öffentlichkeitsarbeiter*innen und/oder Deuter*innen; diese Aspekte und Funktionen, die mit der Expertenrolle verbunden sind, können differenzieren und sich überschneiden.

Die Expertenrolle ergibt sich aus dem Bezug zur Wissens-, alias Wissenschaftsgesellschaft und zum Politikverständnis. Wissenschaftliches Wissen ist an Berufsrollen, Öffentlichkeit, Institutionen und besondere Qualifikationen („Berufserfahrungen“) gebunden und vermittelt die Expertenrolle beim Verfassen von Expertisen, beim Ausformulieren und Aushandeln von Richtlinien (Gesetzen, Verordnungen, Erlassen) für Aktionen, beim Evaluieren, beim Vertreten und Deuten von Aktivitäten und Handlungsrahmen intern in der Institution und/oder vor der Öffentlichkeit. Maßgeblich bei dieser Thematisierung ist ein Verständnis, dass Politik professionell vielfältig vorbereitend, deutend, legitimierend auf Wissen, Beratung, Lobbyismus im Zusammenspiel von Ministerialbürokratie, Beratung, Parlament, Parteien, NGOs und politischer Durchsetzung zugreift. Die Wissenskomponente gehört zur Politik. Mit unterschiedlichen Rollenaspekten stehen Expert*innen im Hintergrund oder im Rampenlicht solcher politischer Aktivitäten und Entscheidungen. Das Thema ist daher im Forschungsdesign genau zu bestimmen und einzugrenzen. Mit Bezug zu anderen Forschungsschritten (zumeist Dokumenten-, Prozess- und Inhaltsanalyse, die auch zur Erarbeitung des Designs benötigt werden) dient das Expert*inneninterview dazu, den Beitrag von Wissen und die Rolle von Expert*innen darzustellen.

Expert*inneninterviews werden nicht mit der Person und ihrer Einstellung zum Thema, sondern mit der Expertin und seiner Rolle im Themenfeld geführt. Gegenstand der Interviews sind nur sachliche Interessen und Aspekte der Profession. Gegenstand sind Rolle und Wissen der Expert*innen, die an Politik zum Thema oder im Feld (als Handlung, Deutung, Bewertung) in der Wissensgesellschaft aktiv beteiligt sind. Es geht um die Rekonstruktion von Strategien und Aktivitäten, um die analytische Beurteilung solcher Prozesse und Entscheidungen. Die Expertin wird befragt zu ihrem Wissen, ihrer Stellung, ihrer Aktivität im Feld, dem Forschungsthema. Dies differenziert zwischen den Dimensionen der Expertenrolle, der Selbstkontrolle (bezüglich Anonymität und Verschwiegenheit), der Kontrolle persönlicher Eigenschaften und „Effekt-Typen“ (Abels und Behrens 2005, S. 181–185), der Stellung zu anderen Expert*innen, zur Umsetzung der Entscheidung und Strategie, der Beziehung (Abgrenzung) zur Interviewerin, insbesondere wenn diese kein Expertin im Feld ist und, was zu vermeiden ist, das Interview nicht auf Augenhöhe führen kann (Pfadenhauer 2005, 2007). Design und Instrument (Frageleitfaden) müssen bezüglich der erwähnten Differenzen eine klare, transparent dargestellte, theoretisch nach dem Forschungsstand begründete Auswahl treffen.

Unterschiede der Expertenrolle und Interviewdimensionen ebenso wie Effekte durch Fragen und Interviewerverhalten wirken vielfältig auf das Interview ein (Behrens und Hennig 2010, S. 249–255). Klärungsbedürftig ist die Auswahl der Expert*innen, die sich aus dem Design ergibt. Soll eine bestimmte Entscheidung hinsichtlich ihrer Expertisen rekonstruiert werden, soll die Beteiligung, die Rolle von Expert*innen im Themenfeld erforscht werden? Pluralität definiert sich jeweils anders. In jedem Fall sollte dem Einschluss weiblicher Expertinnen besondere Bedeutung beigemessen werden. Für die Auswahl stellen sich Fragen: Geht es um öffentliche oder nicht-öffentliche oder sogar geheime Anteile der Expertentätigkeit? Geht es um das Makro von Entscheidungsfindung oder um das Mikro von Politikerberatung und Evaluation? Ist die Expertin eher Analytikerin, Deuterin, „Agenda“-Setzerin oder Darstellerin (Legitimiererin, Performanzexpertin)? Wie unabhängig ist sie, wie ist sie zur Beraterrolle gekommen? Welche Hierarchie an Expert*innen und Wissenskulturen gibt es im jeweiligen Feld? Hinsichtlich der Pluralität sind verschiedene Expertenrollen, verschiedene wissenschaftlich beteiligte Organisationen und Institutionen, die Bedeutung der Geschlechter im Feld zu berücksichtigen. Die Anzahl der ausgewählten Expert*innen ergibt sich so aus der Analyse des Themas und des Feldes. Die Expert*innen selbst können im Interview nach vertiefenden und erweiternden weiteren Interviewpartnern befragt werden (Schneeballprinzip).

Der halbstandardisierte, zwischen den Expert*innen und Institutionen direkt vergleichende Anteil der Interviews drückt sich im Leitfaden aus. Der Leitfaden bezieht sich auf die theoretisch zugänglichen bzw. ausgewählten Themenaspekte und auf den im Design bezeichneten Rollenaspekt der Expert*innen. Diese theoriegeleiteten Fragen (zur Formulierung Diekmann 1995, S. 410–416) werden allen Expert*innen vom Allgemeinen hin zum Besonderen (Fragetrichter) in gleicher Form gestellt. Die offene Gesprächsführung verlässt die Vorstrukturierung und ermöglicht neben der Deduktion des Leitfadens eine interaktive Induktion hinsichtlich der Besonderheiten der Expertin und neuerer Aspekte des Themas. Dieser offene Teil des Interviews erlaubt es, im Forschungsprozess weitere Hypothesen zu generieren und über den Theoriestand hinaus auf weitere Themenbereiche, die im Feld eine Rolle spielen, zu stoßen. Die Interviewführung setzt voraus, dass die Interviewerin im Thema „zu Hause“ ist.

Die Auswertung erfolgt ergebnisoffen und folgt den thematischen Dimensionen des Frageleitfadens. Die Aussagen werden als Transkript zum Text. Die Transkriptionsregeln sind problemzentriert anzuwenden (Flick 1995, S. 242; Bortz und Döring 1995, S. 287). Aus dem Text lassen sich qualitative Variablen zur Beschreibung von Konfigurationen im Feld und unter Expert*innen gewinnen. Die Aussagenreichweite berücksichtigt Auswahl, Pluralismus und „Small N“ der Interviews (King et al. 1994). Keineswegs können einzelne Expert*innen unkontrolliert, ohne Blick auf den Pluralismus an Expert*innen im Feld als Zeug*innen ihres Amtes zitiert werden. Als alleiniger Königsweg sind Expert*inneninterviews nicht zu verwenden. Durch Triangulation (Flick 1995, S. 249 ff.), durch Kombination von für sich unabhängigen Quellen und Verfahren – Seikel (2013) verbindet die Befragung von Expert*innen mit einer Prozessanalyse – wird das Ausmaß der Subjektivität im Expert*inneninterview diskutierbar.

Expert*inneninterviews bleiben sperrig und aufwändig. Sie erfordern kompetente, erfahrene Interviewer*innen und Auswerter*innen und setzen ein elaboriertes Design voraus. Dann liefern sie dichte, reliabile (stabile, konsistente) Auskünfte von Akteuren über das Feld, über den Wissensstatus im Feld und über die Bewertung von Aktivitäten im Feld (Bahmad 2008). In Verbindung mit dem Kontext (Triangulation) bleiben Expert*inneninterviews eine wichtige Datenquelle, die nicht nur als Exploration einzustufen ist. Die Pluralität der Expert*innenauswahl erlaubt über die offenen Anteile des Instruments eine Kontrolle des Theoriestandes sowie der Befunde und deren Aussagenreichweite.

6 Qualitative Comparative Analysis

Die QCA als relativ junge Methode erfreut sich in letzten Jahren zunehmender Beliebtheit in den Sozialwissenschaften und besonders der Politikwissenschaft (Rihoux et al. 2013). Charles C. Ragin (1987) entwickelte QCA mit dem Anspruch, einen Mittelweg zwischen quantitativen und qualitativen Methoden zu gehen, der besonders geeignet für eine mittlere Fallzahl ist. Dennoch wird QCA meist vielmehr als qualitative bzw. fallorientierte anstatt als quantitative bzw. variablenorientierte Methode verstanden, da eine QCA auf einem holistischen Ansatz in dem Sinne fußt, dass jeder Einzelfall in seiner Komplexität als Ganzes erfasst werden soll und erst später in Form einer Konfiguration von Zahlen komprimiert wird, wobei während und nach der Analyse die Komprimierung der Daten nicht vergessen und qualitativ reflektiert werden sollte (Ragin 1987, 2013; Schneider und Wagemann 2009). In jüngster Zeit hat sich auch verstärkt ein Strang herausgebildet, der sich mit der Frage beschäftigt, inwiefern QCA zur Analyse einer höheren N-Zahl geeignet ist (z. B. Fiss et al. 2013; Vis 2012). Im Vergleich zu quantitativen Verfahren, die sich der linearen Algebra bedienen, basiert QCA hingegen auf der Booleschen Algebra (bzw. Fuzzy Algebra) und Mengenlehre. Mit Hilfe einer QCA lassen sich somit keine probabilistischen, sondern deterministische Aussagen über notwendige und hinreichende Bedingungen für ein bestimmtes Ergebnis auffinden, jedoch dient QCA weniger der Bestätigung als vielmehr dem Ausschluss potenzieller kausaler Bedingungen. Bei der Interpretation der Ergebnisse einer QCA sollte nicht vergessen werden, dass QCA nicht auf der Idee der Inferenz der schließenden Statistik aufbaut und deshalb die Generalisierbarkeit der Ergebnisse zunächst auf die Fallauswahl beschränkt bleibt. Mit Hilfe einer systematischen Fallauswahl wie dem Most Similar System Design lässt sich dagegen die Generalisierbarkeit von Aussagen für Fälle mit gleichen Rahmenbedingungen erhöhen (Mahoney 2000; Ragin 1987; Rihoux 2009; Schneider und Wagemann 2009).

Eine QCA dient der Suche nach notwendigen und hinreichenden Bedingungen für ein bestimmtes Ereignis, weshalb die unabhängigen Variablen als Bedingungen (conditions) und die abhängige Variable als outcome bzw. dessen Nichtauftreten als non-outcome bezeichnet werden. Bei einer QCA wird jeder Fall als eine spezifische Konfiguration kausal relevanter Bedingungen betrachtet und kodiert. In einem ersten Schritt werden deshalb für eine QCA alle Fälle für die berücksichtigenden Bedingungen und das outcome kodiert. Während zu Beginn QCA auf die Anwendung von crisp-sets beschränkt blieb und somit jede Bedingung als auch das outcome nur mit 0 oder 1 erfasst werden konnte, ermöglichte die Einführung von fuzzy-sets eine beliebige Abstufung zwischen 0 und 1. Nach der Kodierung aller Fälle folgt schließlich die Erstellung einer sogenannten Wahrheitstafel, mit deren Hilfe schließlich die Daten ausgewertet werden können. Im Gegensatz zu einer Datenmatrix werden bei einer Wahrheitstafel nicht nur die empirisch untersuchten Fälle, sondern alle logisch möglichen Konfigurationen der Bedingungen aufgelistet. Unabhängig von crisp-sets oder fuzzy-sets beschreibt eine 1 das Vorhandensein einer Bedingung und eine 0 das Nicht-Vorliegen der Bedingung in einer Wahrheitstafel. Die Anzahl der berücksichtigten Bedingungen bestimmt dabei die Anzahl der logisch möglichen Konfigurationen (2 k). Jeder Fall wird schließlich einer logisch möglichen Konfiguration zugewiesen, wobei es auch vorkommt, dass eine Konfiguration keinen oder mehrere Fälle aufweisen kann. Bei Vorliegen empirischer Fälle mit der gleichen Konfiguration von Bedingungen, aber unterschiedlichen outcomes, hilft die Wahrheitstafel bei der Suche nach möglichen Mess- oder Kodierungsfehlern und bisher vernachlässigten, jedoch relevanten Bedingungen (Amenta und Poulsen 1994; Caren und Panofsky 2005, S. 151–152; Ragin 1995; Schneider und Wagemann 2007, S. 43–48; Schneider und Wagemann 2009, S. 403–404). Bei der Auswertung einer Wahrheitstafel und zur Auffindung notwendiger und hinreichender Bedingungen wird schließlich auf die Mill‘sche Logik des Vergleichs und das Boolesche Minimierungsverfahren zurückgegriffen. Im Vergleich zur Mill’schen Logik des Vergleichs wie der Differenz- oder Konkordanzmethode kann QCA über monokausale Erklärungen hinaus allerdings auch komplexere kausale Wechselwirkungen zwischen mehreren Bedingungen untersuchen (Schneider und Wagemann 2007, S. 73–77; Jacobs 2009, S. 416–417).

Die Wahrheitstafel ist besonders hilfreich bei der Reflektion des Problems der begrenzten empirischen Vielfalt. Begrenzte empirische Vielfalt bedeutet, dass die Wirkung von sogenannten logischen Rudimenten – also Konfigurationen, für die kein empirischer Fall vorliegt – auf das outcome nicht empirisch überprüft werden kann. Da mit jeder zu berücksichtigenden Bedingung die Zahl möglicher Konfigurationen einer Wahrheitstafel exponentiell wächst, nimmt ebenfalls das Problem begrenzter empirischer Vielfalt zu, weshalb die Anzahl der Bedingung einer QCA möglichst gering gehalten werden sollte. Außerdem steigt häufig die Komplexität und damit Interpretierbarkeit einer Lösungsformel, je mehr Bedingungen bei einer QCA untersucht werden. Bei der Auswertung der Wahrheitstafel kann die Forscherin mit dem Problem logischer Rudimente auf zwei Arten umgehen. Entweder bleiben alle logische Rudimente unberücksichtigt oder die Forscherin weist jedem logischen Rudiment über „Gedankenexperimente“ anhand von theoriegeleiteten Annahmen ein outcome zu. Zwar kann auf beide Arten das Problem begrenzter empirischer Vielfalt nicht behoben werden, jedoch wird das Problem im Gegensatz zu anderen Methoden bei der Auswertung der Ergebnisse bewusst reflektiert (Ebbinghaus 2009, S. 201; Schneider und Wagemann 2007, S. 101–112).

Um dem strengen Determinismus von Aussagen einer QCA entgegenzutreten und stattdessen eine eher possibilistische Sichtweise von QCA zu stärken, entwickelte Ragin (2006) das Konsistenz- und das Abdeckungsmaß. Das Konsistenzmaß beschreibt den Prozentsatz der Fälle, die mit der durch eine QCA gefundenen Lösungsformel für hinreichende bzw. notwendige Bedingungen konsistent sind. Das Abdeckungsmaß hingegen misst den Prozentsatz der Fälle, die durch die Erklärung der Lösungsformel abgedeckt werden (Mahoney 2000, S. 396; Schneider und Wagemann 2007, S. 86–101).

Im Vergleich zu anderen qualitativen und quantitativen Methoden bietet QCA mehrere Vorteile. Erstens ist eine QCA besonders geeignet für eine mittlere N-Zahl, bei der andere qualitative Methoden überfordert und quantitative Methoden wegen der zu geringen Fallzahl nur unzureichend anwendbar sind. Zweitens werden bei QCA die Bedingungen nicht als unabhängig voneinander angesehen wie die unabhängigen Variablen bei quantitativen Methoden, sondern können sich gegenseitig bedingen, was auch als INUS-Kausalität bezeichnet wird. Einzelne Bedingungen sind häufig ein nicht hinreichender ( insufficient), aber notwendiger ( necessary) Teil einer nicht notwendigen ( unnecessary), aber hinreichenden ( sufficient) Kombination von Bedingungen für das outcome. Mit Hilfe von QCA lässt sich somit eine mögliche Äquifinalität (unterschiedliche Konfigurationen führen zum gleichen Ergebnis) erfassen, und zugleich stellt Multikollinearität (Korrelation zwischen unterschiedlichen unabhängigen Variablen) kein methodisches Problem dar. Drittens bietet QCA den Vorteil einer getrennten Analyse von notwendigen und hinreichenden Bedingungen für das outcome und das non-outcome und ist somit geeignet, asymmetrische Kausalitäten nachzuweisen. Das Nichtauftreten einer für das outcome hinreichenden Bedingung ist demnach nicht notwendigerweise eine hinreichende Bedingung für das non-outcome (vgl. Ragin 1994; Schneider und Wagemann 2007, 2009).

Trotz dieser Vorteile weist QCA auch viele Schwächen auf, die der Methode Grenzen setzen. Erstens wird häufig die Subjektivität bei der Kodierung der Fälle kritisiert, da die Forscherin als einziger über das ausreichende Expertenwissen für die Kodierung verfügt. Um die Intersubjektivität der Ergebnisse zu erhöhen, sollte sich die Auswahl der zu berücksichtigen Bedingungen an der bereits vorhandenen theoretischen und empirischen Literatur orientieren und sich nicht danach richten, bestimmte Ergebnisse zu erzielen. Auch der Schwellenwert für die Kodierung einer Bedingung sollte im Vorhinein festgelegt werden (Schneider und Wagemann 2009). Um des Weiteren die Reliabilität zu steigern, sollte zu Beginn klar dargelegt werden, aus welchen Merkmalen eine Bedingung besteht, wann ein Merkmal hinreichend für das Vorliegen einer Bedingung ist und inwiefern unterschiedliche Merkmale einer Bedingung additiv oder untereinander substituierbar für die Erreichung des Schwellenwertes sind. Dabei kann ein Extrem- bzw. Idealtypus als Ankerpunkt für die Kalibrierung dienen (Lauth 2009). Eine zweite Kritik an QCA richtet sich gegen die Nutzung von crisp-sets und die damit verbundene Dichotomisierung der Bedingungen und des outcome. Die Dichotomisierung sozialwissenschaftlicher Ereignisse stellt oft eine zu starke Simplifizierung der Wirklichkeit dar, die vor allem qualitativen Methoden nicht gerecht wird. Außerdem wird aus einer mathematischen Sichtweise eine größtmögliche Varianz künstlich erzeugt, wenn der Median als Schwellenwert bei der Dichotomisierung dienen sollte, da im Regelfall meistens um den Medianwert die Varianz von intervallskalierten Daten relativ klein ist. Wie bereits erwähnt, wurde dieser Kritik durch die Einführung von fuzzy-sets QCA (fsQCA) und multi value QCA (mvQCA) begegnet. So kann die Forscherin bei fuzzy-sets unterschiedliche Abstufungen vornehmen und somit die empirische Vielfalt eines sozialwissenschaftlichen Gegenstandes besser erfassen. Während sich eine crisp-sets QCA (csQCA) besonders für die Untersuchung einer kleinen bis mittleren Fallzahl anbietet, eignet sich fsQCA wegen ihres leicht probabilistischen Charakters eher für eine mittlere bis hohe Fallzahl (Pennings 2009; Rihoux 2009, S. 369–371; Schneider und Wagemann 2007, S. 173–112).

Drittens stellt die Erfassung der zeitlichen Dimension von empirischen Gegenständen QCA vor Probleme und Herausforderungen. So lässt sich mit Hilfe von QCA zwar der kausale Zusammenhang zwischen unterschiedlichen Bedingungen identifizieren, jedoch nur rudimentär die zeitliche Reihenfolge und der Pfad der Kausalität. Eine Antwort auf dieses Problem entwickelten Caren und Panofsky (2005) mit der sogenannten Temporal QCA (TQCA). Bei TQCA wird die Reihenfolge des Auftretens der Bedingungen berücksichtigt, wodurch allerdings das Problem der begrenzten empirischen Vielfalt erhöht wird, da die Anzahl der logisch möglichen Konfigurationen zunimmt. Caren und Panofsky (2005) und später Ragin und Strand (2008) zeigen jedoch, dass über theoretische Restriktionen und Festlegung von Sequenzen die Zahl der Konfigurationen auf eine handhabbare Größe reduziert werden kann. Eine weitere Möglichkeit der Berücksichtigung von Zeit ist die Aufnahme einer zeitlichen Bedingung oder die Definition der Bedingungen auf eine Art und Weise, dass eine zeitliche Dimension bereits berücksichtigt wird (Rihoux 2009, S. 376). Viertens wird häufig die Robustheit und Reliabilität der Ergebnisse einer QCA angezweifelt, da bei einer niedrigen Fallzahl bereits einzelne Mess- und Kodierungsfehler eine Hypothese widerlegen können. Dies gilt besonders bei der Anwendung von crisp-sets auf nicht dichotome Ereignisse (Lieberson 1991; Rohlfing 2009, S. 140). Dennoch zeigt Skaaning (2011) mit Hilfe von drei unterschiedlichen Robustheitstests durch die Veränderung des Schwellenwertes bei der Kodierung der Rohdaten, der Häufigkeit des Auftretens einer Konfiguration als auch der Veränderung der Konsistenzmaße, dass zwar die Lösungsterme variieren, aber sich nicht grundlegend unterscheiden.

Zur Auswertung kann die Forscherin auf freizugängliche Computersoftware zurückgreifen. Zur beliebtesten Software zählt Tosmana, mit dem sich eine csQCA sowie eine mvQCA durchführen lassen, und fs/QCA, das sowohl für csQCA, fsQCA als auch TQCA genutzt werden kann. Ein umfassendes Programm liefert die gleichnamige Software QCA, das ein Ergänzungspaket für die Programmiersprache R enthält. Für eine Übersicht über die Computersoftware für QCA und deren unterschiedlichen Funktionen siehe Thiem und Duşa (2013).

Ein anschauliches Beispiel für die Nutzung einer csQCA in den Internationalen Beziehungen bietet die Studie von Basedau und Richter (2014), in der anhand von 39 Ländern die Frage untersucht wird, warum manche erdölexportierende Länder mit Bürgerkriegen konfrontiert sind und andere nicht. Als Beispiel für die Anwendung einer fsQCA lässt sich die Untersuchung von Thiem (2011) nennen, in der mit Hilfe der vergleichenden Methode die Mitgliedschaft von europäischen Ländern in internationalen Rüstungskooperationen analysiert wird.

7 Triangulation in der qualitativen Forschung

Die einzelnen qualitativen Methoden sollten nicht als getrennt und unvereinbar miteinander verstanden werden; ein Methodenmix, also eine Triangulation unterschiedlicher qualitativer Methoden, birgt besondere Vorteile für eine qualitative Fallstudie. Triangulation meint im Allgemeinen die Betrachtung eines Forschungsgegenstandes aus unterschiedlichen Perspektiven und kann sowohl für Theorien als auch Methoden angewandt werden. In Bezug auf Methoden ist neben der Daten-Triangulation, also der Verwendung von Daten aus unterschiedlicher Bezugsquelle, und der Investigator-Triangulation, also dem Einsatz zum Beispiel unterschiedlicher Interviewer*innen bei einer Befragung, besonders die Triangulation innerhalb und zwischen den Methoden hervorzuheben (Flick 2012). Ziel einer Triangulation im methodischen Sinne ist es, über die Kombination unterschiedlicher Methoden die Schwächen eines Verfahrens durch die Vorteile eines anderen Verfahrens auszugleichen und dadurch die Validität einer Untersuchung zu erhöhen (Pickel 2009, S. 518).

Qualitative Methoden lassen sich durch eine Triangulation gewinnbringend ergänzen und können die Validität qualitativer Forschung erhöhen. So sind etwa Expert*inneninterviews mit politischen Entscheidungsträger*innen besonders geeignet, an Insiderwissen, das einer Forscherin ansonsten verwehrt bliebe, zu gelangen, um eine solide Analyse aufbauend auf der Methode des process tracing durchführen zu können (Tansey 2009). Des Weiteren kann zum Beispiel aufbauend auf einer QCA eine gezielte Fallauswahl für eine Fallstudie oder einen Vergleich zweier Fälle mit Hilfe des process tracing getroffen werden. Die Ergebnisse des process tracing können wiederum Hinweise auf vernachlässigte Bedingungen oder Kodierungsfehler geben, die schließlich in einem QCA-Modell Berücksichtigung finden können (Schneider und Rohlfing 2013a, b). Auch in ethnografischen Studien wird auf eine Methodentriangulation von zum Beispiel teilnehmenden Beobachtungen und Interviews zurückgegriffen (Flick 2012, S. 314).

Aber auch eine Triangulation von qualitativen und quantitativen Methoden birgt Vorteile für empirische Untersuchungen. Zwar unterscheiden sich die qualitativen Methoden mit ihrer idiografischen Herangehensweise grundlegend von quantitativen Methoden, die einen nomothetischen Anspruch haben, dennoch können durch eine Triangulation qualitativer und quantitativer Methoden die Schwächen der jeweiligen anderen Methode beseitigt werden und dadurch die Aussagekraft und Validität einer empirischen Untersuchung gesteigert werden (Flick 2012). Zum Beispiel können qualitative Verfahren zur Hypothesengenerierung herangezogen werden, während die anschließende Hypothesenüberprüfung durch quantitative Methoden erfolgt. Umgekehrt kann über quantitative Methoden eine Fallauswahl, zum Beispiel für eine qualitative Untersuchung abweichender Fälle, getroffen werden. Doch nicht nur die sequenzielle Kombination qualitativer und quantitativer Methoden, sondern auch die parallele oder abwechselnde Kombination kann je nach Forschungsgestand nützlich sein. Dennoch sollten trotz der Vorteile einer Triangulation nicht die Nachteile übersehen werden. So bedarf eine Triangulation eines übergreifenden Wissens unterschiedlicher Methoden. Sie ist häufig zeit- und kostenintensiv und benötigt mehrere Forscher*innen. Und der Drang, ein einheitliches Ergebnis zu erlangen, kann die Unvereinbarkeit der Ergebnisse qualitativer und quantitativer Verfahren überdecken (Pickel 2009, S. 520–522). Über eine Triangulation hinausgehend, ist aber auch eine Hybridisierung unterschiedlicher Methoden denkbar. So verweisen zum Beispiel Fiss et al. (2013) auf die Möglichkeit einer Hybridmethode, bei denen Elemente von QCA und der Regressionsanalyse miteinander verknüpft werden.

8 Schlussbetrachtung

In den letzten Jahrzehnten konnten sich u. a. aufgrund der sozialkonstruktivistischen Wende qualitative Methoden auch in den Internationalen Beziehungen verstärkt etablieren. Im Gegensatz zu quantitativen Methoden folgt die qualitative Forschung eher dem Erkenntnisprinzip des Verstehens anstatt des Erklärens. Die qualitative Forschung weist im Vergleich zu quantitativen Verfahren zugleich Vorteile auf, die sie zu einem hilfreichen Instrument in den Internationalen Beziehungen werden lässt. Vorteile der qualitativen Forschung sind zum Beispiel ihre Offenheit für neue und bisher vernachlässigte Variablen oder die besondere Eignung zur Überprüfung von Kausalitäten, die über einen Test von Korrelationen hinausgeht. Auf der anderen Seite weisen qualitative Methoden jedoch auch Nachteile, wie die geringe Generalisierbarkeit von Aussagen oder ihren hohen Arbeitsaufwand, auf. Am Ende sollte sich die Auswahl der von der Forscherin genutzten Methode nicht nach ideologischen Vorstellungen richten, sondern nach der entsprechenden Fragestellung.

In den Internationalen Beziehungen bietet sich die qualitative Forschung besonders an für: erstens, explorative Studien bei bisher unerforschten jungen Politikfeldern; zweitens, induktiven Studien zur Hypothesengenerierung; drittens, Überprüfungen von Kausalitäten und komplexen Zusammenhängen sowie viertens empirische Gegenstände, die nur in geringer Fallzahl vorkommen oder sich aus pragmatischen Gründen nur in kleiner Fallzahl untersuchen lassen. Qualitative und quantitative Methoden sollten allerdings nicht als unvereinbares Gegensatzpaar verstanden werden, sondern vielmehr als einander ergänzende Instrumente. So lassen sich beide Methodenstränge durch eine Triangulation gewinnbringend miteinander verbinden. Besonders bei der Triangulation qualitativer Methoden untereinander und in Verbindung mit quantitativen Methoden besteht jedoch noch Forschungsbedarf für Methodiker*innen und Empiriker*innen.