Schlüsselwörter

1 Einleitung

Ich danke Matthias Leese und Frank Sauer für ihre hilfreichen Kommentare zu früheren Versionen.

Während noch vor einigen Jahren die Frage des Internets kein zentraler Aspekt der Internationalen Beziehungen (IB) war, ist die Digitalisierung heute faktisch Element jedes ihrer Teilgebiete (Herrera 2002; Aradau 2010; Mueller 2010; Fritsch 2011; Salter 2015). DigitaleFootnote 1 und vernetzte Technologie verändert unsere private, aber auch politische Kommunikation. Vor zehn Jahren noch undenkbar, gehört die Reportage von Politiker-Tweets mittlerweile zur allgemeinen Berichterstattung. Im Jahr 2020 wurden in Deutschland 70 Mrd. Euro Umsatz mit E-Commerce generiert (Statista 2021). Künstliche Intelligenz, die Gefahr von Überwachung und das Potenzial von Big Data spielen eine zentrale Rolle in breiteren gesellschaftlichen Debatten über Gesundheitsvorsorge oder Klimawandel (Voelkner 2011; Rothe 2017; Elbe und Buckland-Merrett 2019). Darüber hinaus ist Cybersicherheit in all ihren Facetten essenziell für nationale und individuelle Sicherheit, weshalb digitale Technologie auch ein Kernthema der IB darstellt (Dunn Cavelty 2007; Bigo 2012). Die politische Bedeutung von Technologie ist so vielschichtig, dass deren Zusammenfassung innerhalb eines Kapitels nicht möglich ist. Ich werde daher nicht auf das große Gebiet der Technologieforschung im Bereich Militärstrategie und Kriegsführung und auch nicht auf kulturelle Phänomene wie soziale Medien eingehen. Stattdessen wird der Fokus zunächst auf theoretischen Ansätzen liegen, die vor allem die sozio-politischen Aspekte von Technologie hervorheben. Empirisch werde ich mich auf Internet Governance (IG) und Sicherheitspolitik beschränken. Dies bedeutet auch, dass der Fokus auf digitalen Technologien liegt. Das Kapitel durchzieht drei Themen: a) die Ambivalenz des Staates, b) die Betonung qualitativer Methoden und c) die sozialtheoretische Einbettung von Technologieforschung. Der Rest der Einleitung wird diese Themen nacheinander erläutern.

Es folgt zunächst die Betrachtung der Rolle des Staates. Vor allem seit Edward Snowdens Enthüllungen über die Kooperation von Nachrichtendiensten und globalen Unternehmen gibt es öffentliche Debatten über die Macht des Staates und die Fähigkeiten zur Massenüberwachung (Bauman et al. 2014; Schulze 2015). Der Staat wird hier als Bedrohung für die Freiheit der Bürgerinnen angesehen. Seine ambivalente Rolle zeigt sich auch in neueren Diskussionen zum Thema Fake News (Allcott und Gentzkow 2017; Bakir und McStay 2018; Creech 2020; Dutsyk und Dyczok 2020). Einerseits wird der Staat aufgefordert soziale Netzwerke stärker zu kontrollieren, um die Verbreitung von Fake News zu verhindern, andererseits ist es gerade für Demokratien essenziell, dass er nicht in die mediale Berichterstattung eingreift (Monsees 2020a). Der Staat ist nach wie vor die zentrale Instanz, um die Macht von Privatfirmen zu kontrollieren und einzuhegen sowie die Rechte der Bürgerinnen zu schützen. Aber er stellt durch Überwachung auch eine Bedrohung für bestimmte Personen dar. Dies zeigt der Skandal vom Juli 2021, bei dem bekannt wurde, dass autokratische Staaten wie Saudi-Arabien Spionagesoftware des israelischen Unternehmens NSO Group Technologies nutzen, um im Ausland lebende Dissidenten auszuspionieren. Auch das Bundeskriminalamt (BKA) hat diese Software genutzt, ohne dass das konkrete Ausmaß öffentlich bekannt ist (Reuter 2021). Die Rolle des Staates werde ich vor allem in dem Abschnitt über IG und Sicherheitspolitik diskutieren. Hier wird dann genauer auf seine ambivalente Rolle als Garant, aber auch Bedrohung von Sicherheit eingegangen.

Ein zweites zentrales Thema der Diskussion bildet die Hinwendung zu qualitativen Methoden sowie dem Fokus auf Praktiken wie Design und Implementierung. Klassische IB-Theorien berücksichtigen Technologie häufig als Hintergrundvariable, die bestimmte Arten von Kriegsführung ermöglicht (Reppy 1990; McCarthy 2013). In diesem Kapitel soll es jedoch vorrangig um Ansätze gehen, die sie ins Zentrum ihrer Analyse setzen, indem beispielsweise untersucht wird, wie bestimmte Technologie designt und implementiert wird und wie sie in politische Debatten eingebettet ist. Daher ist die Technologieforschung, wie schon Leese argumentiert, geprägt durch

„eine stärkere Hinwendung zu qualitativ-empirischer Feldforschung […] einschließlich einer graduellen methodischen Verschiebung weg von der Analyse von Dokumenten, Diskursen oder Datensätzen und hin zu interaktionistischer Datengenerierung in Kontexten von Technologieentwicklung, Implementierung und Einsatz“ (Leese 2021, S. 166).

Diese Fokussierung auf qualitative Methoden und Mikro-Praktiken bildet einen Trend in den IB, der nicht nur in der Technologieforschung, sondern auch in anderen Debatten der Disziplin, beispielsweise Praxistheorie oder Ethnografie (Bueger und Gadinger 2015; Solomon und Steele 2017; Aradau et al. 2015), zu beobachten ist.

Drittens stellt sich die Frage nach der sozialtheoretischen Einbettung von Technologieforschung. Bei der Untersuchung des Wandels staatlicher Macht im Kontext digitaler Technologie sollte weder der Fehlannahme gefolgt werden, dass alles im Bereich Digitalisierung immer neuartig ist, noch sollten die fundamentalen Verschiebungen durch vernetzte und digitale Technologie übersehen werden. Gerade in den letzten Jahren entstanden daher zunehmend sozialtheoretische Angebote, um die Veränderungen durch die Digitalisierung auf den Punkt zu bringen. Ein Beispiel bildet das Konzept des Datenkolonialismus. ‚Data Colonialism‘ bezeichnet jene Entwicklung, bei der Daten aus immer mehr Teilbereichen des Lebens extrahiert werden. Couldry and Meijas beschreiben dies wie folgt:

„Platforms are a key means whereby the general domain of everyday life, much of it until now outside the formal scope of economic relations, can be caught within the net of marketization. […] Put another way, ordinary social interaction has come to contribute to surplus value as a factor of production, just like seed or manure. […] The implications of this therefore extend beyond labor to many other aspects of life which until now were not regarded as ‚economic relations‘ at all, but come to be incorporated within a vastly expanded production process.“ (Couldry und Mejias 2019, S. 341, 343)

Digitale und vernetzte Technologie umfasst demnach nicht einen Lebensbereich unter vielen, sondern strukturiert sowohl ökonomische als auch zunehmend soziale Beziehungen. Vor allem in den media studies und science and technology studies (STS) liegt der Fokus nicht nur auf der Analyse einzelner Technologien, sondern auch darin zu verstehen, wie diese Gesellschaft formen.

2 Theoretische und methodologische Fragen in der Technologieforschung

Bezüglich des Verhältnisses von Technologie und Politik stellt sich die grundsätzliche Frage, ob technologischer Fortschritt weitgehend unabhängig von politischem und sozialem Wandel erfolgt und ob Technologien inhärent bestimmte Werte verkörpern (Winner 1980; Herrera 2002; McCarthy 2013). Der technologische Determinismus beantwortet beide Fragen mit einem (fast) uneingeschränkten Ja (Feenberg 1999). Sally Wyatt hat jedoch überzeugend argumentiert, dass er als theoretische Annahme in dieser Hinsicht ausgedient hat (Wyatt 2008). Trotzdem begegnen wir deterministischen Denkmustern immer noch in gesellschaftspolitischen Debatten sowie als implizite Annahme in IB-Theorien (McCarthy 2013, S. 479). Technologischer Determinismus existiert in mehr oder weniger ‚radikalen‘ Ausprägungen. Demnach wird sozialer Wandel von technologischen Entwicklungen nicht nur verursacht (schwache Variante), sondern auch determiniert (starke Variante). Dies wird selten so explizit formuliert, ist aber meist eine implizite Annahme von Forscherinnen, wenn zum Beispiel davon ausgegangen wird, dass bestimmte technologischen Entwicklungen ‚natürlich‘ für mehr Wirtschaftswachstum, Konnektivität etc. sorgen. Doch Erfindungen und wissenschaftlicher Fortschritt sind immer auch abhängig von sozialen und politischen Strukturen. Die Dampfmaschine wurde beispielsweise einige Jahrhunderte früher in der arabischen Welt erfunden, aber nicht in dem Maße eingesetzt wie einige Jahrhunderte später im Zuge der industriellen Revolution. Auch wenn argumentiert werden könnte, dass das Internet aufgrund seiner Netzwerkstruktur inhärent demokratisch ist, zeigt sich doch, dass es auch hierarchische und oligopolistische Strukturen reproduzieren kann. Für eine politikwissenschaftliche Analyse ist es unabdinglich, monokausale und deterministische Zuschreibungen zu vermeiden. Langdon Winner bringt die zentrale Frage wie folgt auf den Punkt:

„If we examine social patterns that comprise the environments of technical systems, we find certain devices and systems almost invariably linked to specific ways of organizing power and authority. The important question is: Does this state of affairs derive from an unavoidable social response to intractable proper ties in the things themselves, or is it instead a pattern imposed independently by a governing body, ruling class, or some other social or cultural institution to further its own purposes?“ (Winner 1980, S. 131)

Solche grundlegenden Fragen bleiben relevant zum Beispiel für die Diskussion, ob soziale Netzwerke an sich bestimmte Effekte haben oder nicht. Winners These ist der Ausgangspunkt für STS. Technologische Entwicklungen werden hier nicht losgelöst von Gesellschaft verstanden, sondern weitergehend: Der ‚Erfolg‘ einer bestimmten Technologie ist nicht ‚natürlich‘, sondern ein Resultat sozialer Prozesse. Erst diese Annahme ermöglicht es, die Entwicklung, Implementierung und Bewertung von Technologien aus sozialwissenschaftlicher Perspektive zu untersuchen. Während zunächst aufbauend auf Thomas Kuhn vor allem die sozialwissenschaftliche Erforschung von Wissen (study of scientific knowledge, SSK) im Vordergrund lag, wandelte sich der Fokus im Laufe der 1980er-Jahre hin zur Erforschung von Technologie und ihrem sozialen Charakter (social construction of technology, SCOT) (Bijker 2010; Pinch und Bijker 1984; für eine ausführliche Kritik siehe Winner 1993). SCOT hat in den IB vergleichsweise wenig Aufmerksamkeit erregt, obwohl die soziologische Herangehensweise durchaus Potenzial hat (siehe dafür den exzellenten Aufsatz von Barry und Walters 2003). Der Fokus liegt auf der historischen Analyse von Technologieentwicklung und hier insbesondere auf deren Beeinflussung durch soziale Gruppen und Umweltfaktoren. Laut SCOT sollte eine monokausale, lineare Geschichte technologischer Entwicklung vermieden werden. Der Ansatz legt den Fokus auf die Rolle sozialer Gruppen, (Pinch und Bijker 1984, S. 415), da diese die zentrale Problembeschreibung bestimmen und damit auch festlegen, wann eine Technologie ‚erfolgreich‘ ist. Anschauliches Beispiel hierfür ist die Entwicklung des Fahrrads: Ein Fahrrad mit Fahrradkette und zwei gleich großen Rädern ist nur das Resultat verschiedener Varianten, die alle zu einem bestimmten Zeitpunkt favorisiert wurden (Pinch und Bijker 1984, S. 411). Manche Fahrradmodelle wurden bevorzugt, weil sie schnell waren, andere, weil sie sicher waren, und wieder andere, weil sie Frauen erlaubten im Frauensitz zu fahren. Erst am Ende dieser Aushandlungsprozesse ‚stabilisiert‘ sich eine Technologie und wird als die ‚beste‘ Variante anerkannt. Aus soziologischer Perspektive kann rekonstruiert werden, welche sozialen Gruppen sich durchsetzen konnten, ohne gleich anzunehmen, dass sich die objektiv beste Variante etabliert hat. SCOT führt damit das Symmetrieprinzip ein: Erfolg und Misserfolg von Technologie sind analytisch symmetrisch zu behandeln. Beides muss mit Verweis auf soziale Faktoren erklärt werden und nicht damit, dass eine Variante des Fahrrads objektiv besser ist als die andere.

Dieses Symmetrieprinzip wurde im Rahmen der Akteur-Netzwerk Theorie (ANT) weiterentwickelt und auch auf die Symmetrie von menschlichen und nichtmenschlichen Akteuren angewendet (Mol 2010, S. 255 siehe auch das Kapitel von Voelkner). ANT wurde zur Analyse von Staatskonzepten (Passoth und Rowland 2010), Finanzinfrastruktur (Lagerwaard 2020) oder Cybersicherheit (Balzacq und Cavelty 2016) genutzt. Sie ist besonders geeignet aufzuzeigen, wie Personen, Objekte und Technologien in ein (temporär) stabiles Netzwerk verwoben sind, dass somit Sozialität herstellt. Gesellschaftliche Strukturen werden als instabiler angenommen, als das in der klassischen Soziologie häufig der Fall ist (Latour 2010). Daraus resultiert ein zentraler Kritikpunkt an der ANT: Weil Gesellschaft als generell fluide und instabil beschrieben wird, gibt es einen ‚blinden Fleck‘ für Makrostrukturen (Koddenbrock 2015). Aufgrund dessen blendet die ANT normative Fragestellungen aus oder ist sogar politisch problematisch, da sie sedimentierte Strukturen von Ungleichheit und Kolonialismus übersieht (Anderson und Adams 2007). Doch ungeachtet dieser Kritikpunkte ist die ANT ein weit verbreiteter Ansatz der IB, um den Einfluss digitaler Technologie zu untersuchen. Sie erlaubt es, den analytischen Fokus auf ebenjene Technologien zu legen, die die in den traditionellen IB vorausgesetzten Phänomene erst erzeugen. ‚Sicher‘ und ‚Unsicher‘ sind beispielsweise keine natürlichen Attribute von Personen oder Gegenständen, sondern werden durch Sicherheitspraktiken erst erstellt. Beispielsweise generieren am Flughafen Bodyscanner und andere Technologien ‚Sicherheit‘ als Resultat sozio-technologischer Praktiken (Schouten 2014; Komasová 2021). Die ANT ist damit eine der weitverbreitetsten Theorien in der IB-Technologieforschung. Auch wenn die Theorie auf Kritik stößt, erlaubt die ethnomethodologische Herangehensweise eine empirische Erweiterung traditioneller IB-Forschung.

Als weiterer Ansatz ist der Neue Materialismus zu nennen (Haraway 1997; Barad 1998; Coole und Frost 2010; Tsing 2015; Hayles 2017). Er ist wie alle Label problematisch, da damit nicht immer präzise eine Anzahl theoretischer Linien zusammengefasst werden (siehe dazu das Kapitel von Voelkner). Ein zentraler Gedanke ist jedoch, dass die Grenzziehung zwischen Natur und Kultur, Mensch und Maschine auf ontologischer Ebene empirisch nicht immer eindeutig ist. ‚Agency‘ (Akteursmacht) wird hier nicht klassisch als intentionale und reflektierte Handlungsmacht verstanden (Emirbayer und Mische 1998). Zudem werden kognitive Fähigkeiten nicht unbedingt mit menschlicher Intentionalität oder Selbstwahrnehmung gleichgesetzt (du Plessis 2017). Der Neue Materialismus ist nicht nur für die Technologieforschung relevant, sondern zunehmend auch für sozialtheoretische Debatten. Wie in der Einleitung erwähnt verändern Big Data und maschinelles Lernen gesellschaftliches Zusammenleben grundsätzlich. Theoretikerinnen wie die Feministin Donna Haraway beschäftigen sich daher nicht nur mit Technikentwicklung, sondern theoretisieren auch soziales Zusammenleben im Anthropozän (Haraway 1991).

Ein Beispiel für Neuen Materialismus und digitale Technologie ist die Arbeit von Katherine Hayles, die sich mit künstlicher Intelligenz auseinandersetzt (Hayles 2017). Laut der Autorin können menschliche und nichtmenschliche Aktanten kognitive Assemblagen bilden. Diese treffen Entscheidungen, ohne dass diese am Ende auf einen bestimmten Akteur zurückzuführen wären. Hayles glaubt nicht, dass Entscheidungen nur bei menschlichen Akteuren liegen, und gerade daraus ergeben sich komplexe ethische Fragen. Neuere technologische Entwicklungen führen zu einer „machine-machine ecology that has largely displaced the previous mixed ecology of machines and humans“ (Hayles, 2017, S. 142). Gerade im Bereich Finanzen und High-Frequency Trading (Hayles 2017, Kap. 5) verursacht dies jedoch auch katastrophales Versagen (Hayles 2017, S. 142–143). Dass die Grenze zwischen menschlichem und technischem Handeln verschwimmt, ist für Hayles demzufolge auch kein Grund dafür, Technologie zu überhöhen, sondern ein Aufruf für ein dezidiertes Auseinandersetzen mit der Wirksamkeit kognitiver Assemblagen. Der Neue Materialismus kann wertvolle Impulse für die Debatte über Phänomene wie künstliche Intelligenz geben, gerade weil die Unterscheidung zwischen Kultur und Natur, Mensch und Maschine problematisiert wird.

In diesem Abschnitt habe ich zentrale Ansätze der Technologieforschung vorgestellt. Vor allem konstruktivistische und poststrukturalistische Annahmen haben die STS geprägt und finden auch zunehmend Einzug in die IB. Dies impliziert nicht, dass es sich hierbei um die einzigen Ansätze in den IB handelt, aber sie erlauben einen stärkeren analytischen Fokus auf Technikentwicklung und -implementierung (siehe dazu auch: Leese 2021). In diesem Abschnitt wurde auch deutlich, dass es eine Präferenz für qualitative und interpretative Methoden gibt. Aus Platzgründen habe ich die Rolle des Staates nicht weiter diskutieren können, aber hier sind vor allem die Arbeiten von Sheila Jasanoff zu nennen, die zur Ko-Produktion von staatlichen Strukturen und Technologie gearbeitet hat (Jasanoff 2005, 2010). Damit hängt auch der Anspruch zusammen, durch die Erforschung von Technologie Aussagen über Gesellschaft treffen zu können. Dies zeigt sich in den Arbeiten von Bruno Latour und Anna Tsing, die nicht nur spezifische Objekte untersuchen, sondern auch gesellschaftliche Strukturen. Gerade dadurch wird die Technologieforschung für die IB nicht nur aufgrund ihres empirischen Gehalts, sondern auch ihrer konzeptionellen Arbeiten relevant (Bellanova et al. 2020).

3 Digitalisierung und internationale Politik

Im Folgenden werde ich die zwei größten Forschungsfelder vorstellen, in denen die Frage nach Technik, Digitalisierung und internationaler Politik verhandelt wird.Footnote 2 Zunächst werde ich das Gebiet der IG erläutern. Hier zeigen sich die in der Einleitung genannten elementaren Themen: Die Frage nach der Rolle des Staates im Kontext des globalen Charakters des Internets war und ist zentral für die entsprechenden Debatten. Wir können zudem ein gesteigertes Interesse an den Praktiken von IG beobachten – von Dimitry Epstein und Kollegen als ‚Doing Internet Governance‘ bezeichnet (Epstein et al. 2016). Konzepte wie Platform Governance zeigen nicht nur die gesellschaftliche Bedeutung vernetzter Technologien auf, sondern erlauben auch eine stärkere sozialtheoretische Rückbindung. Im zweiten Abschnitt stelle ich das eng verwandte Feld der Internetsicherheit dar, das zumindest teilweise Schnittmengen mit der IG-Forschung hat. Auch hier werde ich erläutern, wie ebenso im Bereich Sicherheit ein zunehmender Fokus auf die Praktiken erfolgt und wie die ambivalente Rolle des Staates debattiert wird.

3.1 Von Internet Governance zu Platform Governance

Das Internet ist zentral für heutige Gesellschaften. Auch wenn andere Technologien wie der Buchdruck oder das Radio tiefgreifende Änderungen der Gesellschaft hervorgerufen haben, zeichnet sich ‚das Internet‘ gerade dadurch aus, dass es sich ständig weiterentwickelt. Während Protokolle für E-Mails sich nicht grundlegend geändert haben, unterliegt die genaue Ausgestaltung des Internet einem ständigen Wandel. Die aktuellen mobilen Endgeräte und sozialen Netzwerke eröffnen vollkommen andere Kommunikationsmöglichkeiten als das frühe World Wide Web. Die Zukunft scheint vor allem in der Vernetzung von Endgeräten (Internet der Dinge) und in maschinellem Lernen zu liegen. Während einige Autoren daher heute nicht mehr ‚das Internet‘ als analytischen Fokus sehen, ist das Feld IG gerade in Deutschland ein bedeutendes Forschungsfeld. Seine Relevanz bringen eine der Pionierinnen in diesem Feld, Laura deNardis, und ihre Kollegen auf den Punkt:

„An outage in cyberspace is an outage of the global economy. Internet policies also profoundly affect individual civil liberties and political discourses around elections. Governments have recognized that Internet governance has become a proxy for state power in areas ranging from cyber conflict to systems of filtering and censorship.“ (DeNardis et al. 2020, S. 1)

Die Frage, wer Tiefseekabel und Server schützt oder welche Verschlüsselung zur Verfügung steht, beeinflusst die nationale Sicherheit, aber auch individuelle Aspekte von Privatsphäre und die Möglichkeit der freien Meinungsäußerung. IG beschäftigt sich daher nicht mit den konkreten Inhalten von sozialen Medien, sondern mit „mechanisms of control beneath the surface layer of content, such as algorithmic ordering, security, platform affordances“ und Policies, die von staatlichen und nichtstaatlichen Akteuren erlassen werden (DeNardis et al. 2020, S. 6). Ebendiese Institutionen sowie formelle und informelle Prozesse stellen das Funktionieren des Internets sicher. Im Folgenden werde ich die verschiedenen Phasen der IG-Forschung chronologisch darstellen.

Laut Mueller und Badiei beginnt die erste Phase der IG-Forschung Mitte der 1990er-Jahre (Mueller und Badiei 2020, S. 60). Anfänglich wurde vor allem aus juristischer Perspektive untersucht, inwiefern ‚cyberspace‘ als ‚space‘ verstanden werden kann (Cohen 2007). Während die erste Generation von Netzaktivisten den Cyberspace als Raum jenseits staatlicher Kontrolle forderte, war es aus juristischer Sicht essenziell, den virtuellen Raum zu legalisieren (Barlow 1996; Denning 1996). Das Internet wurde jedoch schnell zu einem Massenmedium und kommerzielle Interessen bestimmten schon die Debatte. Dies zeigt sich insbesondere an der Auseinandersetzung über die globale Verbreitung von Verschlüsselung (May 1992; Saco 2002). Aktivisten und kommerzielle Akteure vertraten ähnliche Interessen und konnten dadurch erfolgreich die Pläne der US-Regierung zur stärkeren Kontrolle von Verschlüsselung und damit auch digitaler Kommunikation durchkreuzen (Diffie und Landau 1998). Die Netzaktivisten setzten sich durch und starke Verschlüsselung Kommunikation wurde möglich. Dies bedeutete jedoch auch, dass die Kommerzialisierung des Internets begünstigtFootnote 3 und die Idee von einem anarchistischen Raum vollends utopisch wurde.

Als zweite Phase identifizieren Mueller und Badiei die politischen Auseinandersetzungen über die ‚Internet Corporation for Assigned Names and Numbers‘ (ICANN) und des ‚Domain Name System‘ (DNS). Die ICANN wurde im Jahr 1998 gegründet. In den frühen Tagen des Internets hatte John Postel als Einzelperson die Aufgabe, IP-Adressen und Top-Level-Domains (.com, .org) zuzuweisen. Diese Aufgabe wurde aber zunehmend zu groß für eine einzelne Person. ICANN sollte als eine private Institution handeln und die Aufgabe übernehmen, erhielt jedoch starke Kritik aufgrund des Einflusses der US-Regierung (Mueller 1999; Klein 2002), da dies deren dominierende Rolle zementierte (Mueller und Badiei 2020, S. 64). ICANN beruht auf dezentralen Strukturen mit mehreren (privaten und staatlichen) Stakeholdern und gilt damit als ein einschlägiges Beispiel für Multistakeholder Governance (Hofmann et al. 2016). Die Debatten über Multistakeholder Governance wurden in der nächsten Phase intensiviert.

Phase Drei beginnt für Mueller und Badiei in den frühen 2000er-Jahren. Hier konsolidierte sich das Forschungsfeld und obwohl ICANN ein Streitpunkt blieb, erweiterte es sich (Mueller und Badiei 2020, S. 67–68), da die Handlungsfelder und Akteure zunahmen, als Probleme wie beispielsweise Content Blocking oder Datenschutz aufkamen. Auch Fragen von nationaler und internationaler Sicherheit sind seitdem ein elementarer Bestandteil von IG (dazu unten mehr). In dieser Zeit bildete sich IG auch zunehmend als eigenständiges Feld heraus, in dem aus politikwissenschaftlicher Sicht Fragen von Rechten, Autorität und Legitimität verhandelt wurden (Dahlgren 2005; Drezner 2009; Mueller 2010). Das Konzept der Multistakeholder Governance ist dabei zentral. Es bezieht sich darauf, dass die Regulierung von vernetzten Technologien durch die Koordination staatlich und nichtstaatlicher Akteure erfolgt, die in verschiedenen Formaten versuchen, vernetzte Technologie zu steuern. DeNardis und Raymond definieren es wie folgt:

„In the most general terms, multistakeholderism entails two or more classes of actors engaged in a common governance enterprise concerning issues they regard as public in nature, and characterized by polyarchic authority relations constituted by procedural rules.“ (DeNardis und Raymond 2013, S. 574)

IG-Forschung bedeutet dementsprechend, dass der Fokus auf juristischen und Governance- Perspektiven liegt. Technologie ist hier vor allem Objekt des Regierens.

Zurzeit befinden wir uns in der vierten Phase, die sich insbesondere durch Debatten zu Überwachung und Versicherheitlichung auszeichnet. Hierbei können Edward Snowdens Veröffentlichungen zur Kooperation von Privatunternehmen mit Geheimdiensten bei der Überwachung und Analyse von digitalen Daten als zentraler Einschnitt angesehen werden (Ball et al. 2013; Lyon 2014; Steiger et al. 2017). Spätestens seit dem Jahr 2013 sind Fragen von individueller Privatsphäre und Sicherheit, die Macht globaler Konzerne und die Möglichkeiten staatlicher Kontrolle maßgeblich für politische, aber auch akademische Debatten. Konzeptionell ist es eine wesentliche Herausforderung, wie diffuse und dezentrierte Überwachungspraktiken analytisch gefasst werden können. Metaphern wie das Panoptikon beruhen auf der Idee eines Zentrums, von dem aus die Überwachung geschieht, doch die dezentralen Praktiken sind eher durch Konzepte wie Assemblage zu greifen (Haggerty und Ericson 2000; Elmer 2012). Damit wäre auch wieder die Verbindung zu STS-Ansätzen und dem Fokus auf fluide Praktiken hergestellt (Jeandesboz 2016). Diese Hinwendung zu STS, Mikropraktiken und der Technologie an sich bestimmen zugleich die Entwicklungen im Feld IG in den letzten Jahren (Epstein et al. 2016). Dies zeigt sich beispielsweise in der Schwerpunktsetzung auf Infrastrukturen, die nicht nur als Objekte von Regulierungsbemühungen gesehen werden, sondern auch als ‚aktive‘ Entitäten die Regulierung ermöglichen – oder verhindern (Westermeier 2020; Bueger und Liebetrau 2021). Hierfür ist es nicht nötig, eine Akteurskraft von Gegenständen zu postulieren, sondern es geht darum anzuerkennen, dass die materielle Infrastruktur bestimmte Handlungen ermöglicht – oder blockiert (Aradau 2010). Statt also nach der Effiktivität von Politiken zu fragen, geht es darum, das „entanglement of technology and social practices and the ordering effects of processes of digitalisation and datafication“ zu verstehen (Flyverbom 2016, S. 2, eig. Hervorh.).

Flyverbom spricht hier von ‚odering effects‘, denn um die Effekte von digitaler Technologie greifen zu können, sind nicht mehr nur ihre Regulierung und ihr legaler Status relevant, sondern auch das Einwirken von digitalen Plattformen in soziale Strukturen. Im Bereich IG gibt es daher ein immer stärkeres Interesse an sozialtheoretischer Reflexion. Algorithmic Governance oder Platform Governance spiegeln aktuelle Entwicklungen daher besser wider als der Begriff Internet Governance (L. DeNardis et al. 2020, S. 26–27) und erlauben einen expliziteren Blick auf soziale und wirtschaftliche Beziehungen als Ganzes. Auch wenn Plattformen sich selbst als reine Dienstleister darstellen, die ‚neutral‘ Inhalte anbieten, werden diese nicht zufällig gezeigt, sondern aktiv für Nutzerprofile designt und kontrolliert (Gillespie 2018). Damit werden soziale Beziehungen, Medienkonsum und wirtschaftliche Tätigkeiten bewusst gesteuert. Darüber hinaus produzieren Nutzerinnen ständig Daten, wenn sie im Internet surfen, Apps und mobile Endgeräte verwenden, wodurch immer mehr Aspekte des täglichen Lebens aufgezeichnet und für ökonomische Zwecke genutzt werden (Couldry und Mejias 2019). Um diese Dynamiken zu verstehen, reicht es nicht, nur auf legale Strukturen zu schauen, sondern es braucht ein besseres Verständnis davon, wie Technologie funktioniert und wie sie von Unternehmen gesteuert wird, aber auch, wie Nutzerinnen sich dagegen wehren. Zusammenfassend kann also gesagt werden, dass die IG-Forschung sich sowohl empirisch als auch konzeptionell stetig erweitert (Ermoshina und Musiani 2019; Bodó et al. 2021). Auch durch den Einfluss von STS nimmt die Anzahl an Studien zu, die sich auf Praktiken statt nur auf Regulationsmechanismen fokussieren.

3.2 Cybersecurity, hybride Kriegsführung und Überwachung

Der folgende Abschnitt thematisiert Sicherheit und digitale Technologie und ist wie folgt gegliedert: Zunächst werden einige grundlegende Bemerkungen zum Thema Internetsicherheit und der disziplinären Verortung getroffen. Dann werde ich kurz auf die aktuelle Debatte zum Hybrid War eingehen. Zum Schluss erfolgt eine Beschäftigung mit Sicherheitstechnologie jenseits der konventionellen, nationalen Sicherheit. Der Fokus liegt dabei auf Überwachungspraktiken, der Macht von Big Data und den Auswirkungen auf individuelle Sicherheit. Abschließend beleuchte ich das Thema Privatsphäre näher. Diese wird oft gegen Sicherheit ausgespielt, ist jedoch gerade deshalb ein integraler Bestandteil von technologisierter Sicherheit.

Allgemein kann gesagt werden, dass das Feld Internetsicherheit in verschiedenen Disziplinen, beispielsweise IT oder Wirtschaftswissenschaft, diskutiert wird und der Begriff auf unterschiedliche Aspekte verweist (Wolff 2016; Fichtner 2018). Eine hilfreiche Unterscheidung ist die zwischen dem technisch orientierten Begriff Computersicherheit und dem breiteren, gesellschaftlich orientierten Begriff Cybersicherheit (Nissenbaum 2005, S. 63–64). Unter Ersterem wird vor allem die Integrität und Verlässlichkeit eines Netzwerks verstanden, während Zweiteres auch Phänomene wie Wirtschaftsspionage, Privatsphäre, Phishing, RansomwareFootnote 4 oder DoxingFootnote 5 umfasst. Diese Sicherheitsprobleme beruhen zwar auf unsicherer Technologie, haben aber auch eine starke nichttechnologische Komponente. Das Thema Cybersicherheit wurde und wird in den Sicherheitsstudien debattiert. Zu Beginn der 2000er-Jahre wurde dabei die Frage eines nahenden Cyberkriegs heftig diskutiert (Rid 2013; Arquilla und Ronfeldt 2001). Es zeigt sich jedoch, dass die zunächst befürchteten unvorhersehbaren Angriffe mit großer Zerstörungskraft in dieser Form nicht stattfanden (Dunn Cavelty und Wenger 2020, S. 16). Die Debatte im Bereich der Strategic Studies fokussiert sich aktuell auf die Frage nach der Anwendbarkeit klassischer Sicherheitskonzepte auf digitale Kriegsführung (Gartzke und Lindsay 2015). Außerhalb der klassischen Sicherheitsstudien gibt es vermehrt Diskussionen über ein weitergefasstes Sicherheitsverständnis im Bereich Cybersecurity (Stevens 2018). Ein staatszentrierter Fokus kennzeichnet die frühen Arbeiten, doch viele neuere Phänomene betreffen individuelle Nutzer und werfen Fragen der Benachteiligung und Ungleichheit auf. Feministische Arbeiten beispielsweise verdeutlichen, welche spezifischen Unsicherheiten Frauen im digitalen Raum ausgesetzt sind (Slupska 2019; Shokooh Valle 2020) und auf welche Weise viele Designentscheidungen diese negieren (Lopez-Neira et al. 2019; Levy und Schneier 2020).

Auch wenn ein Cyberkrieg in der befürchteten Form nicht stattgefunden hat, trat in den letzten Jahren ein anderer Begriff in den Sicherheitsdebatten auf: Hybrid War oder hybride Kriegsführung. Dieses Konzept zielt nicht nur auf konventionelle militärische Strategien ab, sondern hat die Destabilisierung von Gesellschaft und die Verstärkung von diffuser Unsicherheit als Ziel (Mälksoo 2018). Obwohl es in US-amerikanischen Debatten schon früher genutzt wurde, hielt es erst mit der Annexion der Krim Einzug in deutsche und europäische Sicherheitsdiskurse (Kraft 2018, S. 309; Mälksoo 2018). Wie bei jedem Schlagwort dieser Art ist die genaue Bedeutung umstritten (Daniel und Eberle 2021). In einem einschlägigen Dokument der EU heißt es:

„Hybrid threats aim to exploit a country’s vulnerabilities and often seek to undermine fundamental democratic values and liberties.“ (European Commission und High Representative of the Union for Foreign Affairs and Security Policy 2016)

Das Konzept des Hybrid War wird oft in Relation mit Debatten zu Desinformation verwendet (Daniel und Eberle 2018). Digitale und analoge Bedrohungen wirken demnach zusammen. Zum Beispiel kann ein militärischer Angriff mit Desinformation verbunden werden, um so die Gesellschaft zu destabilisieren (Dutsyk und Dyczok 2020). Problematisch an dem Konzept ist vor allem die Annahme, dass es sich um eine gezielte Orchestrierung unterschiedlichster Maßnahmen durch Großmächte handelt (Schneckener 2016, S. 604). Dies verdeckt die Komplexität der Interessenlage der involvierten Parteien und negiert die Handlungsmacht von Akteuren jenseits der Großmächte (ibid.). Abschließend kann festgehalten werden, dass das Konzept der hybriden Kriegsführung bestehende Tendenzen aufgreift, Konflikte nicht nur als militärische zwischenstaatliche Auseinandersetzung zu verstehen, sondern als Bedrohungsbekämpfung auf verschiedenen Ebenen zu beschreiben (Kaldor 2018).

Im Folgenden werde ich auf das Thema Überwachung näher eingehen. Hier spielen nicht nur Staaten, sondern vor allem auch globale Unternehmen und ihr Gebrauch von Big Data und Überwachungstechnologien eine zentrale Rolle. Auch wenn Überwachung an sich kein neues Phänomen ist, ermöglichen digitale und vernetzte Technologien ein Panoptikon neuer Art (Teboho Ansorge 2011; Elmer 2012). Während sich das Feld der surveillance studies zunächst vor allem mit Überwachungspraktiken auf Arbeitsplätzen, in Gefängnissen und bei Empfängerinnen von Transferleistungen beschäftigt hat (Gilliom 2001; Bennett 2011), wird inzwischen die Frage nach Privatsphäre und Überwachung im Kontext digitaler Technologie breit diskutiert (Amoore 2011; Čas et al. 2017; Rider 2018). Überwachungspraktiken basieren auf der Idee, Personen (oder auch Handlungen wie Kaufentscheidungen oder Bewegungsmuster) zu klassifizieren, zu sortieren und diese Profile dann zu bewerten (Lyon 2003, S. 13). Im Bereich Sicherheit ist es entscheidend, Risiken abzuschätzen und Profile zu identifizieren, die ein höheres Risiko bedeuten, Ausreißer sind oder mit bestimmtem Verhalten korrelieren. Ungewissheit, Risiko und das Gefühl diffuser Sicherheitsbedrohung sind vorherrschende Motive im Überwachungsdiskurs (Ceyhan 2002; Amoore 2013). Überwachungspraktiken werden mit dem Verweis auf (noch) unbekannte Verbrecher legitimiert, wodurch Sicherheitspraktiken dezentriert und diffus sind (Huysmans 2014, Kap. 5). Damit schließen konzeptionelle Arbeiten über Überwachung an die Debatten der Kritischen Sicherheitsstudien über das Konzept des Risikos an (Amoore und De Goede 2005; Kessler und Daase 2008). Risiko und Wahrscheinlichkeiten sind die Grundprinzipien moderner Überwachung. Dabei werden Daten nicht nur aus Gründen der Sicherheit, sondern auch aufgrund kommerzieller Motive gesammelt, analysiert und zur Vorhersage zukünftigen Verhaltens genutzt.

Ein Beispiel hierfür ist das europäische ‚Passenger Name Record System‘ (PNR) (Ulbricht 2018). Alle Reisenden, die die europäische Grenze per Flugzeug überschreiten, werden damit registriert. Sobald ein Ticket gekauft wird, werden bestimmte Daten, zum Beispiel die Kreditkartennummer, in verschiedenen Datenbanken erfasst und gesammelt. Vor dem Abflug werden sie zur relevanten ‚Passenger Information Unit‘ (PIU) weitergeleitet und mit anderen Datenbanken abgeglichen (Bellanova und Duez 2012, S. 115). Falls es eine ‚positive‘ Übereinstimmung gibt, wird dies manuell überprüft und gegebenenfalls eine Ermittlung eingeleitet (ibid.).Footnote 6 Es zeigt sich, dass Überwachungstechnologien gleichzeitig eng mit staatlicher Macht, also auch mit kommerziellen Interessen verwoben sind. Es handelt sich zwar um eine dezentrale, globale Technologie, doch die Analyse und Aufbereitung von Daten erfolgt zentriert bei staatlichen und kommerziellen Akteuren (Leese 2014). Aus Sicherheitsgründen werden Daten gesammelt und verarbeitet. Dies ist jedoch äußerst intransparent, wodurch neue Unsicherheiten (vor allem für Individuen) hervorgerufen werden.Footnote 7

Wie erwähnt beruhen heutige Überwachungspraktiken auf der Möglichkeit, Daten im großen Ausmaß zu sammeln und zu analysieren. Daher werde ich im Folgenden auf das Thema Big Data eingehen. Doch was heißt Big Data eigentlich? Big Data bedeutet nicht nur eine hohe Menge an Daten, sondern diese zeichnen sich auch dadurch aus, dass sie ständig produziert werden und verschiedene Datenbanken verbinden können:

„Big Data is characterized by being generated continuously, seeking to be exhaustive and fine-grained in scope, and flexible and scalable in its production.“ (Kitchin 2014, S. 2)

Diese Daten stammen aus Closed-Circuit-Television-Überwachungskameras (CCTV), dem Einzelhandel, mobilen Endgeräten sowie Apps und Webseiten, die weitere Nutzerdaten sammeln (ibid.). Wie das Beispiel PNR zeigt, sollen Daten aus verschiedenen Datenbanken verglichen und Korrelationen gefunden werden. Claudia Aradau und Tobias Blanke argumentieren in diesem Zusammenhang, dass Sicherheitspraktiken in Kontext von Big Data durch die Suche nach Anomalien charakterisiert sind (Aradau und Blanke 2018). Anomalien rekonfigurieren damit die Freund/Feind-Dichotomie in „calculations of similarity and dissimilarity“ (Aradau und Blanke 2018, S. 20). Digitale Technologien sollen helfen, die sprichwörtliche ‚Nadel im Heuhaufen‘ zu finden, wobei Anomalien als Unsicherheit interpretiert werden. Annomalien sind demnach nicht nur statistische Ausreißer sondern konstituieren eine bestimmte Logik mit Unsicherheit umzugehen (Aradau und Blanke 2018, S. 14.). Diese Idee der algorithmischen Sicherheit verspricht eine Illusion von Sicherheit. Privatunternehmen, die solche Software erstellen, haben ein starkes Interesse daran, diese effektiver darzustellen, als sie eigentlich ist. Das Problem von falsch positiven Fällen wird beispielsweise selten thematisiert.

Big Data wird zudem zur Verbesserung der Strafverfolgung genutzt. Auch in Deutschland wird zunehmend Technologie eingesetzt, um Wahrscheinlichkeiten für zukünftige Straftaten, zum Beispiel Einbrüche, zu senken. Die Idee, dass Algorithmen Einbrüche ‚vorhersagen‘ können, erinnert an Science-Fiction Romane, verspricht aber vorgeblich mehr Sicherheit und Schutz der Bevölkerung (zum Einfluss von Science-Fiction auf Sicherheitspraktiken siehe Shires 2020). Keine Software kann eine Straftat präzise prognostizieren, aber das Versprechen ist, dass sie das Handeln der Polizei insofern verbessert, als dass diese fähig ist, zeitnah zu intervenieren und bestimmte Verbrechen dadurch zu verhindern (Egbert und Leese 2021, S. 69). Für Politiker und Polizei ist der Verweis auf neue Technologie hilfreich, um einen politischen Nutzen daraus zu ziehen (Egbert und Leese 2021, S. 170), auch wenn es schwierig zu beurteilen ist, ob die Technologie an sich tatsächlich einen positiven Effekt auf die Kriminalitätsbekämpfung hat oder nicht (Egbert und Leese 2021, S. 164). In jedem Fall entsteht eine Illusion von Sicherheit, die auf der Annahme beruht, dass Big Data neutrale und objektive Resultate produziert (Marx 2007).

Abschließendes Thema dieses Abschnitts ist die Privatsphäre. Vor allem seit Snowdens Enthüllungen werden Eingriffe in diese sowohl in der Wissenschaft als auch in der Politik diskutiert. Entsprechende Verweise fungieren in der Regel als Kritik gegen übermäßige Überwachungs- und Sicherheitsmaßnahmen (Bennett 2011; Stalder 2011). Privatsphäre als politisches Konzept ist relativ neu und historisch gewachsen (Warren und Brandeis 1890; Geuss 2013; UNHCR 2015). Sie kann sich einerseits auf einen Raum und andererseits auf die Kontrolle von Informationen beziehen (Roessler 2008, S. 704–707) und wird als Voraussetzung für die freie Meinungsäußerung und damit als Grundpfeiler für Demokratie angesehen (Davies, 1998; Nissenbaum 2010). Die Möglichkeit ständiger Überwachung kann zu einem ‚chilling effect‘ führen, das heißt, bestimmte Dinge werden aufgrund der Furcht vor Repressalien nicht mehr gesagt (Shokooh Valle 2020). Im Kontext von Big Data und maschinellem Lernen ist aber nicht nur die Kontrolle persönlicher Daten wie Name oder Geburtsdatum relevant. Darüber hinaus kann Wissen über Personen entstehen, das diese selbst (noch) nicht besitzen. So können bestimmte Vorlieben oder Krankheiten durch Big Data möglicherweise erkannt werden, bevor das Individuum selbst davon weiß. Millar schlägt deshalb als Definition vor, dass ein Eingriff in die Privatsphäre vorliegt, wenn Person X Wissen über Person Y hat, ohne dass Y dieses Wissen weitergegeben hat (Millar 2009, S. 117).

Die Debatte zum Schutz der Privatsphäre ist nach wie vor politisch relevant, jedoch häufig vom Fatalismus gegenüber der Macht großer Unternehmen geprägt. Auch wenn Nutzerinnen ihre Kameras abkleben, Daten verschlüsseln und Cookies löschen, hat keine von ihnen absolute Kontrolle über ihre Daten. Sowohl Staaten als auch Privatunternehmen sind dabei eine zentrale Bedrohung (Ermoshina und Musiani 2019; Kannengießer 2020). Die Doppelrolle des Staates wird hier besonders deutlich: Zum einen geht von ihm eine wesentliche Gefahr aus, zum anderen soll er Bürgerinnen vor der Macht der Unternehmen schützen und für die Sicherung der Privatsphäre sorgen (Monsees 2020b, Kap. 5). Staatliche Institutionen kooperieren nicht nur mit Unternehmen, wenn es um das Sammeln und Analysieren von Daten geht, sondern nutzen digitale Überwachung auch für direkte Überwachung von Bürgern. Sicherheit als Gut wird traditionell vom Staat hergestellt, doch hier wird deutlich, wie seine Handlungen zu mehr Unsicherheit führen. Doch es gibt auch staatliche Initiativen, die vor allem auf EU-Ebene den Schutz der Privatsphäre stärken und die Macht der großen IT-Unternehmen einschränken wollen. Maßnahmen wie die ‚General Data Protection Regulation‘ (GDPR) oder das Sperren von Social-Media-Konten sind dabei nicht unumstritten, aber ein Indiz für die Zunahme an Bemühungen, den Einfluss von Google, Facebook und anderen einzuschränken (UNHCR 2015; Chenou und Radu 2017). Doch vor allem an der Diskussion über den Schutz der Privatsphäre im globalen Süden wird deutlich, dass die GDPR eine ambivalente Rolle spielt, denn die EU schützt die Daten (und die Privatsphäre) nicht außerhalb ihrer Grenzen (Paragi 2020). Darüber hinaus sind politische und akademische Diskurse eurozentristisch und übersehen imperialistische Entwicklungen der großen Unternehmen (Couldry und Mejias 2019) sowie die kontextspezifischen Herausforderungen in den Ländern des globalen Südens (Arora 2019). Noch werden diese Debatten eher außerhalb der IB geführt, doch es bleibt zu hoffen, dass sich dies ändert.

Diese ‚Tour de Force‘ durch das Thema der technologisierten Sicherheit konnte den zahlreichen Themen und Ansätzen nicht im Detail gerecht werden. Ich konnte jedoch aufzeigen, dass entsprechende Diskurse nicht nur mit Bezug auf militärische Fragen (Cyber-Krieg, hybride Kriegsführung), sondern auch mit Fokus auf alltäglichere Sicherheitspraktiken geführt werden. Mit einem breiteren Sicherheitsverständnis und einer Schwerpunktsetzung auf Praktiken werden die ambivalenten gesellschaftlichen Effekte deutlich (Gürses et al. 2016; Bellanova 2017; Saugmann Andersen 2017; Rothe 2020). Ein Problem der aktuellen Diskussionen zur Digitalisierung sind die oft überzogenen Erwartungen an und Vertrauen in neue Technologie. Dies führt dazu, dass Eingriffe in die Privatsphäre häufig mit Versprechen auf mehr Sicherheit legitimiert werden, die jedoch nicht eingelöst werden können. In den Debatten zu Überwachung und Privatsphäre wird insbesondere auch die ambivalente Rolle des Staates deutlich: Im Bereich Sicherheit agieren nicht nur er, sondern zunehmend auch kommerzielle Akteure. Zudem wird der Staat als zentrale Bedrohung gesehen, weshalb Bürgerinnen nach Maßnahmen suchen, um sich gegen entsprechende Eingriffe schützen zu können (Ermoshina und Musiani 2019).

4 Fazit

Dieses Kapitel hat die zentrale Rolle der Digitalisierung für die IB aufgezeigt. Viele Themen wie Hacking und Aktivismus (Coleman 2014; Tanczer 2017; Oyedemi 2021), humanitäre Intervention (Jacobsen 2015) oder der Einsatz von Drohnen (Sauer und Schörnig 2012; Leander 2013) konnten im Rahmen dieses Aufsatzes nicht behandelt werden. Der Fokus lag auf einem kurzen theoretischen und methodischen Einblick in die Technologieforschung und zwei empirische Felder. Zusammenfassend konnte ich zeigen, dass der Neue Materialismus starke ontologische Annahmen trifft, aber dennoch auch in gesellschaftstheoretischen Debatten an Bedeutung zunimmt. Währenddessen liegt der Fokus von SCOT auf der methodologischen Annahme, dass Technologieentwicklung niemals als lineare Geschichte erzählt werden sollte, sondern insbesondere der soziale Kontext nachzuzeichnen ist. Aus dieser Perspektive liegt die ANT in der Mitte, je nachdem ob deren Grundsätze als methodologische Richtlinien oder ontologische Feststellungen gelesen werden (Hacking 1988; Sayes 2014). Doch alle Ansätze erlauben es, Objekte und Technologie ins Zentrum der Analyse zu stellen, statt sie nur als passive Hintergrundvariable zu verstehen.

Der empirische Teil dieses Kapitels hat weiterhin gezeigt, dass zunehmend die Praktiken der Technologieanwendung in den Vordergrund der IB-Forschung rücken. Dies zeigt sich insbesondere im Feld IG. Statt nur auf die staatliche und institutionelle Ebene zu schauen, wird ein stärkerer Fokus auf die Prozesse der Implementierung und Anwendung von Technologie gelegt. Dies bedeutet, dass methodologisch qualitative, interpretative und ethnografische Methoden intensiver genutzt werden. Das zweite empirische Feld Sicherheitspolitik umfasst verschiedene Phänomene wie CCTV-Überwachung, kritische Infrastruktur sowie Desinformationskampagnen. Hier konnte ich zeigen, dass vor allem ein weites Verständnis von Sicherheit nützlich ist, um die gesellschaftlichen Auswirkungen neuer Unsicherheiten zu fassen. Der Fokus lag daher nicht auf militärischen Themen, sondern auf der Frage, wie Sicherheitsphänomene und digitale Technologie viele Bereiche des Lebens durchdringen. Ein besonderer Schwerpunkt lag hier darauf zu verdeutlichen, dass Technologie zwar häufig viel Vertrauen entgegengebracht wird, diese aber meist weder fehlerlos funktioniert noch so ‚neutral‘ oder ‚apolitisch‘ ist, wie sie oft dargestellt wird. Außerdem zeigt sich im Bereich der Sicherheitspolitik die ambivalente Rolle des Staates: Statt Sicherheit herzustellen, wird dieser zur Bedrohung für die Sicherheit und Privatsphäre seiner Bürgerinnen.