Digitale Transformation
Akademie-Kurzanalyse 1/2019 von Ursula Münch
Der Aufsatz "Digitale Transformation:Mehr als eine Herausforderung - eine Gestaltungsaufgabe" von Ursula Münch wurde im April 2019 als Akademie-Kurzanalyse veröffentlicht.*
Tutzing / Publikation / Online seit: 10.02.2021
Von: Prof. Dr. Ursula Münch / Foto: Pixabay License/Gerd Altmann
Ursula Münch
Digitale Transformation: Mehr als eine Herausforderung – eine Gestaltungsaufgabe
Akademie-Kurzanalysen, Tutzing, 2019
Es gibt drei große "Treiber", die das Potenzial besitzen, das Leben sehr vieler Menschen auf dem Globus dramatisch zu beeinflussen: die Globalisierung und die mit ihr einhergehende Migration, die Erderwärmung und die digitale Transformation.1 Jeder dieser Treiber zeigt bereits jetzt massive Auswirkungen auf die nationale wie die supranationale Politik, auf Ökonomien und Gesellschaften weltweit.
Im Folgenden soll ausschließlich auf die digitale Transformation eingegangen werden. Über deren großes Potenzial sind sich die meisten Beobachter einig. Es ist aber auch Bewusstsein darüber vorhanden, dass die digitale Transformation nicht nur Innovationen schafft, sondern anderes womöglich gefährdet, auch die freiheitliche Demokratie. Diese Gefährdung könnte sich zunächst und ganz grundlegend aus den zu erwartenden Veränderungen im finanziellen Handlungsspielraum der öffentlichen Hand ergeben: Damit ist die Sorge zum Beispiel von Wolfgang Streeck gemeint, Disruptionen infolge der digitalen Transformation könnten womöglich auch die Grundlagen staatlichen Handelns dramatisch verändern.2 Durch eine technologisch bedingte Entkoppelung von Produktivität und Arbeitskraft könnten Steuereinnahmen verloren gehen, während gleichzeitig die Nachfrage nach sozialpolitischen Maßnahmen steige.3
Doch selbst wenn dieses Krisenszenario nicht eintritt, die finanzpolitische Handlungsfähigkeit des Staates also erhalten bliebe, werden wir schon jetzt mit einem anderen Problem konfrontiert: der wachsenden Kluft zwischen den zu lösenden Aufgaben und der faktischen digitalpolitischen Gestaltungskraft unserer Politik.
Digitalpolitische Handlungsschwächen
Dass überhaupt der Eindruck einer digitalpolitischen Handlungsschwäche entstehen konnte, hat mindestens fünf Ursachen:
Ursache 1:
Den meisten Politikern fehlt das erforderliche informationstechnische Verständnis. Das ist wohlbemerkt weniger ein Vorwurf an die Politik als ein Hinweis, dass es Menschen mit solidem informationstechnischem Sachverstand bedauerlicherweise selten in die Politik verschlägt.
Ursache 2:
Auch als Ergebnis dieses Mankos vermitteln politisch Verantwortliche mit ihren Stellungnahmen zu verschiedenen Phänomenen gelegentlich den durchaus fatalen Eindruck, Wirtschaft, Politik und Gesellschaft seien den technologischen Veränderungen und ihren gesellschaftlichen Folgen passiv ausgeliefert. Dazu zwei Beispiele: Es genügt nicht, wenn sich Mitglieder der Bundesregierung erschüttert über das Phänomen "Hatespeech" äußern. Die Bürger erwarten eine konkrete politische und juristische Auseinandersetzung mit der Frage, was der Staat dagegen tun kann und tun muss, wenn Menschen angepöbelt oder körperlich bedroht werden. Dass dies "nur" im Netz geschieht, entschuldigt diese Sprachlosigkeit nicht. Zudem ist die Enttäuschung über das tatsächliche Ausmaß der sogenannten "KI-Offensive" angesichts vollmundiger Versprechungen, Deutschland zum führenden KI-Standort in der Welt machen zu wollen, groß.
Ursache 3:
Die digitale Transformation wirkt einerseits zwar extrem beschleunigend, gleichzeitig gibt es aber Prozesse, deren Wirkungen mit einem deutlich über eine Legislaturperiode hinausgehenden zeitlichen Abstand auftreten. Das gilt gerade mit Blick auf Künstliche Intelligenz: Bei diesen Anwendungen, die eigenständig Probleme zu lösen imstande sind, geht es um Themen, die zwar voraussichtlich erst in 30 bis 40 Jahren virulent sein werden, für die aber schon heute die Grundlagen gelegt werden. So könnte die heutige induktive Auswertung von Daten zur Folge haben, dass aktuell bestehende Diskriminierungen über diese Datensätze reproduziert und in die Zukunft transferiert werden: Wenn sich zum Beispiel in Datensätzen aus den 2010er-Jahren widerspiegelt, dass Frauen seltener Führungspositionen eingenommen haben als Männer, könnte dies ein KI-System zu verkürzten Schlussfolgerungen veranlassen.
Es ist also erforderlich, bereits jetzt Regeln für die Datenextraktion aufzustellen (zum Beispiel die Anonymisierung einzelner Merkmale), die geeignet sind, eine künftige datenbasierte Diskriminierung zu verhindern. Politik muss somit nicht nur erkennen, welche Themen bereits heute reguliert werden müssen, damit weder Chancen verpasst noch Risiken vernachlässigt werden, sondern sie muss einzuschätzen in der Lage sein, welche entsprechenden Sachverhalte etwa in der Forschungs-, Gesundheits- oder Außenpolitik morgen und übermorgen zum Problem werden könnten.
Ursache 4:
Im gesamten Feld der digitalen Transformation kann beobachtet werden, dass Ethik häufig als Ersatz für Regulierung wahrgenommen wird. So wichtig und grundlegend die Überlegungen einer Datenethik-Kommission, eines Digitalrats, einer Wettbewerbskommission oder eines Forschungsinstitutes zweifelsohne sind: Sie schaffen Grundlagen, um die angemessenen politischen Entscheidungen treffen zu können. Sie können und sollen Politik und strittige politische Entscheidungen aber nicht ersetzen.
Ursache 5:
Die letzte hier zu nennende Ursache für die Wahrnehmung einer digitalen Handlungsschwäche ist die beschränkte Reichweite nationaler Politik. Diese mag für die USA und für die Volksrepublik China kein Problem darstellen. Für Polen, Dänemark, Deutschland oder Spanien aber schon: Während die Internetunternehmen transnational agieren, ist die Reichweite nationaler Politik zwangsläufig beschränkt. Um den negativen Folgen des Territorialitätsprinzips entgegenzuwirken und die digitale Transformation zu regulieren, genügen streng genommen nicht einmal europäische Vereinbarungen.
Diese fünf Ursachen für die Entscheidungsschwäche der Digitalpolitik haben zur Folge, dass Politik, Verwaltung und Justiz in der öffentlichen Wahrnehmung überfordert erscheinen. Angesichts vieler Gesetzgebungsvorhaben und noch mehr eingesetzter Digital-Kommissionen mag diese Wahrnehmung manchem Politiker ein wenig ungerecht erscheinen, gemessen an den spürbaren Ergebnissen des staatlichen Handelns ist sie das allerdings nicht.
Der Umstand, dass die öffentliche Hand weder beim Nützen noch beim Schützen unserer Daten der Marktmacht der Plattformen auch nur annähernd gewachsen ist, gefährdet zum einen die globale Wettbewerbsfähigkeit der bayerischen und deutschen Wirtschaft. Zum anderen beeinträchtigt dieser Umstand das Verhältnis der Bürger sowohl zur digitalen Transformation als auch zur Politik. Die Wahrnehmung eines digitalpolitischen Attentismus schürt das in weiten Teilen der Bevölkerung ohnehin gepflegte Vorurteil, "die Politik" hege zwar einen großen Geltungsanspruch, liefere aber dann, wenn es mal nicht um Personalpolitik, sondern um die inhaltliche Gestaltung von Zukunftsaufgaben gehe, zu wenig den Nachweis, diesem Anspruch tatsächlich gewachsen zu sein.
Erinnert man sich an den "Basta"-Stil des damaligen Bundeskanzlers Gerhard Schröder aus den frühen Nullerjahren, kann man erkennen, dass die Bedingungen, unter denen Politik heute entsteht, definitiv nicht mehr Basta-tauglich sind. Irritierenderweise führt aber genau der Umstand, dass die Aufgaben so groß, die Zuständigkeiten auf so viele politische Ebenen verteilt, die Technologien sich rapide entwickeln, die Interessen so heterogen und die parlamentarischen Mehrheiten prekär sind, gleichzeitig zu etwas, was in der Zeit vor Kurzem als "wachsende Basta-Sehnsucht" bezeichnet wurde.4
Alle Versuche der nationalen und der supranationalen Politik, die Folgen der digitalen Transformation zu gestalten, werden von der Wählerschaft also auch an Maßstäben gemessen, die dieser "Basta-Sehnsucht" entspringen.
Wenn erst einmal Zweifel an der politischen Handlungsfähigkeit geweckt sind, dann fällt populistische Rhetorik auf fruchtbaren Boden. Ein gängiges Muster populistischer Argumentation besteht darin, einen Gegensatz zwischen den Interessen des "normalen" Bürgers und den Interessen des sogenannten "Establishments" zu konstruieren. Im Fall der digitalen Transformation fällt dies recht leicht: Auch wenn technikaffine "Nerds", gewinnorientierte Digitalunternehmer, erkenntnissuchende Wissenschaftler und risikenabwägende Beamte nicht nur von ihrem äußeren Erscheinungsbild her eher wenig Schnittmengen aufweisen, aus populistisch gefütterter Sicht einer breiten Bevölkerung haben diese vier Gruppen sehr wohl etwas gemeinsam: Sie sind die Elite. Deren Themen und ihre Art über diese Themen zu sprechen, nähren das Vorurteil, von der Digitalisierung profitierten ohnehin "wieder nur" die besser Gebildeten und gut Verdienenden. Das heißt, die digitale Transformation bietet - ähnlich wie die Migrationspolitik und die Klimapolitik - Menschen mit Neigung zur populistischen Argumentation Anknüpfungspunkte, um sowohl Katastrophenängste als auch Aversionen gegen Funktionseliten und Intellektualität zu pflegen.5
Jenseits dieser Befürchtungen gibt es noch weitere Gründe, die Politik zur Überwindung ihrer digitalpolitischen Unauffälligkeit zu ermuntern. Dabei sollen im Folgenden drei demokratietheoretisch relevante Gründe genannt werden.
Erstens:
Wir erleben den digitalen "Strukturwandel der Öffentlichkeit". Datafizierung und Algorithmisierung beeinträchtigen schon jetzt den für eine rechtsstaatliche Demokratie konstitutiven öffentlichen Diskurs.6 Nicht nur in Wahlkampfzeiten sorgt uns, wie die für unsere rechtsstaatliche Demokratie unerlässliche "deliberative Legitimation" erreicht werden kann. Diese Sorge scheint umso dringlicher, weil gleichzeitig vermittelnde Kräfte wie die seriösen Medien, die zivilisierend auf die öffentlichen Debatten einwirken können, dramatisch an Bedeutung verlieren.7
Zweitens:
Wir erleben den Wandel des bisherigen marktwirtschaftlichen Systems, in dem die Warenproduktion auf den Konsumenten ausgerichtet war, hin zu einem von Soshana Zuboff als "Überwachungskapitalismus" bezeichneten neuen System.8 Im sogenannten "Überwachungskapitalismus" gilt das Interesse der Unternehmen erst in zweiter Linie der Vermarktung ihrer Produkte. In erster Linie geht es ihnen um das Sammeln von Daten. Auch wenn wir uns als Kunden fühlen, so sind wir nicht einmal Nutzer. Das von uns erzeugte Datenmaterial stellt nämlich lediglich den Rohstoff dar, aus dem die Internetkonzerne Informationen über unser künftiges Verhalten ableiten.9
Indem wir uns diese Überwachung und Vermarktung unseres Verhaltens nicht nur bieten lassen, sondern aus Angst vor den Nachteilen digitaler Nichtteilhabe auf jede Privatheit verzichten, geben wir etwas für die rechtsstaatliche Demokratie Unabdingbares preis: unsere Autonomie.10
Für ein autoritäres System stellt ein derartiger Autonomieverlust kein Problem dar, sondern eine zwangsläufige Begleiterscheinung. Anders in der freiheitlichen Demokratie, die auf das Leitbild des mündigen Individuums aufbaut. Ohne die Autonomie ihrer Bürgerschaft bliebe - um das bekannte Zitat des Staatsrechtlers Ulrich Scheuner abzuwandeln - von der freiheitlichen Demokratie lediglich die "leere Schale der Gesetzlichkeit".11
Drittens:
Ein weiterer demokratietheoretisch relevanter Grund, warum die Politik unbedingt ihre digitalpolitische Unauffälligkeit überwinden sollte, ist die Monopolbildung.12 Monopole stellen quasi das Geschäftsmodell der digitalen Transformation dar: Anders als etwa in der Auto- oder der Halbleiterindustrie braucht es nur eine Suchmaschine, nur ein soziales Netzwerk, und nur einen Anbieter für Mobilität oder Übernachtung. Die jeweilige "Nummer 2" spielt keine Rolle, und die Gewinne fließen vollständig an den Marktführer. Und indem sie massenhaft gesammelte (Verhaltens-)Daten zur Perfektionierung des maschinellen Lernens und zum Aufbau Künstlicher Intelligenz nutzen, bauen diese Marktführer die Schlüsselressource der Zukunft überhaupt erst auf.13 Nicht zuletzt versetzen sie die Nationalstaaten in den Zustand wachsender technologischer Abhängigkeit. Souveränität sieht anders aus.
Blieben die digitalen Giganten ungezähmt und könnten sie ihre Geschäfte weiter nach dem zynischen Motto des Investors Peter Thiel betreiben "Competition is for losers"14, dann geriete nicht nur die soziale Marktwirtschaft ins Abseits.
Das heißt: Digitalpolitische Gestaltungsfähigkeit ist nicht nur wichtig, um die ordnungspolitischen Rahmenbedingungen in Deutschland und in der Europäischen Union zu gewährleisten, die die Unternehmen für den Erhalt ihrer Konkurrenzfähigkeit benötigen. Gestaltungswille und -fähigkeit der Politik sind auch wegen der Sorge vieler Menschen unerlässlich, im digitalen Arbeitsleben nicht mithalten und gleichzeitig den omnipräsenten digitalen Verführern zwar wissentlich, aber gleichzeitig schutzlos ausgeliefert zu sein. Der von der Politik zu leistende Balanceakt ist offensichtlich enorm: Zum einen müssen die politischen Akteure die Freiheit - sowohl des Netzes als auch der Marktteilnehmer und der Unternehmen - achten und fördern. Zum anderen gilt der Grundsatz: Die Würde des Menschen ist nicht zu relativieren - auch nicht digitalisierungsbedingt.
Daten nützen, Daten schützen
Der zweite Teil dieser Analyse behandelt die Frage, wie angesichts der bereits erwähnten Ohnmacht der Nationalstaaten staatliches, aber auch supranationales Handeln zu gestalten ist, um dem Leitthema, mit dem sich das Forschungsinstitut "bidt" in Zukunft intensiv befassen wird, "Daten nützen, Daten schützen", gerecht zu werden.
Es liegt nahe, zunächst einen Hinweis zu geben, welchen Vorbildern die europäische Digitalpolitik nicht nacheifern sollte: In der autoritär - um nicht zu sagen: totalitär - regierten Volksrepublik China liegt die Macht über die Daten bekanntlich beim Staat beziehungsweise der Kommunistischen Partei: Diese schützen, kontrollieren und überwachen ihre Bürger nach Belieben. Die chinesischen Bürger sind entsprechend sozialisiert und freuen sich zudem über die Möglichkeit, dass das "Social Scoring" unerwünschtes Verhalten missliebiger Mitbürger sanktioniert und denjenigen, die Wohlverhalten an den Tag legen, die Möglichkeit gibt, in den Genuss von Privilegien zu kommen.15
Die Verhältnisse in den USA unterscheiden sich davon zwar grundsätzlich, Parallelen sind aber nicht zu übersehen: Dort liegt die Macht über die Daten der globalen Nutzer bei privaten Konzernen. Diese Konzerne verfolgen ebenfalls das Ziel, das menschliche Verhalten mit Hilfe der Digitalisierung nicht nur vorherzubestimmen, sondern auch zu beeinflussen. Gleichfalls mit - stillschweigender - Zustimmung der Nutzer und auf der Grundlage von Gratifikationen.
Der Europäischen Union kommt die Aufgabe zu, einen dritten Weg zwischen diesem chinesischen Staatskapitalismus auf der einen und dem Konzernkapitalismus US-amerikanischer Prägung auf der anderen Seite zu etablieren. Zu diesem "dritten Weg" gehört, sich auf die Grundsätze der rechtsstaatlichen Demokratie sowie die Stärken der föderal und plural organisierten sozialen Marktwirtschaft zu konzentrieren.
Mit Blick auf das Motto "Daten nützen" zielt dieser europäische Weg auf Möglichkeiten ab, den Bürgerinnen und Bürgern grundsätzlich Nutzungsmacht über ihre Daten einzuräumen. Das Problem mit dieser zumindest für europäische Ohren so vielversprechend klingenden Forderung nach "Data Ownership" ist nur, dass sie leicht postuliert ist, faktisch jedoch kaum zu realisieren scheint. Schließlich stellt ein solches Konzept die bestehenden Geschäftsmodelle der Internetwirtschaft komplett infrage. Weder der Ansatz von Jaron Lanier, Daten als privates Gut einzustufen und Menschen zu "Prosumenten" zu erklären16, noch der Vorschlag von Evgeny Morozov, Daten als öffentliches Gut zu konzipieren17, erscheinen den Anforderungen einer freiheitlichen Demokratie angemessen. Laniers Vorschlag würde finanzschwache Nutzer womöglich zur "Digitalprostitution" verleiten. Und Morozovs Ansatz birgt die Gefahr, erst recht in staatlicher Überwachung und dem endgültigen Verlust der Privatsphäre zu münden. Die auf der Theorie Elinor Ostroms basierende Idee, Daten als "Allmende", also als Gemeingut, zu behandeln18, böte den Vorzug, dass die Gemeinschaftsmitglieder Ansprüche gegenüber den großen Datenverwertern kollektiv geltend machen könnten. Das Problem besteht aber in der Umsetzung einer zentralen Bedingung des Allmende-Prinzips, nämlich einer eindeutigen Abgrenzbarkeit der Gemeinschaft der Datennutzer.19
Auch wenn diese Regulierungsmodelle demnach kaum die Lösung für das Vorhaben liefern, eine Brücke zwischen regulierter kommerzieller Datennutzung und einer Orientierung am Gemeinwohl zu schlagen, so geben sie doch eine Richtung vor: Der Bedarf, transparente und faire Regeln für die Sammlung, den Zugriff und die Verwendung von Daten zu schaffen, die nicht nur gegenüber den Plattformen und Unternehmen Schutz gewähren, sondern auch gegenüber dem eigenen Staat und den Überwachungssystemen anderer Staaten, ist offensichtlich. Mit Blick auf das Motto "Daten schützen" zielt der europäische Weg auf fünf Aspekte ab.20
1. Datenschutz
Hier erscheint zunächst ein Imagewandel erforderlich: Auch wenn der einzelne Datenschutzbeauftragte manchmal anstrengend ist: Wir sollten den Datenschutz und die Datenschützer nicht als "Spaßbremsen" betrachten und behandeln, sondern als das, was sie sind: Verteidiger unserer Freiheitsrechte - gegenüber dem Staat und gegenüber der Digitalwirtschaft. Um dieser Aufgabe gerecht werden zu können, genügt ein besseres Image aber nicht. Dazu braucht es Ressourcen und schlagkräftige Verbündete: Dazu bieten sich die Kartellbehörden an, deren Aufgabenspektrum sich zumindest in Deutschland gerade deutlich verändert.21
2. Transparenzpflichten
Fest steht: Jede freiheitliche Gesellschaft hat einen dringenden Informationsbedarf gegenüber den Eignern von algorithmischen Systemen. Interessieren muss, ob und wie Verzerrungen (bias) bestehen und für welche Aufgaben das algorithmische System eingesetzt wird.
Ebenfalls fest steht, dass Facebook und Google zum einen keinerlei Interesse haben, diesem Informationsbedarf nachzukommen und ihre Algorithmen offenzulegen. Zum anderen ist es ihnen zum Teil aber auch gar nicht möglich, diesen Informationsbedarf zu stillen: Und zwar deshalb nicht, weil die Unternehmen selbst nicht unbedingt nachvollziehen können, welche Prozesse innerhalb eines neuronalen Netzes ablaufen.22 Um ungeachtet von Interessenkonflikten und technischen Sachzwängen wenigstens ein Mindestmaß an Nachvollziehbarkeit und öffentlicher Kontrolle zu erreichen, ist Verschiedenes erforderlich. 23 Zum einen müssen die Internetkonzerne Forschung durch unabhängige Wissenschaftler zulassen. Zum anderen scheint eine öffentliche Einrichtung erforderlich, die zwar nicht Codes und andere Geschäftsgeheimnisse einsehen darf, die aber kontrollieren kann, ob der Einsatz von Algorithmen tatsächlich ohne Diskriminierungen erfolgt.
3. Interoperabilität
Natürlich kann man auch andere Messenger-Dienste als WhatsApp benutzen. Ärgerlich ist nur, dass diese Entscheidung mit einer ziemlichen Vereinsamung einhergeht: Schließlich sind "fast alle" bei WhatsApp. Die Marktmacht von Facebook gründet sich also darauf, dass das Unternehmen seine Nutzer an das eigene System bindet. Um dieser Abschottung der Wettbewerber entgegenzuwirken, dem sogenannten "Lock-in-Effekt", sind verbindliche Standards für die marktbeherrschenden Plattformen und Dienste erforderlich.24 Interoperabilität ist nicht nur deshalb schwierig umzusetzen, weil ein solcher Verbund mit Blick auf technische Neuerungen wesentlich schwerfälliger wäre. Sie ist auch deshalb höchstens mühsam zu erreichen, weil es längst nicht nur Regierungen und supranationale Organisationen sind, die Digitalpolitik machen: Ohne das "Word Wide Web Consortium" (W3C), eine internationale Organisation zur Standardisierung, geht gar nichts.25
4. Anpassung des Wettbewerbsrechts
Das europäische Wettbewerbsrecht hat an und für sich kein Problem mit Monopolen, solange diese natürlich gewachsen sind und vor allem ihre Stellung nicht missbrauchen. Zu den Regeln eines modernen Wettbewerbsrechts wird gehören müssen, dass "normale" Unternehmen Kontrolle über die von ihnen erzeugten Daten haben. Wenn nämlich nur die übermächtigen Internetkonzerne über die in den kleineren Unternehmen durchgeführten Websuchen, über die Arbeit mit Software wie Office oder Linkedin oder durch die Verwendung von Smartphones und Apps Daten über Mitarbeiter und die Kunden dieser Unternehmen sammeln, dann erwerben sich die Monopole einen immer weiter gehenden Informationsvorsprung.26 Damit könnten die Unternehmen jede Innovation, jede neue Wertschöpfung für sich nutzen und die damit verbundenen wirtschaftlichen Potenziale selbst abschöpfen.27 Dieser Sachverhalt verweist auf den oben zitierten Ausspruch von Peter Thiel, "Competition is for losers", und legt nahe, nicht jeden flotten Spruch aus der Digitalwirtschaft gleich zur neuen Heilsbotschaft zu erklären.
5. Partizipation
Die Dienste der Datenkonzerne bilden inzwischen die Basisinfrastruktur unserer digitalen Welt. Demgemäß müssten vor allem die sogenannten Informationsintermediäre wie Google oder Facebook in ihrem wirtschaftlichen Handeln besonders hohe Sorgfaltspflichten erfüllen - schließlich stellen sie ja nicht weniger als die informationellen Grundversorger unserer Gesellschaft dar. Angesichts ihrer Monopolstellung liegt es nahe, sie zumindest einem demokratisch bestellten Kontrollorgan zu unterstellen. Dass die Internetgiganten genau davor Angst haben, zeigt die Initiative von Facebook, ein externes Expertengremium zu schaffen, das kontroverse Entscheidungen des Unternehmens überprüfen und notfalls korrigieren kann. Auf diese Weise versucht das Unternehmen, möglichen Regulierungen von außen zuvor zu kommen. Offenbar kommt man selbst im Silicon Valley an einer Erkenntnis nicht mehr ganz vorbei: Wettbewerb und eine demokratisch legitimierte rechtsstaatliche Kontrolle der Digitalwirtschaft und damit der digitalen Transformation werden von demokratischen Gesellschaften und Staaten eingefordert und sind etwas definitiv nicht: Verliererthemen.
Die digitale Transformation ändert Geschäftsfelder, und sie ändert die Bedingungen, unter denen politisch relevante Themen gesetzt sowie politische Entscheidungen vorbereitet und getroffen werden. Vor allem aber stellt sie einen weiteren großen "Treiber" dar, der die staatlichen Akteure unter den berechtigten Erwartungsdruck der Öffentlichkeit setzt. Forschungsinstitute können den politischen Verantwortlichen Entscheidungen nicht abnehmen, und sie können natürlich vor allem das nicht leisten, was Politik im Kern auszeichnet: divergierende Interessen zu bündeln, Kompromisse zu schließen und verbindliche gemeinwohlverträgliche Mehrheitsentscheidungen zu treffen. Aber Forschung kann etwas anderes. Sie kann die verschiedenen Phänomene der digitalen Transformation interdisziplinär erforschen, wissenschaftliche Erkenntnisse verständlich aufbereiten, unabhängig von Legislaturperioden denken und wissenschaftsbasierte Szenarien entwickeln, die die Politik, die Wirtschaft und die Gesellschaft dabei unterstützen, die digitale Transformation nicht nur passiv zu erleiden, sondern zu gestalten.
1 Thomas L. Friedman spricht von der "Maschine" und meint damit die Kräfte, "die die Welt bewegen": Technologie, Globalisierung, Klimawandel. Die "Maschine" werde von diesen Kräften angetrieben, die ineinandergreifen und gleichzeitig an Fahrt aufnehmen (vgl. Thomas L. Friedman, Thank You for Being Late. Ein optimistisches Handbuch für das Zeitalter der Beschleunigung, Köln 2017).
2 Wolfgang Streeck, Wie wird der Kapitalismus enden?, in: Blätter für deutsche und internationale Politik 60 (3/2015), S. 99–111; ders., Wie wird der Kapitalismus enden? Teil II, in: Blätter für deutsche und internationale Politik 60 (4/2015), S. 109–120.
3 Vgl. Gary S. Schaal et al., Die Herausforderung der Digitalität für demokratische Staatlichkeit, in: Lorina Buhr / Stefanie Hammer / Hagen Schölzel (Hg.), Staat, Internet und Gouvernementalität, Wiesbaden 2018, S. 105–139, hier S. 108.
4 Peter Dausend / Robert Pausch, Niemand will. Die Erwartungen an Politik wachsen, ihr Einfluss aber schrumpft - nicht nur in der SPD scheuen immer mehr Spitzenleute Verantwortung, in: Die Zeit, Nr. 26/2019, 19. Juni 2019 (letzter Zugriff 17.07.2019).
5 Für eine differenzierte Auseinandersetzung mit der Frage, ob die Anti-Elitenausrichtung populistischer Argumentation tatsächlich ein Charakteristikum für Populismus ist, vgl. Philip Manow, Die Politische Ökonomie des Populismus, Berlin 2018, S. 26–37.
6 Vgl. Bernhard Pörksen, Die große Gereiztheit, Wege aus der kollektiven Erregung, München 2018, S. 64.
7 Vgl. Ursula Münch, Disruption der Demokratie? Warum die digitale Transformation von Kommunikation, Politik und Wirtschaft unsere Demokratien bedroht, in: Digma. Zeitschrift für Datenrecht und Informationssicherheit 18 (3/2018), S. 109–112.
8 Vgl. Shoshana Zuboff, The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power, New York 2019.
9 Vgl. Shoshana Zuboff, Surveillance Capitalism – Überwachungskapitalismus, in: Aus Politik und Zeitgeschichte 69 (24–26/2019), S. 4–9.
10 Vgl. Gerhart Baum, Autonomie – Überlebensfrage der Demokratie, in: Jakob Augstein (Hg.), Reclaim Autonomy. Selbstermächtigung in der digitalen Weltordnung, Berlin 2017, S. 173–185.
11 Vgl. Ulrich Scheuner, Die neuere Entwicklung des Rechtsstaats in Deutschland, in: ders., Staatstheorie und Staatsrecht. Gesammelte Schriften, hrsg. von Joseph Listl und Wolfgang Rüfl, Berlin 1978, S. 185–221.
12 Vgl. Wolfgang Hoffmann-Riem, Re:claim Autonomy. Die Macht digitaler Konzerne, in: Jakob Augstein (Hg.), Reclaim Autonomy. Selbstermächtigung in der digitalen Weltordnung, Berlin 2017, S. 121–139.
13 Vgl. Münch, Disruption (wie Anm. 7), S. 110.
14 Peter Thiel, Competition Is for Losers, in: Wallstreet Journal, 12. September 2014 (letzter Zugriff 17.07.2019).
15 Vgl. Kai Strittmatter, Die Neuerfindung der Diktatur. Wie China den digitalen Überwachungsstaat aufbaut und uns damit herausfordert, München 2018.
16 Vgl. Jaron Lanier, Who Owns the Future?, New York 2014.
17 Vgl. Evgeny Morozov, "Ich habe doch nichts zu verbergen", in: Aus Politik und Zeitgeschichte 65 (11–12/2015), S. 3–7; ders., Die Menschen müssen die Daten der Internet-Giganten zurückerobern, in: Süddeutsche Zeitung, 19. Januar 2018 (letzter Zugriff: 22.07.2019).
18 Vgl. Elinor Olstrom, Was mehr wird, wenn wir teilen, München 2011; siehe dazu auch Volker Stollorz, Elinor Olstrom und die Wiederentdeckung der Allmende, in: Aus Politik und Zeitgeschichte 61 (28–30/2011), S. 3–8.
19 Vgl. Ingrid Schneider, Regulierungsansätze in der Datenökonomie, in: Aus Politik und Zeitgeschichte 69 (24–26/2019), S. 35–41.
20 Siehe dazu auch Ingo Dachwitz / Simon Rebiger / Alexander Fanta, Den Datenfischern die Netze kappen: Ideen gegen die Marktmacht der Plattformen, in: Netzpolitik.org, 4. September 2018 (letzter Zugriff: 17.07.2019).
21 Vgl. Rupprecht Podszun, Kartellrecht in der Datenökonomie, in: Aus Politik und Zeitgeschichte 69 (24–26/2019), S. 28–34.
22 Vgl. Fraunhofer-Gesellschaft, Der Blick in neuronale Netze. Künstliche Intelligenz erklärbar machen, in: Forschung kompakt, 1. Juli 2019 (letzter Zugriff 25.07.2019); Carsten Knop, Wem gehört unser digitaler Zwilling?, in: Frankfurter Allgemeine Zeitung, 14. Februar 2019 (letzter Zugriff 18.07.2019).
23 Vgl. Mario Martini, Blackbox Algorithmus – Grundfragen einer Regulierung Künstlicher Intelligenz, Berlin 2019.
24 Vgl. Dachwitz et al., Datenfischer (wie Anm. 20).
25 Vgl. W3C Working Group, Social Web Protocols, 25. Dezember 2017 (letzter Zugriff: 25.07.2019).
26 Vgl. Knop, Wem gehört (wie Anm. 22).
27 Vgl. Podszun, Kartellrecht (wie Anm. 21).