D
Foto: Jana Legler
Politik

"Eine gefährliche Macht­asymmetrie"

Spätestens seit dem Skandal um Cambridge Analytica sind Medien und Wähler misstrauischer denn je, geht es um Microtargeting, Nudging und Co. Dirk Helbing, Professor für Computational Social Science an der ETH Zürich, über düstere Zukunftsvisionen und Konsequenzen für die politische Kommunikation.

von Anne Hünninghaus

Herr Professor Helbing, in den vergangenen Jahren haben wir mehrere große Daten-Skandale erlebt. Hat es Sie gewundert, dass die Diskussion um Facebook und Cambridge Analytica medial so groß wurde? 
Die Machenschaften von Cambridge Analytica wurden bereits vor zwei Jahren diskutiert. Der Skandal damals ist aber relativ schnell abgeebbt. Die Menschen konnten das einfach nicht glauben. Ich habe den Eindruck, dass die Politik nun eine Debatte befördern möchte, die es ihr erlaubt, regulatorisch einzugreifen. Man hat die Geschichte also noch einmal hochgekocht und konnte so die Praktiken des herrschenden Überwachungskapitalismus am Beispiel von Facebook öffentlich bekannt machen.

War der Fall in seiner Brisanz eine Besonderheit?
Nein. Natürlich haben Google, Microsoft, Amazon, Apple, IBM und Co. ganz ähnliche Probleme. Dazu kommen Hunderte weitgehend unbekannte Firmen, die im großen Stil mit Daten handeln. Die dort zusammen­geführten Informationen werden unter anderem vom US-Heimatschutzministerium genutzt. Es gibt also ein undurchsichtiges System von privaten Unternehmen, Staat, Militär und Geheimdiensten. Lange Zeit war nicht bekannt, dass es die Methoden der digitalen Verhaltensmanipulation überhaupt gibt, dass der Diskurs und das Verhalten Einzelner und ganzer Länder beeinflusst wird. Erst mit dem Brexit, der US-Wahl und "Russia Gate" – der versuchten russischen Einflussnahme auf diese – sowie dem Cambridge-­Analytica-Skandal sind die Effekte in ihrer Brisanz für alle sichtbar geworden.

Davor schien sich die Skepsis in der Gesellschaft eher in Grenzen zu halten.
Obama hat bereits in seinem ersten Wahlkampf öffentlich gemacht, dass sein Team berechnen konnte, wer welche Partei wählen würde und wer noch unentschieden ist, wen man also durch Nudging selektiv zur Wahl "anstupsen" könnte. Hier wurde bereits die Anonymität der demokratischen Wahl missachtet. Die Berichte darüber klangen, als seien das Heldentaten gewesen, damals hat sich fast niemand darüber aufgeregt. Auch gab es in den vergangenen Jahren zahlreiche überraschende Wahl­ausgänge, die stark von den Prognosen etablierter Meinungsforschungsinstitute abgewichen sind. Die Frage, was der Grund dafür war, ist viel zu selten gestellt worden. 

Sie sagen, die Politik würde die Debatte befeuern.­ Allerdings schneidet sie sich ins eigene Fleisch. Denn Methoden wie Microtargeting sind auch aus dem politischen Campaigning nicht mehr wegzudenken.
Man hielt diese Methoden seitens der Politik zuletzt für das Mittel der Wahl. Noch 2017 wurde der Nobelpreis für Wirtschaftswissenschaften an Richard Thaler verliehen, der als einer der Erfinder des Nudgings gilt. Es galt als schmerzloser Weg, Menschen zu mehr Nachhaltigkeit und einem gesünderen Leben zu bewegen. Dass dieselbe Methode eingesetzt würde, um auch ungesunde Produkte wirkungsvoller zu vermarkten oder demokratische Wahlen zu manipulieren, wurde nicht bedacht. Die Politik erkennt nun, dass die Missbräuche überwiegen, und sucht den gesellschaftlichen Rückenwind, um daran etwas zu ändern.

Denjenigen, die trotz aller Skandale und Bedenken Facebook, Whatsapp und Co. nutzen, wird oft Bequemlichkeit vorgeworfen. Lässt sich das so abtun?
Nein. Das wird natürlich oft versucht. Aber es fehlt an fairen und praktikablen Alternativen. Die Behauptung, dass besonders junge Menschen keinen Wert mehr auf Datenschutz und Privatsphäre legen, ist Propaganda. Der Erfolg einer App wie Snapchat bei Jugendlichen zeigt doch, dass sie den Wert der sofortigen Löschung erkennen. Allerdings gibt es insgesamt durchaus eine gewisse Resignation in der Bevölkerung. Man hat ja nur die Wahl "Friss oder stirb". Das heißt, wer Dienste wie Facebook nutzen will, muss die Nutzungsbedingungen akzeptieren. Es gibt da nichts zu verhandeln.

Wer nicht mitspielen will, landet in sozialer Isolation. 
Richtig. Information ist ein Menschenrecht, das in Einklang mit anderen Menschenrechten gebracht werden muss. Aber das Internet ist kaputt! Wir können es nicht mehr nutzen, ohne dass Daten abgesaugt werden. Aus Artikel eins unseres Grundgesetzes, der Unantastbarkeit der Menschenwürde, folgt, dass Menschen weder wie Tiere noch wie Objekte, Produkte oder Daten behandelt werden dürfen. Wir müssen mitentscheiden und mitwirken können. Dagegen erleben wir permanent Verstöße. Es geht also nicht nur um die Einmischung in Entscheidungs- und Meinungsfreiheit, sondern um viel mehr. Die Menschen sind zum Objekt, zum Produkt geworden. 

Welche Wege können wir beschreiten, um Souveränität über unsere Daten zurückzuerlangen?
Unsere Datenprofile – hoch detaillierte digitale Doubles – werden heutzutage in einer Art War Room zusammengeführt und dafür genutzt, um unsere Gesellschaft zu steuern. Zunächst müssen wir diese War Rooms in Pea­c­e­ Rooms verwandeln, also dafür sorgen, dass Big Data wissen­schaftlich, moralisch und ethisch, transparent und partizipativ genutzt werden. Meine Forderung ist außerdem, eine zusätzliche Software-Ebene einzurichten, die es erlaubt, unsere persönlichen Daten zu verwalten. 

Wie könnte diese aussehen?
Stellen Sie sich ein persönliches Postfach vor, in das unsere Daten geschickt werden. Das gibt es im Prinzip schon, wir haben nur keinen Zugriff darauf. In Zukunft sollten wir unser digitales Double selbst verwalten können, indem wir einstellen, wer welche Daten wann wie lange und wofür, gegebenenfalls auch zu welchem Preis benutzen darf. Außerdem könnten Statistiken angefertigt werden. Die Verwendungen müssten transparent gemacht werden. Im Ergebnis wären nach wie vor alle personalisierten Produkte und Services möglich, aber wir hätten die informationelle Selbstbestimmung zurückgewonnen. Parteien, Unternehmen und Organisationen, die persönliche Daten verwenden möchten, müssten nur unser Vertrauen gewinnen. Im Laufe der Zeit würde der Vertrauenswettbewerb um die Datennutzung zu einer digitalen Vertrauensgesellschaft führen, und das ist doch, wo wir alle gerne hinwollen. 

Dirk Helbing ist Professor für Computational Social Science an der ETH Zürich und Mitglied des Schweizer Komitees zur Zukunft der Datensicherheit. (c) Jana Legler

Reichen für eine solche Selbstverwaltung die bisherigen Digitalkompetenzen der Bürger aus?
Künstliche Intelligenzsysteme sollten dafür genutzt werden, um uns auch hier das Leben leichter zu machen. Digitale Assistenten sollten uns bei der Verwaltung und Auswertung der Daten helfen. Sie könnten die Datenbereitstellung entsprechend unserer persönlichen Präferenzen vorkonfigurieren oder uns darauf hinweisen, wenn umfangreiche AGB problematische Klauseln enthalten. In der Vergangenheit hatten viele Wissenschaftler keinen ausreichenden Zugang zu Daten. Das ist problematisch, weil es im Zusammenhang mit Big Data und KI durchaus öfter zu Fehlinterpretationen und falschen Schlüssen kommt. Wir brauchen eine bessere Qualitätskontrolle. Die ist nur durch Öffnung von Daten und Algorithmen zu erreichen. Daher hat Tesla-Chef Elon Musk die Gesellschaft Open AI mit dem Ziel gegründet, künstliche Intelligenz demokratisch und für jeden nutzbar zu machen. Die gefähr­liche Machtasymmetrie, die durch die zunehmende Informationsasymmetrie entstanden ist, gilt es zu überwinden.

Elon Musk ist in erster Linie Unternehmer. Es besteht eine Verquickung wirtschaftlicher, politischer und wissenschaftlicher Interessen. Ist das problematisch?
Die heutige Organisation unserer Gesellschaft reicht nicht aus, um den Zukunftsherausforderungen zu begegnen. Wir müssen die Innovationskraft erhöhen. Das erreichen wir nicht durch mehr Überwachungskapitalismus. Wir brauchen mehr Open Data, supranationale Netzwerke und die Einbindung der Zivilgesellschaft. Wir brauchen ein neues System, das dem Demokratieverlust entgegenwirkt und auch dem chinesischen digitalen Autokratismus überlegen ist, wo ein Social Credit Score, der durch umfassende Überwachung generiert wird, über Kreditwürdigkeit, Jobchancen und Visa von Individuen bestimmt. Ich glaube an ein digitales Upgrade der Demokratie.

Sehen Sie das als eine regulatorische oder gesellschaftliche Aufgabe?
Die Politik muss das Thema anpacken und die Gesellschaft überzeugen und mobilisieren. Wir alle sollten uns an der Transformation beteiligen. Sonst steuern wir auf eine "Googlekratie" zu.

Ist ein Szenario denkbar, in dem Bürger nicht mehr wählen, weil Algorithmen ihre Präferenzen auslesen?
Die Vorstellung der Befürworter dieser Vision ist: "Wir haben die Menschen vermessen und wissen ohnehin, was sie wollen. Daher ist es überflüssig, sie nach ihrer Meinung zu fragen." Umgesetzt wird damit ein digitaler Populismus: Es wird auf das gehört, wonach die Mehrheit im Netz schreit. Es gibt Leute, die das für die Zukunft halten, aber das ist ein fataler Irrtum. Wer solche Fantasien entwickelt, dem fehlt es an historischer, rechtlicher, sozial­wissenschaftlicher und ethischer Kenntnis. Gewalten­teilung, Fairness, Minderheitenschutz – all diese Errungenschaften der Geschichte werden ignoriert.

Im vergangenen Jahr haben viele Parteien im Vorfeld der Bundestagswahl offen über ihre digitalen Kampagnen­strategien gesprochen, sich teils gebrüstet mit ihren modernen algorithmenbasierten Ansätzen. Wird die Diskussion darüber demnächst nur noch im stillen Kämmerlein stattfinden?
Das wäre fatal. Die Menschen sind sensibilisiert, die Medien aufmerksam. Die Politik muss mehr denn je aufpassen, was sie tut, sonst werden solche Methoden ihren Vertretern schnell auf die Füße fallen. Mein Rat wäre: weniger tricksen, sondern sich stärker im Ideenwettbewerb engagieren, wie unsere Zukunft aussehen soll. Die beste Idee muss sich durchsetzen. Ich glaube, dieses Prinzip ist zunehmend unter die Räder gekommen. Machtgewinn und Effizienz standen im Vordergrund, nicht Ideen.

Kommunikativ "back to the roots" zu steuern, wird keine Alternative sein. Der Wunsch nach Beeinflussung bleibt bestehen. Im Sinne der "Waffengleichheit" wäre es doch unklug, wenn Parteien nicht alle technischen Möglichkeiten ausnutzten, oder? 
Die Frage stellt sich meines Erachtens so nicht. Es ist nicht legitim, mit Daten zu arbeiten, die es eigentlich nicht geben sollte, und mit Methoden im rechtlichen Graubereich. Der großflächige Einsatz von digitalen Propaganda­methoden hat zu einem Informationskrieg geführt, der unsere Gesellschaft zunehmend zu spalten droht. 

Welche Methoden meinen Sie?
Ich meine beispielsweise Microtargeting und Big Nudging. Die Parteien, die darauf setzen, haben nie offen gesagt, was sie tun. Demokratie braucht Legitimität, und die erfordert Transparenz und Fairness. Die Politik glaubte, es werde schon gutgehen, wenn jeder die Big-Nudging-­Maschinerie benutzt und sich derjenige durchsetzt, der am meisten Gelder einsammeln kann, um sie zu betreiben. Wenige Politiker haben sich noch die Mühe gemacht, den Bürgern zu vermitteln, was ihre Ziele sind und was sie tun, warum und wie sie es tun. In diese kommunikative Lücke sind die Populisten gestoßen. 

Inwiefern hat das den Populismus gestärkt? Auch die AfD hat im Wahlkampf auf Algorithmen gesetzt.
Schon, aber ihre Vertreter haben mit den Menschen geredet und gesagt: Wir hören euch zu und setzen uns für eure Interessen ein. Viele Parteien scheinen heutzutage zu denken, es genüge, Gesetze zu erlassen und dann einen Konsens durch konventionelle und soziale Medien zu erzeugen. Statt im Wahlkampf ein inhaltliches Angebot zu machen, haben sich die meisten Parteien darauf konzen­triert, mit KI-Tools Stimmen zu fangen. Das endet in einer Art Rattenfängerei: Jedem wird gesagt, was er gerne hören möchte, aber was nachher passiert, ist eine ganz andere Sache. Es geht nicht mehr um Inhalte, Bestandsaufnahmen und Visionen, sondern schlicht um Macht. Leider löst Macht nicht die Probleme, vor denen unsere Welt steht.

Welche Methoden würden Sie den Wahlkampfteams von Parteien stattdessen nahelegen? 
Ich würde ihnen empfehlen, neue, frische, positive, faire, umsetzbare Zukunftsvisionen zu formulieren.

Auch solche Inhalte müssen an die Menschen heran­getragen werden. Über welche Tools und Kanäle sollte das passieren?
Wir leben in einer Ära der politischen Mobilisierung. Das lässt sich auch in den USA beobachten. Es entstehen immer mehr Netzwerke engagierter Bürger, die sich auf bestimmte Themen fokussieren und als Influencer und Kommunikatoren auftreten. Solche Grassroots-­Bewegungen sind legitim und wirksam. Diese "51-­Prozent-Demokratie", in der es um Deals geht à la: Wir tragen dieses mit, wenn ihr dafür jenes unterstützt, geht auf ihr Ende zu. Klientelpolitik ist gefährlich, denn die Vergessenen werden sich früher oder später organisieren. In Zukunft geht es darum, kollektive Intelligenz zu fördern. Politik wird sich zunehmend um Projekte herum organisieren, nicht um Parteien. 

Politische Kommunikation bleibt der Schlüssel – insbesondere, wenn es keine kompakten Partei­programme mehr geben sollte, sondern eine Fokussierung auf Themen. Wie erfahren die Menschen von Aktionen und Projekten, um sich zu engagieren?
Zurzeit haben wir ein Push-System: Parteien und Unternehmen produzieren Ideen und Produkte und versuchen dann, sie irgendwie an den Mann zu bringen. Das muss umgekehrt laufen: Am Anfang geht es darum zu erkennen, was die Menschen wirklich wollen und brauchen, dann folgen Angebot und Umsetzung. Es bräuchte eine Art Matching-Algorithmus, mithilfe dessen Projekte und Menschen zusammenfinden. In den USA gab es zum Beispiel eine App namens "Helping Hands", etwa zur Hilfe in Krisensituationen: Ich brauche dieses oder jenes und finde über einen Suchalgorithmus jemanden, der mir das anbieten kann. Ein solches Prinzip der direkten Vernetzung könnte auch in der Politik funktionieren.

Der Politiker fungiert in einem solchen Konstrukt also eher als Mittler und Moderator?
Darauf wird es hinauslaufen. Die Machtstrategen setzen sich im aktuellen System bisher oft durch. Entweder wird sich das ändern, oder das System wird fallen.