Wie Algorithmen die Politik verändern

Politik

Vor etwa 15 Jahren, Google war gerade gegründet, fragte ein Journalist Sergey Brin und Larry Page, ob es nicht vermessen wäre, mit ihrer Suchmaschine das Wissen der Welt organisieren zu wollen. Sie antworteten, dass es ihnen nicht nur darum ginge – ihr Traum sei vielmehr die Entwicklung künstlicher Intelligenz (KI) und die Suchmaschine der Weg dahin. Heute ist Google/Alphabet der größte KI-Konzern der Welt.

In den vergangenen fünf Jahren bauten weltweit IT-Konzerne Abteilungen für künstliche Intelligenz auf. Zunehmend auch Start-ups. Im November verkündete Toyota, eine Milliarde Dollar in ein KI-Forschungslabor zu investieren. Die gleiche Summe steckte IBM in sein Expertensystem “IBM Watson”, das der Konzern mittlerweile zu einer Sparte ausbaute.

Mit IBM Watson können sich Menschen unterhalten, das System kann zehntausende medizinischer Studien “lesen”. Es “versteht” nicht Medizin, sondern errechnet statistische Modelle für semantische Zusammenhänge von Worten in Texten. Dieses System ist in der Lage, aus den gewonnenen Informationen signifikante Schlussfolgerungen zu ziehen. US-Unikliniken nutzen es zur Krebsdiagnose.

Illustration: Marcel Franke

Die Amerikaner erkannten, dass an selbstlernenden Maschinen die Zukunft hängt. Es geht um die Automatisierung von Wissenserzeugung. Wem es gelingt, Systeme zu entwickeln, die Wissen automatisiert generieren, der kann diesen Prozess optimieren. Es entsteht eine sich selbst beschleunigende Wissensmaschinerie.

Intelligente Informationsverarbeitung markiert die Überlegenheit des Menschen gegenüber anderen Spezies. Die industrielle Revolution wurde durch Energie möglich, die digitale Revolution durch Information. Künstliche Intelligenz ist hierfür die Schlüsseltechnologie und steckt hinter Big Data.

Bis in US-amerikanische Militärlabore des Zweiten Weltkriegs reichen die Wurzeln. Für komplexe Berechnungen zum Bau der Atombombe entwickelten die Amerikaner den modernen Digitalcomputer. Die Schöpfer der ersten Institute für Informatik in den USA begründeten zugleich das Forschungsfeld der künstlichen Intelligenz. All dies finanzierte das Pentagon. Bis heute. Die NSA würde ohne KI von der Flut der Daten weggespült.  

Der Ingenieur Robert Kahn sorgte dafür, dass das US-Verteidigungsministerium Anfang der achtziger Jahre rund eine Milliarde Dollar in ein zehnjähriges Forschungsprogramm zur Entwicklung einer militärischen “Superintelligenz” investierte. Kahn konzipierte auch die technologischen Grundlagen des Internets. “Die Nation, die das Feld der Informationsverarbeitung dominiert”, sagte er, “wird den Schlüssel zur Weltherrschaft im 21. Jahrhundert besitzen”.

Er wollte eine Intelligenzmaschine bauen, ein “generisches Expertensystem”, das sämtliche Fragen würde beantworten können. Ein sprechendes Google, das logisch denken könnte. Die Voraussetzungen, die er für den Bau dieser “Superintelligenz” definierte, lesen sich wie Meldungen aus Tageszeitungen der Gegenwart: Sprach- und Bilderkennung, schlussfolgernde und autonom agierende Systeme seien nötig.

Wer die digitale Revolution realistisch bewerten möchte, sollte sich mit KI beschäftigen. Dann erscheinen die Ergebnisse einer Studie der Universität Oxford nicht mehr abwegig. Demnach sind 47 Prozent der Arbeitsplätze in den USA durch Computerisierung bedroht.

Illustration: Marcel Franke

Systeme werden entwickelt, die eine vollautomatisierte Logistik ermöglichen: Regale rollen auf Roboterfahrzeugen durch Lagerhallen. Was für Menschen chaotisch wie ein Ameisenstaat erscheint, steuern intelligente Algorithmen. Sie berechnen das mathematische Optimum von Lagerung und Versand, von Ware und Profit, von Raum und Zeit. KI ist die Schlüsseltechnologie der Automatisierung.

Hitachi beförderte 2015 ein intelligentes System zum Chef seiner Lagerlogistik. Die künstliche Intelligenz “Vital” (Validating Investment Tool for Advancing Life Sciences) ist gleichberechtigtes Mitglied im Aufsichtsrat eines Bio-Tech-Investors.

Solche Systeme verändern nicht nur Fabriken und Betriebe. Sie generieren Artikel für Zeitungen, erstellen Risikoprognosen für Versicherungen. US-Kanzleien gehen davon aus, dass 35 Prozent der Neuanfänger in den nächsten fünf bis zehn Jahren allein durch IBM Watson gefährdet seien.

Und Politik? Langwierige Gesetzgebungsprozesse halten schlicht nicht mehr Schritt mit der technologischen Revolution. Die Demokratie ist eine “veraltete Technologie”, wie der mächtige Investor Peter Thiel verbreitet.

Illustration: Marcel Franke

Künstliche neuronale Netze simulieren basale Fähigkeiten bestimmter Hirnregionen als mathematische Funktion. Sie lernen eigenständig, exorbitante Datenmengen zu prozessieren, die für Menschen nicht erfassbar wären. Diese Systeme übersetzen Daten in eine für sie “verstehbare Sprache”.

So wird es möglich, dass intelligente Algorithmen der Polizei von Chicago aus Social-Media-Daten eine Liste mit etwa 400 Personen errechnen, die demnächst eine Straftat begehen. Diese Menschen erhalten einen Warnanruf der Polizei, sie mögen sich an die Gesetze halten. Auch in Deutschland bekämpfen Landeskriminalämter bereits Straftaten, bevor sie begangen werden.

Künstliche Systeme übersetzen geschriebene oder gesprochene Sprache in maschinenlesbare Datenmus­ter und Modelle. Sie errechnen Vektoren – mehrstellige Zahlenketten –, die die Bedeutung eines Worts innerhalb einer Sprache exakt definieren.

Systeme erkennen nicht nur Gesichter und Objekte auf Fotos oder in Videos – sie identifizieren auch Beziehungen der Objekte zueinander und benennen diese sprachlich. Sie können “sagen”, was sie “sehen”. “Sehen” und “Verstehen” stellt sich für diese Systeme als ein hochkomplexer mathematisch-statistischer Zusammenhang dar.

Selbst das Programmieren übernehmen diese Systeme, denn dazu wären Menschen angesichts der aberwitzigen Datenmenge nicht in der Lage. Vielmehr exis­tieren Lernalgorithmen, die Lernen lernen. “Machine learning” nennt sich das oder: “deep learning”.

Algorithmische Systeme generieren in der Interaktion mit Daten neue, komplexere Programme. Je mehr Daten, desto effizienter. Algorithmen generieren Algorithmen, die Menschen nicht mehr verstehen und die andererseits neue Einblicke gestatten, wie Pedro Domingos, Informatiker von der Universität Washington schreibt. Prinzipiell könnte jegliche in Daten enthaltene Information so extrahiert werden.

Eine universelle Wissens­erzeugung würde möglich. Domingos beschreibt einen “Master Algorithmus”, der jeden weiteren Algorithmus überflüssig macht, weil er ihn selbst erzeugen könnte. Die Automatisierung der Automatisierung.

Illustration: Marcel Franke

Künstliche Intelligenz sickerte aus der Militärforschung in die Finanzindustrie. Es ist daher kein Zufall, dass rund 70 Prozent der US Stock Exchange auf Hochfrequenzhandel beruhen. Computer dealen mit Computern auf Basis von Wirtschaftsinformationen, die ihrerseits Computer generieren.

Ein nahezu automatisiertes System, das der Wissenschaftshistoriker Philip Mirowski als eine “Cyborg-Ökonomie” bezeichnet. Eine Ökonomie, die sich wie ein Thermostat selbst reguliert. Das kybernetische Modell.

Daten und Rechenpower sind die Voraussetzung für den Durchbruch. 1961 kostete ein Gigaflop 1,1 Trillionen Dollar und wurde nur durch die Zusammenschaltung von 17 Millionen IBM 1620-Rechnern erreicht. Im Januar 2015 kostete die gleiche Rechenleistung nicht einmal einen Cent.

1996 benötigte der schnellste Supercomputer rund 80 Prozent der Fläche eines Tennisplatzes – die gleiche Leistung erbringt wenige Jahre später die Sony Playstation 3. In den nächsten 15 Jahren erhöht sich nach Berechnungen des Pentagon die Rechenleistung um bis zu 100.000 Prozent. Das alles macht universell lernende Algorithmen hochleistungsfähig und deren Besitzer zu mächtigen Menschen.

2020 wird es laut Schätzungen von Cisco 50 Milliarden Sensoren auf der Welt geben, die permanent Daten emittieren. So wie wir durch Bewegung Luft verdrängen, erzeugen wir Daten. Stellen wir uns die Welt als illuminierte Smart Cities vor: Der Verkehr, selbstfahrende Autos, Menschen, von interaktiver Kleidung umhüllt, die unsere Körper und unsere Bewegungen abbildet, Armbänder, die unsere Gesundheit messen, das Internet der Dinge, bei dem Geräte miteinander kommunizieren – alles sendet Daten.

Jeder Datenpunkt abrufbar, jedes Haus, jede Wohnung, jeder Mensch, seine Kreditwürdigkeit, die Kennziffern der Gefahren, die von ihm für Versicherungen oder Regierungen ausgehen. Eine digitale Matrix baut sich auf, in der alles von intelligenten Systemen les- und berechenbar wird: Staus, Massenpaniken, der Klimawandel, die Wahrscheinlichkeit von Anschlägen und Revolutionen: prognostizierbar.

Barack Obama gewann seine unwahrscheinliche Wiederwahl 2012, weil er 100 Millionen Dollar in ein Datenteam investierte. Seine intelligente Polit-Maschine errechnete zehntausende von Wählersimulationen – täglich. Sein Team hatte Millionen Menschen profiliert. Er ließ seine politischen Ansprachen vermessen und auf exakt berechnete Zielgruppen optimieren. Bei der gegenwärtigen Präsidentschaftswahl wird bereits der Einsatz intelligenter Software zum Röntgen der Wähler kritisiert.

Illustrationen: Marcel Franke

Intelligente Maschinen prüfen Gesetzesfolgen, auch in Deutschland. Es existieren Ansätze, öffentliche Dienstleistungen zu datafizieren und algorithmisch zu regulieren. Prozesse unserer Gesellschaft, das Gesundheitswesen, die Wissenschaft – alles lässt sich in Echtzeit steuern und optimieren. Demokratische Prozeduren wirken da auf manche wie Insekten im Bernstein.

“Algorithmische Regulation”, wie sie Tim O’Reilly will – Erfinder des Begriff Web 2.0 – meint die Abschaffung von Politik. An ihre Stelle rücken Konzerne.

Google/Alphabet eröffnete 2015 sein “Regierungs- und Innovations-Labor” und bietet künftig auch “Regieren” an. Jeder Service kostenlos. Nicht ganz, denn es geht ja um die Daten der Menschen, den Rohstoff von Wissen und Macht.

Von 2020 an vergibt die chinesische Regierung einen “Citizen-Score” als Identifikationsmerkmal neben dem Ausweis. Er speist sich aus dem digitalen Verhalten der Bürger. Wer die falschen Postings sendet oder unerwünschte Seiten im Netz ansteuert, verliert Punkte und wird für Berufe und Reiseziele gesperrt. Auch die Punktzahl von Freunden und Bekannten fließt in die eigene ein. Ein ausbaufähiges System der sozialen Kontrolle, das Opposition automatisiert als Spam filtert.

Was das bedeutet? Wir benötigen Verfahren, die politische und gesellschaftliche Folgen moderner Computertechnologien und insbesondere der künstlichen Intelligenz dauerhaft und unabhängig evaluieren. Darauf sollten staatliche und überprüfbare Rahmenbedingungen aufbauen, die definieren, wie sich diese Technologien mit Rechtstaatlichkeit und Demokratie in Übereinstimmung bringen lassen.

Dieser Beitrag erschien zuerst in der gedruckten Ausgabe politik&kommunikation IV/2015 Zukunft. Das Heft können Sie hier bestellen.