D
Foto: Julia Nimke
Politik

"Algorithmen treffen ins Mark der Macht"

Algorithmen sind überall, doch kaum einer versteht sie. Mathematiker Sebastian Stiller erklärt, woher Netflix weiß, welche Filme wir mögen, wie der Page Rank von Google funktioniert und warum jeder Entscheider einen Algorithmen-Crashkurs machen sollte.

von Viktoria Bittmann

Herr Professor Stiller, alle reden über Algorithmen, kaum einer kann sie erklären. Was ist ein Algorithmus?

Algorithmen liegen in der Natur des Menschen. Wenn Sie in einem Telefonbuch einen Namen suchen, blättern Sie dann von vorn bis hinten durch? Nein, man schlägt das Buch in der Mitte auf und sieht dank der alphabetischen Sortierung, ob man vorn oder hinten weitersuchen muss. Eine Hälfte des Buchs kann man schon igno­rieren. Bei der verbliebenen Hälfte verfährt man genauso: Man schlägt auf und sieht, ob man in der linken oder rechten Hälfte weitermachen muss. So ist man nach wenigen Schritten in einem 1.000-seitigen Telefonbuch auf der richtigen Seite. Das macht jeder Mensch ganz natürlich, und das ist ein Algorithmus – nennt sich binäre Suche.

Weshalb ist das schon ein Algorithmus?

Wir denken bei Algorithmen meist an statistische Datenmonster. Aber algorithmisch zu denken, heißt einfach, zu überlegen, wie man überlegt. Das Wort geht auf einen Gelehrten aus Bagdad zurück. Auf Latein lautete sein Name Algorithmi. Er konnte algebraische Gleichungen nicht nur lösen, sondern dachte darüber nach, wie er sie löst. Darüber schrieb er im 8. Jahrhundert ein Buch. Mit den Algorithmen darin kann jeder solche Gleichungen lösen.

Algorithmen gibt es seit mehr als 1.000 Jahren, warum reden wir darüber, als seien sie etwas Neues?

Die Möglichkeit, sich zu überlegen, wie man eine Lösung für ein Problem findet, gab es schon immer. Aber die Möglichkeiten, sie umzusetzen, sind durch die Verbreitung von Rechnern enorm gewachsen. Früher wurden Algorithmen klassischerweise von einer Verwaltung angewendet.

Wie das?

Eine Straßenverkehrsordnung ist ein Algorithmus, ein Gesetzbuch ebenso. Stellen wir uns ein kleines Königreich vor. Der König muss jeden Tag zu Gericht sitzen. Wenn sein Reich groß wird, kann er nicht mehr jeden Einzelfall entscheiden, sondern muss kluge Regeln finden. Ohne dass er den Einzelfall betrachten kann, müssen seine Regeln jedem einzelnen gerecht werden.

Das ist sehr abstrakt.

Vielleicht haben deshalb viele Menschen Angst vor Algorithmen. In größeren Gemeinschaften, in der globalisierten Wirtschaft gibt es die Notwendigkeit, sich auf das Prinzip zurückzuziehen und nicht jede Entscheidung einzeln zu treffen. Ein Beispiel: Google hat nicht mehr jeden Werbevertrag einzeln verhandelt, sondern Millionen Verträge, indem lediglich das Prinzip definiert wurde, nach dem verhandelt wird. Dasselbe tut ein Gesetzgeber: Er überlegt sich ein gutes Prinzip.

Wenn Gesetze Algorithmen sind, wie verhält sich dann Macht zu Algorithmen – gibt es eine Artverwandtschaft?

Wer über einen Algorithmus nachdenkt, fragt sich, wie jeder eine bestimmte Art Problem lösen kann. Er greift automatisch aus. In einem Algorithmus steckt daher immer ein Machtanspruch. Insofern überrascht es nicht, dass staatstheoretische Texte algorithmisch gedachte Passagen enthalten.

Zum Beispiel?

An einer Stelle des Contrat social von Rousseau geht es um die Sorge, dass sich innerhalb der Gemeinschaft eine Gruppe untereinander einigt und so einen verschobenen Einfluss auf die Bildung des Gemeinwillens hat. Ziel ist es, die Prinzipien zur Entfaltung von Macht festzuschreiben und darauf zu achten, dass sie in jeder Situa­tion funktionieren.

Algorithmen werden oft mit Kochrezepten verglichen – führt das in die Irre?

Ja, der Vergleich hinkt. Wenn man ein Rezept befolgt, kommt stets das gleiche Gericht heraus. Viele befürchten daher, dass Algorithmen Einheitsbrei hervorbringen. Das stimmt aber nicht. Ein Algorithmus zum Kochen wäre ein Regelwerk, das für jede Gelegenheit, jeden Gast und jeden Geschmack das perfekte Essen kocht. Die Kunst ist es, wenige Regeln zu finden, die dennoch der Vielfalt der Phänomene gerecht werden.

Die Angst vieler Menschen rührt daher, dass Algorithmen nicht transparent sind.

Was mit Mathematik zu tun hat, wird gern überschätzt. Viele Menschen sagen, dass sie Mathematik nicht verstehen und machen die Schotten dicht. Bei den meisten Algorithmen ist aber nicht der mathematische Teil das Entscheidende, sondern das Kriterium, das dem Algorithmus zugrunde liegt. Das Kriterium, nach dem heute Webseiten gesucht werden, kann jeder verstehen.

Ich bin gespannt.

(beginnt auf einer Papierserviette zu zeichnen) Es gibt diese berühmte Schulklasse aus Österreich, Anfang des 20. Jahrhunderts. Der Soziologe Jakob Moreno stellt jedem Schüler eine einfache, aber schwammige Frage: Wer sind deine Freunde? (malt auf dem Blatt Pfeile von jedem Kind zu seinen Freunden) Ergebnis: Auf eines der Mädchen zeigen viele Pfeile von anderen Mädchen. Dieses Mädchen ist sozial wahrscheinlich nicht unwichtig. Ein anderes Mädchen bekommt nicht so viele Pfeile, aber einen Pfeil von dem Mädchen, auf das viele Pfeile zeigen. Und es bekommt den einzigen Pfeil, der Jungen und Mädchen verbindet. Dieses Mädchen hat also einen Pfeil von einem wichtigen Mädchen und einen aus einer ganz anderen Gruppe. Wahrscheinlich ist es auch wichtig. Das ist der Page Rank von Google.

Einfacher als gedacht.

Wichtig ist aber: Das ist nicht der Algorithmus, sondern das Kriterium, das dem Algorithmus zugrundeliegt. Es ist – zugegeben – unscharf, aber das beste, das wir haben – für Webseiten, nicht für Freunde.

Sebastian Stiller (c) Julia Nimke

Die Algorithmen von Facebook sind so geheim wie die Coca-Cola-Formel. Was wissen wir darüber?

Facebook hat natürlich ein algorithmisches Problem. In dem Netzwerk, das von wenigen Menschen betrieben wird, bewegen sich Milliarden Nutzer. Es braucht Algorithmen, um Missbräuche herauszufiltern. Die genauen Algorithmen kennen nur wenige, aber die Prinzipien sind bekannt. Oft handelt es sich um machine-lear­ning-Algorithmen, die darauf trainiert werden, bestimmte Kriterien zu erkennen. Der Algorithmus entscheidet nicht. Es ist ein Mensch, der ihm sagt, was er zensieren und was er bevorzugen will. Der Mensch trifft die Entscheidung und trägt die Verantwortung. Diese Entscheidung sollte transparent sein.

Und der Algorithmus spielt keine Rolle?

Nicht ganz. Vom Algorithmus sollte man grob das Kriterium kennen. Es sind meist statistische Algorithmen. Deren Ergebnisse sind nie absolut verlässlich und für manche Bereiche besser geeignet als für andere.

Wie zuverlässig werden Fake News erkannt?

Ein rein algorithmisches Kriterium, um über den Wahrheitsgehalt einer jeden Nachricht zu entscheiden, wird es nicht geben. Aber man kann versuchen, Aussagen zu erkennen, die man bei einer verlässlichen Quelle gegenchecken kann. Man sollte aber nicht glauben, dass von da an jeder Post die reine Wahrheit ist.

Algorithmen wie bei Facebook werden trainiert. Funktioniert das wie menschliches Lernen?

Nein. Konzepte wie "künstliche Intelligenz", "deep learning" oder "neuronale Netze" sind vom menschlichen Denken bestenfalls inspiriert. Es gibt aber keinen Grund, einen ernsthaften Vergleich zwischen Algorithmen und Menschen zu ziehen.

Wie lernen Algorithmen?

Der Algorithmus, mit dem Netflix Ihnen Filme empfiehlt, macht das in etwa so: Ihre Fotografin und ich bewerten jetzt auf dieser Serviette ein paar Filme, die Sie auch kennen. Jeder Film bekommt ein Kreuz. Je weiter oben wir das Kreuz auf die Serviette machen, desto besser findet sie den Film, je weiter rechts, desto besser finde ich ihn. Jetzt dürfen Sie die Serviette mit einem einzigen Strich in zwei Hälften teilen: die eine enthält die Filme, die Sie mögen; die andere enthält die Filme, die Sie nicht mögen. Wenn es nicht aufgeht, machen Sie es so gut wie möglich. Zum Schluss bewerten Ihre Fotografin und ich einen Film, den Sie noch nicht kennen. Und je nachdem, in welcher Hälfte das Kreuz des Ihnen unbekannten Films landet, werden Sie den Film mögen oder nicht. So hat es zumindest der Algorithmus gelernt. Das klingt etwas simpel. Aber sehr viel komplizierter läuft es auch in Wirklichkeit nicht.

Wie lautet das Kriterium des Netflix-Algorithmus’?

Der Netflix-Algorithmus gibt nur die Form des Kriteriums vor. Durch den Lernprozess entsteht die genaue Ausprägung des Kriteriums, in diesem Fall Ihr Filmgeschmack. Der Algorithmus bildet ein amorphes Kriterium, das am Ende keiner kennt – nicht einmal Sie selbst. Es bildet sich aus den historischen Daten, die über Sie vorliegen.

Das ist intransparent und klingt beunruhigend.

Kann aber extrem gut sein. Es kommt immer darauf an, welcher Algorithmus wofür eingesetzt wird. Stellen Sie sich vor, Sie haben ein Stück Kuchen und zwei Kinder. Selbst wenn die Eltern es in zwei gleich große Stücke teilen, gibt es Streit. Lassen Sie stattdessen ein Kind teilen und das zweite wählen! Wenn das erste Kind sich klug verhält, teilt es das Stück in seinen Augen fair. Das zweite Kind wird sich nicht betrogen fühlen, da es wählen darf. Wenn statt der Kinder ein machine-learning-Algorithmus das Stück ganz genauso teilt, funktio­niert es nicht. Es gibt trotzdem Streit. Für Menschen ist es wichtig, wie eine Entscheidung zustande kommt. Wenn eine Diktatur dieselben Entscheidungen fällt wie eine Demokratie, ist das nicht das gleiche. Das beherzigt auch Google: Deren Anzeigenpreise werden nicht etwa durch machine learning bestimmt, sondern durch eine Auktion. Der Kunde bekommt keinen Preis vorgegeben, sondern bietet.

Außerhalb jeder Transparenz agieren Social Bots. Im Umfeld der TV-Duelle in den USA stammte jeder vierte Tweet von einem Bot. Wie funktioniert das?

Algorithmisch sind einfache Chat Bots ohne viel Intelligenz zu realisieren. Ein Bot beobachtet, ob in einem Chat die gesuchten Schlagwörter auftauchen und sondert vorgeschriebene Talking Points ab. Da in Chats ohnehin mit geringem Bezug zum Vorredner geschrieben wird, reicht das in den meisten Fällen aus, um nicht aufzufallen.

Wie groß ist die Gefahr der Manipulation?

Wer Chat Bots benutzt, ohne sie als solche zu kennzeichnen und ihren Urheber zu erkennen zu geben, der lügt. Er gaukelt den Menschen vor, es gäbe massenweise Menschen, die eine bestimmte Meinung vertreten. Lügen kann man nicht verbieten, aber wenn sie enttarnt werden, sollte es die Glaubwürdigkeit beschädigen.

Im Bundestagswahlkampf 2017 will die AfD als einzige Partei auf Social Bots setzen. Wird sie in bestimmten Netzwerken damit die Deutungshoheit erlangen? (Anm. d. Red: Inzwischen hat die AfD dementiert, Social Bots einsetzen zu wollen)

Das kann ich nicht beurteilen, denn das ist keine technische sondern eine soziologische Frage. Aber wenn eine Partei ankündigt, systematisch im Wahlkampf die Menschen belügen zu wollen, dann hat das eine neue Qualität. Ob die Bots die Deutungshoheit erlangen, hängt davon ab, wie klug die Nutzer und Beobachter dieser Netzwerke sind. Das Netzwerk kann versuchen, Social Bots zu erkennen und zu sperren.

Der Einfluss von Algorithmen auf die Meinungsbildung wird heftig diskutiert. Welche Verantwortung tragen die Netzwerke?

Die Algorithmen von Facebook und Co sind nicht perfekt. Ist das die Schuld von Facebook? Nein. Es sind Notkriterien, um die Datenmenge zu bewältigen. Dessen sollte man sich bewusst sein. Es wird an manchen Stellen nie ein perfektes Kriterium geben. Bei einer Studie zeigte sich, dass Politiker mit gutem Google-Ranking bessere Chancen haben, gewählt zu werden. Das ist kein Versagen von Google, sondern ein Versagen der politischen Diskussion.

Sebastian Stiller (c) Julia Nimke

Viele Menschen, auch Entscheider, sind mit dem Thema überfordert. Was folgt daraus?

Das größte Problem ist die Unfähigkeit zu differenzieren. Es gibt ganz verschiedene Algorithmen, denn es gibt ganz verschiedene Kriterien: exakte, netzwerkbasierte, statistische, spieltheoretische. Unterschiedliche Kriterien haben unterschiedlichen Wahrheitsgehalt und unterschiedliche Aussagekraft. Entsprechend sind Algorithmen in manchen Bereichen hervorragend geeignet und in anderen pures Gift. Wer das weiß, kann wirtschaftliche, technische und gesellschaftliche Zukunftsfragen sinnvoll diskutieren. Wer das nicht weiß, glaubt meist, Algorithmen seien irgendwie böse, aber allmächtig. Es gibt ein Strategiepapier des Bundesministeriums für Bildung und Forschung, in dem es heißt, Daten seien praktisch unbegrenzt speicher- und verarbeitbar. Das ist glatter Unsinn. Es gibt eine Wissenschaft, die Komplexitätstheorie, die sich mit den Grenzen von Algorithmen beschäftigt.

Bislang wurden Rechner immer schneller. Wann endet die Beschleunigung?

Physikalisch gibt es für Rechner Grenzen, die auch fast erreicht sind. Prozessoren werden nicht mehr viel schneller, stattdessen gibt es mehr von ihnen im Rechner. Es gibt auch Punkte, an denen Algorithmen an ihre Grenzen gelangen. Die Verschlüsselungsalgorithmen, die beim Bezahlen im Internet angewendet werden, beruhen darauf, dass man bestimmte Dinge praktisch nicht berechnen und damit nicht entschlüsseln kann.

Kann man das sicher sagen?

Komplexität ist keine harte Mauer. Sie verschiebt sich ein bisschen, aber deshalb ist sie nicht weg. Eine Codierung mit 1.024 Bits oder mehr galt in den USA bis in die neunziger Jahre als ausfuhrbeschränkt wie eine Kriegswaffe. Solche Verschlüsselung konnte nicht decodiert werden. Heute können das einige, deshalb sollte man 2.048 Bits verwenden. Die Länge des Codes wird verdoppelt, der Aufwand der Decodierung dagegen wächst exponentiell und bleibt praktisch unmöglich.

Hahrie Han von der Universität Kalifornien sagt, Hillary Clinton habe auch deshalb die Wahl verloren, weil die Zusammenarbeit zwischen Datenteam und Wahlkämpfern nicht ideal lief. Ist es trügerisch, sich blind auf Daten zu verlassen?

Ja, und das ist auch die größte Gefahr, die ich bei Algorithmen sehe. Technik hat immer das Ikarus-Pro­blem: Der Vater baut ein Fluggerät aus Wachs und der Sohn fliegt es nichtsahnend zu dicht an die Sonne. Der eine macht’s, der andere benutzt es. Deshalb brauchen wir ein Grundwissen über Algorithmen. Politische Fragen werden immer stärker algorithmisch gedacht werden müssen.

Wie meinen Sie das?

Es geht nicht nur um mächtige Werkzeuge wie Gesichtserkennung, sondern um Grundsätzliches: Die Ausübung von Macht prägt sich immer algorithmisch aus – in Gesetzen, Verwaltungsnormen, AGBs. In diesen Strukturen werden wir immer leben müssen und wir können diese nur bestmöglich gestalten. Wenn wir nicht verstehen, wie diese Algorithmen funktionieren, wird fahrlässig damit umgegangen. Das gilt für Politiker und Manager gleichermaßen.

Eine Initiative namens Algorithmwatch hat sich gegründet. Muss sich die Gesellschaft wappnen?

Es muss mehrere Stufen geben. Es gibt Bereiche, in denen Algorithmen tun und lassen können, was sie wollen. In anderen Feldern muss man gesetzlich einschreiten. Es muss einen TÜV geben für Bereiche, die sicherheitskritisch sind. Interessant ist der Bereich dazwischen, der relevant ist, aber vermutlich nicht reguliert wird. Hier muss der Verbraucher in die Lage versetzt werden, vernünftig zu entscheiden.

Angela Merkel hat gesagt, dass Algorithmen transparenter werden müssen. Stimmen Sie zu?

Ja, aber Algorithmen können nicht transparenter werden, wenn wir ihre Grundbestandteile nicht verstehen. Die Bestandteile von Nahrungsmitteln sind nicht transparent, wenn wir nicht wissen, was Kohlenhydrate sind. Dann denke ich beim Blick auf die Nährwerttabelle einer Cola: "Oh toll, 23 Gramm Zucker."

Sollte jeder Bundestagsabgeordnete Algorithmen verstehen?

Ja, sicher! Das muss auch jeder Vorstand in Deutschland. Es gibt viel zu viele Leute, die denken, sie kämen auf der Ebene des Executive Summary durch die Digitalisierung. Das ist fatal. Algorithmen treffen ins Mark der Macht, weil wir mit einem Algorithmus ein Stück fremdes Denken übernehmen. Ein Algorithmus ist wie ein Berater. Von dem will ich wissen, wie er zu seinen Entscheidungen kommt und was er taugt. Das müssen Politiker, Manager und Journalisten auch von Algorithmen wissen.

Nicht jedem liegt Mathematik.

Es geht nicht darum, Mathematik zu studieren. Die schwierigsten Kriterien von Algorithmen sind statistischer Natur und mit Statistiken sollten Entscheider umgehen können. Wer sich eine Woche Zeit nimmt, um sich Algorithmen erklären zu lassen, der kann und weiß, was er wissen muss.

Welche Vorteile bringen Algorithmen?

Algorithmen ermöglichen uns das systematische Finden guter Lösungen. Die Algorithmen-Feindlichkeit in der Gesellschaft unterminiert letztlich das, was wir für das Zusammenleben in großen Gemeinschaften brauchen. Wir müssen algorithmische Systeme finden, um miteinander gut leben zu können. Die Vorteile liegen auf der Hand. Auf der einen Seite geht es um Effizienzsteigerung durch technische Möglichkeiten. Auf der anderen Seite geht es darum Märkte, Wahlen und Entscheidungsprozesse zu haben, die als gerecht verstanden werden, ohne zu gegenseitiger Blockade zu führen – wie wichtig ist diese algorithmische Frage für die Zusammenarbeit in der EU!

Was haben Wahlsysteme mit Algorithmen zu tun?

Ein Beispiel: In Frankreich erfolgen Wahlen in zwei Stufen. Mit einer Stichwahl soll die Anomalie verhindert werden, dass am Ende die Minderheit gewinnt, weil die Mehrheit zerstritten ist. Das zweistufige Wahlsystem ist eine algorithmische Überlegung. Es geht nicht um mehr oder weniger Algorithmen, sondern um die richtigen Algorithmen.

Welche Rolle spielt es, wie wir über Algorithmen sprechen?

Eine große und problematische. Die Kraft des Marketings wurde in tragischer Weise deutlich bei dem tödlichen Unfall eines Tesla-Fahrzeugs. In der Betriebsanleitung steht, welche Situationen der sogenannte Autopilot nicht beherrscht, dennoch wurde er bis dahin Autopilot genannt. Der Technik-Hype lässt uns glauben, dass Algorithmen nächste Woche alles können werden, was der Mensch kann. Dabei sind wir von autonomem Fahren meilenweit entfernt. Wenn wir es aber Auto­pilot nennen, fahren manche Menschen damit gegen den Baum. Die deutsche Autoindustrie ist da zum Glück zurückhaltender.

Sollten wir nüchterner diskutieren?

Ja. Und wir sollten uns niemals von der Tatsache beeindrucken lassen, dass etwas ein Algorithmus ist. Ein Algorithmus kann strohdumm sein oder herzensgut. Wichtig ist nachzufragen, was ein Algorithmus macht, welches Kriterium zugrundeliegt. Wenn jemand, der mir einen Algorithmus verkaufen will, das Kriterium nicht erklären kann, dann sollte ich die Finger davon lassen.

Sebastian Stiller

ist Professor für Mathematik an der TU Braunschweig. Er entwirft und analysiert ­Algorithmen. 1974 in Erlangen geboren, studierte er Mathe­matik und Philosophie. Er forschte u. a. am ­Massachusetts Institute of Technology (MIT). 2015 erschien im Knaus Verlag sein Buch "Planet der Algorithmen. Ein Reiseführer".