Wenn ­Algorithmen ­Meinung machen

Künstliche Intelligenz

Wenige Einsatzfelder Künstlicher Intelligenz (KI) werden derzeit so kontrovers diskutiert wie der Bereich der politischen Kommunikation. Science-Fiction-Filme haben uns das Bild autonomer Maschinen eingebrannt, die die Herrschaft über die Menschheit übernehmen. In seinem Zukunftsroman “Der Würfel” beschreibt Bijan Moini, wie eine von menschlicher Beeinflussung unabhängige Intelligenz auf demokratischem Weg die Macht in Deutschland übernimmt und die Menschen in ein gesellschaftskonformes Verhalten drängt.

Dass ein solches Gefahrenszenario für die Demokratie, wie wir sie kennen, keine ferne Zukunft darstellt und viel mehr als nur ein irrationales Angstgebilde ist, zeigt ein Blick nach China. Das Social-Scoring-System, das dort gegenwärtig entwickelt wird, kombiniert Überwachung, massenhafte Datenspeicherung und Künstliche Intelligenz.

Microtargeting und Bots

Zum schlechten Ruf von Algorithmen in der politischen Kommunikation haben auch die Versuche beigetragen, die Präsidentschaftswahlen in den USA oder die Brexit-Abstimmung zu manipulieren. Detaillierte Persönlichkeitsprofile von Millionen Facebook-Nutzern wurden verwendet, um zielgenaue Botschaften zu versenden, posi­tive Emotionen und Einstellungen zu bestimmten politischen Positionen und Parteien zu stärken und die Gegenseite herabzuwürdigen. Es wird viel darüber diskutiert, wie wirksam Microtargeting tatsächlich ist. Wenn Abstimmungen knapp ausfallen wie in den USA und Großbritannien, könnte es jedoch die ausschlaggebenden Stimmen gebracht haben.

Zunehmenden Einfluss auf Inhalte und Tonalität von Online-Diskussionen haben auch Bots. Hier haben wir es mit Algorithmen zu tun, die weitgehend automatisch sich wiederholende Aufgaben abarbeiten. Dabei sind sie eigenständig und benötigen keine Interaktion mit menschlichen Nutzern. Bots werden häufig eingesetzt, um Meinungen zu manipulieren, zum Beispiel indem sie automatisierte Kommentare in Internetforen platzieren.

Filterblasen und Filterclash

Jenseits geplanter Manipulationsversuche birgt der Versuch, dem Online-Nutzer nur relevante Informationen zur Verfügung zu stellen, ebenfalls Gefahren. Algorithmen können auf Basis der Signale von Text und Nutzer einzelne Inhalte bevorzugen und andere Meinungen in den Hintergrund rücken. Sie versperren dem Nutzer unter Umständen den Blick auf ein breiteres Meinungsspektrum. 

Über Existenz und Effekt dieser sogenannten Filterblasen gibt es unterschiedliche Ansichten: Während manche meinen, dass die algorithmengesteuerte Inhalteselektion die einseitige Meinungsbildung verstärkt, betonen andere den subjektiven Wahrnehmungswunsch des einzelnen, der auch aus einem breiteren Meinungsspektrum nur die Informationen auswählt, die sein Weltbild bestätigen.

Der Medienwissenschaftler Bernhard Pörksen geht zwar auch davon aus, dass der “Rückzug in Selbstbestätigungsmilieus” so leicht ist wie nie zuvor, “weil das Netz von der Logik des Senders (das gebündelte Informationspaket, etwa in Form einer Zeitung) auf die Logik des Empfängers (zum Beispiel in Gestalt einer persönlichen Suchanfrage) umstellt”. Diese Milieus prallen im Internet seiner Einschätzung nach aber ständig aufeinander und konfrontieren einander mit ihren unterschiedlichen Weltbildern: Es kommt zu Filterclashs, Pörksens Meinung nach “die mediale Tiefenursache der großen Gereiztheit” in der Welt.

Der Wunsch nach Übersichtlichkeit

Das Urteil über den Zustand der Online-Debattenkultur in Deutschland fällt aktuell häufig negativ aus. In den hitzig geführten Auseinandersetzungen treten die klassischen Schwächen von Diskussionen im Netz unmittelbar zutage: Sie drehen sich schnell im Kreis, spätestens nach zehn Beiträgen fehlt die Übersicht, man redet aneinander vorbei, gemeinsame Entscheidungen oder Kompromisse werden selten ausgehandelt. Soziale Normen rücken in den Hintergrund, Hate Speech in den Vordergrund – vor allem bei Teilnehmern, die sich nicht persönlich kennen. Dazu kommt die Schwierigkeit, Fake News immer als solche zu erkennen.

Die schiere Menge von Nutzerkommentaren, einhergehend mit den beschriebenen Problemen der Online-Kommunikation und den Notwendigkeiten des Netzwerkdurchsetzungsgesetzes führten dazu, dass mittlerweile rund 60 Prozent der Online-Medien, darunter die “Süddeutsche Zeitung” und die Deutsche Welle, ihre Kommentarfunktionen ganz oder zeitweise abgeschaltet haben. Zu viel Hass, zu viel Arbeit für Redaktionen, die große Menge an Kommentaren zu moderieren und auf strafbare Inhalte zu durchsuchen.

Der Wegfall von Diskussionsorten im Netz schadet jedoch der Demokratie in unserem Land. Müssen wir uns mit diesem in der Summe düsteren Status quo abfinden? Oder könnte man die technischen Möglichkeiten Künstlicher Intelligenz dazu nutzen, die Probleme zu lösen und die Potenziale von Online-Diskussionen voll auszu­schöpfen?

Vorsortierte Posts, neue Diskussionspfade

Lernende Algorithmen können dabei helfen, die Anzahl von Nutzerbeiträgen in den Griff zu bekommen, indem zum Beispiel Posts in einem Forum daraufhin überprüft werden, ob bereits ähnliche Antworten und Argumente vorhanden sind. Diese Technologie verhindert, dass sich eine Diskussion im Kreis dreht, weil immer wieder die gleichen Argumente genannt werden.

Die KI berechnet die Ähnlichkeit von Antworten untereinander, indem sie jede Antwort in einen multi-dimensionalen Vektor zerlegt und Distanzmaße zwischen den Antworten errechnet. Die Antworten mit der geringsten Distanz zum neuen Argument werden dem Nutzer dann zur Auswahl vorgelegt. Damit ist es auch möglich, die Struktur der Diskussion zu verändern, indem neue Argumente eigene Diskussionspfade erhalten.

Auf ähnliche Art und Weise können mittels KI auch zentrale Argumente identifiziert werden, anhand derer Diskussionen zusammengefasst und beschrieben werden können. Aus dem ursprünglichen Wust der Debatte ragen nach kurzer Zeit einige Pole oder Anker hervor, die für alle künftigen Beiträge von besonderer Relevanz sind.

KI kann Posts vorsortieren, zum Beispiel mit Blick darauf, ob sie Hate Speech enthalten. Dazu vergleicht die KI neue Argumente mit bestehenden Wort-Datenbanken und berechnet die Wahrscheinlichkeit, ob ein Post verletzende Sprache enthält. Forscher sind aktuell damit beschäftigt, Merkmale wie Schimpfwörter, Wörter, die häufig im Zusammenhang mit Schimpfwörtern stehen (“Du bist ein …”), mit Hassbotschaften verlinkte Hashtags und Emojis zu identifizieren, anhand derer entsprechende Algorithmen trainiert werden können.

Der Mensch trifft die finale Entscheidung

Mit ähnlichen Verfahren können Fake News identifiziert werden. Dabei werden Scores für Teilnehmer berechnet, in die zum Beispiel die Bewertung von Posts des Teilnehmers durch andere Teilnehmer sowie sein bisheriges Diskussionsverhalten eingehen. 

Die finale Entscheidung darüber, ob ein Post nur unbequem (und daher zuzulassen) oder rechtswidrig (und damit abzulehnen) ist, sollte jedoch stets realen Menschen überlassen bleiben und nicht allein Algorithmen – die Künstliche Intelligenz darf schließlich auf keinen Fall die Meinungsfreiheit des einzelnen einschränken oder zur Zensur führen. Sie schränkt aber die Anzahl der durch Menschen zu bewertenden Posts erheblich ein. 

Grundsätzlich geht es darum, wie verantwortungsbewusst und von wem KI im Kontext der politischen Kommunikation eingesetzt wird. Am Ende benötigen wir eine Form der öffentlichen Kontrolle von Algorithmen. Bis es soweit ist, sind Anbieter von technischen Lösungen in diesem Bereich gut beraten, ethische Leitplanken zu definieren und die Algorithmen immer wieder auf einschränkende Tendenzen abzuklopfen. Informatikprofessor Oren Etzioni bringt es auf den Punkt: “AI is neither good nor evil. It’s a tool. It’s a technology for us to use.”

Dieser Beitrag erschien zuerst in der gedruckten Ausgabe N° 128 – Thema: Wandel. Das Heft können Sie hier bestellen.