Die große KI-Welle kommt erst noch

Kolumne

Viele Experten hatten Sorge, dass der Bundestagswahlkampf durch den Einsatz von künstlicher Intelligenz (KI) völlig entgleist. Die Rede war von einer massiven Welle KI-generierter Inhalte, die das Vertrauen der Menschen in Politik und Medien zusätzlich erschüttern würde. Um herauszufinden, ob sich diese Befürchtungen bewahrheitet haben, habe ich mit Simon Kruschinski von der Universität Mainz gesprochen, der sich intensiv mit dem Einsatz von KI im Wahlkampf beschäftigt hat.

Kruschinski und sein Team haben mit ihrem Projekt „Campaign Tracker“ die Social-Media-Aktivitäten von rund 3.000 Parteikanälen durchleuchtet. Das Ergebnis überrascht: Von etwa 70.000 Beiträgen waren nur 550 mit KI erstellt. Die vielfach befürchtete KI-Flut ist also ausgeblieben. „Das ist zunächst einmal ein erster Beweis dafür, dass in Deutschland noch sehr experimentell mit diesen Technologien umgegangen wird“, sagte Kruschinski in unserem Podcast.

Die AfD setzt auf KI

Hat die deutsche Politik die digitale Revolution also noch nicht umarmt? Das kann man pauschal so nicht sagen. Neben KI-begeisterten Kleinparteien wie der „Partei des Fortschritts“ oder der „Bergpartei, die Überpartei“ stellt vor allem die AfD eine Ausnahme dar, wieder einmal. Die Partei nutzt KI besonders strategisch und umfassend – vor allem für emotionale und polarisierende Inhalte.

Posts über Migration und innere Sicherheit untermalt die AfD häufig mit KI-generierten Bildern, etwa von Migrantenhorden. Diese Bilder sollen gezielt Emotionen wie Angst und Wut hervorrufen. Wie Kruschinskis Team ermittelt hat, klappt das bestens: Beiträge mit KI sammelten im Mittel 52 Likes, Posts ohne KI nur 20.

Studien zeigen, dass Menschen auf emotionale Inhalte stärker reagieren als auf die Frage, ob diese echt sind. Positive KI-Bilder erzeugen Hoffnung, negative verstärken Wut und Angst. Für die politische Kommunikation bedeutet das: Die Macht der Emotion dominiert die faktische Richtigkeit.

Besonders problematisch findet Kruschinski, dass in 85 Prozent der Fälle eine Kennzeichnung fehlt, dass es sich um KI-Inhalte handelt. In Kombination mit einer gezielten Visualisierung bekannter Politiker führt dies zu einer gezielten Beeinflussung öffentlicher Wahrnehmung.

Menschen halten selbst echte Bilder für KI-generiert

Eines der größten Probleme bleibt es, KI-Bilder zu erkennen. Kruschinski stellt fest, dass selbst medienaffine Menschen oft nicht erkennen, ob ein Bild echt oder künstlich ist. Eine Studie seines Teams zeigte, dass Menschen sogar echte Bilder für KI-generiert hielten, wenn eine entsprechende Kennzeichnung das behauptete.

Im politischen Umfeld kann KI auch gezielt zur Diskreditierung eingesetzt werden. Besonders die AfD experimentiert mit personalisierten Bildern bekannter Konkurrenten, um sie negativ darzustellen. Die Unterschiede zwischen verleumdenden Bildern und politischen Karikaturen werden hier natürlich gerne verwischt. War doch nur Spaß! Oder?

Umso dringlicher sei die Frage nach Regulierung und Aufklärung, sagt Kruschinski. Kennzeichnungspflichten für KI-generierte Inhalte müssten klarer und verpflichtender gestaltet werden. Gleichzeitig brauche es eine systematische Förderung der Medienkompetenz. Kruschinski betont: „Wir sind meilenweit zurück – Jahre. Zur Medienkompetenz zählt nicht mehr nur, wie man einen Laptop bedient, sondern zu wissen, wie Social-Media-Plattformen funktionieren.“ Gesellschaftliche Bildung müsse vermitteln, KI-Inhalte zu erkennen und kritisch zu hinterfragen.

Endgegner Video

Die nächste Stufe dieser Entwicklung steht bereits vor der Tür: KI-generierte Videos. Erste Auswertungen zeigen, dass auch hier die AfD schon Vorreiter ist. Videos sind in der Lage, die Emotionen der Menschen noch höher kochen zu lassen als Bilder. Der Erfolg von Videoplattformen wie Youtube und Tiktok spricht für sich.

Derzeit posten US-Nutzer Videos, die sie mit Googles neuer Video-KI „Veo3“ erstellt haben. Die Videos sind erschreckend realistisch: Veo3 wird selbst mit komplexen Vorgängen fertig, wie etwa Haare schneiden, Kaffee einschenken oder Gemüse zerkleinern. Außerdem lassen sich jetzt auch Geräusche und selbst Dialoge per Textprompt bestellen. Erste KI-generierte Standup-Auftritte und Straßenumfragen wurden so schon erstellt – und natürlich auch gefakte Nachrichtenbeiträge.

Noch ist das alles Spaß. Das Einzige, was zwischen Spaß und Desinformation steht, ist die Absicht. In Deutschland ist das Modell noch nicht verfügbar. Es soll aber nicht mehr lange dauern. Sind wir darauf vorbereitet?