ChatGPT kann Text generieren, aber keine Geschichten erzählen

Kolumne

Ich weiß, wir sind es alle leid. Und auch mir macht es keinen Spaß, das Thema zum hundertsten Mal durchzukauen. Aber es muss sein. Weil mein Linked-Feed mit generischen Meinungsbeiträgen überflutet wird. Und weil ich es nicht in mir habe, auch nur noch einen vermeintlichen Rage-Bait-Post zu diesem Thema zu lesen.

Es geht um ChatGPT und Co. Natürlich. Spätestens, seitdem Large Language Modelle (LLMs) für die breite Masse zugänglich sind, ist klar: Sie verändern unsere Branche nachhaltig. Eigentlich ist das etwas Gutes, oder? Social-Media-Beiträge können in Sekunden geschrieben werden. Pressemitteilungen auch. Und niemand muss sich mehr die Mühe machen, sich durch etliche Artikel zu graben, wenn man sie für das nächste Briefing auch einfach zusammenfassen lassen kann.

Die Vorteile liegen auf der Hand. Trotzdem wird derzeit wohl über kaum etwas so intensiv diskutiert wie über das Schreiben mit KI. Zwischen „Das ist der Anfang vom Ende“ und „Endlich werde ich von nerviger Textarbeit erlöst“ bleibt wenig Platz für die Frage: Wie gelingt eigentlich eine aufgeklärte Schreibarbeit mit LLMs? Eine, die Chancen anwendungsorientiert erkennt, ohne große und kleine Gefahren zu negieren? Drei Gedanken, die mir in der Debatte fehlen.

1. Erinnert euch daran, woher LLMs ihren Schreibstil haben.

Ich liebe Gedankenstriche. Ich benutze sie gerne – und häufig. Umso größer mein Schock, als ein geschätzter Kollege mir letztens den nett gemeinten Hinweis gab, weniger Gedankenstriche zu verwenden: „Da merkt jeder sofort, dass du das mit ChatGPT geschrieben hast.“

Ich fand es zwar schon grundlegend frech, mir zu unterstellen, ich würde meine Texte ausschließlich mit ChatGPT verfassen. Aber viel bedenklicher als das fand ich, dass mein Gegenüber vollkommen vergessen zu haben scheint, woher Large Language Modelle ihren Schreibstil überhaupt haben: nämlich von professionellen Autoren.

ChatGPT verwendet Gedankenstriche, Doppelpunkte und Strichpunkte, weil es mit Texten trainiert wurde, die diese Satzzeichen verwenden. Diese Texte stammen zumeist von professionellen Autoren. Don’t get it twisted.

Dass wir – in einer Branche, deren Arbeit maßgeblich auf professioneller Schreibarbeit fußt – es uns nun aber zum Ziel machen, unsere Sprache auf Biegen und Brechen möglichst weit weg von LLMs zu führen, ist alarmierend. Kann das überhaupt die Lösung sein? Nein, denn:

2. LLMs müssen sich an menschliche Schreibstile anpassen. Nicht anders herum.

Bitte nicht falsch verstehen: Large Language Modelle haben einen generischen Stil – und dieser Stil lässt sich mit geübtem Auge erkennen. Darauf deuten auch erste Studien hin: Russell, Karpinska und Iyyer (2025) haben eine kleine Gruppe von Personen als AI-Detektoren 300 Artikel prüfen lassen. Diese Gruppe verwendete selbst regelmäßig LLMs zum schreiben. Klassifiziert wurden die Artikel durch eine gruppeninterne Abstimmung mit einfacher Mehrheit. Das Ergebnis? Nur einer von den 300 Artikeln wurde falsch klassifiziert.

Die Forschenden haben die Gruppe ebenfalls dazu befragt, auf Basis welcher Faktoren sie die Texte eingeordnet haben. Die Top vier Faktoren: Das Vokabular, die Satzstruktur, die Grammatik und mangelnde Originalität. Wörter werden repetitiv, unnatürlich verwendet. Die Satzstruktur ist zu glatt, die Grammatik fehlerfrei. Und: Nichts an dem Text überrascht. Menschliche Texte zeichnen sich durch ihren eigenen Stil aus. Durch ein Risiko, das eingegangen wird. Durch kulturelle Prägungen, den Charakter und der eigenen Wahrnehmung der Autoren. Maschinelle Texte hingegen gehen auf Nummer sicher.

Heatmap zur Frage, welche Hinweise Annotatorinnen bei der korrekten Kategorisierung von Texten am häufigsten nannten. Grundlage sind die Begründungen, die bei korrekt klassifizierten Artikeln abgegeben wurden. Grafik: Russell, Karpinska und Iyyer (2025).

Wenn wir mit LLMs arbeiten, müssen wir uns also darüber bewusst sein, wann eine solche generische Textform sinnvoll sein kann. Wann wir bewusst jegliche Handschrift aus unseren Texten verbannen wollen – und wann nicht.

To be fair: Modelle wie ChatGPT sind mit entsprechenden Prompts durchaus in der Lage, sich an den eigenen Stil anzupassen. Aber zu einem aufgeklärten Umgang mit der Textgenerierung gehört auch die Anmerkung: Wer Anwendungen wie ChatGPT auf den eigenen Stil trainiert, riskiert, dass diese Modelle ihn sich zu eigen machen.

3. Was LLMs können: Text generieren. Was sie nicht können: Geschichten erzählen.

LLMs helfen auch mir beim Schreiben. ChatGPT ist mein Sparringspartner, wenn mir der Einstieg fehlt. Es hilft mir bei Schreibblockaden und prüft meine Texte auf letzte Fehler. Aber: Ich würde nie einen ganzen Text von irgendeinem LLM schreiben lassen. Nicht, weil ich ihnen nichts zutraue. Sondern weil ich weiß, wo ihre Grenzen liegen

Was diese Modelle können, ist imitieren – sie reproduzieren sprachliche Muster. Aber sie können keine Geschichten erzählen.

Gute Texte – wirklich gute Texte – beruhen auf persönlicher Wahrnehmung. Darauf, dass jemand hinter den Zeilen die Fähigkeit hat, das zu fühlen, was beschrieben und geschrieben wird. Das ist es, was einzigartig menschlich ist – und für die politische Kommunikation unersetzbar. Unabhängig davon, ob wir für uns selbst schreiben, oder für jemand anderen: Ein Feingefühl für Sprache, den Menschen und dessen Wahrnehmung können LLMs nicht ohne weiteres leisten. Sie können es reproduzieren, wenn wir sie anleiten. Aber auch das erfordert Übung – und Aufklärung über die Möglichkeiten und Grenzen solcher Modelle.

Gerade jetzt ist der menschliche Text wertvoller denn je.

Mittlerweile bemerke ich bei mir eine Art Übersättigung. Wenn ich einen mit LLMs generierten Text lese, verliert man sofort meine Aufmerksamkeit. Ob auf Linked, in Branchenmagazinen oder auch Newslettern. Wie schön ist das?

In einer Zeit, in der maschinell-generierte Texte unsere Timelines fluten, wird der menschliche Schreibstil nicht etwa abgewertet. Er wird aufgewertet – mit all seinen Imperfektionen.

Die politische Kommunikation darf also vorerst beruhigt sein. So leicht werden wir nicht ersetzt. Vorausgesetzt, wir schaffen einen differenzierten, pragmatischen und aufgeklärten Umgang mit LLMs. Dafür müssen wir uns darüber bewusst sein, was den Wert menschlicher Sprache ausmacht, wenn maschinell-generierte Texte so leicht zugänglich sind. Und wie wir einen hybriden Umgang mit Sprache finden, bei der LLMs menschliche Akzente unterstützen, statt sie zu untergraben.