236. So viele Ergebnisse zeigt mir mein Mailpostfach an, wenn ich das Schlagwort “KI” in die Suchzeile eingebe und auf Enter drücke. Der Großteil der Ergebnisse lässt sich auf Newsletter aus der Branche zurückführen: politik&kommunikation, prmagazin, PR-Journal, PRREPORT. You name it.
„Wie KI die Kommunikation revolutioniert“, „Die besten AI-Tools für PR-Profis“, „ChatGPT im Einsatz: Chancen und Risiken“. Die Debatte kreist um Technologie: welche Tools es gibt, was sie können, wo Potenziale liegen. Aber reicht das?
Wenn ich mich umsehe – auf der Arbeit, im Freundes- und Bekanntenkreis – wirkt es, als sei die KI-Revolution jetzt da und deshalb wüssten schon alle, was zu tun ist. Und wenn es etwas ruckelt, dann müsse man eben kurz lernen, wie man eine gute Prompt baut. Dann läuft das.
Die Tools sind verfügbar, also wird jeder damit umgehen können, früher oder später. Eigentlich nie ist Thema, dass es mehr als das braucht. Kaum wird darüber diskutiert, welche Kompetenzen Kommunikatoren entwickeln müssen oder welche Voraussetzungen Organisationen schaffen müssen, damit all der technologische Fortschritt auch genutzt werden kann.
„Nie ist Thema, dass es mehr als Tools braucht.“
Dabei hat die Forschung gerade begonnen, genau das zu untersuchen. Die Studien der letzten Jahre stammen aus der Business Communication, der Organisationspsychologie, aus Experimenten mit Knowledge Workern. Sie lassen sich nicht eins zu eins auf politische Kommunikation übertragen. Aber die Fragen, die sie aufwerfen, sind auch unsere.
Glossar: zentrale Begriffe
- AI Literacy – Bündel aus technischen, sprachlichen, ethischen und reflexiven Kompetenzen, die einen verantwortungsvollen Umgang mit KI ermöglichen.
- Large Language Models (LLMs) – KI-Modelle, die auf großen Textmengen trainiert wurden und Sprache statistisch erzeugen.
- Authenticity – Fähigkeit, den eigenen sprachlichen Stil und die menschliche Dimension von Kommunikation bewusst zu bewahren.
- Accountability – Verantwortung der Nutzenden für Richtigkeit, Angemessenheit und Folgen KI-generierter Inhalte.
- Agency – Handlungs- und Entscheidungshoheit von Kommunikatoren im gesamten KI-gestützten Arbeitsprozess.
Was Kommunikatoren können müssen
Was braucht es, um KI-gestütztes Schreiben zu beherrschen? Peter Cardon und Haiying Ma haben diese Frage kurz nach dem Launch von ChatGPT über 300 Dozenten für Business Communication gestellt. Aus den Antworten haben sie ein vierdimensionales Framework entwickelt, dass die Aspekte einer modernen AI Literacy definiert.
Demnach müssen Kommunikatoren zunächst einen sicheren Umgang mit verschiedenen KI-Tools erlernen. Sie müssen wissen, wie sie funktionieren, was ihr Anwendungsbereich ist, wo ihre Grenzen liegen. Das bezeichnen die Autoren als Application.
Die erfolgreiche Anwendung hat eine entscheidende Voraussetzung: ein geschärftes Bewusstsein über die eigene Sprache und den eigenen Stil. Large Language Models (LLMs) tendieren dazu, sprachlich neutral zu bleiben. Sie optimieren Texte auf Klarheit, standardisieren in Folge aber auch. Nun muss beim Anwender nicht nur das Verständnis gegeben sein, dass Kommunikation über die bloße Informationsvermittlung hinausgeht – er muss ebenso wissen, wie sich der eigene Kommunikationsstil, in Sprache wie in Schrift, zusammensetzt.
Wer LLMs verwendet, muss eine Sprachkompetenz mitbringen, die bewusste Steuerung überhaupt erst ermöglicht. Das ist Authenticity, wie Cardon und Ma es nennen, oder auch: “the human element”. Genau das ist es nämlich, was bewahrt werden muss.
Large Language Models können ungenaue Informationen liefern, Quellen nicht korrekt referenzieren oder Verzerrungen reproduzieren, die in den Trainingsdaten angelegt sind. Der Anwender muss wissen, wie die KI Inhalte generiert und dass diese Inhalte fehlerhaft sein können.
„Die Verantwortung für die Richtigkeit und Angemessenheit des Outputs liegt nicht bei der Technologie, sondern bei denen, die sie einsetzen.“
Die Verantwortung für die Richtigkeit und Angemessenheit des Outputs liegt nicht bei der Technologie, sondern bei denen, die sie einsetzen. Wer KI-generierte Inhalte publiziert, muss sie auf Richtigkeit prüfen können. Die Autoren bezeichnen diese Dimension als Accountability.
Schließlich muss über den gesamten Anwendungsprozess hinweg die Entscheidungshoheit der menschlichen Kommunikatoren gewahrt werden. Kommunikatoren dürfen sich nicht übermäßig abhängig von KI-Anwendungen machen – bis zu einem Punkt, in dem die eigenständige Beurteilung und die kritische Reflexion von Ergebnissen nicht mehr gewährleistet ist. Die Nutzer müssen in der Lage bleiben, Entscheidungen über Tonalität, Strategie und Inhalt autonom zu treffen. Die Autoren nennen das Agency, die Handlungsfähigkeit des Anwenders.
Neue Kompetenzen sind gefragt
So weit zum Idealfall. Wie Menschen tatsächlich mit KI arbeiten, haben die Wissenschaftler Shakked Noy und Whitney Zhang in einem Experiment untersucht. Über 400 Knowledge Worker aus Marketing, Beratung und HR bekamen realistische Schreibaufgaben: Pressemitteilungen, Analyseberichte, heikle E-Mails. Die Hälfte durfte ChatGPT nutzen, die andere nicht.
Die Ergebnisse klingen zunächst wie ein Erfolg: Die Gruppe mit KI-Zugang arbeitete 37 Prozent schneller, die Textqualität stieg messbar. Allerdings zeigte sich ein problematisches Muster. 68 Prozent der Nutzer übernahmen den generierten Output unreflektiert. Heißt: Sie reichten ChatGPTs ersten Entwurf direkt ein. Im Durchschnitt verbrachten sie nur drei Minuten mit dem Text, nachdem sie ihn eingefügt hatten.
„In einem Feld, in dem Faktizität und Glaubwürdigkeit existenziell sind, reicht Effizienzgewinn nicht aus.“
Die Forscher nennen das Task Restructuring: Die Zeit für das Verfassen eines ersten Entwurfs halbierte sich, die Zeit für das Bearbeiten verdoppelte sich. KI substituiert Arbeitsaufwand, komplementiert aber nicht zwangsläufig Skills. Nur weil Menschen zu Kuratoren von KI-Texten werden, werden sie nicht automatisch zu besseren Autoren.
Für unsere Branche ist das brisant. Wenn ein Großteil der Anwender Outputs ungeprüft übernimmt, wird Accountability zum Problem. In einem Feld, in dem Faktizität und Glaubwürdigkeit existenziell sind, reicht Effizienzgewinn nicht aus. Und die Prüfkompetenz, die Cardon und Ma fordern, entsteht nicht automatisch durch Nutzung.
KI-Texten fehlt die Wärme
Hinzu kommt ein zweites Problem. Anne Coman und Peter Cardon haben in zwei Experimenten untersucht, wie KI-generierte Nachrichten wahrgenommen werden. Über 2.000 Berufstätige lasen verschiedene Texte: Glückwünsche, Entschuldigungen, Korrekturen – teils KI-generiert, teils nicht. Die KI-Texte wurden als professionell, effizient und klar bewertet.
Es gab allerdings ein Problem: Es waren genau diese KI-Texte, die weniger aufrichtig und fürsorglich wirkten. Es war verbale Wärme, die fehlte. Die Menschlichkeit. Die Autoren stießen in einer weiteren Studie auf ein besonders problematisches Muster der Führungskommunikation: Wenn Vorgesetzte KI nutzten, sank das Vertrauen. Nicht in den Text oder dessen Richtigkeit, aber in den Absender.
Das deutet auf einen grundlegenden Tradeoff hin: Was formal korrekt ist, wirkt nicht automatisch authentisch. Für Standardkommunikation – Pressemitteilungen, Briefings, Anfragen – mag KI professionalisieren. Bei zwischenmenschlicher Kommunikation kann dieselbe Nutzung zum Risiko werden. Die Fähigkeit zu beurteilen, wann KI angemessen ist und wann nicht, gehört zur AI Literacy.
Was Organisationen bieten müssen
Angenommen, jemand entwickelt all diese Kompetenzen – versteht die Tools, bewahrt die eigene Stimme, prüft jeden Output, bleibt entscheidungsfähig. Reicht das? Die bisherigen Befunde legen nahe: nicht unbedingt.
Denn der Anspruch, der sich aus den Studien ergibt, ist enorm. Es geht nicht allein darum, ein Tool bedienen zu können. Kommunikatoren müssen ihren eigenen Stil so gut kennen, dass sie ihn bewusst steuern können – gegen die Standardisierungstendenz von Large Language Models. Sie müssen jeden Output auf Fakten, Bias und Angemessenheit prüfen. Ein Briefing lässt sich automatisieren. Ein Kondolenzschreiben nicht. Und Führungskommunikation, die nach KI klingt, kostet Vertrauen – nicht in den Text, sondern in die Person. Das ist die eigentliche Metakompetenz: ein Urteilsvermögen über die eigene Kommunikation.
KI im Alltag: wofür geeignet, wofür riskant?
Für Standardkommunikation – Pressemitteilungen, Briefings, Anfragen – mag KI professionalisieren. Bei relationaler, zwischenmenschlicher Kommunikation kann dieselbe Nutzung zum Risiko werden.
Eher geeignet
- Standardisierte Pressemitteilungen
- Briefings und Hintergrundpapiere
- Strukturierung von Entwürfen
Riskant
- Kondolenz- und Entschuldigungsschreiben
- Führungskommunikation
- Vertrauens- und Beziehungsarbeit
Wenn das auf individueller Ebene gefordert ist, stellt sich die Frage: Was müssen Organisationen bieten, damit diese Kompetenz entstehen kann?
Yue Wang, Silvia Ravazzani und Anca Anton haben 84 Kommunikationsprofis aus Italien, Rumänien und den Niederlanden dazu befragt, wann eine Organisation bereit für künstliche Intelligenz ist. Sie haben herausgefunden: Die sogenannte Readiness hat zwei Ebenen – und beide müssen zusammenspielen.
Individual Readiness beschreibt die Haltung des Einzelnen: das aktive Suchen nach Wissen über Chancen und Risiken, die Bereitschaft zum kontinuierlichen Lernen, ein kritisch-ethisches Bewusstsein.
Organizational Readiness ist das Pendant auf Strukturebene. Die Autorinnen definieren es als kollektive Kapazität einer Organisation, mit Unsicherheit umzugehen. Klingt abstrakt, meint aber etwas sehr Konkretes: Kann eine Organisation Bedingungen schaffen, unter denen differenziertes Urteilen möglich ist?
Die Befragten benannten sechs Faktoren:
- Es brauche Unterstützung durch das Management – nicht nur verbal, sondern durch Ressourcen.
- Trainingsprogramme, die mit dem Tempo der technologischen Entwicklung Schritt halten.
- Klare Nutzungsrichtlinien, die Orientierung geben, ohne jeden Einzelfall zu reglementieren.
- Ein systematisches Risikomanagement, das Szenarien durchspielt und kontinuierlich beobachtet.
- Investitionen in Technologie und Budget.
- Und eine adaptive Organisationskultur, die Veränderung als Normalfall begreift. Der entscheidende Punkt: Keiner dieser Faktoren allein reicht aus. Wer als Einzelner alle Kompetenzen mitbringt, aber in einer Organisation arbeitet, die keine Strukturen bietet, wird scheitern.
„Wer als Einzelner alle Kompetenzen mitbringt, aber in einer Organisation arbeitet, die keine Strukturen bietet, wird scheitern.“
Der Kontext unserer Branche verschärft diese Anforderungen zusätzlich. Politische Kommunikation operiert unter Bedingungen, die Fehler besonders teuer machen – das Vertrauen, das politische Kommunikation aufbauen soll, kann durch dieselben Tools untergraben werden, die Effizienz versprechen. Vor allem für politische Kommunikatoren mit begrenzten Ressourcen – in Parteistrukturen, NGOs, kleineren Unternehmen – ist das alarmierend.
Organisationen stehen vor einer doppelten Aufgabe. Sie müssen klären, wo die Grenzen liegen: Welche Kommunikationsformen eignen sich für KI-Unterstützung, welche nicht? Wer trägt die Verantwortung, wenn etwas schiefgeht? Denn sie bei denjenigen zu suchen, die die Prompts eintippen, ist zu kurz gedacht. Organisationen müssen eine Kultur schaffen, die diese Unterscheidungen ermöglicht.
The human element
Die Forschung zu KI in der Kommunikation steht am Anfang. Die hier vorgestellten Studien gehören zu den ersten, die über Tool-Vergleiche hinausgehen und fragen, was Menschen und Organisationen mitbringen müssen. Ihre Befunde sind vorläufig – aber sie verschieben den Blick.
Cardon und Ma nennen eine ihrer Dimensionen „the human element“. Ich glaube, das ist der entscheidende Begriff. Die KI-Revolution wird nicht durch bessere Tools entschieden, sondern durch das, was Menschen daraus machen. Urteilsvermögen. Sprachgefühl. Verantwortungsbewusstsein. Das lässt sich nicht automatisieren – aber es lässt sich kultivieren.
„Die KI-Revolution wird nicht durch bessere Tools entschieden, sondern durch das, was Menschen daraus machen.“
Das Vertrauen, das politische Kommunikation aufbauen soll, kann durch dieselben Tools untergraben werden, die Effizienz versprechen. Die Technologie verändert unser Spielfeld, und die Spielregeln, grundlegend. Umso wichtiger wird das, was keine KI ersetzen kann: Menschen, die wissen, was sie tun – und warum.
Studienüberblick (Zahlen & Befunde)
- Cardon et al. 2023. Befragung von 343 Dozenten aus der Business Communication kurz nach dem ChatGPT-Launch; aus den Antworten wurde ein AI-Literacy-Framework abgeleitet. Ergebnis: erwartete breite Nutzung, wahrgenommene Effizienz- und Ideationsgewinne – aber auch Risiken (u. a. weniger kritisches Denken/Authentizität), woraus die vier Dimensionen Application, Authenticity, Accountability und Agency folgen. https://doi.org/10.1177/23294906231176517
- Noy et al. 2023. Präregistriertes Online-Experiment mit 453 college-educated Professionals und realistischen Schreibaufgaben; zufällig erhielt die Hälfte Zugang zu ChatGPT. Ergebnis: durchschnittliche Bearbeitungszeit sank um 40%, die Qualität stieg um 18%; zudem verringerte sich Leistungsungleichheit, weil schwächere Teilnehmer stärker profitierten. https://doi.org/10.1126/science.adh2586
- Coman et al. 2024. Experiment mit 887 Berufstätigen, die verschiedene Nachrichtentypen in einem 3×2×2-Design bewerteten (Message Type × Disclosure × KI-Quelle). Ergebnis: KI-Texte wurden durchgehend als professionell/effizient/klar eingeschätzt, wirkten aber in Teilen (insbesondere je nach Bedingung) etwas weniger aufrichtig und fürsorglich – es fehlte wahrgenommene Wärme. https://doi.org/10.1177/23294906241233224
- Cardon et al. 2025. Professionals bewerteten Führungskommunikation (E-Mails) unter unterschiedlichen Graden KI-Unterstützung (niedrig/mittel/hoch) mit Fokus auf die Wahrnehmung des Absenders. Ergebnis: Obwohl KI-Assistenz die Texte weiterhin professionell wirken lassen kann, sinkt bei mittlerer bis hoher KI-Nutzung die wahrgenommene Vertrauenswürdigkeit/Sincerity des Vorgesetzten deutlich („perception gap“). https://doi.org/10.1177/23294884251350599
- Wang et al. 2025. Schriftliche, offene Interviews (Survey-Format) mit 84 Kommunikationsprofis aus Italien, Rumänien und den Niederlanden; Auswertung per thematischer Analyse. Ergebnis: Readiness wird als mehrstufig (individuell + organisatorisch) beschrieben und hängt u. a. an Management-Support, Trainings, Richtlinien, Risikomanagement, Investitionen sowie einer adaptiven Kultur – einzelne Faktoren allein reichen nicht. https://doi.org/10.1108/JCOM-12-2024-0256



