Die Diskussion über den Digital Services Act wird seit Beginn emotional geführt. Der DSA ist ein EU-Gesetz, das große Online-Plattformen stärker verpflichtet, Risiken wie illegale Inhalte, Desinformation oder Betrug transparent zu prüfen und zu managen. Sobald Begriffe wie „Desinformation“, „systemische Risiken“ oder „Plattformregulierung“ fallen, geht es schnell um Grundsätzliches: um Meinungsfreiheit, staatlichen Einfluss und die Frage, wer in digitalen Räumen über Recht und Unrecht entscheidet.
Ein Begriff steht dabei besonders im Zentrum der Kritik: „Trusted Flagger“. Dabei handelt es sich um von Behörden zertifizierte Organisationen mit besonderer Fachkenntnis, deren Hinweise auf mögliche rechtswidrige Inhalte von Plattformen prioritär geprüft werden müssen. In Teilen der öffentlichen Debatte gilt dieses Instrument jedoch als Beleg dafür, dass Europa eine neue Infrastruktur zur Kontrolle von Meinungen im Internet geschaffen habe. Konservative Medien zeichnen dabei regelmäßig das Bild, diese Stellen könnten die freie Entscheidungsgewalt darüber haben, welche Inhalte im Netz gelöscht werden.
Diese Sorge ist nicht völlig aus der Luft gegriffen. Demokratisch betrachtet ist sie sogar begrüßenswert. Wenn Organisationen eine privilegierte Rolle im Meldesystem großer Plattformen erhalten, ist es legitim zu fragen, wie viel Einfluss sie damit auf den öffentlichen Diskurs gewinnen. In einer liberalen Demokratie muss jede Regulierung digitaler Kommunikation besonders sorgfältig geprüft werden. Gleichzeitig wird oft missverstanden, was Trusted Flagger tatsächlich sind und was nicht.
Eine Meldung ist keine Zensur
Zunächst einmal: Trusted Flagger löschen keine Inhalte. Sie entscheiden nicht über Wahrheit. Und sie haben auch keine rechtliche Autorität, Beiträge aus sozialen Netzwerken zu entfernen. Ihre Rolle ist deutlich begrenzter.
„Trusted Flagger löschen keine Inhalte. Sie entscheiden nicht über Wahrheit. Und sie haben auch keine rechtliche Autorität, Beiträge aus sozialen Netzwerken zu entfernen.“
Im Kern handelt es sich um Organisationen, die staatliche Behörden als besonders qualifizierte Meldestellen anerkennen. Sie können Plattformen auf potenziell rechtswidrige Inhalte hinweisen, etwa auf Volksverhetzung, Betrug, illegalen Handel oder strafbare Hassrede. Plattformen müssen diese Hinweise priorisiert prüfen. Die Entscheidung über eine mögliche Löschung bleibt jedoch beim jeweiligen Plattformanbieter. Der Unterschied zu einer normalen Meldung liegt also nicht in der Entscheidungsmacht, sondern in der Priorisierung der Prüfung der Plattform.
Die Idee dahinter ist pragmatisch. Digitale Plattformen verarbeiten täglich Millionen Inhalte. Meldesysteme werden von Nutzern ebenso genutzt wie von organisierten Kampagnen, die Inhalte massenhaft melden, um Gegner zu diskreditieren. Plattformen stehen deshalb vor der Herausforderung, ernsthafte Hinweise von missbräuchlichen Meldungen zu unterscheiden. Trusted Flagger sollen in diesem System eine Art Qualitätsfilter sein. Ihre Meldungen gelten als besonders zuverlässig, weil sie auf Fachkenntnis beruhen. Gerade dieser Punkt wird in der öffentlichen Debatte häufig übersehen oder bewusst ausgelassen.
Organisationen mit Praxiserfahrung
Die Organisationen, die als Trusted Flagger anerkannt werden, müssen nachweisen, dass sie über besondere Expertise verfügen, um rechtswidrige Inhalte zu erkennen und zu bewerten. In vielen Fällen sind das Einrichtungen mit juristischem Hintergrund oder Organisationen, die sich seit Jahren mit der Dokumentation und Bewertung illegaler Inhalte beschäftigen.
„Die Darstellung, Trusted Flagger könnten frei darüber entscheiden, welche Meinungen im Netz verschwinden, ist irreführend.“
Ein weiterer Aspekt wird oft unterschlagen: Viele dieser Organisationen arbeiten seit Jahren mit Betroffenen digitaler Gewalt oder Hasskriminalität. Sie beraten Menschen, deren Inhalte missbraucht werden, dokumentieren strafbare Fälle und unterstützen teilweise bei rechtlichen Schritten. Diese praktische Erfahrung fließt in ihre Einschätzung ein, wenn sie Plattformen auf problematische Inhalte hinweisen.
In der Kritik steht häufig nur der mögliche Missbrauch von Meldesystemen im Fokus, nicht aber die Menschen, die sie nutzen, um sich gegen Bedrohung, Betrug oder digitale Gewalt zu wehren. Das bedeutet nicht, dass Trusted Flagger unfehlbar sind. Auch Experten können Fehler machen. Doch ihre Einschätzung basiert in der Regel auf rechtlichen Kriterien und praktischer Erfahrung, die nachprüfbar ist und sein muss. Wer ihnen politische Sympathie unterstellt, muss bedenken, dass ihre Hinweise dennoch neutralen Prüfungen standhalten müssen. Gerade deshalb ist die Darstellung irreführend, Trusted Flagger könnten frei darüber entscheiden, welche Meinungen im Netz verschwinden. Sie haben keine Löschbefugnis, sondern lediglich ein qualifiziertes Hinweisrecht.
Der Mythos der allmächtigen Meldestellen
Ironischerweise zeigt die Realität oft ein anderes Bild: Trusted Flagger haben bislang weniger Durchschlagskraft, als ihre Kritiker vermuten. Erste Berichte und Erfahrungen des Bundesverbandes der Verbraucherzentralen zeigen, dass Plattformen selbst auf Hinweise dieser qualifizierten Meldestellen nicht immer schnell oder konsequent reagieren.
In einigen Fällen prüften Plattformen gemeldete Inhalte erst nach längerer Zeit, lehnten sie ab oder antworteten gar nicht. Das relativiert die Vorstellung einer allmächtigen Meldestruktur erheblich. Die Realität ist damit fast paradox: Während manche Kommentatoren vor einer neuen Zensurinfrastruktur warnen, zeigt sich in der Praxis eher, wie begrenzt der Einfluss dieser Meldestellen tatsächlich ist.
„Die größte Macht liegt weiterhin bei den Plattformen selbst.“
Die größte Macht liegt weiterhin bei den Plattformen selbst. Sie entscheiden, welche Inhalte entfernt werden, welche Algorithmen Reichweite erzeugen und welche Moderationsrichtlinien angewendet werden. Trusted Flagger können lediglich Hinweise geben. Warum hält sich dann das Bild einer „Meinungspolizei“ so hartnäckig?
Die Debatte wird geframt
Ein Teil der Erklärung liegt im politischen Framing der Debatte. Begriffe wie „Generalermächtigung“, „Wahrheitsinstanz“ oder „Zensurapparat“, die jüngst einen Kommentar in der „Welt“ spickten, erzeugen sofort Assoziationen mit autoritären Strukturen. Sie verschieben den Fokus von der tatsächlichen Regulierung digitaler Plattformen hin zu der Vorstellung einer staatlich gesteuerten Kontrolle von Meinungen.
Dieses Framing funktioniert, weil digitale Plattformen inzwischen eine zentrale Rolle in der öffentlichen Kommunikation spielen. Wenn Inhalte dort verschwinden, wird das schnell als Eingriff in die Meinungsfreiheit wahrgenommen. Doch hier liegt ein entscheidender Unterschied, der in der Debatte oft untergeht.
„Meinungsfreiheit bedeutet nicht, dass jede Aussage Anspruch auf algorithmische Verstärkung oder unbegrenzte Verbreitung auf privaten Plattformen hat.“
Meinungsfreiheit bedeutet nicht, dass jede Aussage Anspruch auf algorithmische Verstärkung oder unbegrenzte Verbreitung auf privaten Plattformen hat. Sie schützt vor staatlicher Zensur, nicht vor Moderationsentscheidungen innerhalb privat betriebener Kommunikationsinfrastrukturen. Der Digital Services Act ist deshalb der Versuch, eine neue Balance zu finden: zwischen Meinungsfreiheit, Plattformverantwortung und Rechtsdurchsetzung im digitalen Raum.
Trusted Flagger sind Teil dieses Experiments. Nicht mehr, aber auch nicht weniger. Die Sorge vor einer Überdehnung staatlicher Regulierung bleibt legitim. Gerade in offenen Gesellschaften sollte man aufmerksam beobachten, wie neue Instrumente eingesetzt werden und ob sie transparent und verhältnismäßig bleiben.
Doch Kritik wird problematisch, wenn sie auf einem Zerrbild basiert. Wer Trusted Flagger als Instanzen darstellt, die frei über das Löschen von Meinungen entscheiden, kritisiert letztlich ein System, das so gar nicht existiert.


