Wir haben ein Problem, das in den letzten Jahren sträflich vernachlässigt worden ist – und völlig zu Recht werden jetzt auch „große“ Lösungen diskutiert. Eine lautet „Social Media erst ab 16“. Macht das wirklich Sinn?
Pro:
Immer mehr Kinder zeigen ein riskantes oder sogar gefährliches Verhalten im Umgang mit digitalen Medien. Fast jedes vierte Kind in Deutschland hat ein ungesundes Medienverhalten. Durch die Corona- Pandemie hat sich diese Entwicklung deutlich beschleunigt.
42 Prozent der 10- bis 11-Jährigen nutzen TikTok, obwohl es laut Datenschutzbestimmungen erst ab 16 erlaubt ist. Damit sind Kinder ungefiltert Inhalten ausgesetzt, die sie überfordern: Gewaltverherrlichung, Extremismus, Mobbing,ungesunde Körperbilder und auch Drogenkonsum. Viele digitale Plattformen arbeiten mit psychologischen Tricks, sogenannte dark patterns, – Belohnungssysteme, Dauerkonsum, emotionale Trigger –, die süchtig machen können.
Digitale Medien sind nicht grundsätzlich schlecht. Aber die Dosis macht das Gift und der Umgang mit ihnen muss gelernt werden. Eine klare Altersgrenze schützt nicht nur vor Inhalten, sondern auch vor Mechanismen, die junge Nutzer gezielt manipulieren. Es geht nicht um Verbote aus Prinzip, sondern um Schutz durch Verantwortung.
Deshalb ist es richtig, über strengere Altersgrenzen zu sprechen. Wir müssen handeln, bevor aus riskantem Verhalten echte Schäden werden. Kinder brauchen Zeit, um zu wachsen – ohne unter die Räder der digitalen Überholspur zu geraten.
Contra:
Digitale Medien sind zentral für die Lebensrealität junger Menschen – und sie bieten gerade enorme Chancen. Ob Sprachenlernen per App, Sport-Challenges auf YouTube oder kreatives Gestalten aber auch Demokratiebildung: Millionen Jugendliche nutzen digitale Angebote sinnvoll und selbstbestimmt. Auch moderne Schulen setzen zunehmend auf digitale Lernplattformen. Zugang zu Informationen über Medien ihrer Wahl ist ein Recht, welches in der UN-Kinderrechts-Charta festgehalten ist. Diesem Recht müssen alle Akteure nachkommen, indem sie sichere, pädagogisch und journalistisch wertvolle Inhalte dort ausspielen, wo die Kinder und Jugendlichen selbstbestimmt unterwegs sein wollen.
Vor allem aber verbinden soziale Medien junge Menschen weltweit. Über WhatsApp, Telegram oder Instagram halten sie Kontakt zu Freunden, zum Austauschjahr in den USA, zu Gleichgesinnten. Diese Vernetzung ist für viele ein Teil ihrer Identität – und kein bloßer Zeitvertreib.
Natürlich gibt es Risiken. Aber die Lösung kann nicht lauten: Alles erst ab 16. Denn wer digitale Medien nicht nutzen darf, kann auch nicht lernen, mit ihnen verantwortungsvoll umzugehen. Medienkompetenz entsteht durch Begleitung und Aufklärung, nicht durch Verbote.
Nicht alle Plattformen sind gleich – manche sind problematisch, andere kaum. Gerade deshalb braucht es eine differenzierte Herangehensweise statt pauschaler Altersgrenzen. Wie beim Fahrradfahren oder Basteln mit Schere gilt auch hier: Kinder lernen durch Tun – mit Anleitung.
Was wir brauchen, ist Maß und Verantwortung – nicht einen Rückschritt in die digitale Steinzeit.
Fazit:
Wir brauchen eine konsequente, aber differenzierte Lösung. Das heißt: Klare Leitplanken für jedes Alter – verbindlich für Anbieter und abgesichert durch Gesetzgebung. Und diese Regeln müssen endlich auch durchgesetzt werden.
Kinder und Eltern brauchen Regeln, auf die sie sich verlassen können, die auch konsequent umgesetzt werden – und dabei ebenso dringend Unterstützung. Medienpädagogik, Aufklärung, Gesundheitskompetenz, digitale Diskursfähigkeit: All das gehört dazu, wenn wir wollen, dass junge Menschen digital sicher und gesund aufwachsen.
Denn wie beim Laufenlernen gilt auch im Netz: Ohne Begleitung geht es nicht. Nur so gelingt ein altersgerechter Umgang mit digitalen Medien – und eine Dosis, die passt.