# taz.de -- Debatte um Social-Media-Plattformen: Jenseits der Altersgrenze
       
       > Es muss nicht unbedingt ein Mindestalter sein: Sollen junge und nicht
       > junge Menschen besser geschützt werden, gibt es diverse Möglichkeiten.
       
 (IMG) Bild: Für Jugendliche bis 16 Jahre soll es nach Willen der EU eine Jugendversion der Plattformen geben
       
       Ob eine Altersgrenze für die Nutzung von Social-Media-Plattformen hilfreich
       ist in Sachen Jugendschutz, ist in Politik und [1][Wissenschaft
       umstritten]. Kritiker:innen argumentieren, dass ein Mindestalter zwar
       Kinder und Jugendliche vordergründig aussperrt – die Plattformen aber ihre
       problematischen Geschäftsmodelle und manipulativen Designs behalten dürfen.
       
       „Verbote sind fast nie die richtige Lösung – vor allem dann nicht, wenn es,
       wie in Europa, ein sehr gutes Mittel gegen eine Gefährdung von Kindern und
       Jugendlichen durch Social Media gibt“, sagte der Juraprofessor Matthias
       Kettemann, der am Leibniz-Institut für Medienforschung in Hamburg zu
       digitalen Kommunikationsräumen forscht, im Januar der taz.
       
       Kettemann bezieht sich dabei auf den Digital Services Act (DSA). Das
       EU-Gesetz soll in allen Mitgliedsstaaten für eine „sichere, vorhersehbare
       und vertrauenswürdige Online-Umgebung“ für die Nutzer:innen sorgen. Der
       DSA sieht für die großen Anbieter mit monatlich mindestens 45 Millionen
       Nutzenden innerhalb der EU schon jetzt eine Reihe von Vorgaben für den
       Jugendschutz vor.
       
       So formulieren die entsprechenden Leitlinien der EU-Kommission unter
       anderem, dass Funktionen wie Autoplay und Pushnachrichten, die zu
       übermäßiger Nutzung beitragen, bei Konten, die mutmaßlich Jugendlichen
       gehören, standardmäßig deaktiviert sein sollen. Ebenso sollen solche
       Profile standardmäßig auf privat gestellt sein. Die Algorithmen sollen bei
       Jugendkonten außerdem so gestaltet sein, dass Minderjährige nicht auf
       Inhalte geleitet werden, die für sie schädlich sein können.
       
       ## Verfahren noch im Gange
       
       Allerdings: Streng durchgesetzt werden die Leitlinien bislang nicht. Und
       bei der Durchsetzung von Regeln, von denen alle Nutzenden profitieren –
       etwa Vorgaben zur Moderation, um illegale Inhalte zu bekämpfen, zur
       Zusammenarbeit mit Wissenschaftler:innen oder Transparenz bei Werbung,
       sind erste Verfahren noch im Gange. Zuletzt kündigte die EU-Kommission an,
       nach der [2][massenhaften Veröffentlichung sexualisierter Deepfakes] von
       Frauen und Kindern mit dem Chatbot Grok von US-Milliardär Elon Musk gegen
       den Anbieter vorzugehen.
       
       Manche Akteur:innen fordern noch mehr: „Wir sollten darüber sprechen,
       wie wir die Macht dieser Konzerne begrenzen und alle davon profitieren“,
       sagte Tom Sulston von der australischen NGO Digital Rights Watch [3][bei
       einer Diskussion über die Effekte des dortigen Verbots]. Als zentrales
       Element nennt er eine strenge Regulierung der Algorithmen. Die entscheiden
       darüber, welche Inhalte Nutzer:innen zu sehen bekommen.
       
       Sulston fordert: Nicht die Plattformen, sondern die Nutzenden selbst
       sollten darüber bestimmen dürfen – und die würden mehrheitlich Hass und
       Hetze, KI-Müll, Werbung und Propaganda nicht wollen. Auch das Tracking und
       das Bilden von nutzer:innenbezogenen Profilen ließe sich verbieten.
       Und: Die Plattformen sollten verantwortlich sein für die Inhalte, die sie
       verbreiten – genau wie das bei Medienunternehmen bereits der Fall ist. Das
       würde sie deutlich stärker in die Haftung nehmen.
       
       16 Feb 2026
       
       ## LINKS
       
 (DIR) [1] /Altersbeschraenkung-fuer-die-Nutzung-von-Social-Media-Was-sagt-die-Wissenschaft/!6142285
 (DIR) [2] /Sexualisierte-Deepfakes-auf-X/!6145025
 (DIR) [3] /Social-Media-in-Australien/!6153679
       
       ## AUTOREN
       
 (DIR) Svenja Bergt
       
       ## TAGS
       
 (DIR) Big Tech
 (DIR) EU-Kommission
 (DIR) Plattformökonomie
 (DIR) Verbraucherschutz
 (DIR) Social Media
 (DIR) Social-Auswahl
 (DIR) Reden wir darüber
 (DIR) Kanzler Merz
 (DIR) Social Media
 (DIR) Social Media
 (DIR) Social Media
 (DIR) Social Media
       
       ## ARTIKEL ZUM THEMA
       
 (DIR) Auswirkungen von Social Media: Merz zeigt „Sympathien“ für Verbot
       
       „Persönlichkeitsdefizite und Probleme im Sozialverhalten“ wären laut dem
       Bundeskanzler Gründe für ein Verbot der Apps für Kinder und Jugendliche.
       
 (DIR) Social-Media-Regeln für Jugendliche: Verbietet die Suchtmaschinen
       
       Verbote von Glücksspiel und Rauschmitteln für Jugendliche wirken. Wollen
       wir junge Menschen schützen, braucht es sie auch für die sozialen
       Netzwerke.
       
 (DIR) Social Media in Australien: „Das Verbot löst keines der Probleme“
       
       Australien hat als erstes Land ein Mindestalter für die
       Social-Media-Nutzung vorgeschrieben. Die Regierung sieht Erfolge,
       Bürgerrechtler üben Kritik.
       
 (DIR) Mindestalter für Social Media: Zu jung für Insta?
       
       Die politischen Forderungen nach einer Altersbeschränkung für die Nutzung
       von Social Media werden lauter. Doch Wissenschaftler:innen sind
       uneins.
       
 (DIR) Social Media ab 16 Jahren: Ein Mindestalter schont die Plattformen
       
       Die Nutzung von Social Media wird heute vielfach mit dem Konsum von Alkohol
       und Tabak verglichen. Eine Gefahr, die auch für Erwachsene gilt.