← Zukunftswerkstatt Präsidiumsvorlage
V1.1
Präsidiumsvorlage

Digitale Grundrechte, Kinderschutz und Plattformverantwortung

Entwurf einer Beschlussempfehlung des Präsidiums an den Parteivorstand

Autor: Ralph Suikat Stand: April 2026 Version: 1.1 Quellen: 139 Lesezeit: ~45 Min.

Dieses Dokument wird kontinuierlich weiterentwickelt. Jede Änderung ist in der Versionshistorie am Ende dokumentiert.

📑Inhaltsverzeichnis — Klick auf einen Abschnitt, um direkt dorthin zu springen 💬Kommentieren — Klick 💬 neben einer Überschrift, um den Abschnitt zu kommentieren 📄Quellen-Tooltips — Fahr über eine Fußnote [1], um die Quelle direkt zu sehen PDF — Über den Button oben rechts als PDF speichern 📍Navigation — Beim Scrollen zeigt eine Leiste oben, wo Du Dich befindest 📶Updates — Abonnier den RSS-Feed für automatische Benachrichtigungen

TEIL A – BESCHLUSSVORLAGE

Kurzfassung für Präsidium und Vorstand

A.1 Auf einen Blick

Drei Entwicklungen treffen im Frühjahr 2026 zusammen: CDU, SPD und Grüne bilden eine Dreierfront für gesetzliche Social-Media-Verbote und Massenidentifizierung. International scheitern diese Verbote nachweislich – in Australien nutzen weiterhin 20 Prozent der Teenager die gesperrten Plattformen, Frankreich verzeichnet 1.000 Prozent mehr VPN-Nutzung. Und US-Gerichte verurteilen erstmals Plattformen wegen ihres Produktdesigns – nicht wegen fehlender Ausweiskontrollen.

Das BSW legt mit dieser Vorlage ein konkretes Gegenmodell vor: die 11-Punkte-Linie. Kern: Nicht die 84 Millionen Bürger müssen sich identifizieren – die Plattformen müssen ihre Produkte sicher machen. Die Vorlage dokumentiert auf Basis von 139 Quellen, warum Verbote scheitern, wer die Debatte steuert, was die Alternative ist, und warum das BSW jetzt handeln muss.

Kernaussage
Der Grundsatz in einem Satz: Wenn Gift im Regal steht, kontrolliert man nicht die Ausweise der Kunden – man nimmt das Gift aus dem Regal. CDU und SPD wollen den Ausweis. Das BSW nimmt das Gift raus.
1.000%
mehr VPN-Nutzung
in Frankreich
20%
der australischen Teens
weiterhin auf TikTok
26 Mio.$
Meta-Lobbying
gegen Designregulierung
6 Mio.$
Urteil gegen Meta/
YouTube (Suchtdesign)

→ Faktengrundlage: Teil B, Abschnitt B.1

A.2 Das Problem: Verbotswelle ohne Lösung

CDU, SPD und Grüne fordern Ausweiskontrollen für Social Media. Die CDU will eine Altersgrenze bei 14, die SPD ein Komplettverbot unter 14 mit EUDI-Wallet-Verifikation, die Grünen schließen sich an. Selbst Bundespräsident Steinmeier hat sich für ein Verbot ausgesprochen. Österreich hat am 27. März 2026 ein Verbot unter 14 beschlossen. Frankreich, Dänemark, Spanien und Großbritannien folgen.

Doch kein Land hat das Grundproblem gelöst: Wie verifiziert man das Alter, ohne alle Bürger zu identifizieren? Australien zeigt nach vier Monaten: Die eSafety-Behörde ermittelt gegen fünf Plattformen, weil die Altersbeschränkungen nicht funktionieren. Bei zwei Dritteln der Fälle wurde nicht einmal nach dem Alter gefragt. In Frankreich stieg die VPN-Nutzung um 1.000 Prozent. Die Verbotswelle beschleunigt sich – aber sie produziert einen Flickenteppich nationaler Altersgrenzen ohne Durchsetzung.

❌ CDU / SPD / Grüne
Identifizierung der Nutzer
84 Millionen Bürger müssen sich ausweisen. Ausweiskontrollen, EUDI-Wallet-Pflicht, Altersverifikation als Zugangsbedingung. Kosten: Grundrechte, Privatsphäre, soziale Gerechtigkeit.
✓ BSW
Regulierung der Produkte
Plattformen müssen Suchtdesign beseitigen. Keine Ausweiskontrollen, keine Massenidentifizierung. Kosten: Plattform-Profite aus Suchtmechanismen. Gewinn: Sicherheit für alle.

Dazu kommt: Die Verbotsdebatte wird maßgeblich von Meta selbst gesteuert. Der Konzern investierte 2025 über 26 Millionen Dollar in Lobbying und unterstützt die „Digital Childhood Alliance“ – eine Astroturfing-Organisation, die Altersverifikation fordert, weil sie die Aufmerksamkeit von Designregulierung ablenkt.

Die wissenschaftliche Basis für Verbote ist dünn: Familienministerin Prien räumt im März 2026 selbst ein, es gäbe lediglich „Hinweise“ auf „Zusammenhänge“ – keine nachgewiesene Kausalität. Und sie gibt zu: „Allein das Verbot wird es nicht sein.“

Kernaussage
Verbote verschärfen die soziale Kluft: Wohlhabende Familien umgehen Alterssperren per VPN und werbefreien Geräten. Ärmere Familien – ohne technisches Know-how und ohne Geld für Alternativen – sind den manipulativen Algorithmen und der staatlichen Überwachung schutzlos ausgeliefert. Ausweiskontrollen für Social Media sind damit auch eine Frage der sozialen Gerechtigkeit: Wer es sich leisten kann, umgeht das System. Wer es nicht kann, wird überwacht.
Kernaussage
Die Wissenschaftlichen Dienste des Bundestages (WD 7-004/26) bestätigen: Der DSA hat als EU-Verordnung Anwendungsvorrang. Nationale Social-Media-Verbote kollidieren mit der EU-Harmonisierung.

→ Faktengrundlage: Teil B, Abschnitt B.2 und B.3

A.3 Die BSW-Alternative: Produktsicherheit statt Identifizierung

Das BSW verfolgt einen grundlegend anderen Ansatz: Nicht die Nutzer regulieren, sondern das Produkt sicher machen. Wie bei Lebensmitteln, Autos oder Medikamenten. Drei Stufen:

Kernaussage
Stufe 1 – Produktsicherheitsstandard (Pflicht): Plattformen müssen nachweisen, dass ihre Designentscheidungen den 3-Fragen-Test bestehen: Dient das Feature primär dem Nutzerinteresse? Kann der Nutzer die Nutzung jederzeit ohne Nachteil unterbrechen? Ist die Wirkungsweise transparent?
Stufe 1 — Pflicht
Produktsicherheit
3-Fragen-Test: Nutzerinteresse? Unterbrechbar? Transparent?
Stufe 2 — Opt-in
Informierte Wahl
Features mit Risiken: Default aus, transparenter Opt-in
Stufe 3 — Verbot
Suchtdesign
Infinite Scroll, Autoplay, Streaks, FOMO-Push — für alle verboten

Stufe 2 – Informierte Wahl (Opt-in): Funktionen, die den Test bestehen, aber trotzdem Risiken bergen, werden standardmäßig deaktiviert. Nutzer können sie bewusst einschalten.

Kernaussage
Stufe 3 – Absolute Grenze (Verbot): Suchtdesign wird für alle verboten – nicht nur für Kinder. Endlos-Scrollen ohne Haltepunkt, Autoplay ohne Zustimmung, Streak-Mechaniken, FOMO-Push und Algorithmen für maximale Verweildauer.

Erlaubt bleiben: Likes als statische Resonanz-Anzeige, gebündelte Benachrichtigungen, transparente Empfehlungen auf Wunsch – und freier Zugang ohne Ausweis.

Warum „Default aus“ nicht reicht

Kernaussage
Der vzbv und 86 Organisationen fordern, Suchtdesign „per Default auszuschalten“ – mit Opt-in-Möglichkeit. Das klingt vernünftig, greift aber zu kurz: Erstens das Suchtparadox – genau die Abhängigen schalten es sofort wieder ein. Zweitens der soziale Druck – wenn alle Freunde Infinite Scroll haben, verzichtet kein Teenager freiwillig. Drittens die Steinberg-Lücke – zwischen 12 und 18 läuft das Belohnungssystem auf Hochtouren, während die Impulskontrolle noch nicht greift. Opt-in bei Suchtmechanismen ist ein Widerspruch in sich.

Deshalb geht das BSW weiter: Suchtdesign wird nicht „per Default ausgeschaltet“, sondern verboten. Wie Asbest im Baustoff oder Blei im Spielzeug. Das ist die Logik, die auch das US-Geschworenengericht in Los Angeles angelegt hat.

US-Gerichte bestätigen den BSW-Ansatz

Am 25. März 2026 verurteilte ein Geschworenengericht in Los Angeles Meta und YouTube zu sechs Millionen Dollar Schadensersatz – wegen fahrlässigem Produktdesign. Nicht Inhalte wurden verurteilt, sondern Infinite Scroll und Autoplay als Designentscheidungen. Einen Tag zuvor: 375 Millionen Dollar gegen Meta in New Mexico. Beobachter sprechen vom „Tabak-Moment“ der Tech-Industrie. Section 230 – bisher der Schutzschild der Plattformen – wurde erstmals durchbrochen.

Parallel eröffnete die EU-Kommission DSA-Verfahren gegen TikTok und Snapchat wegen suchtförderndem Design und mangelndem Kinderschutz. Auf zwei Kontinenten gleichzeitig wird Plattformdesign als das eigentliche Problem erkannt – nicht die fehlende Identifizierung der Nutzer.

→ Faktengrundlage: Teil B, Abschnitt B.4

A.4 EUDI-Wallet: Werkzeug des Bürgers, nicht Passierschein

Kernaussage
Das BSW unterstützt die EUDI-Wallet als Instrument der digitalen Selbstbestimmung. Aber: Die Wallet darf niemals Voraussetzung für allgemeine Internetdienste werden. Die Rote Linie: Keine Plattform darf eine EUDI-Wallet-Verifikation zur Nutzungsbedingung machen.

Mission-Creep-Warnung: Was heute für den Kinderschutz eingeführt wird, steht morgen für völlig andere Zwecke bereit. Aktueller Beleg: Während CDU und SPD digitale Ausweiskontrollen für Social Media fordern, kündigte Innenminister Dobrindt am 28. März 2026 KI-Kameras mit biometrischer Gesichtserkennung an Bahnhöfen an. Der Koalitionsvertrag enthält bereits die Befugnis zur „retrograden biometrischen Fernidentifizierung“. Das Muster wird sichtbar: Heute Wallet für Social Media, morgen Gesichtserkennung an Bahnhöfen, übermorgen flächendeckende Identifizierung.

→ Faktengrundlage: Teil B, Abschnitt B.5

A.5 DatenAufstand: Vom Papier zur Praxis

Ergänzend zur 11-Punkte-Linie enthält diese Vorlage einen Vorschlag für eine konkrete Bürgeraktion: DatenAufstand (datenaufstand.de) – eine datenschutzfreundliche Web-App, mit der Bürger in zwei Minuten eine DSGVO-Auskunftsanfrage (Art. 15) an die zehn größten Social-Media-Plattformen senden können. Der Claim: Nicht der Bürger soll gläsern sein – sondern der Konzern. Ein funktionsfähiger Prototyp ist bereits verfügbar unter [datenaufstand.netlify.app](https://datenaufstand.netlify.app).

DatenAufstand wäre der Beweis, dass das BSW nicht nur redet, sondern handelt. Während CDU und SPD über Verbote diskutieren, gäbe das BSW den Bürgern ein Werkzeug in die Hand. Das Präsidium wird gebeten, über den Einsatz zu entscheiden. Drei Varianten stehen zur Auswahl:

Option A – Begleitmaßnahme (defensiv): Stiller Launch auf datenaufstand.de, Verweis in der Vorlage und auf der BSW-Website. Keine eigene Pressearbeit. Vorteil: Kein Risiko, kein Aufwand. Nachteil: Geringe Sichtbarkeit, kein differenzierendes Momentum.

Option B – Bürgeraktion (moderat): Launch mit eigenem Pressestatement und Social-Media-Kampagne (#DatenAufstand). Flyer für Landesverbände (liegt vor). Zielgruppe: digital-affine Eltern, Datenschutz-Community, Wahlkampfteams MV/Sachsen-Anhalt/Berlin. Vorteil: BSW zeigt Handlungsfähigkeit und grenzt sich sichtbar ab. Nachteil: Moderater Kommunikationsaufwand.

Option C – Kampagne (offensiv): DatenAufstand als zentrales Instrument der BSW-Digitalstrategie. Launch mit Pressekonferenz, Kooperation mit CCC, Digitalcourage, epicenter.works. Live-Demo auf dem nächsten Parteitag. Integration in den Landtagswahlkampf. Vorteil: Maximale Differenzierung – BSW als einzige Partei mit konkretem Werkzeug statt Verbotsforderung. Nachteil: Höherer Aufwand, Rechtstexte müssen durch Datenschutzanwalt geprüft werden.

→ Faktengrundlage: Teil B, Abschnitt B.6

A.6 Positionierung: BSW-Alleinstellung

Das BSW ist die einzige Partei, die gleichzeitig Kinderschutz ernst nimmt UND Massenidentifizierung ablehnt. Alle anderen fordern entweder Verbote (CDU, SPD, Grüne) oder ignorieren das Thema. Das BSW steht im Konsens mit epicenter.works, EDRi, CCC, Digitalcourage, UNICEF, dem Bundeselternrat und den führenden Gewaltschutz-Expertinnen.

Parteienvergleich im Überblick:

ParteiPosition
CDU/CSUAltersgrenze 14, Verifikation per EUDI-Wallet. CSU-Gegenposition: „an der Wirklichkeit vorbei“
SPDKomplettverbot unter 14, Jugendversionen unter 16. Prien: „Allein das Verbot wird es nicht sein.“
GrüneBrantner stützt Altersgrenze 14
FDPGegen Verbote, für Medienkompetenz
LinkeSchärfste Grundrechtskritik, Zero-Knowledge-Proofs
AfDGegen Verbote, für Elternverantwortung
Kernaussage
BSW-Alleinstellung: Einzige Partei, die Kinderschutz UND Freiheitsrechte gleichzeitig bedient – mit konkretem Produktsicherheitsmodell statt Verbotspolitik.

Breite zivilgesellschaftliche Unterstützung:

OrganisationPosition
DKHWGegen Schnellschüsse, für ganzheitlichen Kinderrechtsansatz
KinderschutzbundGegen pauschales Verbot, für Empowerment
AWOBezweifelt Durchsetzbarkeit, fordert Plattformregeln
CCCWarnt vor falscher Sicherheit durch Verbote
BundesschülerkonferenzFordert Medienkompetenz statt Verbote
UNICEFSoziale Medien als „Lebensadern“ für marginalisierte Kinder
epicenter.works / EDRi20 NGOs gegen Massen-Altersverifikation
Stiftung BildungGegen Verbot nach australischem Vorbild
7 Gewaltschutz-ExpertinnenWarnen vor Überwachungsausbau (netzpolitik.org, 31.3.2026)

Zeitfenster – Jetzt handeln:

ZeitpunktEreignis
Mitte April 2026Expertenkommission Prien (vorgezogen)
Q4 2026EU Digital Fairness Act
Ende 2026EUDI-Wallet-Bereitstellung
Herbst 2026Landtagswahlen MV, Sachsen-Anhalt, Berlin

Das BSW muss jetzt positioniert sein – bevor CDU und SPD Fakten schaffen.

→ Faktengrundlage: Teil B, Abschnitt B.7

A.7 Beschlussempfehlung: Die 11-Punkte-Linie

Kernaussage
Das Präsidium empfiehlt dem Parteivorstand, folgende Positionierung zu beschließen:
1Recht auf pseudonyme Nutzung: Das BSW bekräftigt das Recht auf anonyme oder pseudonyme Nutzung digitaler Dienste. Keine allgemeine Klarnamenpflicht.
2Keine allgemeine Altersverifikationspflicht: Anlasslose Altersverifikation für soziale Netzwerke und Kommunikationsdienste ist grundrechtswidrig und führt zu Massenidentifizierung.
3Safety by Default: Sichere Voreinstellungen für alle Nutzer – private Konten, nicht personalisierte Empfehlungen, Schutz vor manipulativen Designs.
4Altersnachweise nur in Hochrisikobereichen: Nur für Pornografie und Glücksspiel, mit Sunset-Klausel und Parlamentsvorbehalt. Soziale Netzwerke fallen nicht darunter.
5Keine privatwirtschaftlichen Identitätsinfrastrukturen als Standard: Strukturelle Datenrisiken wie die Discord/Persona-Panne zeigen die Grenzen.
6EUDI-Wallet nur als Werkzeug des Bürgers: Keine Voraussetzung für allgemeine Internetdienste. Zero-Knowledge-Proofs als verbindlicher Standard über BSI und SPRIND.
7Suchtdesign begrenzen: Algorithmische Feeds, Infinite Scroll, Autoplay, Streak-Mechaniken und FOMO-Push standardmäßig deaktivieren. Beweislast bei der Plattform.
8Rechtsstaatliche Strafverfolgung: Anlassbezogen und verhältnismäßig. Login-Falle statt pauschaler Vorabidentifizierung.
9Medienkompetenz und Jugendschutz auf Geräteebene: Betriebssystemansatz ja, aber mit transparenten Kriterien und ohne Zensurinfrastruktur. Gestärkte Elternrolle.
10Überidentifizierung zurückdrängen: Datenschutzaufsicht und Sanktionen stärken.
11Jährlicher Datentransparenzbericht: Plattformen mit über 10 Mio. Nutzern müssen einen verständlichen Datenkontoauszug bereitstellen. Bringpflicht statt Holrecht.
Adressaten & Kommunikation

An wen richten sich die Forderungen?

Der größte Hebel liegt auf EU-Ebene (DSA-Durchsetzung und Digital Fairness Act). Die wichtigsten nationalen Spielräume betreffen die EUDI-Wallet-Umsetzung (über BSI/SPRIND), die Login-Falle (StPO) und den Datentransparenzbericht (BDSG). Die Landesebene ist für Medienkompetenz und den Medienstaatsvertrag zuständig.

EbeneAdressatPunkteHebel
EUEU-Kommission, EU-Parlament2, 3, 4, 6, 7DSA-Durchsetzung, Digital Fairness Act, eIDAS 2.0
BundBundestag, BMFSFJ, BMI, BSI, SPRIND1, 5, 6, 8, 10, 11TDDDG, StPO, BDSG, SPRIND-Mandat
LandLandtage, Medienanstalten9Medienstaatsvertrag, Schulgesetze

Kommunikationslinien:

„Wir schützen Kinder, ohne die Freiheitsrechte aller Bürger preiszugeben.“ – „Nicht der Ausweis der Nutzer, sondern das Design der Plattformen ist der Hebel.“ – „Drei Parteien wollen Verbote, die Kinder umgehen werden. Das BSW will Plattformen umbauen, die Kinder schützen werden.“

Soziale Gerechtigkeit:

„Wir lassen nicht zu, dass der Geldbeutel entscheidet, ob ein Kind vor Algorithmen geschützt wird.“ – „Verbote sind ein Klassengesetz: Wer es sich leisten kann, umgeht das System. Wer es nicht kann, wird überwacht.“ – „Sichere Plattformen schützen alle Kinder – nicht nur die mit VPN-affinen Eltern.“

Konter auf „Verbotspartei“-Vorwurf:

„CDU und SPD verbieten den Zugang. Wir verbieten das Gift.“ – „Wir verbieten nicht den Spielplatz – wir verbieten die Nägel, die aus den Brettern ragen.“ – „Wenn Gift im Regal steht, kontrolliert man nicht die Ausweise der Kunden – man nimmt das Gift raus.“ – „Freie Plattformen, sichere Produkte – ohne Ausweiskontrolle.“ – „Wer Asbest im Baustoff verbietet, ist keine Verbotspartei. Wer Suchtdesign im Kinderzimmer verbietet, auch nicht.“

Optional – Kommunikation im Kontext der App:

„Während CDU und SPD über Verbote streiten, gibt das BSW den Bürgern ein Werkzeug in die Hand.“ – „DatenAufstand zeigt: Transparenz geht auch ohne Überwachung.“ – „Zwei Minuten, zehn Plattformen, ein Recht: Artikel 15 DSGVO. Jetzt nutzen.“

TEIL B – FAKTENGRUNDLAGE UND QUELLEN

Detaillierte Argumentation, Belege, internationale Vergleiche und Quellenverzeichnis

B.1 Zusammenfassung (Detail)

Die Zusammenfassung befindet sich in Teil A (A.1). Die folgenden Abschnitte liefern die detaillierte Argumentation und Belege.

Das BSW legt mit dieser Vorlage ein konkretes Gegenmodell vor: die 11-Punkte-Linie. Kern: Nicht die 84 Millionen Bürger müssen sich identifizieren – die Plattformen müssen ihre Produkte sicher machen. Das Prinzip ist Produktsicherheit: Wir verbieten nicht den Spielplatz – wir verbieten die Nägel, die rausstehen. Drei Stufen: Suchtdesign verbieten (für alle, ohne Altersprüfung), informierte Wahl ermöglichen (Opt-in nur für sichere Features), Zugangsregulierung nur in Hochrisikobereichen. Dazu: DatenAufstand – eine Web-App, mit der Bürger die Konzerne zur Offenlegung ihrer Daten zwingen können.

Der Grundsatz in einem Satz: Wir verbieten nicht den Spielplatz – wir verbieten die Nägel, die aus den Brettern ragen. CDU und SPD wollen den Spielplatz absperren und nur noch mit Ausweis reinlassen. Das BSW will die Nägel entfernen – für alle.

B.2 Die Verbotswelle – und wer sie steuert

2.1 Die Dreierfront: CDU, SPD, Grüne

Kernaussage
CDU: Der Parteitag im Februar 2026 forderte eine gesetzliche Altersgrenze von 14 Jahren für die Nutzung sozialer Netzwerke und die Ausgestaltung des besonderen Schutzbedürfnisses bis zum 16. Lebensjahr. [1 CDU-Parteitag 2026]
Kernaussage
CSU – Gegenposition innerhalb der Koalition: CSU-Landesgruppenvorsitzender Alexander Hoffmann nannte die Verbotsdebatte „an der Wirklichkeit vorbei“. CSU-Chef Markus Söder hatte sich bereits früher dagegen ausgesprochen. Die Koalition ist in dieser Frage intern gespalten. [75 CSU Hoffmann/AA Feb 2026]
Kernaussage
SPD: Das Impulspapier „Sichere Soziale Medien“ fordert ein Komplettverbot unter 14, verpflichtende Jugendversionen unter 16 und Altersverifikation per EUDI-Wallet. Bundesjustizministerin Stefanie Hubig (SPD) trägt mit. [2 SPD-Impulspapier 2026; 72 dpa Feb 2026]
Kernaussage
Grüne – Positionswechsel: Grünen-Vorsitzende Franziska Brantner hat sich im Februar 2026 hinter die CDU-Altersgrenze von 14 Jahren gestellt und erklärt, sie habe das „schon lange gefordert“. Bereits im September 2025 befürwortete sie eine Altersgrenze von 16. Damit haben die Grünen ihre bisherige Position – gegen pauschale Verbote, für Plattformregulierung – faktisch aufgegeben. [73 Brantner/dpa Feb 2026; 74 Brantner/StZ Sep 2025]

2.2 Weitere Stimmen: Steinmeier, Bundesregierung, Elternverbände

Auch Bundespräsident Frank-Walter Steinmeier hat sich im April 2026 für ein Social-Media-Verbot für Kinder unter 14 Jahren ausgesprochen. Der Bundeselternrat hingegen warnt: Ein pauschales Verbot finde keine breite Unterstützung bei den Elternverbänden; es könne Kinder eher isolieren als schützen. [117, 118]

Kernaussage
Bundesregierung: Familienministerin Prien kann sich Verbote „bis zu einem bestimmten Alter“ vorstellen. Staatssekretärin Wulf bestätigte „dringenden Handlungsbedarf“ und sieht in der EUDI-Wallet einen Ansatz für Altersverifikation. [77 Prien/DLF Feb 2026; 78 Wulf/BT Petitionsausschuss April 2026]

Aktualisierung 3. April 2026 (Table Today-Interview): Ministerin Prien räumt erstmals öffentlich ein, dass ein Verbot allein nicht die Lösung sein wird: „Nach den australischen Erfahrungen können wir jetzt schon sagen, allein das Verbot wird es nicht sein.“ Die Expertenkommission werde ihre Ergebnisse bereits Mitte März 2026 vorlegen – früher als geplant. Auf die Frage nach Kausalität antwortet Prien ausweichend: Es „verdichten sich die Hinweise“ auf „Zusammenhänge, zumindest für bestimmte Gruppen“. Das ist keine Kausalität – und die Ministerin weiß das. Gleichzeitig räumt sie ein, dass die DSA-Durchsetzung zu langsam ist: „Das dauert halt alles Jahre, bis solche Verfahren entschieden sind.“ Die BSW-Schlussfolgerung: Der DSA funktioniert im Prinzip – aber die Durchsetzung versagt. Die Antwort ist schärfere Durchsetzung, nicht neue Ausweisgesetze. [133]

2.3 Landespolitische Dynamik: Wahlkampf-Länder 2026

Mecklenburg-Vorpommern (Wahl 20.9.2026): Ministerpräsidentin Schwesig (SPD) fordert seit dem 19. März 2026 im Landtag ein Social-Media-Verbot unter 14 und eine jugendgerechte Ausgestaltung bis 16. Bemerkenswert: Ein nahezu identischer CDU-Antrag war im November 2025 noch mit den Stimmen von Schwesigs rot-roter Landesregierung abgelehnt worden – ein 180-Grad-Schwenk unter Wahlkampfdruck. Der Landeselternrat MV warnt: Ein reines Verbot ohne begleitende Bildung und Aufklärung greife zu kurz. MV hat eine eigene Landeskommission eingesetzt. [112, 113]

Sachsen-Anhalt (Wahl Herbst 2026): Im Landtag Sachsen-Anhalt hat die Grünen-Abgeordnete Susan Sziborra-Seidlitz am 3. April 2026 überraschend nah an der BSW-Linie argumentiert: Profile von Jugendlichen sollten grundsätzlich privat sein, Plattformen müssten zu kindersicheren Voreinstellungen verpflichtet werden. Sie verwies auf den DSA als bereits existierende EU-Regelung – eine Position, die sich fast wörtlich mit Safety by Default deckt. [114]

Berlin (Wahl Herbst 2026): Das Verwaltungsgericht Berlin hat am 23. Februar 2026 entschieden, dass die Medienanstalt bei Jugendschutzverboten auf Instagram konkrete Beiträge bezeichnen muss – pauschale Verbote genügen nicht (VG 32 K 20/23). Das Urteil stützt den BSW-Grundsatz der Verhältnismäßigkeit. [116]

In drei Bundesländern mit Herbstwahlen 2026 – Mecklenburg-Vorpommern, Sachsen-Anhalt und Berlin – ist die Social-Media-Debatte zum Wahlkampfthema geworden. Die Dynamik zeigt: Das Thema wird landespolitisch instrumentalisiert, ohne dass belastbare Lösungskonzepte vorliegen.

2.4 Wer die Debatte steuert: Metas Lobbystrategie

Meta-Lobbystrategie und Astroturfing: Die Debatte um Altersverifikation wird maßgeblich von Meta selbst gesteuert. 2025 investierte Meta über 26 Millionen Dollar in Lobbying allein auf US-Bundesebene – mehr als Lockheed Martin, Boeing, Apple und Microsoft zusammen. Meta pusht den „App Store Accountability Act“, der die Altersverifikation von den Plattformen auf die App Stores (Apple, Google) verlagert. Der strategische Hintergrund: Über die Safe-Harbor-Klausel entfiele Metas wissentliche Kenntnis über das Alter minderjähriger Nutzer – und damit das Haftungsrisiko von bis zu 50 Milliarden Dollar unter dem US-Kinderschutzgesetz COPPA. Meta finanziert zudem verdeckt die „Digital Childhood Alliance“ – eine Organisation, die wie eine besorgte Bürgerinitiative auftritt, aber ausschließlich Apple und Google attackiert, nie Meta selbst. 98 Tage nach der Domain-Registrierung wurde das erste Gesetz mit deren Talking Points unterzeichnet. BSW-Einordnung: Der Fall zeigt, dass die Verbotsdebatte nicht primär vom Kinderschutz getrieben wird, sondern von Konzernen, die ihre Haftung auf andere verlagern wollen. Das BSW lehnt dieses Modell ab: Nicht App Stores sollen zu Gatekeepern werden, sondern Plattformen müssen ihr Design ändern. [120]

2.5 Internationale Dynamik

International beschleunigt sich die Entwicklung: Frankreich führt Alterskontrollen für Pornografie ein und hat in erster Lesung ein Verbot sozialer Netzwerke unter 15 Jahren beschlossen (Scrutin 5192, 130 zu 21). Australien hat ein Mindestalter unter 16 eingeführt (4,7 Millionen Accounts deaktiviert – wobei unklar ist, wie viele davon ruhende Accounts oder Erwachsene betreffen). Indonesien setzt ab März 2026 mit der PP-Tunas-Verordnung ein altersgestuftes Zugangsmodell um, das Plattformen risikobasiert klassifiziert und elterliche Einwilligung innerhalb von 24 Stunden verlangt. [29 Australian eSafety; 30 Australien PM; 39 Scrutin 5192; 40 Reuters FR Ban; 51 Indonesien PP Tunas]

Österreich (27. März 2026): Die österreichische Bundesregierung hat ein Social-Media-Verbot für unter 14-Jährige beschlossen. Ein Gesetzentwurf zur technischen Umsetzung soll bis Ende Juni 2026 vorliegen, muss dann aber noch mit der EU abgestimmt werden – laut Vizekanzler Babler weitere drei bis sechs Monate. Eine Lösung für die Altersverifikation existiert nicht. Die Kritik ist breit: Die Datenschutz-NGO epicenter.works sieht einen mehrfachen Verstoß gegen EU-Recht – die großen Plattformen mit Sitz in Irland könnten das österreichische Gesetz „getrost ignorieren“. UNICEF warnt, Kinder würden „von Informationen, Freundschaften und Unterstützung abgeschnitten“ und in „unsichere, unregulierte Räume gedrängt“. Die FPÖ spricht von einem „Rammbock gegen die Meinungs- und Informationsfreiheit“, die Grünen kritisieren „viel PR, kein Plan“ und fehlende Details zum Datenschutz. Bemerkenswert: Die Grüne Abgeordnete Neßler warnt, die Regierung schließe zwar aus, dass Konzerndaten für die Alterskontrolle genutzt werden – nicht aber, dass der Staat selbst Identitätsdaten sammelt. [134]

BSW-Einordnung: Österreich wiederholt die australischen Fehler, ohne aus ihnen zu lernen. Kein funktionierendes Altersverifikationssystem, keine Antwort auf VPN-Umgehung, keine Lösung für die EU-Jurisdiktionsfrage (Plattform-Sitz Irland). Dazu kommt eine neue Dimension: Das EU-Parlament fordert inzwischen ein Mindestalter von 16 Jahren – Österreich setzt 14 an, Australien 16, Frankreich 15, Dänemark 15. Ein Flickenteppich nationaler Altersgrenzen ohne einheitliche Durchsetzung. Die Verbotswelle beschleunigt sich – aber kein Land hat das Grundproblem gelöst: Wie verifiziert man das Alter, ohne alle Bürger zu identifizieren?

Aktualisierung 31. März 2026: Die australische eSafety-Behörde ermittelt jetzt offiziell gegen fünf Plattformen – Facebook, Instagram, TikTok, Snapchat und YouTube – wegen Nichtdurchsetzung der Altersbeschränkungen. Zwar wurden 5 Millionen Accounts entfernt oder gesperrt, doch der eSafety-Bericht deckt „inakzeptable Systeme“ auf: Nutzer können wiederholt Altersverifikationsprüfungen versuchen, bis sie Zugang erhalten. Bei zwei Dritteln der überprüften Fälle wurde nicht einmal nach dem Alter gefragt. Kommunikationsministerin Wells: „Die Taktiken stammen direkt aus dem Drehbuch der Big-Tech-Konzerne.“ Den Plattformen drohen Strafen von bis zu 49,5 Mio. AUD (29,5 Mio. Euro) pro systematischem Verstoß. BSW-Einordnung: Australien demonstriert in Echtzeit, dass selbst das strengste Verbotsgesetz der Welt an der Durchsetzung scheitert. [136]

B.3 Warum Verbote scheitern: Belege

Die politischen Forderungen nach Verboten und Altersverifikation klingen eingängig. Die empirische Beweislage zeigt ein anderes Bild: Jeder Versuch, Zugang über Identität zu organisieren, scheitert an denselben Problemen – unabhängig vom Land, der Technologie oder der politischen Couleur.

3.1 Das Trilemma: Datenschutz, Umgehung, Nutzerfreundlichkeit

Altersverifikation bewegt sich in einem Trilemma aus Datenschutz, Umgehungsresistenz und Nutzerfreundlichkeit. Die EFF (Electronic Frontier Foundation — eine 1990 gegründete US-amerikanische Bürgerrechtsorganisation, die sich weltweit für digitale Grundrechte einsetzt) und EDRi (European Digital Rights — ein europäischer Dachverband von über 40 Organisationen für Grund- und Menschenrechte im digitalen Raum) warnen vor einer Normalisierung allgemeiner Alterskontrollen für Kommunikationsräume. [9 EFF 2025; 10 EDRi]

EU-Kommission selbst widersprüchlich (Jugendschutz-Leitlinien, Juli 2025): Die finalen EU-Leitlinien zum Jugendschutz nach dem DSA empfehlen einerseits Alterskontrollen, schränken sie andererseits durch so viele Bedingungen ein, dass kaum ein System sie erfüllt: Datenminimierung, Anonymität, unabhängige Prüfung, keine Umgehbarkeit, kein Ausschluss von Minderheiten. EDRi (Dachverband von 20 europäischen Digitalrechts-Organisationen) kam bereits 2023 zum Schluss, dass dokumentenbasierte und KI-basierte Alterskontrollen besser nicht eingesetzt werden sollten. Die Leitlinien spiegeln den Streit wider, ohne ihn zu lösen – und bestätigen damit die BSW-Position: Kein aktuelles System löst das Trilemma. [138]

Wissenschaftliche Redlichkeit: Bildungsministerin Prien behauptet vor dem Bundestag einen „wissenschaftlichen Konsens“ über dramatisch negative neurologische Auswirkungen von Social Media auf Kinder. Netzpolitik.org hat diese Behauptung im Detail widerlegt: Die verfügbaren Metastudien zeigen eine Korrelation, keine Kausalität. Kinder mit höherer Bildschirmzeit haben häufiger Angststörungen – ob der Bildschirm die Ursache ist oder ob ängstliche Kinder sich häufiger digital ablenken, ist ungeklärt. Entscheidend für die BSW-Position: Selbst wenn ein Kausalzusammenhang bestünde, wäre die angemessene Antwort die Regulierung des Suchtdesigns (Algorithmen, Autoplay, Endlos-Scrollen) – nicht eine Überwachungsinfrastruktur, die „hinterher für völlig andere Zwecke benutzt werden kann“. [123]

Was ein Social-Media-Verbot für Eltern konkret bedeuten würde: Die Debatte verschweigt regelmäßig die praktischen Konsequenzen für Familien. Eine Analyse von netzpolitik.org (Maerz 2026) beschreibt fuenf realistische Szenarien, die verdeutlichen, dass Altersverifikation kein einfacher Knopfdruck ist, sondern ein bürokratischer Eingriff in den Familienalltag. [119]

Szenario Gesichtsscan: Kinder müssen ihr Gesicht biometrisch scannen lassen. KI-basierte Altersschätzung macht häufig Fehler – wird ein Kind fälschlich als zu jung eingestuft, wird der Account gesperrt. Eltern müssen einen Widerspruchsprozess durchlaufen. Biometrische Daten sind nicht zurücksetzbar wie Passwörter – bei einem Datenleck sind sie unwiderruflich kompromittiert.

Szenario Ausweisupload: Kinder ohne eigenen Personalausweis müssen den Reisepass fotografieren und zusätzlich eine Lebenderkennung (Gesicht aus verschiedenen Winkeln) durchlaufen. Daten landen bei Drittanbietern – denselben Unternehmen, deren Datenpannen das BSW-Papier bereits dokumentiert (Discord/Persona, 70.000 Ausweisbilder).

Szenario Eltern-Freischaltung: Eltern müssen sich selbst verifizieren und dann Kinder-Accounts einzeln freischalten – zusätzlicher Verwaltungsaufwand für jedes Kind, jede Plattform, bei jedem Gerätewechsel. Szenario ohne Papiere: Kinder ohne gültige Ausweisdokumente – etwa Geflüchtete – werden digital vollständig ausgesperrt. Szenario Erwachsene: Auch alle 84 Millionen Erwachsenen müssen sich verifizieren, nicht nur Kinder.

BSW-Einordnung: Diese Szenarien zeigen, warum Safety by Default der überlegene Ansatz ist. Wenn Plattformen standardmäßig sicher eingestellt sind, entfaellt der Bedarf für biometrische Massenscans, Ausweis-Uploads und Eltern-Freischaltungsbuorekratie. Kinderschutz darf nicht bedeuten, dass Familien mit Gesichtserkennung und Ausweiskopien kämpfen müssen.

Frankreich ist das wichtigste Referenzfeld: Die französische Datenschutzbehörde CNIL empfiehlt eine unabhängige dritte Stelle und betont das Prinzip des „double anonymat“ — das bedeutet: Weder erfährt die besuchte Website die Identität des Nutzers, noch erfährt die Prüfstelle, welche Website besucht wird. Arcom (die französische Medienaufsicht) setzt die Alterskontrolle für Pornoseiten seit April 2025 mit einem technisch fortgeschrittenen Doppelblind-Token-Verfahren durch. [14 CNIL Age en ligne; 15 CNIL/Arcom; 16 Arcom; 59 ARCOM Referenzmodell 2025]

Kernaussage
Das ARCOM-Referenzmodell im Detail: Seit April 2025 müssen Pornoplattformen in Frankreich ein Verifikationssystem einsetzen, das einen unabhängigen Vertrauenspartner (tiers de confiance) zwischenschaltet. Der Nutzer authentifiziert sich einmalig gegenüber dem Vertrauenspartner (z. B. per Ausweisdokument), erhält ein kryptografisches Alterstoken und kann dieses anonymisiert auf verschiedenen Plattformen einsetzen. Die Plattform erfährt nur „über 18, ja/nein“, der Vertrauenspartner erfährt nicht, welche Plattform besucht wird. Das System muss mindestens zwei Verifikationsmethoden kombinieren und Anti-Spoofing-Maßnahmen enthalten. [59 ARCOM Referenzmodell 2025]
Kernaussage
Einordnung und Grenzen: Das ARCOM-Modell ist der technisch fortschrittlichste operative Ansatz weltweit und verdient Anerkennung als ernsthafter Versuch, Altersverifikation datensparsamer zu gestalten. Drei strukturelle Probleme bleiben jedoch bestehen:

Privacy-Paradox: Die Token-Ausstellung erfordert eine initiale vollständige Identitätsprüfung — die Anonymität greift erst nach der Erstidentifizierung.

VPN-Umgehung: Das System setzt voraus, dass der Nutzer als „französisch“ erkannt wird — VPN-Umgehung bleibt möglich, auch wenn sie durch die Token-Bindung an persönliche Daten erschwert wird.

Mission Creep unberührt: Das Token-System löst das Datenschutzproblem der Verifikation teilweise, entkräftet aber nicht den Mission-Creep-Befund: Dasselbe Modell kann nahtlos auf weitere Plattformkategorien ausgedehnt werden.

Für das BSW bedeutet das: Das ARCOM-Modell zeigt, dass datensparsamere Verifikation möglich ist. Es widerlegt aber nicht die grundsätzlichen Bedenken gegen allgemeine Alterskontrollen — insbesondere nicht die Ausweitung auf Kommunikationsräume. [14 CNIL Age en ligne; 15 CNIL/Arcom; 16 Arcom; 59 ARCOM Referenzmodell 2025]

Kernaussage
Mission Creep bezeichnet die schleichende Ausweitung einer Maßnahme über ihren ursprünglichen Zweck hinaus. Im digitalen Kontext bedeutet dies: Ein System, das zunächst für einen eng definierten Bereich eingeführt wird (z. B. Altersprüfung auf Pornoseiten), wird nach und nach auf immer weitere Lebensbereiche ausgedehnt — bis es zum allgemeinen Kontrollmechanismus wird. Dieses Risiko ist nicht theoretisch, sondern empirisch belegt:

Nach dem Pornografie-Regime wurde im Januar 2026 in erster Lesung ein Verbot sozialer Netzwerke unter 15 Jahren beschlossen (Scrutin 5192, 130 zu 21) — eine Funktionsausweitung innerhalb eines einzigen Regulierungszyklus. [39 Scrutin 5192; 40 Reuters FR Ban]

Die Grenzen zeigen sich praktisch: Nach dem Rückzug großer Pornoplattformen aus Frankreich stiegen die Anmeldungen bei Proton VPN um rund 1.000 Prozent; Top10VPN verzeichnete einen Nachfrageanstieg von 334 Prozent. Berichte über AgeGO deuten zudem auf zusätzliche Datenerhebung über den Verifikationszweck hinaus hin. [41 Reuters Pornhub; 42 Proton VPN; 43 Top10VPN; 44 Biometric Update]

3.2 Australien: Das gescheiterte Experiment

Aktualisierung März 2026: Drei Monate nach Inkrafttreten nutzen weiterhin rund 20 Prozent der australischen Teenager TikTok und Snapchat aktiv (Reuters/Custodio). Am Tag des Inkrafttretens stieg die VPN-Installation bei Windscribe um 400 Prozent. Zwei 15-jährige Teenager klagen vor dem australischen High Court: Das pauschale Verbot verletze ihre verfassungsmäßig implizierte Freiheit der politischen Kommunikation. Die SPD reagierte mit dem Vorschlag, VPNs zu regulieren – eine Maßnahme, die bisher nur aus China, Russland und Nordkorea bekannt ist. Das Midnight-BSD-Projekt hat als Reaktion auf das kalifornische Gesetz seine Lizenz geändert, um kalifornische Nutzer von der Desktop-Nutzung auszuschließen. [122]

3.3 Frankreich: Elegante Technik, gescheiterte Praxis

Frankreich ist das wichtigste Referenzfeld: Die französische Datenschutzbehörde CNIL empfiehlt eine unabhängige dritte Stelle und betont das Prinzip des „double anonymat“ — das bedeutet: Weder erfährt die besuchte Website die Identität des Nutzers, noch erfährt die Prüfstelle, welche Website besucht wird. Arcom (die französische Medienaufsicht) setzt die Alterskontrolle für Pornoseiten seit April 2025 mit einem technisch fortgeschrittenen Doppelblind-Token-Verfahren durch. [14 CNIL Age en ligne; 15 CNIL/Arcom; 16 Arcom; 59 ARCOM Referenzmodell 2025]

Kernaussage
Das ARCOM-Referenzmodell im Detail: Seit April 2025 müssen Pornoplattformen in Frankreich ein Verifikationssystem einsetzen, das einen unabhängigen Vertrauenspartner (tiers de confiance) zwischenschaltet. Der Nutzer authentifiziert sich einmalig gegenüber dem Vertrauenspartner (z. B. per Ausweisdokument), erhält ein kryptografisches Alterstoken und kann dieses anonymisiert auf verschiedenen Plattformen einsetzen. Die Plattform erfährt nur „über 18, ja/nein“, der Vertrauenspartner erfährt nicht, welche Plattform besucht wird. Das System muss mindestens zwei Verifikationsmethoden kombinieren und Anti-Spoofing-Maßnahmen enthalten. [59 ARCOM Referenzmodell 2025]
Kernaussage
Einordnung und Grenzen: Das ARCOM-Modell ist der technisch fortschrittlichste operative Ansatz weltweit und verdient Anerkennung als ernsthafter Versuch, Altersverifikation datensparsamer zu gestalten. Drei strukturelle Probleme bleiben jedoch bestehen:

Privacy-Paradox: Die Token-Ausstellung erfordert eine initiale vollständige Identitätsprüfung — die Anonymität greift erst nach der Erstidentifizierung.

VPN-Umgehung: Das System setzt voraus, dass der Nutzer als „französisch“ erkannt wird — VPN-Umgehung bleibt möglich, auch wenn sie durch die Token-Bindung an persönliche Daten erschwert wird.

Mission Creep unberührt: Das Token-System löst das Datenschutzproblem der Verifikation teilweise, entkräftet aber nicht den Mission-Creep-Befund: Dasselbe Modell kann nahtlos auf weitere Plattformkategorien ausgedehnt werden.

Für das BSW bedeutet das: Das ARCOM-Modell zeigt, dass datensparsamere Verifikation möglich ist. Es widerlegt aber nicht die grundsätzlichen Bedenken gegen allgemeine Alterskontrollen — insbesondere nicht die Ausweitung auf Kommunikationsräume. [14 CNIL Age en ligne; 15 CNIL/Arcom; 16 Arcom; 59 ARCOM Referenzmodell 2025]

Kernaussage
Mission Creep bezeichnet die schleichende Ausweitung einer Maßnahme über ihren ursprünglichen Zweck hinaus. Im digitalen Kontext bedeutet dies: Ein System, das zunächst für einen eng definierten Bereich eingeführt wird (z. B. Altersprüfung auf Pornoseiten), wird nach und nach auf immer weitere Lebensbereiche ausgedehnt — bis es zum allgemeinen Kontrollmechanismus wird. Dieses Risiko ist nicht theoretisch, sondern empirisch belegt:

3.4 Wissenschaftliche Redlichkeit: Korrelation ist keine Kausalität

Wissenschaftliche Redlichkeit: Bildungsministerin Prien behauptet vor dem Bundestag einen „wissenschaftlichen Konsens“ über dramatisch negative neurologische Auswirkungen von Social Media auf Kinder. Netzpolitik.org hat diese Behauptung im Detail widerlegt: Die verfügbaren Metastudien zeigen eine Korrelation, keine Kausalität. Kinder mit höherer Bildschirmzeit haben häufiger Angststörungen – ob der Bildschirm die Ursache ist oder ob ängstliche Kinder sich häufiger digital ablenken, ist ungeklärt. Entscheidend für die BSW-Position: Selbst wenn ein Kausalzusammenhang bestünde, wäre die angemessene Antwort die Regulierung des Suchtdesigns (Algorithmen, Autoplay, Endlos-Scrollen) – nicht eine Überwachungsinfrastruktur, die „hinterher für völlig andere Zwecke benutzt werden kann“. [123]

3.5 Was Verbote für Eltern bedeuten: Fünf Szenarien

Was ein Social-Media-Verbot für Eltern konkret bedeuten würde: Die Debatte verschweigt regelmäßig die praktischen Konsequenzen für Familien. Eine Analyse von netzpolitik.org (Maerz 2026) beschreibt fuenf realistische Szenarien, die verdeutlichen, dass Altersverifikation kein einfacher Knopfdruck ist, sondern ein bürokratischer Eingriff in den Familienalltag. [119]

Szenario Gesichtsscan: Kinder müssen ihr Gesicht biometrisch scannen lassen. KI-basierte Altersschätzung macht häufig Fehler – wird ein Kind fälschlich als zu jung eingestuft, wird der Account gesperrt. Eltern müssen einen Widerspruchsprozess durchlaufen. Biometrische Daten sind nicht zurücksetzbar wie Passwörter – bei einem Datenleck sind sie unwiderruflich kompromittiert.

Szenario Ausweisupload: Kinder ohne eigenen Personalausweis müssen den Reisepass fotografieren und zusätzlich eine Lebenderkennung (Gesicht aus verschiedenen Winkeln) durchlaufen. Daten landen bei Drittanbietern – denselben Unternehmen, deren Datenpannen das BSW-Papier bereits dokumentiert (Discord/Persona, 70.000 Ausweisbilder).

Szenario Eltern-Freischaltung: Eltern müssen sich selbst verifizieren und dann Kinder-Accounts einzeln freischalten – zusätzlicher Verwaltungsaufwand für jedes Kind, jede Plattform, bei jedem Gerätewechsel. Szenario ohne Papiere: Kinder ohne gültige Ausweisdokumente – etwa Geflüchtete – werden digital vollständig ausgesperrt. Szenario Erwachsene: Auch alle 84 Millionen Erwachsenen müssen sich verifizieren, nicht nur Kinder.

BSW-Einordnung: Diese Szenarien zeigen, warum Safety by Default der überlegene Ansatz ist. Wenn Plattformen standardmäßig sicher eingestellt sind, entfaellt der Bedarf für biometrische Massenscans, Ausweis-Uploads und Eltern-Freischaltungsbuorekratie. Kinderschutz darf nicht bedeuten, dass Familien mit Gesichtserkennung und Ausweiskopien kämpfen müssen.

3.6 Wen Verbote am härtesten treffen

Betroffene Gruppen jenseits der Debatte: Australische Behindertenverbände (Advocacy for Inclusion, CYDA) warnen, dass pauschale Verbote Jugendliche mit Einschränkungen isolieren. Für Menschen auf dem Autismusspektrum sind digitale Räume oft der einzige Ort, an dem soziale Interaktion funktioniert. Für LGBTQ+-Jugendliche in konservativen Umfeldern sind Online-Communities manchmal der einzige sichere Raum. Ein pauschales Verbot trifft die Verletzlichsten am härtesten. [125]

Soziale Schieflage: Verbote als Klassengesetz.

Die Debatte übersieht systematisch die soziale Dimension: Wohlhabende, technisch versierte Familien umgehen jedes Altersverifikationssystem – per VPN, über werbefreie Geräte oder durch alternative Plattformen. Ärmere Familien haben weder die technische Expertise noch die finanziellen Mittel für Alternativen. Sie sind den manipulativen Algorithmen und – im Falle einer Ausweispflicht – der staatlichen Identifizierung schutzlos ausgeliefert. Komplizierte Verifikationsprozesse (Ausweisupload, Gesichtsscan, Eltern-Freischaltung) belasten einkommensschwache Familien überproportional: Alleinerziehende mit mehreren Kindern, Familien mit Sprachbarrieren, Haushalte ohne eigenes Smartphone. Das australische Beispiel zeigt bereits, dass VPN-Umgehung ein Privileg der digital Gebildeten ist – während Kinder aus bildungsfernen Familien entweder ausgesperrt werden oder ungeschützt auf unregulierten Plattformen landen. Zudem trifft die Analog-Garantie – Punkt 6 der 11-Punkte-Linie – einen Nerv: Wenn die EUDI-Wallet Voraussetzung für Internetdienste wird, werden Rentner ohne Smartphone und Geringverdiener ohne aktuelle Geräte vom digitalen Leben ausgeschlossen. Das BSW fordert deshalb: Für jeden digitalen Dienst mit Wallet-Pflicht muss ein barrierefreier analoger Zugang bestehen.

BSW-Einordnung: Safety by Default löst die soziale Schieflage, weil es keine individuelle Umgehung erfordert und keinen Ausweis verlangt. Wenn die Plattform für alle sicher ist, profitieren alle – unabhängig von Einkommen, Bildung oder technischer Kompetenz.

Ironische Pointe: Eine Princeton-Studie (Gessler/Tucker) zeigt, dass Erwachsene über 65 Jahren fast siebenmal so viele Fake-News-Artikel teilen wie die jüngste Altersgruppe. Gleichzeitig glauben nur 20 Prozent der Über-60-Jährigen, jemals Fake News gelesen zu haben, während 55 Prozent der 18- bis 29-Jährigen angeben, bereits mit Desinformation konfrontiert gewesen zu sein. Die Jüngeren sind also deutlich problembewusster – und sollen trotzdem vom Netz ausgesperrt werden. [124]

3.7 Kalifornien und Linux: Altersverifikation auf Betriebssystemebene

Das historische Muster – Mission Creep in drei Schritten: Schritt 1: Altersverifikation für Pornografie (Frankreich 2023, UK Online Safety Act). Schritt 2: Ausweitung auf Social Media für Kinder (Australien 2025, Deutschland 2026). Schritt 3: Altersverifikation für alle Internetdienste (Kalifornien AB 1043 auf Betriebssystemebene, EU Digital Fairness Act offen). Südkorea hat diesen Weg 2007–2012 mit einer Klarnamenpflicht durchlaufen: Hassrede ging nicht zurück, aber Identitätsdatenbanken wurden gehackt und Millionen realer Namen und Adressen lagen im Netz. Das Verfassungsgericht kippte das System. [127]

Aktueller Beleg für das Drei-Schritte-Muster (28. März 2026): Während CDU und SPD digitale Ausweiskontrollen für Social Media fordern, kündigt Bundesinnenminister Dobrindt (CSU) am selben Tag den flächendeckenden Einsatz von KI-Kameras mit biometrischer Gesichtserkennung an Bahnhöfen an. Der Koalitionsvertrag enthält bereits die Befugnis zur „retrograden biometrischen Fernidentifizierung“. Hessen hat 2025 als erstes Bundesland die gesetzliche Grundlage für KI-gestützte Polizeiarbeit geschaffen. Das Muster wird sichtbar: Heute EUDI-Wallet für Social Media, morgen Gesichtserkennung an Bahnhöfen, übermorgen biometrische Massenidentifizierung im öffentlichen Raum. Die Infrastruktur, die für Kinderschutz gebaut wird, steht für völlig andere Zwecke bereit – und die Koalition plant bereits offen damit. [132]

B.4 Die BSW-Alternative: Technische und juristische Grundlagen

4.1 Safety by Default: Sichere Voreinstellungen als Standard

US-Gerichte bestätigen den Produktsicherheitsansatz: Am 25. März 2026 verurteilte ein Geschworenengericht in Los Angeles Meta und YouTube zu insgesamt sechs Millionen Dollar Schadensersatz – drei Millionen Wiedergutmachung plus drei Millionen Strafzahlung. Die 20-jährige Klägerin KGM hatte als Kind bis zu 16 Stunden täglich Instagram und YouTube genutzt und kämpft heute mit Depressionen und Angststörungen. Die Jury befand die Plattformen der Fahrlässigkeit für schuldig und sprach zusätzlich Strafschadenersatz wegen „böswilligen, unterdrückerischen oder betrügerischen Verhaltens beim Umgang mit Kindern“ zu. Meta trägt 70 Prozent, Google 30 Prozent. Meta-Chef Zuckerberg sagte persönlich aus und hinterließ laut einer Geschworenen „keinen guten Eindruck“. TikTok und Snapchat hatten sich vorab auf einen Vergleich geeinigt. [128]

Bereits am Vortag hatten Geschworene in New Mexico Meta zu 375 Millionen Dollar Strafe verurteilt – wegen wissentlich mangelnden Kinderschutzes und Verschleierung sexueller Ausbeutung auf der Plattform. Mehr als 40 Generalstaatsanwälte der US-Bundesstaaten haben Klage gegen Meta eingereicht. Im Sommer 2026 folgt ein Bundesverfahren in Oakland, im Juli ein weiterer Musterprozess in Los Angeles gegen Instagram, YouTube, TikTok und Snapchat. [129]

BSW-Einordnung: Das LA-Urteil ist wegweisend, weil es sich erstmals auf das Produktdesign konzentriert – nicht auf einzelne Inhalte. Infinite Scroll, Autoplay und algorithmische Feeds wurden als fahrlässige Designentscheidungen bewertet. Das ist exakt der Ansatz, den das BSW mit seiner 11-Punkte-Linie verfolgt: Nicht die Nutzer identifizieren, sondern das Produkt sicher machen. Die US-Klagewelle zeigt: Der internationale Trend geht zur Produkthaftung – während CDU und SPD noch auf Ausweiskontrollen setzen, die kein Gericht der Welt je als Lösung anerkannt hat.

Der „Tabak-Moment“ der Tech-Industrie: Beobachter vergleichen die Urteile mit dem Wendepunkt der Tabakindustrie in den 1980er Jahren. Jahrzehntelang hatten sich Zigarettenhersteller auf eine unklare Studienlage berufen, obwohl interne Studien die massiven Gesundheitsrisiken längst nachgewiesen hatten. Erst als Gerichte zugunsten der Raucher entschieden, reagierten Regierungen weltweit. Der Parallelbefund: Meta wusste um den Schaden. Interne Dokumente, die im Prozess vorgelegt wurden, belegen dies unmissverständlich. Ein Meta-Mitarbeiter schrieb intern: „Intermittierende Belohnungen sind am effektivsten. Denk an Spielautomaten.“ Ein Strategiepapier von 2018 formulierte: „Wenn wir bei Teenagern punkten wollen, müssen wir sie jünger an uns binden.“ Nutzer, die Facebook mit 11 Jahren beitraten, hatten eine viermal höhere Langzeitbindung als solche, die mit 20 anfingen. 32 Prozent der jungen Mädchen gaben in internen Meta-Studien an, Instagram sorge für ein schlechteres Körperbild. [131]

Entscheidend für die BSW-Argumentation: Das Gericht durchbrach erstmals die Schutzwirkung von Section 230, dem US-Gesetz, das Plattformbetreiber bisher von der Haftung für Nutzerinhalte freistellte. Meta wurde nicht für die Worte seiner Nutzer bestraft, sondern für die Architektur, die gezielt biologische Schwachstellen in kindlichen Gehirnen ausbeutet. Der Sozialpsychologe Jonathan Haidt, Autor des Standardwerks „The Anxious Generation“, kommentierte: „Ab heute leben wir in einer neuen Welt. Die Tech-Konzerne verletzten Kinder in industriellem Maßstab.“ Die Jury sprach über den Schadensersatz hinaus zusätzlichen Strafschadenersatz wegen „böswilligen, unterdrückerischen oder betrügerischen Verhaltens“ zu – ein Befund, der über Fahrlässigkeit weit hinausgeht. [131]

BSW-Schlussfolgerung: Wenn US-Gerichte Social-Media-Design wie ein defektes Industrieprodukt behandeln und Plattformen für ihr Suchtdesign haftbar machen, ist die Forderung nach Ausweiskontrollen für 84 Millionen Bürger nicht nur unverhältnismäßig – sie adressiert das falsche Problem. Die Antwort auf ein gefährliches Produkt ist Produktsicherheit, nicht Kundenkontrolle. Das BSW zieht die Konsequenz, die CDU und SPD verweigern: Wir verbieten nicht den Spielplatz – wir verbieten die Nägel.

Konkret – was verboten ist und was nicht: Erlaubt: Resonanz-Anzeigen („Dieser Beitrag hat vielen Leuten gefallen“ – als statische Information, nicht als Echtzeit-Ticker). Gebündelte Benachrichtigungen („Du hast 3 neue Nachrichten“ – einmal am Tag, nicht als Dauerstrom). Transparente Empfehlungen („Andere Nutzer mit ähnlichen Interessen lesen auch“ – auf Wunsch, nicht als Default-Feed). Verboten: Echtzeit-Zähler, die hochtickend Dopamin-Schleifen erzeugen. Endlos-Scrollen ohne natürlichen Haltepunkt. Autoplay (nächstes Video startet ohne Zustimmung). Streak-Mechaniken („Deine 47-Tage-Serie reißt ab!“). FOMO-Push („Dein Freund hat gerade gepostet!“). Pull-to-Refresh mit variable ratio reinforcement (Spielautomat-Prinzip). Algorithmische Empfehlungssysteme, die auf Verweildauer-Maximierung optimiert sind.

Warum das Suchtdesign-Verbot für alle gelten muss – aktuelle Datenlage: Eine repräsentative Macromedia/YouGov-Studie (2025, 2.033 Befragte) zeigt: 15 Prozent aller Deutschen – nicht nur Kinder – weisen typische Anzeichen einer Social-Media-Sucht auf. In der Generation Z liegt der Anteil bei 25 Prozent, bei den Millennials sogar bei 26 Prozent. Studienleiter René Arnold: „Die Politik darf nicht länger so tun, als sei das Problem mit der Volljährigkeit erledigt.“ Die DAK/UKE-Längsschnittstudie (seit 2019) zeigt für deutsche 10- bis 17-Jährige: 25 Prozent nutzen Social Media riskant, 4,7 Prozent gelten als pathologisch abhängig – durchschnittlich 157 Minuten täglich. Auf der Suchtskala führt TikTok (58/100) vor Instagram (55/100). Entscheidend: Die Kausalitätsfrage bleibt wissenschaftlich offen. c’t konstatiert, es sei „unklar, in welche Richtung die Kausalität verläuft“. Das stärkt die BSW-Logik: Statt auf ungeklärte Kausalität zu warten, das Produkt sichern – für alle Altersgruppen. [139]

Stufe 3 – Absolute Grenze (nur Hochrisikobereiche): Nur in eng definierten Hochrisikobereichen (Pornografie, Glücksspiel) kommen Zugangsbeschränkungen in Betracht – mit den drei kumulativen Kriterien, Sunset-Klausel und Parlamentsvorbehalt. Das betrifft weniger als ein Prozent des Internets. Alles andere regeln Stufe 1 und 2 – ohne eine einzige Ausweiskontrolle.

Stufe 2 – Informierte Wahl (Autonomie des Nutzers): Wo ein Feature den Produktsicherheitstest besteht, aber trotzdem Aufmerksamkeit bindet (z. B. algorithmische Empfehlungen), entscheidet der Nutzer: Voreinstellung ist aus, Opt-in ist transparent, jederzeit widerruflich, ohne Dark Patterns beim Einschalten. Wichtig: Erst ohne Manipulation kann man von freier Entscheidung sprechen. Das Opt-in ist kein Rückfall in „Safety by Default“ für Suchtdesign – es gilt nur für Features, die den Sicherheitstest bestanden haben.

Stufe 1 – Produktsicherheitsstandard (Pflicht für die Plattform): Plattformen müssen nachweisen, dass ihre Designelemente drei Kriterien erfüllen: (a) Nutzerinteresse – dient das Feature primär dem Nutzer oder der Plattform-Metrik? (b) Unterbrechbarkeit – gibt es einen natürlichen Haltepunkt, oder erzeugt das Design einen Sog? (c) Transparenz – versteht der Nutzer, warum ihm etwas gezeigt wird? Features, die alle drei Kriterien verfehlen, sind manipulatives Suchtdesign und dürfen nicht ausgeliefert werden. Das ist wie eine CE-Kennzeichnung für digitale Produkte. Keine Altersunterscheidung, keine Identifizierung, keine Einschränkung der Nutzerfreiheit. Die Beweislast liegt bei der Plattform.

Drei Stufen der BSW-Regulierung:

Das Prinzip: Produktsicherheit statt Zugangskontrolle. Wir verbieten nicht Autos – wir verlangen Sicherheitsgurte und Airbags. Wir verbieten nicht Lebensmittel – wir verbieten Gift darin. Wir verbieten nicht Spielplätze – wir schreiben vor, dass keine Nägel rausstehen. Wir verbieten nicht Medikamente – wir verlangen Beipackzettel und Dosierungsgrenzen. In keinem dieser Fälle sagt jemand „Verbotspartei“. Warum? Weil niemand die Freiheit einfordert, vergiftete Lebensmittel zu kaufen. Social Media ist nicht anders: Wir verbieten nicht die Plattform – wir verbieten die Mechanismen, die Menschen krank machen. Nicht den Nutzer regulieren, sondern das Produkt.

Der wirksamere und grundrechtsschonendere Hebel liegt im Plattformdesign — im Prinzip „Safety by Default“: Plattformen müssen so gestaltet sein, dass die sicherste Einstellung automatisch gilt, ohne dass Nutzer aktiv werden müssen. Der britische Age Appropriate Design Code und die EU-Leitlinien zu Artikel 28 DSA (Digital Services Act — EU-Gesetz über digitale Dienste) folgen dieser Logik. Politisch zugespitzt: Plattformen müssen entweder das Alter belastbar feststellen oder die höchsten Schutzstandards auf alle Nutzer anwenden. [3 EU DSA Art. 28; 4 ICO Children’s Code; 5 EU Age Verification]

128 dokumentierte Plattformänderungen (5Rights Foundation) belegen: Designregulierung verändert Produkte tatsächlich. [22 5Rights Foundation]

Moderne Plattformen nutzen eine Reihe von Designelementen, die auf psychologische Bindung abzielen und gerade bei Kindern und Jugendlichen zu problematischem Nutzungsverhalten führen können:

Algorithmische Feeds: Die Plattform wählt automatisch aus, welche Inhalte angezeigt werden — optimiert auf maximale Verweildauer, nicht auf Relevanz oder Qualität.

Pull-to-Refresh und Infinite Scroll: Durch Herunterziehen des Bildschirms erscheinen ständig neue Inhalte; die Seite hat kein natürliches Ende — ähnlich einem Spielautomaten.

Likes, Streaks und Follower-Zähler: Sichtbare soziale Belohnungssignale erzeugen Druck, ständig aktiv zu bleiben. „Streaks“ (Serien) bei Snapchat etwa zählen aufeinanderfolgende Tage der Interaktion — ein Abbruch bedeutet den Verlust des aufgebauten „Standes“.

Push-Benachrichtigungen und Autoplay: Plattformen senden laufend Mitteilungen auf das Smartphone und starten Videos automatisch, um Nutzer immer wieder zurückzuholen.

Die gesundheitlichen Folgen sind messbar: Eine JAMA-Studie 2025 fand bei suchtartiger Bildschirmnutzung ein zwei- bis dreifach erhöhtes Risiko für suizidale Gedanken. Der WHO/HBSC-Bericht 2024 verzeichnete problematische Social-Media-Nutzung bei 11 Prozent der Jugendlichen. Die DAK-Studie 2025 zeigt: Rund ein Viertel der 10- bis 17-Jährigen nutzt soziale Medien problematisch; 4,7 Prozent gelten als abhängig; die durchschnittliche tägliche Nutzung liegt bei 157 Minuten werktags. [23 DAK/UKE 2025; 24 DAK Mediensucht; 46 JAMA/PubMed; 47 WHO/HBSC 2024]

Ein häufiger Einwand lautet, dass altersspezifische Voreinstellungen ein Alterssignal voraussetzten. Das ist teilweise richtig — entscheidend ist aber der Unterschied: Safety by Default bedeutet, die höchsten Schutzstandards für alle Nutzer als Ausgangspunkt zu setzen und erweiterte Funktionen erst nach plausiblem Alterssignal freizugeben. Plattformen, die das Alter nicht belastbar feststellen, müssen dann eben die Schutzstandards auf alle anwenden. Dieses Prinzip vermeidet Massenidentifizierung und schafft zugleich starke Anreize für datensparsame Lösungen.

Safety by Default ist durchsetzbar: Der DSA sieht Bußgelder bis 6 Prozent des weltweiten Jahresumsatzes vor.

Kernaussage
Flankierung durch den EU AI Act: Die europäische Verordnung über künstliche Intelligenz (AI Act, Verordnung 2024/1689, in Kraft seit Februar 2025) stärkt die BSW-Position zusätzlich: Algorithmische Empfehlungssysteme unterliegen Transparenzpflichten (Art. 50); der Einsatz manipulativer KI-Techniken zur Verhaltenssteuerung ist ausdrücklich verboten. Damit wird Safety by Default nicht nur ein politisches Leitbild, sondern durch geltendes EU-Recht gestützt. Das BSW fordert, die Verbindung zwischen DSA und AI Act aktiv herzustellen: Plattformen, die algorithmische Feeds als suchtfördernde Defaulteinstellung betreiben, verstoßen potenziell gegen beide Regelwerke. [3 EU DSA Art. 28; 60 EU AI Act 2025]

Die Rolle der Eltern ist dabei unverzichtbar: Sichere Voreinstellungen entlasten Eltern, ersetzen sie aber nicht. Warum das BSW dennoch keine verpflichtenden Eltern-Dashboards als Lösung verspricht, wird in Abschnitt 4.7 transparent dargelegt.

Kernaussage
Hierarchie: Plattformverantwortung vor Elternrolle. Safety by Default bedeutet: Die sichere Grundeinstellung gilt als verbindlicher Ausgangspunkt. Eltern können Einstellungen im Rahmen ihrer Erziehungsverantwortung anpassen — aber die Plattform darf sie nicht aktiv dazu auffordern, den Schutzabbau als Normalzustand nahelegen oder die Deaktivierung zur Voraussetzung für die volle Nutzung machen. Der Schutz bleibt die Grundregel, nicht die Ausnahme. Wird der Schutz deaktiviert, liegt die Verantwortung bei der Person, die aktiv gehandelt hat — nicht bei der Plattform, die den Standard aufrechtgehalten hat.

EU-Kommission vs. TikTok: Safety by Default wird Realität

Im Februar 2026 hat die EU-Kommission vorläufig festgestellt, dass TikToks Plattformdesign gegen den Digital Services Act verstößt. Im Zentrum stehen Funktionen wie unendliches Scrollen, automatische Wiedergabe, Push-Benachrichtigungen und das stark personalisierte Empfehlungssystem. Die Kommission argumentiert, dass diese Funktionen zwanghaftes Nutzungsverhalten fördern – insbesondere bei Minderjährigen. Dem Mutterkonzern ByteDance drohen Geldbußen bis zu 6 Prozent des weltweiten Jahresumsatzes. [79 EU-Kommission/TikTok Feb 2026; 80 netzpolitik.org TikTok Feb 2026]

Die Kommission verlangt Änderungen in drei Bereichen: Erstens einfacheres Abschalten von Push-Benachrichtigungen und geändertes Scrolling-Design mit natürlichen Endpunkten. Zweitens muss das Empfehlungssystem explizite Nutzerwünsche berücksichtigen statt nur implizites Engagement-Tracking. Drittens verpflichtende Bildschirmzeitbegrenzungen, Pausen und eine nächtliche Sperre – nicht nur für Minderjährige, sondern für alle Nutzer.

EU-Kommission vs. Snapchat (März 2026): Parallel zum TikTok-Verfahren hat die EU-Kommission ein förmliches DSA-Verfahren gegen Snapchat eröffnet. Die Vorwürfe bestätigen präzise die BSW-Analyse: Erstens versagt die Selbstauskunft beim Alter – dass Nutzer einfach behaupten können, über 13 zu sein, reicht der Kommission nicht aus. Zweitens sind die Standardeinstellungen mangelhaft – Konten von Minderjährigen sind über die Freundessuche für Fremde auffindbar, Push-Benachrichtigungen standardmäßig aktiviert. Drittens spielt der Algorithmus Minderjährigen Inhalte zu Drogen, Alkohol und Vapes in den Feed. Viertens sind Meldewege für illegale Inhalte versteckt und kompliziert. Die Kommission untersucht außerdem Grooming-Risiken und die Rekrutierung für kriminelle Aktivitäten. Das Verfahren baut auf Vorarbeiten der niederländischen Behörden auf. [130]

BSW-Einordnung: Das Snapchat-Verfahren zeigt exemplarisch, dass der DSA-Rahmen funktioniert – und keine neuen Ausweisgesetze braucht. Die Kommission kritisiert nicht die Nutzer, sondern das Produkt: unsichere Voreinstellungen, manipulative Algorithmen, mangelhafte Meldesysteme. Genau das fordert die BSW-11-Punkte-Linie. Bemerkenswert: Die Kommission moniert dieselben Designelemente wie das US-Geschworenen­gericht in Los Angeles – auf zwei Kontinenten gleichzeitig wird Plattformdesign als das eigentliche Problem erkannt, nicht die fehlende Identifizierung der Nutzer.

DSA – kritische Würdigung aus BSW-Sicht

Das BSW unterstützt den strukturellen DSA-Ansatz: Plattformdesign regulieren statt Zugang kontrollieren. Insbesondere die Verpflichtung zu Risikobewertungen (Art. 34), die Schutzpflichten für Minderjährige (Art. 28) und die Durchsetzungsinstrumente sind wirksame Hebel. Der TikTok-Präzedenzfall zeigt, dass dieser Regulierungsrahmen in der Praxis greift. Zugleich formuliert das BSW drei kritische Vorbehalte:

Zentralisierte Durchsetzungsmacht: Der DSA gibt der EU-Kommission die direkte Aufsicht über Very Large Online Platforms. Damit wird eine nicht direkt demokratisch legitimierte Behörde zur Regulierungsinstanz für die zentralen Kommunikationsräume. Diese Konzentration birgt Risiken: Durchsetzungsentscheidungen werden de facto von einer kleinen Gruppe von Beamten getroffen, die weder dem Europäischen Parlament noch nationalen Parlamenten rechenschaftspflichtig sind.

Content-Moderation und Überblocking-Risiko: Die Pflicht, systemische Risiken zu mindern, kann Plattformen veranlassen, aus Vorsicht mehr Inhalte zu entfernen als nötig. Das BSW fordert: DSA-Durchsetzung auf strukturelle Risiken (Design, Algorithmen, Geschäftsmodelle) fokussieren, nicht als Instrument zur inhaltlichen Steuerung einzelner Beiträge missbrauchen.

Fehlende demokratische Rückkopplung: Durchsetzungsentscheidungen unterliegen gerichtlicher, aber keiner laufenden parlamentarischen Kontrolle. Das BSW fordert regelmäßige Berichterstattung an das Europäische Parlament.

Durchsetzungsdefizit bestätigt durch die Bundesregierung selbst: Familienministerin Prien räumte am 3. April 2026 öffentlich ein, dass die DSA-Durchsetzung zu langsam sei: „Das dauert halt alles Jahre, bis solche Verfahren entschieden sind.“ Das BSW zieht die entgegengesetzte Schlussfolgerung: Die Antwort auf langsame Durchsetzung ist nicht ein neues Ausweisgesetz, sondern schärfere Durchsetzungsinstrumente: kürzere Fristen für Verfahren gegen Very Large Online Platforms, vorläufige Maßnahmen bei evidenten Verstößen, empfindlichere Sanktionen. Der DSA bietet den Rahmen – er muss mit Zähnen versehen werden, nicht durch ein paralleles Identifizierungsregime ersetzt werden. [133]

Nächster Schritt auf EU-Ebene – Digital Fairness Act (DFA): Die EU-Kommission hat für Herbst 2026 den Entwurf eines „Digital Fairness Act“ angekündigt, der über den DSA hinausgehend konkretes Plattformdesign regulieren soll. Der Verbraucherzentrale Bundesverband (vzbv) fordert darin, dass „endloses Scrollen, Autoplay oder Gamification per Default-Einstellung ausgeschaltet“ sein sollen. Am Weltverbrauchertag 2026 haben 86 Organisationen und 116 Privatpersonen in einem offenen Brief ähnliche Forderungen erhoben. Die BSW-11-Punkte-Linie greift diese Entwicklung vorweg: Was der DFA für 2027/2028 verspricht, fordert das BSW jetzt – ein konkretes Verbot suchtfördernder Designelemente, unabhängig vom Alter der Nutzer und ohne Identifizierungspflicht. [139]

Warum „Default aus“ nicht reicht – die BSW-Abgrenzung: Der vzbv und 86 Organisationen fordern, Suchtdesign „per Default ausgeschaltet“ zu liefern – mit der Möglichkeit, es per Opt-in wieder einzuschalten. Das klingt vernünftig, greift aber zu kurz. Drei Gründe:

Erstens das Suchtparadox: Genau die Menschen, die am stärksten von Suchtdesign betroffen sind, werden es sofort wieder einschalten – weil sie bereits abhängig sind. Opt-in bei Suchtmechanismen ist ein Widerspruch in sich. Man fragt keinen Suchtkranken, ob er die suchtfördernde Substanz gerne zurückhaben möchte.

Zweitens der soziale Druck: Wenn alle Freunde Infinite Scroll eingeschaltet haben und dadurch mehr Inhalte sehen, mehr Streaks halten, mehr Likes sammeln, wird kein Teenager freiwillig darauf verzichten. Das ist kein freier Opt-in – das ist sozialer Zwang. Die Plattformen würden den Opt-in-Button prominent platzieren und Nutzer so lange bedrängen, bis sie zustimmen – genau das Muster, das wir von Cookie-Bannern kennen.

Drittens die Steinberg-Lücke: Der Entwicklungspsychologe Laurence Steinberg hat nachgewiesen, dass zwischen 12 und 18 Jahren das Belohnungssystem im Gehirn bereits auf Hochtouren läuft, während die Impulskontrolle (präfrontaler Kortex) noch nicht ausgereift ist – „ein Auto mit viel PS und schwachen Bremsen“. Einem 14-Jährigen die Entscheidung über Suchtdesign zu überlassen, ist wie ihm die Wahl über die Geschwindigkeitsbegrenzung zu geben. Die Macromedia-Studie zeigt: Selbst Erwachsene scheitern daran – 26 Prozent der Millennials sind betroffen. Opt-in überfordert alle Altersgruppen.

Deshalb geht das BSW weiter als der vzbv: Suchtdesign wird nicht „per Default ausgeschaltet“, sondern verboten. Der 3-Fragen-Test unterscheidet zwischen Information (erlaubt) und Manipulation (verboten). Kein Opt-in, kein Opt-out – Produktsicherheit. Genau wie bei Asbest im Baustoff, Blei im Spielzeug oder Weichmachern in Babyflaschen: Man lässt niemanden „opt in“ zu einem gefährlichen Produkt – man macht das Produkt sicher. Das ist die Logik, die auch das US-Geschworenengericht in Los Angeles angelegt hat, als es Meta und YouTube wegen ihres Produktdesigns verurteilte – nicht wegen fehlender Alterskontrollen.

Rechtsgutachten des Bundestages selbst (WD 7-004/26, Februar 2026): Die Wissenschaftlichen Dienste des Deutschen Bundestages haben auf Anfrage eines Abgeordneten die Beschränkungsmöglichkeiten für Social-Media-Plattformen geprüft. Das Ergebnis stützt die BSW-Position: Der DSA hat als EU-Verordnung Anwendungsvorrang vor nationalem Recht. Die Erwg. 9 der Verordnung stellen klar, dass Mitgliedstaaten „keine zusätzlichen nationalen Anforderungen in Bezug auf die in den Anwendungsbereich dieser Verordnung fallenden Bereiche erlassen oder beibehalten“ dürfen. Nationale Social-Media-Verbote, die über den DSA hinausgehen, kollidieren mit dem EU-Harmonisierungsziel. Das Gutachten bestätigt: Der richtige Hebel liegt nicht im nationalen Verbotsrecht, sondern in der konsequenteren Durchsetzung des bestehenden EU-Rahmens. [135]

Digital Fairness Act und deutscher Anti-Suchtdesign-Standard

Die EU-Kommission plant für das vierte Quartal 2026 den Digital Fairness Act (DFA), der Lücken im Verbraucherschutz schließen soll – insbesondere bei suchtförderndem Design, Dark Patterns und unfairer Personalisierung. Der DFA verfolgt strukturell den Safety-by-Default-Ansatz und ist damit kompatibel mit der BSW-Linie. Zugleich birgt er Risiken: Wenn funktionsdifferenzierte Regeln nach Alter in der Praxis doch eine Altersverifikation voraussetzen, entsteht Massenidentifizierung durch die Hintertür. Die Regulierungskumulation (DSA, DSGVO, AI Act, DFA) trifft europäische Mittelständler überproportional und stärkt paradoxerweise die Marktdominanz der US-Konzerne. [81 EU DFA; 82 netzpolitik.org DFA März 2026; 83 vzbv DFA-Positionspapier 2025]

Das BSW fordert, dass Deutschland eine Vorreiterrolle einnimmt und über das BSI einen verbindlichen Anti-Suchtdesign-Standard definiert, bevor die EU-Kommission den ersten DFA-Entwurf vorlegt. Der TikTok-Präzedenzfall vom Februar 2026 liefert die empirische Grundlage: Die dort beanstandeten Designmechanismen – Endlos-Scrollen, Autoplay, Push-Benachrichtigungen, personalisierte Empfehlungssysteme – müssen für alle Nutzer standardmäßig deaktiviert sein. Dieser Standard muss als Safety by Default für alle gelten, nicht als Sonderregel für Minderjährige. Deutschland kann damit den Rahmen für die europäische Debatte setzen – auf Basis von Verbraucherschutz und wirtschaftlicher Vernunft statt Zugangskontrolle und Massenidentifizierung.

4.2 Klarnamenpflicht und Pseudonymität

In Deutschland besteht keine allgemeine gesetzliche Klarnamenpflicht. § 19 Absatz 2 TDDDG (Telekommunikation-Digitale-Dienste-Datenschutz-Gesetz) verpflichtet Anbieter digitaler Dienste dazu, anonyme oder pseudonyme Nutzung zu ermöglichen, soweit dies technisch möglich und zumutbar ist. Pseudonymität bedeutet: Man nutzt einen selbst gewählten Namen (z. B. „Berliner99“), ist für Strafverfolgungsbehörden aber über die Plattform identifizierbar. Der BGH hat 2022 klargestellt, dass Facebook seine frühere Klarnamenklausel in den damals anhängigen Altfällen nicht wirksam durchsetzen durfte. Pseudonymität ist kein Missbrauchsprivileg, sondern ein Schutzraum für Meinungsfreiheit, informationelle Selbstbestimmung und demokratische Teilhabe. [7 TDDDG § 19; 8 BGH 2022; 11 vzbv]

Bereits 2007 hat der BGH in einem Grundsatzurteil zur Bewertungsplattform spickmich.de entschieden: „Anonyme Nutzung ist dem Internet immanent. Eine Beschränkung der Meinungsfreiheit auf Äußerungen, die einem bestimmten Individuum zugeordnet werden können, ist mit Art. 5 Abs. 1 S. 1 GG unvereinbar.“ Die Begründung war deutlich: Wer sich öffentlich mit seiner Identität an eine Meinung binden müsse, laufe Gefahr, aus Angst vor Repressalien auf die Meinungsäußerung ganz zu verzichten. [8 BGH 2022; 52 Häring/BGH 2007]

Präzision ist geboten: Aus der BGH-Entscheidung folgt kein abstraktes Verbot sämtlicher Klarnamenregeln jeder Plattform. Richtig ist aber, dass ein allgemeiner gesetzlicher Klarnamenzwang mit der geltenden deutschen Rechtslage und der Schutzfunktion von Pseudonymität in deutlichem Spannungsverhältnis steht — und dass die höchstrichterliche Rechtsprechung die anonyme Internetnutzung als verfassungsrechtlich geschützt einordnet. [7 TDDDG § 19; 8 BGH 2022; 11 vzbv; 52 Häring/BGH 2007]

Kernaussage
Verfassungsrechtlicher Rahmen: Art. 10 GG schützt das Brief-, Post- und Fernmeldegeheimnis — einschließlich digitaler Kommunikation über Messenger, E-Mail und soziale Netzwerke. Das Bundesverfassungsgericht hat in seiner Rechtsprechung zur Telekommunikationsüberwachung wiederholt klargestellt, dass Eingriffe in die Kommunikationsfreiheit nur bei hochrangigen Gemeinschaftsgütern, konkretem Tatverdacht und unter strikter Verhältnismäßigkeit zulässig sind. Ergänzend schützt das Recht auf informationelle Selbstbestimmung (Art. 2 Abs. 1 i. V. m. Art. 1 Abs. 1 GG, Volkszählungsurteil 1983) die Befugnis jedes Einzelnen, über die Preisgabe und Verwendung seiner Daten zu bestimmen. Beide Grundrechte sprechen gegen flächendeckende digitale Identifizierungspflichten und bilden den verfassungsrechtlichen Rahmen, an dem jede Form allgemeiner Altersverifikation oder Klarnamenpflicht gemessen werden muss. [8 BGH 2022; 52 Häring/BGH 2007; 62 BVerfG Art. 10 GG]

International ist Südkorea das wichtigste Warnbeispiel. Das Land führte 2007 ein gesetzliches Realnamen-System ein: Nutzer von Webportalen mit mehr als 100.000 Aufrufen pro Tag mussten sich mit ihrem realen Namen und ihrer Einwohnermeldenummer registrieren, bevor sie Beiträge veröffentlichen konnten. Die Regierung begründete dies mit zunehmendem Cyber-Mobbing. [12 Südkorea VerfG 2012]

Das Ergebnis war ernüchternd: Eine Studie der Korean Communications Commission ergab, dass der Anteil beleidigender Kommentare nach Einführung der Klarnamenpflicht lediglich um 0,9 Prozentpunkte sank — von 13,9 auf 13,0 Prozent. Zugleich wichen Nutzer massenhaft auf ausländische Plattformen aus, die der Pflicht nicht unterlagen. Gravierender noch: Die gesammelten Realdaten wurden zum Angriffsziel. Beim Datenverlust des Anbieters SK Communications (Cyworld) wurden 2011 persönliche Daten von über 35 Millionen Südkoreanern — mehr als die Hälfte der Bevölkerung — gestohlen. [12 Südkorea VerfG 2012]

2012 erklärte das südkoreanische Verfassungsgericht die Klarnamenpflicht einstimmig für verfassungswidrig. Das Gericht urteilte, dass die Regelung die Meinungsfreiheit und das Recht auf informationelle Selbstbestimmung verletze, die Vorteile die Nachteile nicht überwogen und die Pflicht zur „umgekehrten Diskriminierung“ inländischer gegenüber ausländischen Anbietern führe. Das Urteil gilt international als Präzedenzfall gegen gesetzliche Klarnamenpflichten. [12 Südkorea VerfG 2012]

Forschung zu sogenannten Chilling Effects — dem Abschreckungseffekt von Überwachung auf die freie Meinungsäußerung — stützt diesen Befund (Penney 2017): Identifizierungs- und Überwachungsregime senken messbar die Bereitschaft zur Diskussion sensibler oder politischer Themen. [13 Penney 2017]

Warnung am aktuellen Beispiel – Fall Fernandes und digitale Gewalt (März/April 2026): Der Fall der Influencerin Collin Fernandes hat eine bundesweite Debatte über digitale Gewalt ausgelöst. Die Bundesregierung plant einen Gesetzentwurf, der „Darstellungen, die geeignet sind, eine Person herabzuwürdigen“ unter Strafe stellen soll. Selbst Ministerin Prien mahnt zur Zurückhaltung, solange die Unschuldsvermutung gelte. Das BSW sieht hier ein Muster: Erstens droht Vorverurteilung – im laufenden Verfahren entstand eine öffentliche Protestbewegung, bevor ein Gericht geurteilt hat. Zweitens sind die Rechtsbegriffe gefährlich unscharf: Wann ist ein KI-generiertes Meme „geeignet, eine Person herabzuwürdigen“? Wann ist es Satire? Prien selbst räumt ein, das werde „eine schwierige und anspruchsvolle Debatte“. Unscharfe Tatbestände im Digitalrecht sind der Einstieg in Overblocking und Zensur – dasselbe Muster wie bei Klarnamenpflicht, Altersverifikation und Chatkontrolle: Unter dem Vorwand des Schutzes werden Instrumente geschaffen, die weit über den ursprünglichen Zweck hinaus einsetzbar sind. [133]

4.3 Rechtsstaatliche Strafverfolgung statt Vorabkontrolle

Die freiheitliche Alternative zu Klarnamenzwang und Vorratslogik ist anlassbezogene, gerichtsfeste Strafverfolgung. Das zentrale Modell dafür ist die „Login-Falle“, entwickelt vom Verein D64 — Zentrum für Digitalen Fortschritt, einem parteiübergreifenden Verein für eine progressive Digitalpolitik, der 2012 gegründet wurde und sich als Denkfabrik für die Verbindung von bürgerlichen Freiheitsrechten und digitaler Innovation versteht. [25 D64 Login-Falle; 26 D64 Klarnamenpflicht]

Das Modell der Login-Falle funktioniert wie folgt: Liegt ein konkreter strafrechtlicher Anfangsverdacht vor (etwa wegen Volksverhetzung oder Bedrohung), kann die Staatsanwaltschaft auf richterlichen Beschluss eine „Login-Falle“ bei der betreffenden Plattform setzen. Bei der nächsten Anmeldung des verdächtigen Accounts werden die Verbindungsdaten (insbesondere die IP-Adresse) erfasst und an die Ermittlungsbehörden übergeben. Entscheidend ist: Die Identifizierung erfolgt nicht präventiv und flächendeckend, sondern ausschließlich anlassbezogen, gerichtlich angeordnet und auf den konkreten Einzelfall beschränkt. Die Login-Falle setzt auf bestehende Rechtsgrundlagen und verlangt weder eine Vorratsdatenspeicherung noch eine allgemeine Klarnamenpflicht. [25 D64 Login-Falle; 26 D64 Klarnamenpflicht]

Die Formel lautet: So viel Strafverfolgung wie nötig, so wenig Vorabkontrolle wie möglich.

Zur Einordnung: VPN-Nutzung und Grenzen der Login-Falle

Ein naheliegender Einwand lautet: Wenn Täter ein VPN (Virtual Private Network — eine Software, die die eigene IP-Adresse verschleiert) nutzen, läuft die Login-Falle ins Leere. Dieser Einwand ist technisch berechtigt, aber politisch nicht stichhaltig:

VPNs schützen unbescholtene Bürger vor pauschaler staatlicher Überwachung — das ist ein Grundrechtsgewinn, kein Problem.

Für schwerste Straftaten stehen den Ermittlungsbehörden jenseits der einfachen Login-Falle weitreichende nachrichtendienstliche und forensische Mittel zur Verfügung (Telekommunikationsüberwachung, internationale Rechtshilfe, verdeckte Ermittlungen).

Die meisten Alltagsdelikte im Netz (Beleidigung, Bedrohung, Volksverhetzung) werden nicht von technisch versierten Tätern mit VPN begangen, sondern unter regulären Bedingungen — hier greift die Login-Falle wirksam.

Entscheidend: Klarnamenpflicht und Altersverifikation lösen das VPN-Problem ebenfalls nicht. Wer ein VPN nutzt, um seine Identität zu verschleiern, umgeht auch jede Ausweiskontrolle — das belegen die französischen (+1.000 % VPN bei Proton) und britischen (+1.400 % bei Proton, +1.000 % bei NordVPN) Erfahrungen. Der Einwand gegen die Login-Falle trifft damit gleichermaßen auf die Alternativvorschläge der CDU und SPD zu — mit dem Unterschied, dass deren Modelle zusätzlich die Grundrechte aller Bürger einschränken. [42 Proton VPN; 43 Top10VPN; 66 UK Ofcom/VPN 2025]

Kernaussage
Das freiheitliche Gegenargument: Ein freiheitlicher Rechtsstaat akzeptiert bewusst gewisse technische Ermittlungshürden, um nicht 84 Millionen Bürger unter ständigen Generalverdacht zu stellen. Keine Gesellschaft erreicht absolute Strafverfolgungsquoten — auch nicht im analogen Raum. Der Versuch, jede Ermittlungslücke durch präventive Massenüberwachung zu schließen, zerstört die Freiheit, die er vorgibt zu schützen.
Kernaussage
Verfassungsrechtliche Klarstellung: Vollständige Strafverfolgung ist kein legitimes Verfassungsziel. Das Fernmeldegeheimnis (Art. 10 GG) und die informationelle Selbstbestimmung setzen der staatlichen Überwachung bewusst Grenzen — auch gegenüber VPN-Nutzern. Die Login-Falle ist ein verfassungskonformes Instrument, das den strafrechtlich relevanten Bereich abdeckt. Sie erhebt nicht den Anspruch, jede technisch mögliche Ermittlungslücke zu schließen — ebenso wenig wie die Strafprozessordnung im analogen Raum die lückenlose Aufklärung jeder Straftat garantiert. Das ist kein Mangel, sondern ein Grundprinzip des freiheitlichen Rechtsstaats. [62 BVerfG Art. 10 GG]

Exkurs: Chatkontrolle und das Fernmeldegeheimnis

Im europäischen Kontext droht mit der sogenannten Chatkontrolle eine weitere Dimension der Überidentifizierung: Die EU-CSAM-Verordnung (Verordnung zur Bekämpfung des sexuellen Kindesmissbrauchs) soll regeln, wie Plattformen Missbrauchsmaterial erkennen und melden. Der ursprüngliche Kommissionsvorschlag sah vor, dass Plattformen private Nachrichten automatisiert scannen — auch in verschlüsselten Diensten wie Signal, WhatsApp oder Threema. Sowohl das EU-Parlament als auch der Rat haben die verpflichtende Chatkontrolle inzwischen abgelehnt; die Ratsposition vom November 2025 sieht Scanning nur noch als freiwillige Maßnahme vor und stellt klar, dass Verschlüsselung nicht geschwächt werden darf. Der Trilog läuft seit Dezember 2025; die dritte politische Verhandlungsrunde ist für Mai 2026 angesetzt. Parallel ist am 3. April 2026 die bisherige Ausnahmeregelung für die freiwillige Chatkontrolle 1.0 ausgelaufen, nachdem sich Rat und Parlament nicht auf eine Verlängerung einigen konnten — der Rat bestand auf anlasslosem Scannen, das Parlament wollte nur zielgerichtetes Scannen bei konkretem Verdacht zulassen. Deutschland hat über die Datenschutzkonferenz gefordert, „vollständig und endgültig“ auf eine Chatkontrolle zu verzichten. [61 EU-CSAM/Chatkontrolle]

Das BSW lehnt diesen Ansatz entschieden ab: Verpflichtendes Client-Side-Scanning — also die automatische Analyse privater Nachrichten direkt auf dem Gerät des Nutzers — höhlt das Fernmeldegeheimnis (Art. 10 GG) aus, untergräbt Ende-zu-Ende-Verschlüsselung und schafft eine Massenüberwachungsinfrastruktur, die missbraucht werden kann. Wie bei der Altersverifikation gilt: Kinderschutz ist ein hochrangiges Ziel, das rechtsstaatliche Instrumente erfordert — nicht pauschale Überwachung aller Bürger. [61 EU-CSAM/Chatkontrolle; 62 BVerfG Art. 10 GG]

Die Chatkontrolle-Debatte verstärkt die BSW-Kernbotschaft: Wer unter dem Vorwand des Kinderschutzes immer umfassendere Kontrollinfrastrukturen fordert — Klarnamenpflicht, Altersverifikation, Nachrichtenscanning —, bewegt sich auf einem Pfad, an dessen Ende das offene, freie Internet nicht mehr existiert.

4.4 Jugendschutz auf Geräteebene

Schulen sind Schutz- und Erfahrungsräume. Regeln zur Smartphone-Nutzung können pädagogisch sinnvoll sein, dürfen aber nicht an die Stelle einer Netzpolitik treten, die Plattformen in die Pflicht nimmt. UNESCO berichtet, dass bis Ende 2024 weltweit 79 Bildungssysteme Smartphone-Beschränkungen eingeführt hatten. Für das BSW gehört beides zusammen: klare Schutzräume in Schulen und frühe Medienkompetenz zu Suchtdesign, Algorithmen, Desinformation und Datenschutz. Das Kernproblem manipulativer Plattformökonomien darf nicht auf individuelle Disziplin verschoben werden. [27 UNESCO Smartphones; 28 UK Lords Library]

Eltern und Erziehungsberechtigte spielen eine zentrale Rolle bei der Begleitung der digitalen Mediennutzung. Die Idee, Plattformen zu verpflichten, Eltern verständliche Kontrollwerkzeuge bereitzustellen — Nutzungszeit-Dashboards, Kontaktbeschränkungen, Inhaltsfilter — ist politisch attraktiv und entspricht dem berechtigten Bedürfnis vieler Familien. Ansätze wie Apple Screen Time oder Google Family Link zeigen, dass solche Werkzeuge technisch möglich sind.

Jugendschutz auf Geräteebene: Status quo, gesetzlicher Anspruch und Implementierungslücke

Seit dem 1. Dezember 2025 ist der 6. Medienänderungsstaatsvertrag (6. MÄStV) geltendes deutsches Recht. Er etabliert einen regulatorischen Paradigmenwechsel: den Betriebssystemansatz. Nicht mehr die einzelne App (Instagram, TikTok, Snapchat) wird primär in die Pflicht genommen, sondern die Anbieter von Betriebssystemen (Apple iOS, Google Android) und Benutzeroberflächen (Smart-TVs, Spielkonsolen). Diese werden gesetzlich verpflichtet, Jugendschutzvorrichtungen direkt auf Systemebene bereitzustellen. Um die Tragweite dieses Ansatzes zu verstehen, ist eine ehrliche Bestandsaufnahme des Status quo erforderlich. [105 6. MÄStV/KJM; 106 Media Perspektiven]

Was Apple und Google heute anbieten: Freiwillige Eltern-Tools

Kernaussage
Apple (iOS/iPadOS): Apple bietet über die Familienfreigabe und die Funktion „Bildschirmzeit“ ein umfangreiches Werkzeugpaket für Eltern. Eltern erstellen ein Kinder-Apple-ID-Konto und können dann Bildschirmzeitlimits setzen, einzelne Apps sperren, Webseiten filtern, Schlafenszeiten definieren und Inhalte nach Altersfreigabe beschränken. Seit September 2025 können Eltern die Altersspanne ihres Kindes anonym mit Apps teilen, sodass diese altersgerechte Inhalte liefern – ohne dabei Name, Geburtsdatum oder Identität preiszugeben. Mit iOS 26 (Juni 2025) kamen neue Altersfreigaben im App Store (13+, 16+, 18+), automatisch aktivierte Schutzfunktionen bei Gerätenutzung und erweiterte Kommunikationslimits. Apple setzt dabei konsequent auf On-Device-Verarbeitung: Das Alterssignal verlässt das Gerät nicht.
Kernaussage
Google (Android): Google bietet mit Family Link eine separate Eltern-App, die seit Jahren die Verwaltung von Kinder-Google-Konten, App-Genehmigungen, Bildschirmzeitlimits und Inhaltsfilter (USK/FSK-Einstufungen) ermöglicht. Mit Android 16 QPR2 (Dezember 2025) hat Google zusätzlich einen systemintegrierten „Jugendschutzeinstellungen“-Hub direkt auf dem Kindergerät eingeführt: PIN-geschützt, mit Tages- und App-Limits, Ruhezeiten, Webfiltern und einem Schulmodus. Diese Funktion ergänzt Family Link und ist einfacher erreichbar – etwa für Babysitter oder Verwandte, die auf das Kind aufpassen.

Was der 6. MÄStV verlangt: Gesetzliche Pflicht statt freiwilliger Werkzeuge

Der 6. MÄStV geht über den Status quo hinaus, indem er die Betriebssystemanbieter gesetzlich in die Pflicht nimmt. Er schreibt drei zentrale Mechanismen vor:

One-Button-Solution bei Ersteinrichtung: Bei der Ersteinrichtung eines Geräts muss das Betriebssystem eine gesetzlich vorgeschriebene Abfrage präsentieren, ob ein Kinderprofil eingerichtet werden soll. Eltern aktivieren ein vorkonfiguriertes Altersprofil (z. B. „Unter 13“) und sichern es mit einem PIN. Der entscheidende Unterschied zum Status quo: Die Abfrage ist gesetzlich verpflichtend, nicht versteckt in Untermenüs. Jeder Elternteil wird beim ersten Einschalten des Geräts aktiv darauf hingewiesen.

Standardisierte lokale API: Das Betriebssystem übermittelt der App über eine standardisierte Schnittstelle ein verschlüsseltes Signal über das Altersprofil – kein Geburtsdatum, keinen Namen, keine Identität. Die App muss darauf reagieren: Deaktivierung manipulativer Endlos-Feeds, stringentere Content-Moderation, Abschaltung von Direktnachrichten durch Fremde. Dieses Signal ist das fehlende Bindeglied zwischen der Geräteebene und der App-Ebene, das heute noch nicht existiert.

Erweiterte Durchsetzungsinstrumente: Follow-the-Money-Ansätze (Unterbindung von Zahlungsströmen an illegale Anbieter), erleichterte Sperrung von Mirror-Pages und die Ermächtigung der KJM (Kommission für Jugendmedienschutz), die rechtliche Konformität der Betriebssystemvorkehrungen zu überprüfen und die Anbieter zu zertifizieren.

Die Implementierungslücke: Geltendes Recht ohne technische Infrastruktur

Internationale Warnung: Kalifornien als Präzedenzfall. Kalifornien und Colorado haben 2026 Gesetze erlassen, die Betriebssystemanbieter verpflichten, bei jeder Account-Erstellung eine Altersverifikation mit Abgleich öffentlicher Datenbanken durchzuführen (Inkrafttreten Januar 2027). Die Open-Source-Community (Debian, Linux Mint) steht vor einem unlösbaren Dilemma: Eine Umsetzung würde in der EU gegen die DSGVO verstoßen. Freie Software gilt in den USA als Free Speech – Jugendschutzfunktionen können jederzeit durch Codeänderungen entfernt werden. Der Fall zeigt: Altersverifikation auf Betriebssystemebene ist international nicht konsistent umsetzbar und birgt erhebliches Mission-Creep-Risiko – was als Jugendschutz beginnt, wird zum Instrument flächendeckender Inhaltskontrolle. [111]

Stand April 2026 klafft eine erhebliche Lücke zwischen dem gesetzlichen Anspruch und der technischen Realität:

Die KJM hat noch keine Zertifizierungen durchgeführt. Es ist unklar, welche konkreten technischen Anforderungen an die Betriebssystemvorkehrungen gestellt werden.

Weder Apple noch Google haben eine standardisierte API implementiert, die das Alterssignal vom Betriebssystem an Drittanbieter-Apps weitergibt. Apples Funktion zur anonymen Weitergabe der Altersspanne (seit September 2025) kommt dem Konzept am nächsten, ist aber freiwillig für App-Entwickler und nicht an die Anforderungen des 6. MÄStV angepasst.

Googles neuer Jugendschutz-Hub in Android 16 QPR2 integriert Elternkontrollen erstmals direkt ins Betriebssystem. Aber auch hier fehlt die standardisierte Schnittstelle zu Drittanbieter-Apps: TikTok oder Instagram erfahren über diese Funktion nicht, ob ein Kinderprofil aktiv ist.

Die bestehenden Systeme (Apple Bildschirmzeit, Google Family Link) sind Vorläufer, aber sie erfüllen den gesetzlichen Anspruch des 6. MÄStV nicht, weil sie kein gesetzlich vorgeschriebenes Opt-in bei der Ersteinrichtung erzwingen und keine standardisierte API für die App-Ebene bereitstellen.

In der Praxis bedeutet das: Das Gesetz existiert seit Dezember 2025, aber die technische Infrastruktur fehlt. Weder die Bundesregierung noch die Landesmedienanstalten üben öffentlich erkennbaren Druck auf Apple und Google aus, die gesetzlichen Anforderungen tatsächlich umzusetzen. Stattdessen debattiert die politische Öffentlichkeit über neue Verbote – während das bereits beschlossene, grundrechtsschonendere Instrument brachliegt.

CDU, SPD und Grüne überbieten sich mit Verbotsforderungen – aber die Experten, die sich täglich mit Kindern befassen, widersprechen. Das BSW hört auf die Fachleute, nicht auf den Zeitgeist.

Nationale Verbote scheitern am EU-Recht. Der echte Hebel liegt im Plattformdesign – und genau dort setzt die EU mit dem Digital Fairness Act an. Das BSW unterstützt diesen Weg.

Die EU-Kommission hat gerade festgestellt, dass TikToks Design süchtig macht und gegen EU-Recht verstößt. Genau das sagen wir seit Monaten: Nicht der Ausweis schützt Kinder, sondern das Ende des Suchtdesigns.

Der Grundgedanke – Jugendschutz auf Geräteebene statt App-seitige Massenidentifizierung – ist richtig. Aber das Gesetz muss nachgebessert werden: transparente Filterkriterien, unabhängige Aufsicht, keine Zensur durch die Hintertür. Das BSW hat in Brandenburg dagegen gestimmt, weil genau diese Garantien fehlen.

Das Verifikationsdilemma: Ehrliche Bestandsaufnahme

Das BSW benennt offen, was in der netzpolitischen Debatte häufig verschwiegen wird: Alle Modelle, die auf plattformseitiger Erkennung des Alters oder der Eltern-Kind-Beziehung beruhen, stoßen auf grundlegende, bislang ungelöste Probleme:

Problem 1: Woher weiß die Plattform, wer unter 16 ist?

Selbstauskunft (Self-Declaration): Die Plattform fragt das Alter ab. Datenschutzfreundlich, aber faktisch wirkungslos — kinderleicht umgehbar.

Altersableitung (Age Inference): Algorithmen analysieren Verhaltensmuster, Kontakte und Interaktionen, um Minderjährige zu identifizieren. Das erfordert permanentes, tiefgreifendes Tracking und Profiling — und widerspricht diametral den Forderungen nach Datensparsamkeit und Pseudonymität.

Ausweisbasierte Verifikation: Wirksam, aber genau die allgemeine Identifizierungsinfrastruktur, die das BSW ablehnt.

Problem 2: Wie wird die Eltern-Kind-Beziehung verifiziert?

Selbst die irische Datenschutzkommission räumt ein, dass es derzeit kaum genaue und verhältnismäßige Methoden gibt, um elterliche Zustimmung rechtssicher zu überprüfen. In der Praxis müssen Eltern in den USA (COPPA-Gesetz) ihre Identität per Kreditkarte, Ausweisupload oder Videoanruf nachweisen — das schließt einkommensschwache Familien aus und sammelt hochsensible Daten an zentraler Stelle.

Bestehende Branchenlösungen zeigen, dass gerätebasierte Familienkonten technisch möglich sind: Apples Familienfreigabe und Google Family Link ermöglichen Eltern bereits heute, Nutzungszeiten, App-Zugriffe und Inhaltsfilter zentral zu steuern — ohne dass die Plattform selbst die Eltern-Kind-Beziehung verifizieren muss. Diese Modelle verlagern die Kontrollhoheit auf das Betriebssystem statt auf den Plattformbetreiber. Das BSW kann hier ansetzen: Plattformen sollten verpflichtet werden, standardisierte Schnittstellen für solche gerätebasierten Elternkontrollen bereitzustellen, anstatt eigene, datenintensive Verifikationsmechanismen aufzubauen. Die Frage „Wer ist Elternteil?“ wird dadurch nicht endgültig gelöst, aber pragmatisch entschärft: Wer das Gerät eines Kindes physisch einrichtet und ein Familienkonto verwaltet, übt de facto elterliche Kontrolle aus — ein in der analogen Welt seit jeher akzeptiertes Prinzip.

Problem 3: Die EUDI-Wallet-Ironie

Die einzige derzeit absehbare technische Lösung, die eine elterliche Vertretungsvollmacht schnell, digital und rechtssicher nachweisen könnte, ist die EUDI-Wallet — deren Spezifikationen bereits vorsehen, die rechtliche Vertretungsvollmacht als digitales Attribut in die Brieftasche der Eltern zu integrieren. Das BSW steht hier vor einer strukturellen Spannung: Die konsequente Durchsetzung harter Einwilligungspflichten würde perspektivisch genau jene Wallet-Infrastruktur erfordern, die an anderer Stelle dieses Papiers als drohender „Online-Passierschein“ kritisiert wird.

Internationale Denkansätze: PP Tunas (Indonesien)

Indonesiens PP-Tunas-Verordnung (Government Regulation 17/2025) verlangt, dass Plattformen bei Kindern unter 17 Jahren die elterliche Einwilligung innerhalb von 24 Stunden einholen. Das Modell ist als Denkansatz beachtenswert, weil es elterliche Verantwortung zum Regulierungsprinzip erhebt und Plattformen in eine risikobasierte Klassifizierung zwingt. Allerdings zeigen sich auch hier dieselben ungelösten Probleme: [51 Indonesien PP Tunas]

Alterserkennung: Die Plattform muss zunächst wissen, dass ein Nutzer unter 17 ist — was wiederum eine Altersverifikation voraussetzt.

Elterneigenschaft: Selbst wenn das Alter bekannt ist, muss die Plattform verifizieren, dass die einwilligende Person tatsächlich ein Erziehungsberechtigter ist — nicht ein älteres Geschwisterteil, ein Freund oder der Jugendliche selbst mit einem Zweitaccount.

Fehlende Lösung: Das Gesetz wälzt diese Fragen auf die Technologiekonzerne ab. Es gibt bisher keine skalierbare, datenschutzfreundliche Lösung für die manipulationssichere Identifikation von Elterneigenschaft und Kindesalter.

4.5 Jährlicher Datentransparenzbericht: Bringpflicht statt Holrecht

Punkt 11 der 11-Punkte-Linie fordert: Plattformen mit mehr als 10 Millionen Nutzern werden verpflichtet, jedem Nutzer einmal jährlich einen verständlichen, maschinenlesbaren Transparenzbericht über alle gespeicherten Daten, Profilkategorien und Datenweitergaben als Download bereitzustellen. Das bestehende Holrecht (Art. 15 DSGVO) wird zur aktiven Bringpflicht. Falsche Angaben werden mit umsatzbezogenen Bußgeldern sanktioniert.

B.5 EUDI-Wallet: Chancen, Risiken, Mission Creep

Die EUDI-Wallet ist unionsrechtlich vorgeschrieben und wird bis Ende 2026 in allen EU-Staaten verfügbar sein. Das BSW bewertet sie differenziert: Als Verwaltungswerkzeug kann sie sinnvoll sein. Als Instrument zur allgemeinen Altersverifikation im Internet lehnt das BSW sie ab. Dieses Kapitel begründet die rote Linie.

5.1 Chancen und Risiken

Die EUDI-Wallet ist unionsrechtlich bis Ende 2026 bereitzustellen; Deutschland baut Infrastruktur, Testumgebungen und ein nationales Ökosystem auf. Die Wallet kann Vorteile haben — etwa bei digitalen Nachweisen, amtlichen Dokumenten und grenzüberschreitenden Diensten. Die politische Aufgabe ist nicht, das EU-Mandat zu blockieren, sondern seine nationale Umsetzung so auszugestalten, dass ein nützliches Identitätswerkzeug nicht schrittweise zum allgemeinen Zugangsschlüssel umfunktioniert wird. [6 BMDS EUDI-Wallet; 19 EDPS Wallet 2025; 20 EU EUDI Impl.; 36 EU-VO 2024/1183; 37 EU-DfÜVO 2025]

Fünf strukturelle Risiken:

Transaktions-Tracking bei ungeeigneter Kryptografie und Architektur: Verknüpfbarkeit über Dienste hinweg.

Faktischer Nutzungszwang trotz formeller Freiwilligkeit: Wenn Plattformen die Wallet als Standard verlangen.

Macht- und Sicherheitsrisiken bei Konzentration auf wenige Wallet-Anbieter und Vertrauensdienste.

Mission Creep: Was mit Verwaltungszugängen beginnt, kann auf soziale Medien, Zahlungsdienste und private Vertragsbeziehungen ausgedehnt werden.

Fehlende demokratische Kontrollierbarkeit ohne offenen Quellcode, unabhängige Sicherheitsprüfung und klare Trennung zwischen Aussteller, Wallet und Prüfstellen.

[19 EDPS Wallet 2025; 21 ETSI BBS+; 36 EU-VO 2024/1183]

BSW-Anforderungen an die EUDI-Wallet:

Kein Einsatz für Altersverifikation, Zugangskontrollen oder allgemeine Plattformnutzung, solange Unlinkability (siehe Erläuterung unten) nicht nachgewiesen ist.

Echte Freiwilligkeit ohne mittelbaren Nutzungszwang.

Strikte gesetzliche Zweckbindung und Verbot einer Kopplung zwischen staatlicher Identität und Plattformzugängen.

Selektive Offenlegung nur der jeweils erforderlichen Attribute.

Volle Unterstützung unlinkabler kryptografischer Verfahren einschließlich BBS+-basierter Nachweise.

Offene Spezifikationen, überprüfbarer Quellcode und unabhängige Audits.

Dezentrale und interoperable Architektur ohne zentrale Bewegungsprofile.

Klare Offline- und Alternativzugänge für staatliche Leistungen.

Gesetzliche Schranke gegen Überidentifizierung durch Plattformen und private Dienste.

Wirksame gesetzliche Sperre gegen Funktionsausweitung.

Zero-Knowledge-Proofs: Möglichkeiten und Grenzen

In der netzpolitischen Debatte werden Zero-Knowledge-Proofs (ZKP) häufig als technische Wunderlösung für das Spannungsfeld zwischen Altersverifikation und Datenschutz präsentiert — etwa von der Linken in ihren Wahlprüfsteinen. Eine differenzierte Einordnung ist daher wichtig: [33 Linke EUDI]

Was Zero-Knowledge-Proofs leisten können:

Eigenschaft ohne Identität beweisen: Ein Nutzer kann nachweisen, dass er über 18 ist, ohne seinen Namen, sein Geburtsdatum oder andere Merkmale preiszugeben. Die Prüfstelle erfährt nur: „ja, über 18“ — sonst nichts.

Unverknüpfbarkeit (Unlinkability): Richtig implementiert (z. B. mit BBS+-Signaturen) können verschiedene Nachweise desselben Nutzers nicht miteinander in Verbindung gebracht werden. Es entsteht kein Bewegungsprofil.

Was Zero-Knowledge-Proofs nicht lösen:

Das Eingangsproblem: Irgendjemand muss den Nachweis initial ausstellen — also die Identität einmal geprüft haben (z. B. über Personalausweis oder Melderegister). ZKP verschiebt das Identifizierungsproblem auf den Zeitpunkt der Ausstellung, es löst es nicht.

Die Eltern-Kind-Verifikation: Auch mit ZKP muss die Elterneigenschaft erst einmal festgestellt und digital attestiert werden. Wie oben dargelegt (Abschnitt 4.7), gibt es dafür keine datenschutzfreundliche Lösung.

Die Weitergabe: Ein Kind, das sich den ZKP-Nachweis eines älteren Geschwisterteils „leiht“, wird nicht erkannt. ZKP prüft Kryptografie, nicht physische Identität.

Die Infrastrukturfrage: Flächendeckende ZKP-Nachweise setzen genau jene digitale Identitätsinfrastruktur (EUDI-Wallet) voraus, die das BSW nur unter strikten Bedingungen akzeptiert.

Kernaussage
BSW-Einordnung: Zero-Knowledge-Proofs sind die beste verfügbare Technologie für datenschutzfreundliche Nachweise und eine notwendige Bedingung für jede akzeptable Wallet-Architektur. Sie sind aber kein Allheilmittel: Sie lösen das Wie der Nachweisführung, nicht das Ob der Identifizierung. Das BSW fordert ZKP als technischen Mindeststandard, warnt aber davor, die Technologie als Lösung für Probleme zu präsentieren, die sie strukturell nicht lösen kann.
Kernaussage
Zur Spannung zwischen EUDI-Skepsis und ZKP-Befürwortung: Diese Spannung ist dem BSW bewusst und gewollt. ZKP sind notwendige Bedingung für eine grundrechtskonforme Wallet, aber nicht hinreichende Bedingung für deren Akzeptabilität. Selbst mit perfekter Kryptografie bleiben die Risiken des faktischen Nutzungszwangs, der schleichenden Funktionsausweitung und der Machtkonzentration bestehen. Die BSW-Position lautet daher: ZKP als Minimum, nicht als Freibrief. Wer die Wallet einführen will, muss zuerst die kryptografischen Grundrechtsgarantien nachweisen — und danach die strukturellen Schutzmaßnahmen gegen Missbrauch. [19 EDPS Wallet 2025; 21 ETSI BBS+; 33 Linke EUDI]

5.2 Privatwirtschaftliche Identitätsdienste: Discord als Warnung

Der Fall Discord verdeutlicht die Risiken ausgelagerter Identitäts- und Altersprüfungen. Discord nutzte für seine Altersverifikation den Dienstleister Persona, ein Identitätsverifikationsunternehmen, das unter anderem von Peter Thiels Founders Fund finanziert wird. Thiel ist zugleich Mitgründer von Palantir — einem Unternehmen, das international für Massenüberwachungstechnologie bekannt ist. Die Verbindung zwischen Altersverifikationsinfrastruktur und Überwachungstechnologieunternehmen wirft grundsätzliche Fragen über Zweck und Architektur solcher Systeme auf. [17 Discord/Persona; 18 Ars Technica/Verge; 49 Fortune/Thiel; 50 AP Discord]

Innerhalb weniger Monate ereigneten sich zwei separate Sicherheitsvorfälle, die das strukturelle Problem illustrieren:

Oktober 2025 — 5CA-Datenpanne: Beim Drittanbieter 5CA, der den Kundensupport für Discord abwickelte, wurden rund 70.000 Ausweisbilder und persönliche Daten gestohlen. Nicht die Verifikationsplattform selbst, sondern ein nachgelagerter Dienstleister wurde zum Angriffsvektor — ein typisches Risiko komplexer Auslagerungsketten. [63 Discord/5CA-Panne 2025]

Februar 2026 — Persona Cloud-Leak: Bei Persona selbst wurden Frontend-Dateien auf einem öffentlich zugänglichen Google-Cloud-Server entdeckt. Dabei wurde enthüllt, dass Persona neben der Altersverifikation auch Gesichtserkennung einsetzt und Nutzer gegen 269 Watchlists (Terrorismus, Spionage, Sanktionen) screent — weit über den vereinbarten Verifikationszweck hinaus. [64 Persona Cloud-Leak 2026]

Discord trennte sich daraufhin von Persona (die Partnerschaft dauerte weniger als einen Monat) und verschob die globale Einführung seiner Altersverifikation auf die zweite Jahreshälfte 2026. Die freiheitliche Lehre ist klar: Wer sensible Nachweise an private KYC-Dienstleister (KYC steht für „Know Your Customer“ — Verfahren zur Identitätsprüfung, wie sie aus dem Bankenwesen bekannt sind) oder Biometrie-Anbieter auslagert, erzeugt neue Datenrisiken, Abhängigkeiten und Machtkonzentrationen — und hat keine Kontrolle darüber, welche Sekundärnutzung der Daten tatsächlich stattfindet. [17 Discord/Persona; 18 Ars Technica/Verge; 49 Fortune/Thiel; 50 AP Discord; 63 Discord/5CA-Panne 2025; 64 Persona Cloud-Leak 2026]

Entscheidend ist die strukturelle Lehre: Datenminimierung (so wenig Daten wie möglich erheben), echte Zweckbindung (erhobene Daten dürfen nur für den ursprünglich festgelegten Zweck genutzt werden), kurze Speicherfristen, Verbot der Sekundärnutzung und strikte unabhängige Aufsicht. [9 EFF 2025]

Aktualisierung April 2026: Discord hat angekündigt, ab April 2026 eine Altersverifikation per Gesichtsscan oder Ausweisdokument weltweit einzuführen – trotz der dokumentierten Datenpanne. Der Verifikationspartner bleibt Persona, das Unternehmen mit Verbindungen zu Peter Thiel und Palantir. Brasilien verschärft parallel ab April 2026 die Anforderungen an Altersverifikation auf Online-Plattformen. Beide Entwicklungen unterstreichen den globalen Trend zur privatwirtschaftlichen Identitätsinfrastruktur – genau das Modell, vor dem das BSW warnt. [115]

Ergänzung April 2026: Sicherheitsforscher dokumentierten, dass Persona weit über bloße Altersschätzung hinausging: 269 verschiedene Verifikationschecks, Abgleiche mit Regierungs-Watchlists, Speicherung biometrischer Scans, IP-Adressen und Gerätefingerabdrücke für bis zu drei Jahre. Die Community revoltierte mit massenhaften Nitro-Stornierungen und Account-Löschungen. Ergebnis: Discord hat Persona rausgeworfen und die globale Altersverifikation auf die zweite Jahreshälfte 2026 oder später verschoben. Der Fall belegt: Privatwirtschaftliche Altersverifikation erzeugt exakt die Überwachungsinfrastruktur, die sie zu vermeiden vorgibt. [121]

Meta-Lobbystrategie und Astroturfing: Die Debatte um Altersverifikation wird maßgeblich von Meta selbst gesteuert. 2025 investierte Meta über 26 Millionen Dollar in Lobbying allein auf US-Bundesebene – mehr als Lockheed Martin, Boeing, Apple und Microsoft zusammen. Meta pusht den „App Store Accountability Act“, der die Altersverifikation von den Plattformen auf die App Stores (Apple, Google) verlagert. Der strategische Hintergrund: Über die Safe-Harbor-Klausel entfiele Metas wissentliche Kenntnis über das Alter minderjähriger Nutzer – und damit das Haftungsrisiko von bis zu 50 Milliarden Dollar unter dem US-Kinderschutzgesetz COPPA. Meta finanziert zudem verdeckt die „Digital Childhood Alliance“ – eine Organisation, die wie eine besorgte Bürgerinitiative auftritt, aber ausschließlich Apple und Google attackiert, nie Meta selbst. 98 Tage nach der Domain-Registrierung wurde das erste Gesetz mit deren Talking Points unterzeichnet. BSW-Einordnung: Der Fall zeigt, dass die Verbotsdebatte nicht primär vom Kinderschutz getrieben wird, sondern von Konzernen, die ihre Haftung auf andere verlagern wollen. Das BSW lehnt dieses Modell ab: Nicht App Stores sollen zu Gatekeepern werden, sondern Plattformen müssen ihr Design ändern. [120]

5.3 Mission Creep: Die Infrastruktur-Falle

Mission-Creep-Warnung: Die EUDI-Wallet als Infrastrukturrisiko. Das BSW erkennt an, dass die EUDI-Wallet als technisches Werkzeug für eng definierte Anwendungsfälle (Verwaltungsdienste, Kontoeröffnung, Behördengänge) sinnvoll sein kann. Die entscheidende Frage ist jedoch nicht die Qualität der Kryptografie, sondern die Reichweite der Infrastruktur. Der Chaos Computer Club warnt: Eine zentrale Freigabeinstanz für Internetnutzung widerspricht der dezentralen Architektur des Netzes und ermöglicht im schlimmsten Fall staatliche Internet-Shutdowns. [126]

Die Infrastruktur-Falle: Zero-Knowledge-Proofs schützen vor der Plattform – die Plattform erfährt nur „über 18: ja/nein“, aber nicht den Namen. Sie schützen jedoch nicht vor dem Staat, der die Wallet ausstellt. Der Staat weiß, dass eine bestimmte Wallet zu einem bestimmten Zeitpunkt bei einem bestimmten Dienst verwendet wurde – auch wenn der Dienst die Identität nicht kennt. Bei flächendeckendem Einsatz entsteht ein Nutzungsprotokoll, das rückwirkend de-anonymisierbar ist.

Der Freiwilligkeits-Mythos: Die eIDAS-2.0-Verordnung schreibt vor, dass die Nutzung der EUDI-Wallet „freiwillig“ sein muss – niemand darf „in keiner Weise eingeschränkt oder benachteiligt werden“, der sie nicht nutzt. Wenn jedoch Social Media ohne Wallet gesperrt ist, ist diese Freiwilligkeit eine Fiktion. Das SPD-Impulspapier macht die Wallet de facto zur Pflicht für alle Erwachsenen, die soziale Medien nutzen wollen – ein klarer Verstoß gegen den Geist der eIDAS-Verordnung.

Das historische Muster – Mission Creep in drei Schritten: Schritt 1: Altersverifikation für Pornografie (Frankreich 2023, UK Online Safety Act). Schritt 2: Ausweitung auf Social Media für Kinder (Australien 2025, Deutschland 2026). Schritt 3: Altersverifikation für alle Internetdienste (Kalifornien AB 1043 auf Betriebssystemebene, EU Digital Fairness Act offen). Südkorea hat diesen Weg 2007–2012 mit einer Klarnamenpflicht durchlaufen: Hassrede ging nicht zurück, aber Identitätsdatenbanken wurden gehackt und Millionen realer Namen und Adressen lagen im Netz. Das Verfassungsgericht kippte das System. [127]

BSW-Position – Rote Linie: Die EUDI-Wallet darf niemals zur Voraussetzung für die Nutzung allgemeiner Internetdienste werden – nicht für Social Media, nicht für Nachrichtenportale, nicht für Foren. Ihr Einsatz zur Altersverifikation ist ausschließlich in den unter Punkt 4 definierten Hochrisikobereichen zulässig (Pornografie, Glücksspiel), dort nur mit Sunset-Klausel und Parlamentsvorbehalt. Deutschland muss bei der nationalen Umsetzung der eIDAS-2.0-Verordnung den maximal verfügbaren Datenschutzstandard wählen: vollständige Unlinkability (verschiedene Nutzungen dürfen nicht verknüpfbar sein), keine zentrale Nutzungsprotokollierung, und eine echte Analog-Garantie – für jeden Dienst, der Wallet-Identifizierung verlangt, muss ein barrierefreier analoger Zugang bestehen. Die Wallet ist ein Werkzeug des Bürgers – nicht ein Passierschein für das Internet.

B.6 DatenAufstand: Technisches Konzept

Das BSW belässt es nicht bei Forderungen. Parallel zur 11-Punkte-Linie entwickelt das BSW ein konkretes digitales Werkzeug: DatenAufstand (datenaufstand.de). Die App macht das bestehende DSGVO-Auskunftsrecht für jeden Bürger nutzbar – spezialisiert auf die großen Social-Media-Plattformen. Prototyp: [https://datenaufstand.netlify.app/](https://datenaufstand.netlify.app/)

Parallel zur 11-Punkte-Linie plant das BSW ein konkretes digitales Werkzeug nach dem Vorbild von grundrecht-kdv.de: Eine Web-App („DatenAufstand“, Arbeitstitel), mit der Bürger mit wenigen Klicks rechtskonforme DSGVO-Auskunftsanfragen nach Art. 15 an die großen Plattformen senden können.

Funktionsweise: Der Nutzer wählt Plattformen (TikTok, Instagram, YouTube, Facebook, X, Discord, Snapchat etc.), gibt Name und E-Mail-Adresse ein, und die App generiert für jede Plattform eine personalisierte, rechtskonforme Auskunftsanfrage – einschließlich aller relevanten Punkte: gespeicherte Daten, Profilkategorien, Datenweitergaben, Aufbewahrungsfristen, automatisierte Entscheidungen und Profiling. Die Anfrage kann direkt per E-Mail versendet oder als PDF heruntergeladen werden. Nach 30 Tagen (gesetzliche Antwortfrist) erinnert die App automatisch. Bleibt die Antwort aus, generiert sie eine Beschwerde an die zuständige Datenschutzaufsichtsbehörde.

Strategischer Zweck: Die App macht das bestehende Holrecht (Art. 15 DSGVO) für jeden Bürger nutzbar und demonstriert zugleich, warum eine Bringpflicht nötig ist: Wer die App nutzt, erlebt, wie aufwendig eine einzelne Auskunftsanfrage heute ist – und versteht sofort, warum Plattformen diesen Bericht künftig von sich aus liefern müssen. Politisch erzeugt die App Druck durch Masse: Wenn Tausende Anfragen gleichzeitig bei Meta, ByteDance und Alphabet eingehen, wird die Notwendigkeit einer gesetzlichen Bringpflicht offensichtlich. Technisch ist die App als datenschutzkonforme Progressive Web App (PWA) konzipiert – alle Daten bleiben lokal auf dem Gerät des Nutzers, Open Source, kein Backend erforderlich.

B.7 Positionierung: Parteienvergleich und Kommunikation

7.1 Parteienvergleich

Kernaussage
AfD: Der digitalpolitische Sprecher Ruben Rupp lehnte die SPD-Vorschläge als „aufgeblasenes Bürokratiemonster“ ab und setzt auf Elternverantwortung und Medienkompetenz. [76 AfD-Fraktion Feb 2026]
Kernaussage
FDP: Die Freien Demokraten lehnen pauschale Social-Media-Verbote und eine Klarnamenpflicht ab. Die Europa-Abgeordnete Svenja Hahn bewertet die Wirksamkeit von Altersverifikationen als „äußerst zweifelhaft“ und warnt vor einer „Spirale weiterer Verbote“, die das freie Internet gefährden könne. FDP-Vize Wolfgang Kubicki nennt Verbotsforderungen „reinen Populismus“, der „auf maximale Kontrolle aller Bürger hinauslaufen“ könne. Die FDP setzt stattdessen auf Medienkompetenz, digitale Bildung und differenzierte Regulierung. Hinweis: Die FDP ist seit der Bundestagswahl 2025 nicht mehr im Bundestag vertreten; ihre netzpolitischen Positionen bleiben als Referenzpunkt relevant. [108, 109]
Kernaussage
Die Linke: Die Linke-Fraktion hat am 18. März 2026 eine Kleine Anfrage (BT-Drs. 21/4788) eingereicht, die die Vorwegnahme der Kommissionsergebnisse durch Regierungsmitglieder scharf kritisiert. Die Anfrage benennt die Spannung zwischen Art. 28 Abs. 3 DSA (keine Pflicht zur Altersverifikation) und nationalen Verbotsplänen sowie die fehlende Beteiligung von Jugendverbänden und Kinder- und Jugendhilfe in der Expertenkommission. Die Linke teilt damit wesentliche Teile der BSW-Kritik an der Verbotspolitik, legt aber – wie die AfD und die FDP – kein eigenes konstruktives Gegenmodell vor. [110]

Die Tabelle bündelt die aktuell erkennbaren Linien. Wo keine belastbare Schwerpunktposition vorliegt, ist dies vermerkt. [1 CDU-Parteitag 2026; 2 SPD-Impulspapier 2026; 31 Grüne Netzpolitik; 32 Grüne BT-Fraktion; 33 Linke EUDI; 34 Linke Wahlprogramm; 35 AfD-Fraktion Feb 2026; 38 BT Sitzverteilung]

BSW-Alleinstellung gegenüber Grünen und Linken

Die Überschneidungen mit Grünen und Linken in der Grundrechtskritik sind real — die Unterschiede liegen im Konkreten:

Kernaussage
Gegenüber den Grünen: Die früheren Gemeinsamkeiten in der Grundrechtskritik sind weitgehend zerbrochen. Grünen-Vorsitzende Brantner hat sich im Februar 2026 hinter die **CDU-Altersgrenze von 14 Jahren gestellt und zuvor eine Altersgrenze von 16 Jahren befürwortet. Die Grünen stehen damit faktisch auf der Seite von CDU und SPD in der Verbotsdebatte. Zwar fordern sie parallel sucht- und manipulationsfreie Algorithmen – aber ohne den Widerspruch aufzulösen, dass pauschale Altersgrenzen genau die Massenidentifizierung erfordern, die Plattformregulierung überflüssig machen soll. Das BSW ist damit die einzige Partei im demokratischen Spektrum, die konsequent auf Plattformdesign statt Zugangskontrolle setzt. [31 Grüne Netzpolitik; 32 Grüne BT-Fraktion]
Kernaussage
Gegenüber der Linken: Die Linke formuliert die schärfste Grundrechtskritik aller Bundestagsparteien und fordert Zero-Knowledge-Proofs und Offline-Rechte. Aber: Die Linke bleibt bei konkreten Umsetzungsvorschlägen abstrakt — sie beantwortet nicht, wie ZKP ohne eine funktionierende Wallet-Infrastruktur praktisch eingesetzt werden sollen, und übergeht das Verifikationsdilemma bei elterlicher Kontrolle. Das BSW verbindet als einzige Partei konsequenten Grundrechtsschutz mit einem konstruktiven Gegenmodell: Safety by Default als primärer Hebel, BSI/SPRIND als institutionelle Verankerung, eine ehrliche Benennung der Grenzen jeder technischen Lösung — und die klare Prioritätenfolge: erst das Plattformdesign ändern, dann über Infrastruktur sprechen. [33 Linke EUDI; 34 Linke Wahlprogramm]

7.2 Breite zivilgesellschaftliche Unterstützung

Die politischen Vorstöße für Social-Media-Verbote und verpflichtende Altersverifikation stoßen auf breiten Widerstand — nicht nur aus Datenschutzkreisen, sondern gerade aus den Organisationen, die sich täglich für den Schutz von Kindern und Jugendlichen einsetzen. Das BSW steht mit seiner Kritik nicht allein, sondern in der Mitte eines fachübergreifenden Konsenses: [48 netzpolitik.org]

Ergänzung März/März 2026: netzpolitik.org hat im Kontext der Fernandes-Debatte sieben führende Expertinnen für digitale Gewalt befragt (bff Bundesverband, Frauenhauskoordinierung, Digitalexpertinnen). Der einhellige Befund: Strafrecht allein reicht nicht. Alle sieben warnen vor dem Ausbau digitaler Überwachung, lehnen eine Klarnamenpflicht ab und fordern stattdessen Safety by Design, Stärkung des Hilfesystems und Plattformregulierung. Cordelia Moore: „Scheinbar einfache Lösungen wie Social-Media-Verbote für Jugendliche verlagern nur das Problem. Stattdessen müssen Technologie-Konzerne in die Verantwortung genommen und politisch reguliert werden.“ Elizabeth Ávila González (bff): „Eine Abschaffung [der Anonymität] würde Betroffene aus digitalen Räumen verdrängen statt sie zu schützen.“ Das BSW steht damit nicht nur im Konsens mit Kinderschutz- und Datenschutzorganisationen, sondern auch mit dem Fachkonsens der Gewaltschutz-Expertinnen. [137]

Kernaussage
Deutsches Kinderhilfswerk (DKHW): Das DKHW warnt vor „parteipolitischen Schnellschüssen“ und betont, dass maßgeblich für politische Lösungsansätze eine ganzheitliche Berücksichtigung der Rechte von Kindern und Jugendlichen nach der UN-Kinderrechtskonvention bleiben muss. Reine Ausschlussstrategien führten dazu, dass Kinder Umgehungsstrategien entwickeln und dadurch schlechter geschützt seien als zuvor. Der bestehende Rechtsrahmen sei „bedingt trag- und ausbaufähig“ und müsse konsequenter angewendet werden. [53 DKHW 2026]
Kernaussage
Deutscher Kinderschutzbund: Präsidentin Sabine Andresen lehnt ein Social-Media-Verbot für unter 16-Jährige ab und fordert: „Es ist Zeit, bestehende Gesetze durchzusetzen, bevor man versucht, junge Menschen pauschal auszuschließen.“ Der Kinderschutzbund setzt auf Stärkung (Empowerment) statt Sperrung. [54 Kinderschutzbund 2026]
Kernaussage
Arbeiterwohlfahrt (AWO): Der AWO-Bundesverband bezweifelt die rechtliche und technische Durchsetzbarkeit eines Social-Media-Verbots. Bundesvorstandsmitglied Marvin Deversi: „Ein Verbot verschiebt die Verantwortung von Plattformbetreibern und Politik auf junge Menschen.“ Nötig seien verbindliche Regeln für Anbieter, wirksamer Jugend- und Datenschutz sowie eine Politik, die Prävention und Befähigung ernst nimmt. [55 AWO 2026]
Kernaussage
Chaos Computer Club (CCC): CCC-Sprecherin Elina Eickstädt warnt, dass ein Social-Media-Verbot eine „falsche Sicherheit“ erzeuge und die toxischen Geschäftsmodelle der großen Plattformen unberührt lasse. Besonders kritisiert der CCC die Zentralisierung durch Altersverifikationssysteme: Eine zentrale Stelle zur Verifizierung von Menschen widerspreche der dezentralen Idee des Internets und erleichtere autoritieren Regimen die Kontrolle. [56 CCC 2026]
Kernaussage
Bundesschülerkonferenz: Die Vertretung der Schülerinnen und Schüler lehnt pauschale Verbote ab und fordert stattdessen mehr Medienkompetenzförderung in Schulen sowie eine gezieltere Regulierung, die Jugendliche in die Entscheidungsfindung einbezieht. [57 Bundesschülerkonf. 2026]
Kernaussage
Stiftung Bildung: Die Stiftung positioniert sich klar gegen ein Verbot nach australischem Vorbild: Ein solches werde „den komplexen Realitäten digitalen Lebens nicht gerecht und schwächt die Rechte, Resilienz und das Vertrauen junger Menschen langfristig.“ [58 Stiftung Bildung 2026]
Kernaussage
UNICEF: UNICEF warnt, dass Verbote gegen die Lebensrealität von Kindern verstoßen, da soziale Medien für marginalisierte Kinder „Lebensadern“ darstellen. Pauschale Sperren könnten vulnerable Kinder isolieren oder in unregulierte, unsichere Räume drängen.

7.3 Kommunikationslinien

Konter auf „Verbotspartei“-Vorwurf

Der wahrscheinlichste Angriff: „Das BSW will Likes verbieten / Social Media kaputt machen / ist eine Verbotspartei.“ Der Konter muss sitzen:

„Drei Parteien wollen 84 Millionen Bürgern den Zugang zu Social Media nur noch mit Ausweis erlauben. Das BSW will, dass alle Bürger Social Media frei nutzen können – aber ohne dass sie dabei krank gemacht werden. Wer ist hier die Verbotspartei?“

„CDU und SPD verbieten den Zugang. Wir verbieten das Gift.“

„Wir verbieten nicht den Spielplatz. Wir verbieten die Nägel, die aus den Brettern ragen. Die anderen wollen den Spielplatz absperren und nur noch mit Ausweis reinlassen.“

„Niemand nennt die Lebensmittelaufsicht eine Verbotspartei, weil sie Gift in Lebensmitteln verbietet. Niemand nennt den TÜV eine Verbotspartei, weil er unsichere Autos von der Straße holt. Wir fordern für digitale Produkte das, was für jedes andere Produkt selbstverständlich ist: Es darf den Kunden nicht krank machen.“

In einem Satz für den Wahlkampf: „Freie Plattformen, sichere Produkte – ohne Ausweiskontrolle.“

Die folgenden Linien eignen sich für Präsidium, Pressearbeit, Interviews und Kurzstatements.

Wir schützen Kinder und Jugendliche, ohne die Freiheitsrechte aller Bürger preiszugeben.

Wer alle Menschen vor dem Sprechen identifizieren will, baut keine freie Demokratie, sondern digitale Vorabkontrolle.

Kinderschutz darf nicht zum Einfallstor für neue Massenidentifizierung werden.

Nicht der Ausweis der Nutzer, sondern das Design der Plattformen ist der zentrale Hebel für wirksamen Schutz.

Datensparsamkeit ist kein Hindernis des Jugendschutzes, sondern seine freiheitliche Voraussetzung.

Digitale Souveränität heißt: so viel Schutz wie nötig, so wenig Datenerhebung wie möglich.

Die EUDI-Wallet darf kein allgemeiner Online-Passierschein werden und nicht durch die Hintertür Nutzungszwang erzeugen.

Rechtsstaatliche Strafverfolgung im Einzelfall ist der freiheitliche Gegenentwurf zur pauschalen Identifizierung aller.

Mission Creep ist real. Was mit Pornografie beginnt, kann schnell auf allgemeine Kommunikationsräume und damit auf das offene Internet übergreifen.

Frankreich zeigt die Schwäche von Alterskontrollen: Trotz fortgeschrittener Verifikationsmodelle kam es zu massiver Umgehung per VPN und zugleich zu politischer Ausweitung auf soziale Netzwerke.

Kinderschutz und Datenschutz sind kein Gegensatz. Wer Kinder schützen will, muss Plattformen sicherer machen — nicht alle Nutzer identifizieren.

Medienkompetenz, pädagogische Schutzräume und klare Plattformpflichten gehören zusammen — Verbote und Massenidentifizierung lösen das Grundproblem nicht.

Drei Parteien wollen Verbote, die Kinder umgehen werden. Das BSW will Plattformen umbauen, die Kinder schützen werden.

Die Debatte wird von einer falschen Dichotomie beherrscht: Kinderschutz oder Privatsphäre. Das BSW beweist: Beides geht – durch kluges Plattformdesign statt Massenidentifizierung.

Safety by Default ist soziale Gerechtigkeit: Es schützt Kinder aus allen sozialen Schichten – unabhängig davon, wie intensiv Eltern die Mediennutzung kontrollieren können. Wer auf Verbote setzt, bevorzugt Familien mit den Ressourcen zur Umgehung.

Privacy by Design ist wirtschaftliche Vernunft: Datensicherheit und Datensparsamkeit sind die Voraussetzung für einen wettbewerbsfähigen Digitalstandort Deutschland. Wer Massenidentifizierung zum Standard macht, zerstört das Vertrauen, auf dem die digitale Wirtschaft aufbaut.

Bürgernahe Zuspitzungen für Öffentlichkeitsarbeit

Die folgenden Formulierungen übersetzen die fachlichen Positionen in allgemeinverständliche Sprache — geeignet für Flyer, Social Media und Wahlkampfkommunikation:

„Sucht-Stopp als Werkseinstellung“ — Plattformen müssen so eingestellt sein, dass sie nicht süchtig machen. Wer den Daten-Striptease will, muss sich aktiv dafür entscheiden.

„Die Salami-Taktik der Überwachung stoppen“ — Heute Pornoseiten, morgen soziale Netzwerke, übermorgen jede Webseite. Wir ziehen die rote Linie jetzt.

„Ein digitaler Ausweis, der dem Staat nicht verrät, auf welchen Websites Sie surfen“ — So muss die EUDI-Wallet funktionieren. Sonst gar nicht.

„Sichere Grundeinstellungen schützen alle — auch Ihre Kinder“ — Wenn Plattformen nicht mehr auf Sucht programmiert sind, profitieren Kinder und Erwachsene gleichermaßen. Ohne Registrierung, ohne Überwachung.

„84 Millionen unter Generalverdacht? Nicht mit uns.“ — Strafverfolgung im Einzelfall statt Massenregistrierung aller Bürger.

„Wer alle Menschen vor dem Sprechen identifizieren will, baut keine Demokratie — sondern ein digitales Meldeamt.“

7.4 Zeitfenster: Jetzt handeln

Herbst 2026: Expertenkommission berichtet bereits Mitte April 2026 (vorgezogen). Q4 2026: EU Digital Fairness Act. Ende 2026: EUDI-Wallet Bereitstellungspflicht. Landtagswahlen in MV (20.9.2026), Sachsen-Anhalt und Berlin. Wenn das BSW nicht jetzt positioniert ist, dominieren CDU und SPD die Debatte mit unwirksamen Verboten.

B.8 Erläuterungen zur 11-Punkte-Linie

Die vorangegangenen Kapitel haben gezeigt: Verbote scheitern, die Debatte wird von Konzerninteressen gesteuert, und die Alternative – Plattformdesign statt Zugangskontrolle – funktioniert nachweislich. Daraus leitet das BSW folgende 11-Punkte-Linie ab:

Das BSW-Präsidium beschließt, dem Parteivorstand folgende 11-Punkte-Linie zur Beschlussfassung vorzulegen:

Eine allgemeine gesetzliche Klarnamenpflicht für soziale Netzwerke wäre mit dem Grundsatz pseudonymer Nutzung (§ 19 TDDDG) und der Meinungsfreiheit nur schwer vereinbar. Das BSW bekräftigt das Recht auf anonyme oder pseudonyme Nutzung digitaler Dienste als unverzichtbaren Bestandteil von Meinungsfreiheit, informationeller Selbstbestimmung und demokratischer Teilhabe.

Eine allgemeine, anlasslose Altersverifikationspflicht für soziale Netzwerke, Kommunikationsdienste und alltägige Online-Teilhabe ist grundrechts- und verhältnismäßigkeitsrechtlich hochproblematisch: Sie führt zu Massenidentifizierung, wird technisch umgangen und schafft erhebliche Datenschutzrisiken. In gesetzlich altersbeschränkten Bereichen können datensparsame, verhältnismäßige Nachweise zulässig sein.

Das BSW fordert Safety by Default: Sichere Voreinstellungen für alle Nutzer müssen Standard werden — private Konten, nicht personalisierte Empfehlungen, begrenzte Kontaktmöglichkeiten durch Fremde, mehr Kontrolle über Empfehlungs- und Benachrichtigungssysteme und klare Schutzmechanismen gegen manipulative Designs.

Verbindliche Altersnachweise sind kein Regelinstrument. Für klar altersbeschränkte Hochrisikobereiche kommen sie nur in Betracht, wenn nachweislich datenschutzkonform, technisch sicher, verhältnismäßig, umgehungsresistent und rechtlich gegen Funktionsausweitung abgesichert. Als Hochrisikobereich gelten Bereiche, die drei kumulative Kriterien erfüllen: (a) gesetzlich altersbeschränkter Zugang, (b) erhebliches Sucht- oder Ausbeutungsrisiko und (c) hohe Wahrscheinlichkeit unmittelbarer Minderjährigengefährdung. Gegenwärtig erfüllen dies Pornografie (nach § 184 StGB) und Glücksspiel (nach GlüStV). Plattformkategorien wie soziale Netzwerke oder Kommunikationsdienste fallen nicht darunter. Eine Erweiterung dieser Definition darf nicht per Verordnung, sondern nur durch ein neues Gesetzgebungsverfahren erfolgen (Parlamentsvorbehalt). Solange kein den Anforderungen genügendes System existiert, gilt die klare Übergangsregel: Plattformpflichten verschärfen, Safety by Default durchsetzen, konsequent strafrechtlich verfolgen, gesetzliche Sperren gegen Mission Creep einbauen und jede Ausweitung über den ursprünglichen Anwendungsbereich hinaus unter ausdrücklichen Parlamentsvorbehalt stellen.

Privatwirtschaftliche Identitätsprüf-, Biometrie- und Altersprüfinfrastrukturen dürfen nicht zum Standard des digitalen Alltags werden. Strukturelle Datenrisiken wie die Discord-Persona-Panne 2025 zeigen die Grenzen privatwirtschaftlicher Altersprüfung.

Aktualisierung April 2026: Discord hat angekündigt, ab April 2026 eine Altersverifikation per Gesichtsscan oder Ausweisdokument weltweit einzuführen – trotz der dokumentierten Datenpanne. Der Verifikationspartner bleibt Persona, das Unternehmen mit Verbindungen zu Peter Thiel und Palantir. Brasilien verschärft parallel ab April 2026 die Anforderungen an Altersverifikation auf Online-Plattformen. Beide Entwicklungen unterstreichen den globalen Trend zur privatwirtschaftlichen Identitätsinfrastruktur – genau das Modell, vor dem das BSW warnt. [115]

Ergänzung April 2026: Sicherheitsforscher dokumentierten, dass Persona weit über bloße Altersschätzung hinausging: 269 verschiedene Verifikationschecks, Abgleiche mit Regierungs-Watchlists, Speicherung biometrischer Scans, IP-Adressen und Gerätefingerabdrücke für bis zu drei Jahre. Die Community revoltierte mit massenhaften Nitro-Stornierungen und Account-Löschungen. Ergebnis: Discord hat Persona rausgeworfen und die globale Altersverifikation auf die zweite Jahreshälfte 2026 oder später verschoben. Der Fall belegt: Privatwirtschaftliche Altersverifikation erzeugt exakt die Überwachungsinfrastruktur, die sie zu vermeiden vorgibt. [121]

Meta-Lobbystrategie und Astroturfing: Die Debatte um Altersverifikation wird maßgeblich von Meta selbst gesteuert. 2025 investierte Meta über 26 Millionen Dollar in Lobbying allein auf US-Bundesebene – mehr als Lockheed Martin, Boeing, Apple und Microsoft zusammen. Meta pusht den „App Store Accountability Act“, der die Altersverifikation von den Plattformen auf die App Stores (Apple, Google) verlagert. Der strategische Hintergrund: Über die Safe-Harbor-Klausel entfiele Metas wissentliche Kenntnis über das Alter minderjähriger Nutzer – und damit das Haftungsrisiko von bis zu 50 Milliarden Dollar unter dem US-Kinderschutzgesetz COPPA. Meta finanziert zudem verdeckt die „Digital Childhood Alliance“ – eine Organisation, die wie eine besorgte Bürgerinitiative auftritt, aber ausschließlich Apple und Google attackiert, nie Meta selbst. 98 Tage nach der Domain-Registrierung wurde das erste Gesetz mit deren Talking Points unterzeichnet. BSW-Einordnung: Der Fall zeigt, dass die Verbotsdebatte nicht primär vom Kinderschutz getrieben wird, sondern von Konzernen, die ihre Haftung auf andere verlagern wollen. Das BSW lehnt dieses Modell ab: Nicht App Stores sollen zu Gatekeepern werden, sondern Plattformen müssen ihr Design ändern. [120]

Die EUDI-Wallet ist unionsrechtlich vorgesehen und kann für klar definierte Verwaltungsdienste Vorteile bieten. Als allgemeiner „Online-Passierschein“, für flächendeckende Altersverifikation oder allgemeine Zugangskontrollen darf sie nicht eingesetzt werden. Für eng begrenzte, gesetzlich definierte Hochrisikobereiche kann sie eine datenschutzfreundliche Ergänzung sein – aber erst, wenn die Grundrechtsgarantien nachweislich implementiert sind. Das BSW fordert, dass die Bundesregierung über das BSI (Bundesamt für Sicherheit in der Informationstechnik) und SPRIND (Bundesagentur für Sprunginnovationen, operative Projektleitung der nationalen Wallet-Implementierung) Zero-Knowledge-Proofs als verbindlichen Open-Source-Standard in das deutsche Wallet-Ökosystem integriert. Das BSI definiert die kryptografischen Anforderungen; SPRIND setzt sie um. Unlinkability, echte Freiwilligkeit, unabhängige Prüfbarkeit, strikte Zweckbindung und ein Verbot als allgemeiner Zugangsschlüssel müssen gesetzlich verankert werden. Klarstellung: Das BSW lehnt nicht jede datensparsame Attributbestätigung ab – wohl aber jede verpflichtende oder verhaltensverfolgbare Wallet-Infrastruktur. Zulässig sind ausschließlich freiwillige, selektive, unlinkable Nachweise ohne zentrale Profilbildung. Für jeden digitalen Dienst, der eine staatliche Identifizierung verlangt, muss zwingend eine barrierefreie analoge Alternative bestehen (Analog-Garantie). Digitale Souveränität darf nicht an den Besitz eines modernen Endgeräts gebunden sein.

Plattformen müssen suchtfördernde und manipulative Designmechanismen für alle Nutzer standardmäßig begrenzen oder deaktivieren: algorithmische Feeds, Infinite Scroll, Autoplay, Streak-Mechaniken, Like-Zähler und nächtliche Push-Benachrichtigungen. Wer erweiterte Funktionen nutzen möchte, muss sich aktiv dafür entscheiden (Opt-in). Die Beweislast liegt bei der Plattform: Sie muss nachweisen, dass ihre Voreinstellungen nicht suchtfördernd sind — nicht der Nutzer muss sich vor dem Design schützen.

Rechtsstaatliche Strafverfolgung muss anlassbezogen, verhältnismäßig und grundrechtsschonend erfolgen. Die „Login-Falle“ – ein vom netzpolitischen Verein D64 vorgeschlagenes Verfahren, bei dem Verdächtige erst auf richterliche Anordnung im Einzelfall identifiziert werden – ist eine datenschutzfreundlichere Alternative zu pauschaler Vorabidentifizierung.

Medienkompetenz, digitale Schutzräume in Schulen, digitale Souveränität und eine gestärkte Rolle der Eltern gehören zusammen. Der Grundgedanke des Betriebssystemansatzes – Jugendschutz auf Geräteebene statt plattformseitige Massenidentifizierung – ist richtig. Die BSW-Fraktion hat im November 2025 im Brandenburger Landtag jedoch gegen den 6. Medienänderungsstaatsvertrag gestimmt, weil dessen Ausgestaltung mit unklaren Rechtsbegriffen und Regelungen, die über den Digital Services Act hinausgehen, eine „Zensur durch die Hintertür“ ermöglichen könnte. Das BSW fordert deshalb: Betriebssystemansatz ja, aber nur mit transparenten, eng definierten Filterkriterien, unabhängiger Aufsicht und offengelegten Algorithmen – damit OS-Level-Jugendschutz nicht zur Zensurinfrastruktur wird. Eltern brauchen verständliche Werkzeuge und verlässliche Voreinstellungen, die ihnen die Begleitung erleichtern. Das BSW setzt sich für standardisierte Familienkonten und plattformübergreifende Begleitfunktionen ein, benennt aber offen, dass die technische Verifikation der Eltern-Kind-Beziehung ein bislang ungelöstes Problem darstellt. Medienkompetenz und Elternbegleitung dürfen die Plattformregulierung nicht ersetzen.

Ironische Pointe: Eine Princeton-Studie (Gessler/Tucker) zeigt, dass Erwachsene über 65 Jahren fast siebenmal so viele Fake-News-Artikel teilen wie die jüngste Altersgruppe. Gleichzeitig glauben nur 20 Prozent der Über-60-Jährigen, jemals Fake News gelesen zu haben, während 55 Prozent der 18- bis 29-Jährigen angeben, bereits mit Desinformation konfrontiert gewesen zu sein. Die Jüngeren sind also deutlich problembewusster – und sollen trotzdem vom Netz ausgesperrt werden. [124]

Betroffene Gruppen jenseits der Debatte: Australische Behindertenverbände (Advocacy for Inclusion, CYDA) warnen, dass pauschale Verbote Jugendliche mit Einschränkungen isolieren. Für Menschen auf dem Autismusspektrum sind digitale Räume oft der einzige Ort, an dem soziale Interaktion funktioniert. Für LGBTQ+-Jugendliche in konservativen Umfeldern sind Online-Communities manchmal der einzige sichere Raum. Ein pauschales Verbot trifft die Verletzlichsten am härtesten. [125]

Überidentifizierung unter dem Vorwand des Jugendschutzes ist aktiv zurückzudrängen. Datenschutzaufsicht und Sanktionen müssen gestärkt werden.

Plattformen mit mehr als 10 Millionen Nutzern in der EU werden verpflichtet, jedem Nutzer einmal jährlich einen verständlichen, maschinenlesbaren Transparenzbericht über alle zu seiner Person gespeicherten Daten, Profilkategorien und Datenweitergaben als Download in der jeweiligen App bereitzustellen („Digitaler Datenkontoauszug“). Das bestehende DSGVO-Auskunftsrecht nach Art. 15 wird damit von einem Holrecht zu einer aktiven Bringpflicht. Falsche oder wesentlich unvollständige Angaben in diesem Bericht werden als eigenständiger Verstoß mit umsatzbezogenen Bußgeldern sanktioniert – analog zur Haftung für fehlerhafte Bilanzen im Finanzrecht. [107]

B.9 Quellen und Fundstellen

Die Nummern in eckigen Klammern im Text verweisen auf diese Liste. Verlinkte Quellen führen zum Originaldokument.

Quellenverzeichnis

  1. CDU Deutschlands, Parteitagsbeschlüsse (Feb. 2026). — Altersgrenze, Verifikation. – https://www.cdu.de/app/uploads/2026/02/2026_02_26_Angenommene-Sach_und-Initiativantraege.pdf
  2. SPD-Bundestagsfraktion, Impulspapier „Sichere Soziale Medien“ (Februar 2026). — SPD-Linie: unter 14 Verbot, Jugendversionen, EUDI-Verifikation. – https://www.spdfraktion.de/system/files/documents/impulspapier-sichere-soziale-medien.pdf
  3. Europäische Kommission, Leitlinien zum Schutz Minderjähriger nach Art. 28 DSA. — Safety by Default und Plattformpflichten auf EU-Ebene. – https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-protection-minors
  4. ICO, Age Appropriate Design Code / Children’s Code. — Referenzmodell für Designregulierung statt Identitätszwang. – https://ico.org.uk/for-organisations/uk-gdpr-guidance-and-resources/childrens-information/childrens-code-guidance-and-resources/age-appropriate-design-a-code-of-practice-for-online-services/
  5. Europäische Kommission, EU approach to age verification. — Regulatorisches Trilemma und europäischer Rahmen. – https://digital-strategy.ec.europa.eu/en/policies/eu-age-verification
  6. BMDS, EUDI-Wallet. — Funktion, Rollout, Ökosystem. – https://bmds.bund.de/themen/digitaler-staat/digitale-identitaeten/eudi-wallet
  7. § 19 Abs. 2 TDDDG. — Rechtsgrundlage für anonyme oder pseudonyme Nutzung. – https://www.gesetze-im-internet.de/ttdsg/__19.html
  8. BGH, Pressemitteilung Nr. 013/2022. — Rechtsprechung zur Grenze pauschaler Klarnamenregeln. – https://www.bundesgerichtshof.de/SharedDocs/Pressemitteilungen/DE/2022/2022013.html
  9. EFF, Altersverifikation 2025/2026. — Digital-Rights-Perspektive. – https://www.eff.org/deeplinks/2025/12/age-verification-coming-internet
  10. EDRi, Age verification gains traction. — Gegen Ausweitung. – https://edri.org/our-work/age-verification-gains-traction
  11. vzbv, Klarnamenpflicht Facebook. — Verbraucherrecht. – https://www.vzbv.de/urteile/zur-klarnamenpflicht-bei-facebook
  12. Columbia Global Freedom of Expression, Korean Internet Identity Verification System (Verfassungsgericht 2012). — Südkoreanisches Real-Name-Regime als Warnbeispiel.
  13. Jonathon W. Penney, Internet surveillance, regulation, and chilling effects online. — Abschreckungseffekte von Überwachung und Identifizierung. – https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2959611
  14. CNIL, Vérification de l’âge en ligne. — Double anonymat und Datenschutzmaßstab. – https://www.cnil.fr/fr/controle-de-lage-sur-les-sites-web-la-cnil-invite-developper-des-solutions-plus-efficaces-et
  15. CNIL, avis sur le référentiel de l’Arcom. — Französische Umsetzung und Rolle unabhängiger Dritter. – https://www.cnil.fr/fr/verification-de-lage-en-ligne-la-cnil-rend-son-avis-sur-le-referentiel-de-larcom
  16. Arcom. — Schrittweise Umsetzung der Alterskontrolle für Pornoseiten. – https://www.arcom.fr/se-documenter/espace-juridique/textes-juridiques/referentiel-technique-sur-la-verification-de-lage-pour-la-protection-des-mineurs-contre-la-pornographie-en-ligne
  17. Discord / Persona / Berichte zum Sicherheitsvorfall 2025/2026. — Risiken privatwirtschaftlicher Verifikationsdienste.
  18. Ars Technica / The Verge zur Datenpanne Discord. — ~70.000 betroffene Ausweisbilder.
  19. EDPS, TechDispatch #3/2025 – Digital Identity Wallets. — Privacy by Design, Privacy by Default und Wallet-Risiken. – https://www.edps.europa.eu/data-protection/our-work/publications/techdispatch/2025-12-15-techdispatch-32025-digital-identity-wallets_de
  20. Europäische Kommission, EUDI Wallet implementation. — EU-Quelle zu Architektur und Umsetzungsstand. – https://digital-strategy.ec.europa.eu/en/policies/eudi-wallet-implementation
  21. ETSI TR 119 476-1 zu SD-JWT und BBS+. — Selektive Offenlegung und Unlinkability. – https://www.etsi.org/deliver/etsi_tr/119400_119499/11947601/01.03.01_60/tr_11947601v010301p.pdf
  22. 5Rights Foundation / Digital Futures for Children Centre. — 128 dokumentierte Plattformänderungen nach britischem Children’s Code. – https://5rightsfoundation.com/in-action/impact-of-regulation-on-children-s-digital-lives.html
  23. DAK-Gesundheit / UKE, Ergebnisbericht problematische Mediennutzung 2025. — Deutsche Datengrundlage. – https://www.dak.de/dak/unternehmen/reporte-forschung/dak-studie-mediensucht-2024_91442
  24. DAK-Gesundheit, Mediensucht bei Kindern und Jugendlichen. — Kennzahlen für politische Kommunikation. – https://www.dak.de/dak/gesundheit/psychische-gesundheit/sucht/mediensucht-bei-jugendlichen_46682
  25. D64, Die Login-Falle. — Anlassbezogene Identifizierung statt Vorabkontrolle. – https://d-64.org/login-falle/
  26. D64, Login-Falle als Alternative zur Klarnamenpflicht. — Politische Anschlussfähigkeit. – https://d-64.org/d64-bgh-klarnamenpflicht/
  27. UNESCO, Smartphones in school. — Internationale Referenz zu Schulregeln. – https://www.unesco.org/en/articles/smartphones-school-only-when-they-clearly-support-learning
  28. UK House of Lords Library, Smartphones in schools. — Internationale Schulmodelle. – https://lordslibrary.parliament.uk/smartphones-in-schools-practice-policy-and-international-perspectives/
  29. Australian eSafety Commissioner, 4.7 million under-16 accounts. — Durchsetzungsbilanz Australien. – https://www.esafety.gov.au/newsroom/media-releases/platforms-restrict-access-to-47-million-under-16-accounts-across-australia
  30. Australische Regierung / PM, Mitteilung zu 4,7 Millionen Accounts. — Durchsetzung, nicht Wirksamkeit. – https://www.pm.gov.au/media/4-7-million-accounts-deactivated-removed-or-restricted
  31. Aktualisierung März 2026: Drei Monate nach Inkrafttreten nutzen weiterhin rund 20 Prozent der australischen Teenager TikTok und Snapchat aktiv (Reuters/Custodio). Am Tag des Inkrafttretens stieg die VPN-Installation bei Windscribe um 400 Prozent. Zwei 15-jährige Teenager klagen vor dem australischen High Court: Das pauschale Verbot verletze ihre verfassungsmäßig implizierte Freiheit der politischen Kommunikation. Die SPD reagierte mit dem Vorschlag, VPNs zu regulieren – eine Maßnahme, die bisher nur aus China, Russland und Nordkorea bekannt ist. Das Midnight-BSD-Projekt hat als Reaktion auf das kalifornische Gesetz seine Lizenz geändert, um kalifornische Nutzer von der Desktop-Nutzung auszuschließen. [122]
  32. Bündnis 90/Die Grünen, „Das Internet befreien!“ — Grüne Linie zu Plattformmacht und digitaler Freiheit.
  33. Grüne Bundestagsfraktion, Social-Media-Verbot in Australien. — Kritik an pauschalen Verboten. – https://www.gruene-bundestag.de/presse/pm-dezember-2025/social-media-verbot-in-australien
  34. Die Linke, Wahlprüfsteine zur EUDI-Wallet. — Anonyme Internetnutzung, Zero-Knowledge, Offline-Rechte.
  35. Die Linke, Bundestagswahlprogramm 2025. — Bürgerrechte, Datenschutz, Überwachungskritik. – https://www.die-linke.de/bundestagswahl-2025/kurzwahlprogramm/
  36. AfD, Antragsbuch Bundesparteitag Riesa (Dezember 2024). — Datenschutz, analoges Leben, DSA/NetzDG-Kritik.
  37. Verordnung (EU) 2024/1183 zur europäischen digitalen Identität. — Primärrechtlicher Rahmen für Wallet. – https://eur-lex.europa.eu/legal-content/de/TXT/?uri=CELEX:32024R1183
  38. Europäische Kommission, Durchführungsrechtsakte zur EUDI-Wallet 2025. — Technischer Umsetzungsstand. – https://digital-strategy.ec.europa.eu/en/policies/eudi-wallet-implementation
  39. Deutscher Bundestag, Sitzverteilung des 21. Bundestages. — Parteieneinordnung. – https://www.bundestag.de/parlament/plenum/sitzverteilung
  40. Assemblée nationale, Scrutin 5192. — Frankreich Unter-15-Social-Media-Verbot, 130 zu 21. – https://www.assemblee-nationale.fr/dyn/17/scrutins/5192
  41. Reuters, France’s lower house backs social media ban under 15. — Mission Creep dokumentiert.
  42. Reuters, Pornhub suspends France access. — Marktreaktion auf Altersnachweise.
  43. Proton VPN / Yahoo Tech, +1.000% Registrierungen aus Frankreich. — VPN-Umgehung.
  44. Top10VPN, VPN Demand Statistics, +334% Nachfrage. — Zusätzlicher Umgehungsnachweis. – https://www.top10vpn.com/research/vpn-demand-statistics/
  45. Biometric Update zu AgeGO. — Zusätzliche Datenerhebung bei Altersprüfung.
  46. Joint Statement on Age Assurance, 371+ Forscher. — Moratorium-Forderung.
  47. JAMA / PubMed zu suchtartiger Bildschirmnutzung. — 2-3x erhöhtes Suizidrisiko.
  48. WHO/HBSC 2024. — 11% problematische Social-Media-Nutzung bei Jugendlichen. – https://www.who.int/europe/news/item/25-09-2024-teens--screens-and-mental-health
  49. netzpolitik.org, Kritik am Social-Media-Verbot. — Breite Kritik aus Kinderschutz und Wissenschaft. – https://netzpolitik.org/2026/von-kinderhilfswerk-bis-lehrerverband-so-breit-ist-die-kritik-am-social-media-verbot/
  50. Fortune, Discord distances from Peter Thiel-backed Persona. — Discord-Persona-Thiel/Palantir-Verbindung.
  51. AP, Discord postpones age verification rollout. — Rollout-Stopp nach Sicherheitskritik.
  52. Indonesien, PP Tunas (Government Regulation No. 17/2025). — Altersgestuftes Zugangsmodell mit Elterneinwilligung und risikobasierter Plattformklassifizierung.
  53. Norbert Häring, „Der Bundesgerichtshof und das Grundgesetz zur Klarnamenpflicht“. — Analyse des BGH-Urteils von 2007: Anonyme Nutzung ist dem Internet immanent; eine Beschränkung der Meinungsfreiheit auf zuordenbare Äußerungen ist mit Art. 5 GG unvereinbar. – https://norberthaering.de/propaganda-zensur/klarnamenspflicht/
  54. Deutsches Kinderhilfswerk, Stellungnahme zu Social-Media-Verboten (Februar 2026). — Warnt vor kontraproduktiven Schnellschüssen; fordert Beachtung der UN-Kinderrechtskonvention. – https://www.dkhw.de/informieren/im-ueberblick/aktuelles/nachricht/social-media-verboten-risiken-ernst-nehmen-kinderrechte-achten/
  55. Deutscher Kinderschutzbund, Stellungnahme (Februar 2026). — Lehnt Social-Media-Verbot ab; fordert Durchsetzung bestehender Gesetze statt pauschaler Ausschlüsse.
  56. AWO Bundesverband, „Gegen ein Social-Media-Verbot bis 16 Jahre“ (Februar 2026). — Bezweifelt rechtliche und technische Durchsetzbarkeit; fordert Plattformregulierung statt Verbote. – https://awo.org/position/gegen-ein-social-media-verbot-bis-16-jahre-2/
  57. Chaos Computer Club, Stellungnahme zur Social-Media-Debatte (Februar 2026). — Warnt vor Zentralisierung durch Altersverifikation; Geschäftsmodelle der Plattformen sind das Problem.
  58. Bundesschülerkonferenz, Stellungnahme (Februar 2026). — Fordert Medienkompetenz statt Verbote; Jugendliche wollen gezieltere Regulierung.
  59. Stiftung Bildung, Stellungnahme (Februar 2026). — Social-Media-Verbot wird komplexen Realitäten digitalen Lebens nicht gerecht; schwächt Resilienz und Vertrauen junger Menschen. – https://www.stiftungbildung.org/kinderrechte-wahren-medienkompetenz-staerken-teilhabe-ermoeglichen/
  60. Arcom, Référentiel technique pour la vérification de l’âge (April 2025). — Doppelblind-Token-Verfahren mit unabhängigem Vertrauenspartner (tiers de confiance); operativ seit April 2025. – https://www.arcom.fr/se-documenter/espace-juridique/textes-juridiques/referentiel-technique-sur-la-verification-de-lage-pour-la-protection-des-mineurs-contre-la-pornographie-en-ligne
  61. Verordnung (EU) 2024/1689 über künstliche Intelligenz (AI Act, in Kraft seit Februar 2025). — Transparenzpflichten für algorithmische Empfehlungssysteme; Verbot manipulativer KI-Techniken. – https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=CELEX:32024R1689
  62. Europäische Kommission, Vorschlag zur Bekämpfung des sexuellen Kindesmissbrauchs (CSAM-Verordnung / „Chatkontrolle“). — Trilog seit Dezember 2025; verpflichtende Chatkontrolle von Parlament und Rat abgelehnt; freiwillige Chatkontrolle 1.0 am 3. April 2026 ausgelaufen. – https://www.patrick-breyer.de/en/posts/chat-control/
  63. Bundesverfassungsgericht, Rechtsprechung zu Art. 10 GG (Fernmeldegeheimnis) und informationeller Selbstbestimmung. — Enge Verhältnismäßigkeitsanforderungen an Eingriffe in digitale Kommunikationsfreiheit. – https://www.bundesverfassungsgericht.de/
  64. Discord / Bitdefender, Datenpanne beim Drittanbieter 5CA (Oktober 2025). — Rund 70.000 Ausweisbilder und persönliche Daten gestohlen; Discord-Support-Dienstleister als Angriffsvektor.
  65. Persona, Cloud-Storage-Vorfall (Februar 2026). — Öffentlich zugängliche Frontend-Dateien auf Google-Cloud-Server; Gesichtserkennung und Screening gegen 269 Watchlists enthüllt.
  66. Joint Statement of Security and Privacy Scientists and Researchers on Age Assurance, 2. April 2026 (371+ Unterzeichner aus 29 Ländern, darunter Turing-Preisträger Ronald Rivest und IACR-Präsident Bart Preneel). — Moratoriumsforderung gegen großflächige Age-Assurance-Systeme.
  67. UK Ofcom / Proton AG, VPN-Nutzung nach Inkrafttreten des Online Safety Act (2025). — VPN-Anmeldungen aus dem Vereinigten Königreich stiegen um +1.400 % (Proton) bzw. +1.000 % (NordVPN).
  68. TechPolicy.Press, Tracking efforts to restrict or ban teens from social media across the globe (2025/2026). — Übersicht: Australien, UK, Frankreich, Spanien, Dänemark, Portugal, Malaysia, Brasilien, 25 US-Bundesstaaten. – https://www.techpolicy.press/tracking-efforts-to-restrict-or-ban-teens-from-social-media-across-the-globe/
  69. EFF, Age Verification Threats Across the Globe: 2025 Review. — Dokumentation verfassungsrechtlicher Klagen, Umgehungseffekte und Privatsphärerisiken weltweit. – https://www.eff.org/deeplinks/2025/12/age-verification-threats-across-globe-2025-review
  70. NPR, „2 months in, how are Australia’s age restrictions for social media working?“, 6. Februar 2026. — 15-Jährige besteht Gesichtserkennung; 4,7-Mio.-Zahl nicht aufgeschlüsselt; Umgehung dokumentiert.
  71. Snap Inc. Newsroom, „Implementing Australia’s Social Media Minimum Age Law“. — Snapchat bietet ConnectID (Bank), Foto-ID (k-ID), Gesichtsaltersschätzung; Snap erhält nur ja/nein-Signal.
  72. dpa, Bundesjustizministerin Hubig fordert Regulierung für unter 14-Jährige (Februar 2026). – https://www.spiegel.de/politik/deutschland/social-media-verbot-fuer-kinder-stefanie-hubig-fordert-regulierung-a-xxxxxxxx.html
  73. dpa, Grüne stützen CDU bei Social-Media-Verbot für Kinder (23. Februar 2026). – Brantner: Mindestalter 14 „schon lange gefordert“.
  74. Stuttgarter Zeitung, Interview Franziska Brantner (September 2025). – Altersgrenze 16.
  75. Augsburger Allgemeine, CSU-Landesgruppenvorsitzender Alexander Hoffmann (Februar 2026). – Verbotsdebatte geht an der Wirklichkeit vorbei.
  76. AfD-Fraktion im Bundestag, Ruben Rupp zum Social-Media-Verbot (18. Februar 2026). – Gegen Verbot.
  77. Deutschlandfunk, Interview Familienministerin Karin Prien (Safer Internet Day, Februar 2026). – Verbote vorstellbar. – https://www.deutschlandfunk.de/safer-internet-day-2026-prien-interview-100.html
  78. Deutscher Bundestag, Petitionsausschuss (März 2026). – Staatssekretärin Wulf: dringender Handlungsbedarf; Kommission Herbst 2026.
  79. EU-Kommission, Vorläufige Feststellung: TikToks süchtig machendes Design verstößt gegen den DSA (6. Februar 2026).
  80. netzpolitik.org, EU-Kommission will TikTok-Nutzung begrenzen (6. Februar 2026). – https://netzpolitik.org/2026/eu-kommission-will-tiktok-nutzung-begrenzen/
  81. Europäisches Parlament, Legislative Train Schedule: Digital Fairness Act (Q4 2026). – https://www.europarl.europa.eu/legislative-train/
  82. netzpolitik.org, Digital Fairness Act: EU-Kommission erwägt Ausschalt-Knopf für süchtig machende Designs (13. März 2026). – https://netzpolitik.org/2026/digital-fairness-act-eu-kommission-erwaegt-ausschalt-knopf/
  83. vzbv, Positionspapier zum Digital Fairness Act (Oktober 2025). – https://www.vzbv.de/sites/default/files/2025-10/vzbv-positionspapier-digital-fairness-act.pdf
  84. Europäisches Parlament, Bericht über Online-Gefahren für Kinder (26. November 2025, 483:92 Stimmen). – Mindestalter 16. – https://www.europarl.europa.eu/doceo/document/TA-10-2025-0196_DE.html
  85. ad-hoc-news.de, EU verschärft Digital Services Act (April 2026). – Sondergremium für Kinderschutz im Internet.
  86. EU-Kommission, Age-Verification App / Guidelines Art. 28 DSA.
  87. ZDF heute, Social-Media-Verbot: Welche rechtlichen Hürden bestehen (Februar 2026). – DSA-Vollharmonisierung. – https://www.zdf.de/nachrichten/politik/social-media-verbot-kinder-rechtliche-huerden-100.html
  88. BfDI, Stellungnahme für den Thüringer Landtag (Dezember 2025). – Erhebliche Bedenken. – https://www.bfdi.bund.de/
  89. BAJ, Prävention schafft Schutz – pauschale Verbote nicht! (Januar 2026). – https://www.baj-online.de/
  90. LFK Baden-Württemberg, Social-Media-Verbot – Worum geht’s? (Februar 2026). – https://www.lfk.de/
  91. Leopoldina, Diskussionspapier Soziale Medien und die psychische Gesundheit von Kindern und Jugendlichen (August 2025). – https://www.leopoldina.org/publikationen/diskussionspapiere/
  92. Spiegel, Ramona Pop (vzbv) gegen Social-Media-Bann (Februar 2026). – https://www.spiegel.de/wirtschaft/ramona-pop-vzbv-gegen-social-media-bann-a-xxxxxxxx.html
  93. LG Berlin II, Urteil vom 23.12.2025 (Az. 15 O 271/23). – TikTok/Daten Minderjähriger.
  94. netzpolitik.org, 875 Eltern und Kinder befragt (15. Januar 2026). – https://netzpolitik.org/2026/875-eltern-und-kinder-befragt/
  95. correctiv.org, Was bringt ein Social-Media-Verbot? (18. Februar 2026). – https://correctiv.org/aktuelles/2026/02/18/was-bringt-ein-social-media-verbot/
  96. Jugendmedienschutz-Staatsvertrag (JMStV) der Länder. – Geschlossene Benutzergruppen. – https://www.die-medienanstalten.de/fileadmin/user_upload/Rechtsgrundlagen/Gesetze_Staatsvertraege/JMStV.pdf
  97. KJM, AVS-Raster zur Bewertung von Altersverifikationssystemen. – https://www.kjm-online.de/aufsicht/technischer-jugendmedienschutz/altersverifikationssysteme
  98. Yoti, Facial Age Estimation White Paper. – On-Device-Altersschätzung. – https://www.yoti.com/wp-content/uploads/Yoti-Age-Estimation-White-Paper-v.2.0.pdf
  99. KIT, Datenschutzkonforme Altersverifikation im Internet.
  100. FTC/NIST, Ablehnung biometrischer Altersschätzung für COPPA (2024). – https://www.ftc.gov/legal-library/browse/federal-register-notices/coppa-rule
  101. Wikipedia, Self-Sovereign Identity. – Dezentrale Identitätsarchitektur.
  102. EU Futurium, eIDAS Supported Self-Sovereign Identity (2019).
  103. Columbia University, Reputation Systems for Anonymous Networks.
  104. Stanford Law School, Zero-Knowledge Cryptography.
  105. KJM, 6. MÄndStV tritt in Kraft: Mehr Schutz, weniger Schlupflöcher (Dezember 2025). – Betriebssystemansatz. – https://www.kjm-online.de/service/pressemitteilungen/meldung/6-maendstv-tritt-in-kraft
  106. Media Perspektiven, Sechster Staatsvertrag zur Änderung medienrechtlicher Staatsverträge.
  107. Art. 15 DSGVO i. V. m. Erwägungsgründen 58–63. – Auskunftsrecht; bisherige Praxis als Holrecht; Reformdiskussion zur proaktiven Transparenzpflicht. – https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=CELEX:32016R0679
  108. FDP, „Medienkompetenz statt Bevormundung“ (Februar 2026). – Gegen pauschale Social-Media-Verbote und Klarnamenpflicht; für digitale Bildung und differenzierte Regulierung. – https://www.fdp.de/medienkompetenz-statt-bevormundung
  109. FDP, Wahlprüfstein Verband Sichere Digitale Identität (2025). – Gegen Klarnamenpflicht „durch die Hintertür“; EUDI-Wallet interoperabel, aber ohne Überwachungsfunktion.
  110. Die Linke, Kleine Anfrage „Mögliches Social-Media-Verbot für Kinder und Jugendliche und Arbeitsweise der Expertenkommission“ (BT-Drs. 21/4788, 18. März 2026). – 33 Fragen zur Delegitimierung der Expertenkommission, DSA-Kollision und fehlender Jugendbeteiligung. – https://dserver.bundestag.de/btd/21/047/2104788.pdf
  111. heise/iX, Linux soll Ausweise prüfen: Wie die Community sich dagegen wehrt (April 2026). – Kalifornien/Colorado OS-Altersverifikation; Debian-Dilemma; Open-Source vs. Jugendschutzpflicht. – https://www.heise.de/news/Linux-soll-Ausweise-pruefen-Wie-die-Community-sich-dagegen-wehrt-xxxxxxxx.html
  112. Nordkurier / wir-sind-mueritzer.de, Social-Media-Verbot entfacht heftigen Streit im Landtag MV (19.–21. März 2026). – CDU-Antrag, Landeskommission, Landeselternrat-Kritik.
  113. Nordkurier, Schwesig will Jugendlichen Social Media verbieten (19. März 2026). – 180-Grad-Schwenk unter Wahlkampfdruck; CDU-Antrag Nov. 2025 noch abgelehnt. – https://www.nordkurier.de/
  114. Landtag Sachsen-Anhalt, Aktuelle Debatte Social Media (3. April 2026). – Grüne: kindersichere Voreinstellungen, private Profile; Verweis auf DSA.
  115. Comicschau / Discord Newsroom, Discord-Altersverifizierung ab April 2026 (Januar 2026). – Gesichtsscan oder Ausweis über Persona; weltweiter Rollout.
  116. Verwaltungsgericht Berlin, Urteil vom 23. Februar 2026 (VG 32 K 20/23). – Medienanstalt muss bei Instagram-Jugendschutzverboten konkrete Beiträge bezeichnen.
  117. Tagesspiegel, Jugendschutz: Social-Media-Bremse für Kinder rückt näher (April 2026). – Bundespräsident Steinmeier für Verbot unter 14. – https://www.tagesspiegel.de/
  118. netzpolitik.org, Alterskontrollen und Social-Media-Verbot: Elternverbände sehen Daten von Kindern in Gefahr (20. März 2026). – Bundeselternrat: Pauschales Verbot ohne Unterstützung; Datenschutzbedenken bei biometrischen Kontrollen. – https://netzpolitik.org/2026/alterskontrollen-und-social-media-verbot-elternverbaende/
  119. netzpolitik.org, Social-Media-Verbot: Darauf müssen sich Eltern einstellen (20. Maerz 2026). – Fuenf Szenarien zu Gesichtsscan, Ausweisupload, Eltern-Freischaltung, Papierlose und Erwachsenen-Verifikation. – https://netzpolitik.org/2026/social-media-verbot-darauf-muessen-sich-eltern-einstellen/
  120. The Morpheus / OpenSecrets, Meta-Lobbying und Astroturfing (April 2026). – 26 Mio. $ Lobbying; Digital Childhood Alliance als Fake-Graswurzelbewegung; App Store Accountability Act. – https://www.opensecrets.org/federal-lobbying/clients/summary?id=D000033563
  121. The Morpheus / Sicherheitsforscher, Discord/Persona-Analyse (April 2026). – 269 Verifikationschecks, Watchlist-Abgleiche, 3 Jahre Datenspeicherung; Persona rausgeworfen. – https://www.youtube.com/@TheMorpheusVlogs
  122. Reuters / The Morpheus, Australien drei Monate nach dem Verbot (März 2026). – 20% Teenager weiterhin aktiv; VPN +400%; High-Court-Klage zweier 15-Jähriger. – https://www.reuters.com/
  123. netzpolitik.org, So schwach argumentiert die Familienministerin (März 2026). – Korrelation vs. Kausalität; Metastudien belegen keinen wissenschaftlichen Konsens. – https://netzpolitik.org/2026/so-schwach-argumentiert-die-familienministerin/
  124. Gessler/Tucker (Princeton), Who Does and Does Not Share Misinformation (2023). – Über-65-Jährige teilen 7x mehr Fake News als jüngste Altersgruppe. – https://doi.org/10.1126/sciadv.aau4586
  125. CYDA / Advocacy for Inclusion (Australien), Stellungnahmen zum Social-Media-Verbot (2025/2026). – Pauschale Verbote isolieren Jugendliche mit Behinderungen und LGBTQ+-Jugendliche. – https://www.cyda.org.au/
  126. Chaos Computer Club, Stellungnahme zur EUDI-Wallet und Altersverifikation (2025/2026). – Zentrale Freigabeinstanz widerspricht dezentraler Netzarchitektur; ermöglicht staatliche Internet-Shutdowns. – https://www.ccc.de/
  127. Südkoreanisches Verfassungsgericht, Urteil zur Klarnamenpflicht (2012). – Klarnamenpflicht 2007–2012: Hassrede nicht reduziert, Identitätsdatenbanken gehackt, System verfassungswidrig. – https://english.ccourt.go.kr/
  128. Geschworenengericht Los Angeles / ZDF / Euronews / dpa (25. März 2026). – Meta und YouTube zu 6 Mio. $ Schadensersatz verurteilt wegen fahrlässigem Produktdesign (Infinite Scroll, Autoplay). Musterprozess mit Signalwirkung für tausende weitere Klagen. Zuckerberg-Aussage hinterließ bei Jury „keinen guten Eindruck“. – https://www.zdfheute.de/wirtschaft/unternehmen/meta-instagram-youtube-urteil-usa-100.html
  129. Geschworenengericht New Mexico / dpa / Reuters (24. März 2026). – Meta zu 375 Mio. $ Strafe verurteilt wegen wissentlich mangelndem Kinderschutz und Verschleierung sexueller Ausbeutung. 40+ Generalstaatsanwälte klagen gegen Meta. – https://de.euronews.com/next/2026/03/26/us-geschworene-meta-und-youtube-schaden-mit-sucht-apps-jugendlichen-im-musterprozess
  130. EU-Kommission, förmliches DSA-Verfahren gegen Snapchat (März 2026) / Caschys Blog. – Prüfung wegen mangelndem Kinderschutz: Selbstauskunft beim Alter unzureichend, unsichere Standardeinstellungen, algorithmische Ausspielung von Drogen-/Alkohol-Inhalten an Minderjährige, versteckte Meldewege, Grooming-Risiken. – https://stadt-bremerhaven.de/eu-kommission-eroeffnet-verfahren-gegen-snapchat-wegen-maengeln-beim-kinderschutz/
  131. Corinna Baier, „Der Tabak-Moment des Tech-Imperators“, ZEIT/FOCUS (27. März 2026). – Hintergrundbericht zum LA-Urteil: Section-230-Durchbrechung, interne Meta-Dokumente („Spielautomaten“-Memo, Teenager-Bindungsstrategie 2018, 32 % Körperbild-Studie), Jonathan Haidt („neue Welt“), Kara Swisher („fahrlässig gefährlichster Mann der Technologie-Geschichte“), Tabak-Moment-Vergleich. – https://www.zeit.de/digital/2026-03/tabak-moment-tech-imperator
  132. dpa / Golem / Tagesspiegel (28. März 2026): Bundesinnenminister Dobrindt fordert KI-Kameras mit biometrischer Gesichtserkennung an Bahnhöfen. Koalitionsvertrag enthält Befugnis zur retrograden biometrischen Fernidentifizierung. Hessen als erstes Bundesland mit gesetzlicher Grundlage für KI-Polizeiarbeit (2025). – https://www.finanztreff.de/nachrichten/2026-03-28-dobrindt-spricht-sich-fuer-ki-kameras-an-bahnhoefen-aus-204927
  133. Table Today, Interview mit Bundesministerin Karin Prien (3. April 2026). – Verbot allein keine Lösung (nach australischen Erfahrungen); Expertenkommission Mitte April (vorgezogen); nur „Hinweise“ auf „Zusammenhänge“ (keine Kausalität); DSA-Durchsetzung „dauert Jahre“; Fall Fernandes: unscharfe Rechtsbegriffe bei digitaler Gewalt, Prien mahnt Unschuldsvermutung an. – https://table.media/podcast/table-today/
  134. Österreichische Bundesregierung / Bundeskanzleramt / ORF / Euronews / epicenter.works (27. März 2026). – Social-Media-Verbot unter 14; Gesetzentwurf bis Juni 2026; epicenter.works: Verstoß gegen EU-Recht, Plattformen in Irland können Gesetz ignorieren; UNICEF: Kinder werden abgeschnitten und in unsichere Räume gedrängt; FPÖ: Rammbock gegen Meinungsfreiheit; Grüne: fehlende Datenschutz-Details, Staat könnte Identitätsdaten sammeln. – https://www.bundeskanzleramt.gv.at/bundeskanzleramt/nachrichten-der-bundesregierung/2026/03/bundesregierung-setzt-mindestalter-fuer-social-media-fest.html
  135. Wissenschaftliche Dienste des Deutschen Bundestages, WD 7-004/26 (Februar 2026). – DSA hat Anwendungsvorrang. Nationale Verbote kollidieren mit EU-Harmonisierung. Mitgliedstaaten dürfen keine zusätzlichen nationalen Anforderungen erlassen. – https://cdn.netzpolitik.org/wp-upload/2026/04/WD7-004-26-Zur-Beschraenkung-und-zum-Verbot-von-Social-Media-Plattformen.pdf
  136. dpa / t-online / Handelsblatt (31. März 2026): Australien – eSafety-Behörde ermittelt gegen 5 Plattformen. 5 Mio. Accounts entfernt, aber Altersverifikation vielfach umgangen. „Inakzeptable Systeme“. Bis zu 49,5 Mio. AUD Strafe pro Verstoß. – https://www.t-online.de/nachrichten/panorama/gesellschaft/id_101193798/social-media-verbot-australien-ermittelt-gegen-plattformen.html
  137. netzpolitik.org, „Sieben Köpfe gegen digitale Gewalt“ (31. März 2026). – Alle sieben Expertinnen warnen vor Überwachungsausbau. Klarnamenpflicht abgelehnt. Safety by Design gefordert. Social-Media-Verbote „verlagern nur das Problem“. – https://netzpolitik.org/2026/strafrecht-allein-reicht-nicht-sieben-koepfe-gegen-digitale-gewalt/
  138. netzpolitik.org / EU-Kommission, Jugendschutz-Leitlinien nach DSA (Juli 2025). – Widerspruch: Alterskontrollen empfohlen, aber so viele Bedingungen, dass kaum ein System sie erfüllt. EDRi (20 NGOs): Dokumenten- und KI-basierte Kontrollen sollten nicht eingesetzt werden. – https://netzpolitik.org/2025/jugendschutz-leitlinien-eu-kommission-gibt-klares-jein-zu-alterskontrollen/
  139. Holger Bleich, „Suchtfalle: Warum die Handynutzung zum gesellschaftlichen Problem wird“, c’t Magazin / heise online (26. März 2026). – Macromedia/YouGov: 15 % aller Deutschen zeigen Suchtanzeichen, Gen Z 25 %, Millennials 26 %. DAK/UKE: 25 % der 10-17-Jährigen riskant, 4,7 % pathologisch. TikTok-Suchtskala 58/100. Digital Fairness Act (DFA) für Herbst 2026 angekündigt. vzbv + 86 Organisationen fordern Designverbote. Kausalität weiterhin offen. – https://www.heise.de/hintergrund/Suchtfalle-Warum-die-Handynutzung-zum-gesellschaftlichen-Problem-wird-11155641.html

Glossar

DSA (Digital Services Act)
EU-Verordnung über digitale Dienste. Regelt Pflichten von Online-Plattformen, einschließlich Transparenz, Jugendschutz und Risikobewertung. Bußgelder bis 6 % des weltweiten Jahresumsatzes.
EUDI-Wallet
European Digital Identity Wallet. Eine digitale Brieftasche für EU-Bürger, die Identitätsnachweise auf dem Smartphone ermöglicht (z. B. Altersnachweis, Führerschein). Basiert auf der eIDAS-2.0-Verordnung.
Zero-Knowledge-Proof (ZKP)
Kryptografisches Verfahren, bei dem eine Eigenschaft bewiesen wird (z. B. „über 18“), ohne die zugrunde liegenden Daten offenzulegen (z. B. Geburtsdatum, Name).
Safety by Default
Sichere Voreinstellungen als Standard. Plattformen müssen die schützendste Einstellung automatisch aktivieren – Nutzer können erweitern, müssen aber nicht aktiv werden, um geschützt zu sein.
Section 230
US-Gesetz, das Plattformbetreiber bisher von der Haftung für Nutzerinhalte freistellte. Im März 2026 erstmals durchbrochen – Haftung für Produktdesign statt Inhalte.
Mission Creep
Schleichende Ausweitung einer Maßnahme über ihren ursprünglichen Zweck hinaus. Beispiel: Alterskontrolle für Pornografie → Social Media → alle Internetdienste.
Dark Patterns
Manipulative Designtricks, die Nutzer zu unerwünschten Handlungen verleiten (z. B. versteckte Kündigungsbuttons, vorausgewählte Checkboxen, irreführende Farbgebung).
Infinite Scroll
Endloses Scrollen ohne natürlichen Haltepunkt. Neue Inhalte laden automatisch nach – ähnlich einem Spielautomaten, der nie aufhört.
Streak-Mechanik
Zähler für aufeinanderfolgende Tage der Interaktion (z. B. Snapchat-Streaks). Ein Abbruch „zerstört“ den aufgebauten Stand und erzeugt Druck, täglich aktiv zu bleiben.
FOMO-Push
Fear of Missing Out – Push-Benachrichtigungen, die suggerieren, etwas Wichtiges zu verpassen („Dein Freund hat gerade gepostet!“).
Login-Falle
Verfahren des Vereins D64: Verdächtige werden erst auf richterliche Anordnung im Einzelfall identifiziert – statt alle Nutzer präventiv zu erfassen.
COPPA
US-Kinderschutzgesetz (Children’s Online Privacy Protection Act). Regelt den Umgang mit Daten von Kindern unter 13. Meta drohen bis zu 50 Mrd. $ Haftung.
Unlinkability
Eigenschaft eines Systems, bei der verschiedene Nutzungen desselben Nachweises nicht miteinander verknüpft werden können – die Plattform erfährt nicht, wo der Nutzer sich sonst verifiziert hat.
Analog-Garantie
BSW-Forderung: Für jeden digitalen Dienst mit Wallet-Pflicht muss ein barrierefreier analoger Zugang bestehen. Schützt Rentner und Geringverdiener vor digitaler Ausgrenzung.
Astroturfing
Verdeckte Kampagne, die den Eindruck einer Graswurzelbewegung erweckt, aber von Konzernen finanziert wird. Beispiel: Metas „Digital Childhood Alliance“.
Für Presse & Talkshows

Häufige Fragen — und die BSW-Antworten

Vorbereitet für Interviews, Talkshows und Pressegespräche. Klick auf eine Frage.

Nein — im Gegenteil. Kindesmissbrauch findet nicht statt, weil Plattformen keine Ausweise kontrollieren. Er findet statt, weil Plattformen nicht ausreichend moderieren, Meldewege verstecken und Grooming-Muster nicht erkennen. Das BSW fordert rechtsstaatliche Strafverfolgung: Die Login-Falle identifiziert Verdächtige auf richterliche Anordnung — gezielt, verhältnismäßig, grundrechtskonform. Das ist wirksamer als 84 Millionen Ausweiskontrollen, bei denen jeder Täter mit VPN durchkommt. Übrigens: Die US-Gerichte haben Meta gerade nicht wegen fehlender Ausweiskontrollen verurteilt — sondern wegen des Produktdesigns, das Minderjährige gezielt in Suchtschleifen zieht.
Wir sind für den wirksamsten Schutz. Das DKHW, der Kinderschutzbund, die AWO, UNICEF, die Bundesschülerkonferenz und 371 Sicherheitsforscher aus 29 Ländern sagen dasselbe wie wir: Pauschale Verbote schützen Kinder nicht — sie isolieren sie, treiben sie in unkontrollierte Räume und überwachen alle Bürger. Das BSW will, dass Plattformen gar nicht erst süchtig machen dürfen. Das schützt alle Kinder — nicht nur die, deren Eltern sich einen VPN leisten können.
Australien beweist das Gegenteil. Ja, 5 Millionen Accounts wurden gesperrt. Trotzdem nutzen weiterhin 20 Prozent der australischen Teenager TikTok und Snapchat. Am Tag des Inkrafttretens stiegen VPN-Installationen um 400 Prozent. Zwei 15-Jährige klagen vor dem High Court. Die eSafety-Behörde ermittelt gegen fünf Plattformen, weil bei zwei Dritteln der Fälle nicht einmal nach dem Alter gefragt wurde. Das ist Durchsetzungstheater, kein Kinderschutz.
Südkorea hat das ausprobiert — und es für verfassungswidrig erklärt. Von 2007 bis 2012 galt dort eine Klarnamenpflicht. Ergebnis: Hassrede ging nur um 0,9 Prozent zurück. Dafür wurden die Identitätsdatenbanken gehackt — Millionen Bürger betroffen. Das Verfassungsgericht kippte das Gesetz. Das Recht auf Pseudonymität ist in Deutschland in § 19 TDDDG verankert, der BGH hat 2022 bestätigt: keine allgemeine Klarnamenpflicht. Und: Journalisten, Whistleblower, politisch Verfolgte, Gewaltopfer und queere Jugendliche brauchen anonyme Kommunikation. „Nichts zu verbergen" ist ein Privileg — kein Argument.
Noch nicht. 16 führende Kryptografen — darunter Turing-Preisträger und IACR-Präsidenten — haben nachgewiesen, dass die gewählten Credential-Formate keine echte Unlinkability bieten. Verschiedene Wallet-Nutzungen können miteinander verknüpft werden. Die bessere Technologie (BBS-Signaturen) ist verfügbar, aber nicht zugelassen. Das BSW unterstützt die Wallet als Werkzeug des Bürgers — aber sie darf nie Voraussetzung für Internetnutzung werden, und sie braucht zuerst die richtige Kryptografie.
Fragen Sie mal die Autoindustrie. Sicherheitsgurte, Airbags, ABS — alles Produktsicherheit. Hat das Innovation gebremst? Im Gegenteil. Wir verbieten nicht Social Media. Wir verbieten den Spielautomaten, der sich hinter dem Like-Button versteckt. Das ist kein Verbot, das ist Verbraucherschutz. Und es braucht keine einzige Ausweiskontrolle.
Alle anderen kontrollieren den Nutzer. Wir regulieren das Produkt. CDU und SPD wollen Ausweiskontrollen für 84 Millionen Bürger. Die Grünen sind umgekippt und schließen sich an. Die FDP sagt „Medienkompetenz" und lässt alles beim Alten. Die AfD hat kein Konzept. Nur das BSW hat ein konkretes Modell: den 3-Fragen-Test für Produktsicherheit, ein Suchtdesign-Verbot für alle, und die Login-Falle für gezielte Strafverfolgung. Keine Massenidentifizierung, kein Überwachungsstaat, maximaler Schutz.
Die Gerichte geben uns recht. Im März 2026 verurteilte ein Geschworenengericht in Los Angeles Meta und YouTube zu 6 Millionen Dollar Schadensersatz — wegen fahrlässigem Produktdesign. Nicht wegen fehlender Alterskontrollen, sondern weil Infinite Scroll und Autoplay Minderjährige süchtig machen. Section 230, der jahrzehntelange Haftungsschutz, wurde damit erstmals durchbrochen. Das ist der Tabak-Moment der Tech-Industrie — und exakt die Logik, die das BSW seit Monaten fordert.
v1.1 April 2026 FDP/Linke-Positionen, Punkt 11, US-Urteile, DFA-Abschnitt
Neu Punkt 11: Jährlicher Datentransparenzbericht (Bringpflicht statt Holrecht)
Neu FDP- und Linke-Positionen im Parteienvergleich (Quellen 107–109)
Neu US-Geschworenenurteile: Meta/YouTube 6 Mio. $, Meta 375 Mio. $ (Quellen 128–129)
Neu Digital Fairness Act: EU-Kommission plant Designverbot (Quellen 81–83)
Neu Australien 3-Monats-Update: 20% Teens weiterhin aktiv, VPN +400% (Quelle 122)
Neu Österreich beschließt Social-Media-Verbot unter 14 (Quelle 134)
Geändert Grüne: Positionswechsel dokumentiert (Brantner stützt Altersgrenze 14)
Geändert AfD: Explizite Position gegen Social-Media-Verbot ergänzt
Geändert 10-Punkte-Linie → 11-Punkte-Linie (durchgängig)
v1.0 März 2026 Erstfassung mit 10-Punkte-Linie, 106 Quellen