netzpolitik.org

netzpolitik.org Feed abonnieren netzpolitik.org
Aktualisiert: vor 49 Minuten 37 Sekunden

Neu-Abstimmung im EU-Parlament: Konservative scheitern mit Verfahrenstrick bei freiwilliger Chatkontrolle

26. März 2026 - 12:43

Die Konservativen wollten ein grundrechtsfreundliches Votum des EU-Parlaments mit einer Neu-Abstimmung aushebeln. Das hat nicht funktioniert. Die Folge des Manövers: Die Chatkontrolle 1.0 wird vorerst nicht verlängert und Anfang April auslaufen. Da ein solcher Vorgang sehr selten ist, bleiben viele Fragen offen.

Klare Ablehnung für den Vorschlag der EU-Kommission im EU-Parlament. – Alle Rechte vorbehalten EU-Parlament

Das EU-Parlament hat mit breiter Mehrheit eine Vorlage der EU-Kommission für die Verlängerung der freiwilligen Chatkontrolle abgelehnt. Die konservative EVP-Fraktion hatte in einem ungewöhnlichen parlamentarischen Verfahren eine erneute Abstimmung über das Thema erzwungen – und ist damit nun gescheitert.

Das ganze Verfahren war umstritten. Die Konservativen im Europa-Parlament hatten nach einem grundrechtsfreundlichen Abstimmungsergebnis eine neuerliche Abstimmung angesetzt und dabei die Regeln des Europaparlaments aufs Äußerste ausgereizt. Zuvor hatte das Parlament am 11. März eine Abkehr von der anlasslosen Massenüberwachung bei der Chatkontrolle 1.0 beschlossen und Maßnahmen nur noch auf Verdacht erlaubt. Daraufhin hatte der Rat der EU die Trilog-Verhandlungen zum Thema sehenden Augen scheitern lassen, wie eingestufte Protokolle, die netzpolitik.org veröffentlicht hat, belegen.

In der heutigen Abstimmung wurden die Änderungsanträge 29 (Ratsposition, eingereicht durch EVP), 34 (Beschränkung auf bekanntes Material) und 36 (Schutz von Ende-zu-Ende-Verschlüsselung) vom Parlament angenommen, der Vorschlag der EU-Kommission scheiterte jedoch deutlich.

Da eine erneute Abstimmung ein sehr seltenes Phänomen ist, ist nun unklar, ob es in dieser Sache zu erneuten Trilog-Verhandlungen zwischen Parlament, Rat und Kommission kommt. Sicher ist in jedem Fall, dass die erste Lesung damit abgeschlossen ist und die freiwillige Chatkontrolle 1.0 Anfang April ausläuft, weil sie ohne gesetzliche Grundlage nicht weitergeführt werden kann.

„Druck, Schmutz und Fake-Behauptungen“

Vor der Abstimmung hatte sich die verantwortliche sozialdemokratische Abgeordnete Birgit Sippel mit deutlichen Worten an das Parlament gewendet. Das Parlament habe vor zwei Wochen mit breiter Mehrheit eine Position abgestimmt, die Verantwortung für Kinder und Grundrechte gleichermaßen annehme.

Mit dieser Position sei das Parlament in die Trilog-Verhandlungen gegangen, wo der Rat sich einer Auseinandersetzung entzogen habe, ja „nicht am Verhandlungstisch angekommen“ sei. Sie kritisierte auch, wie im Vorfeld der Neu-Abstimmung Druck aufgebaut und mit Schmutz und Fake-Behauptungen“ geworfen worden sei.

Im Vorfeld der heutigen Abstimmung hatte sich sogar Bundeskanzler Merz im Bundestag für eine anlasslose Chatkontrolle stark gemacht, der EU-Justizkommissar mahnte in einem Schreiben an die EU-Abgeordneten, das Politico zuerst im Original veröffentlichte, für anlasslose Überwachung zu stimmen.

In einer Pressemitteilung kurz vor der Abstimmung hatte die EVP die Sozialdemokratische Fraktion aufgefordert, für ihren Vorschlag zu stimmen, weil sonst die EU angeblich ihre Fähigkeit zur wirksamen Bekämpfung von Kindesmissbrauch im Internet verlieren würde.

Grüne kritisieren Verfahrenstricks

Markéta Gregorová, die Schattenberichterstatterin der Fraktion der Grünen/EFA kommentierte in einer Pressemitteilung die Neu-Abstimmung kritisch, sie schade der Glaubwürdigkeit des Parlaments. „Die EVP nutzt Verfahrenstricks, um einen Standpunkt wieder aufzugreifen, auf den sich das Parlament bereits geeinigt hatte.“ Nachdem die Gespräche mit dem Rat gescheitert waren, hätte das Dossier von der Tagesordnung gestrichen werden müssen, so Gregorová weiter. Dieser Antrag war aber abgelehnt worden.

„Stattdessen haben die Konservativen es in seiner ursprünglichen Form wieder auf die Tagesordnung gesetzt, um die Änderungsanträge des Parlaments zu umgehen und die wahllose Massenüberwachung im Spiel zu halten.“ Gregorová sieht den Vorgang als „gefährliches Signal“, dass demokratische Entscheidungen rückgängig gemacht werden können, wenn Regierungen einfach lange genug warten.

Vorbote für die permanente Chatkontrolle?

Die Chatkontrolle 1.0 ist eine Übergangsregelung, die seit 2021 in Kraft ist und Anfang April ausläuft. Sie regelt, dass Plattformen und Internet-Anbieter auf freiwilliger Basis entgegen der EU-Privacy-Richtlinie Inhalte und Kommunikation nach Bildern von sogenanntem Kindesmissbrauch (CSAM) scannen dürfen.

Ungleich wichtiger ist die CSA-Verordnung, welche auch die verpflichtende Chatkontrolle 2.0 enthalten könnte, über die seit vier Jahren gestritten wird. Durch ein eingestuftes Ratsprotokoll vom 13. März, das wir im Volltext veröffentlicht haben, wurde deutlich, dass die EU-Mitgliedstaaten Kompromisse bei der temporären freiwilligen Chatkontrolle 1.0 offenbar als eine Art Vorentscheidung für die weitaus wichtigeren Verhandlungen zur CSA-Verordnung und damit für eine permanente Regelung (Chatkontrolle 2.0) sehen.

Knackpunkt bei der CSA-Verordnung ist die verpflichtende Chatkontrolle. Der EU-Kommission möchte, dass dabei auch verschlüsselte Kommunikationen durchleuchtet werden. Das Parlament hat dies bisher abgelehnt und Maßnahmen nur auf Verdacht gefordert. Auch im EU-Rat hat die anlasslose Chatkontrolle bislang keine qualifizierte Mehrheit gefunden. Die drei Institutionen sind derzeit im Trilog und verhandeln über die Verordnung.

Für die Chatkontrolle nach Wunsch der EU-Kommission wäre Technologie namens Client-Side-Scanning nötig, welche vor der Verschlüsselung Inhalte auf dem Handy oder Computer scannt. Wäre diese Technologie einmal eingeführt, ist verschlüsselte Kommunikation wertlos, weil die Inhalte schon vor dieser angeschaut werden könnten. Es wäre das Ende der privaten und vertraulichen Kommunikation. Wir haben zusammengestellt, warum dies für uns alle gefährlich ist.

„Gier nach anlassloser Massenüberwachung war zu groß“

Konstantin Macher vom Verein Digitale Gesellschaft kommentiert die Abstimmung gegenüber netzpolitik.org: „Rat und Konservative haben mit ihren politischen Tricksereien das Scheitern der Verhandlungen zu verantworten. Damit haben sie unabsichtlich die Chatkontrolle-Massenüberwachung beendet. Zielgerichtete Maßnahmen wären möglich gewesen – aber ihre Gier nach anlassloser Massenüberwachung war zu groß.“

Das Ergebnis sei „eine Klatsche“ für die Europäische Kommission. Diese habe die Abgeordneten von Anfang an nicht ernst genommen und ihre gesetzlichen Pflichten zur Evaluation der Ausnahmeregelung nicht erfüllt.

„Mitgliedstaaten zeigten keinerlei Flexibilität“

Die Konservativen (EVP) werfen in einer Pressemitteilung nun den Sozialdemokraten vor, sie seien schuld daran, dass Kinder nun ungeschützt seien. Die Sozialdemokratin Birgit Sippel hingegen schreibt in einer Pressemitteilung, dass die Verhandlungen zwischen den Institutionen zuletzt „aufgrund der mangelnden Flexibilität der Mitgliedstaaten“ gescheitert seien. Das Parlament lasse sich nicht vom Co-Gesetzgeber zum Ja-Sager degradieren. Die Konservativen seien in ihrer Rolle als fügiger Erfüllungsgehilfe des Rates gescheitert.

Für eine vertrauensvolle Zusammenarbeit seien Kompromisse nötig, so Sippel: „Wir waren dazu bereit, die Verhandler von Seiten der Mitgliedstaaten zeigten jedoch keinerlei Flexibilität. Sie sind es, die die Gespräche ohne Ergebnis beendet haben und nun in Kauf nehmen, dass die Interim-Verordnung nicht verlängert wird.“

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Flugreisen: Bundesregierung will Unternehmen Zugriff auf staatliche Biometrie-Daten geben

25. März 2026 - 16:42

Die Bundesregierung will im Namen des „Bürokratierückbau“ und für angeblich eine Minute weniger Wartezeit am Flughafen staatlich erhobene Biometrie-Daten an Fluglinien geben. Die sollen in Zukunft beim Check-In am Flughafen biometrisch kontrollieren dürfen.

Wenn es nach der Bundesregierung geht, sollen Airlines und Flughäfen in Zukunft Zugriff auf biometrische Daten des Passes haben. – Alle Rechte vorbehalten IMAGO / Eibner

Die Bundesregierung möchte in Zukunft erlauben, dass private Luftfahrtunternehmen sensible Pass- und Biometriedaten auslesen und verarbeiten können, um die Fluggastabfertigung am Flughafen digital abzuwickeln. Es wäre das erste Mal, dass solche auf den Ausweisdokumenten gespeicherten biometrische Daten an die Privatwirtschaft gegeben werden. Bislang ist die Verarbeitung der auf dem Chip gespeicherten und verpflichtend erhobenen Daten ausschließlich durch Polizeien sowie durch Pass-, Personalausweis- und Meldebehörden zulässig.

Die Pläne gehen aus einem Referentenentwurf des „Gesetzes zur Ermöglichung der digitalen Fluggastabfertigung“ (Synopse) hervor, welches das Verkehrsministerium am 24. Februar 2026 vorgelegt hat. Schon die Ampel-Regierung hatte ein solches Gesetz im Jahr 2024 geplant, aber dann nicht mehr umgesetzt.

Konkret geht es in dem Gesetz um das biometrische Foto, das auf dem Chip des Ausweisdokumentes gespeichert ist. Dieses soll den Fluglinien beispielsweise beim Einchecken zur Verfügung gestellt werden, damit diese die Fluggäste bei der Abfertigung biometrisch identifizieren können. Passagiere würden beim Check-In fotografiert, biometrisch erfasst und dann über den Pass oder Personalausweis von den Luftfahrtunternehmen identifiziert werden.

Tausch: Sensible Daten gegen eine Minute Zeitersparnis!

Die Bundesregierung verspricht sich davon laut der Gesetzesbegründung „Bürokratierückbau“ und konkret eine zeitliche Einsparung von einer Minute pro Gast beim Einchecken und will so das „Reiseerlebnis des Fluggastes“ verbessern. Nach den Rechnungen der Bundesregierung sollen so die Bürger:innen im Schnitt knapp acht Minuten Wartezeit im Jahr einsparen – sofern sich diese entscheiden, dafür sensible Daten zum Abgleich an Privatunternehmen zu geben. Laut dem Entwurf soll die Maßnahme am Flughafen bei der Einführung freiwillig sein.

Schon die Pläne der Ampel-Regierung zu einem solchen Gesetz hatten Protest hervorgerufen. Der damalige Bundesdatenschutzbeauftragte Ulrich Kelber kritisierte damals, die „zur Erfüllung rein hoheitlicher Aufgaben erhobenen Daten sollen damit für das Angebot optionaler Komfortleistungen nichtöffentlicher Stellen freigegeben werden“. Weiter führte Kelber in seiner Stellungnahme aus:

Dies würde zu einer grundlegenden Verschiebung des Nutzungsregimes der im Chip der amtlichen Ausweisdokumente gespeicherten Daten führen. Die Freigabe würde einen gänzlich neuen Verarbeitungszweck bereits für die Erhebung und Speicherung der Daten auf dem Chip für kommerzielle Zwecke begründen.

Kelber warnte damals auch vor einem Präzedenzfall, der Begehrlichkeiten bei anderen Privatunternehmen wecken könnte. Er nannte den Gesetzentwurf „höchst problematisch“.

Alles netzpolitisch Relevante Drei Mal pro Woche als Newsletter in deiner Inbox. Jetzt abonnieren Biometrie für Bequemlichkeitsanwendungen

Auch der Chaos Computer Club (CCC) stellte sich damals gegen die Pläne. CCC-Sprecher Matthias Marx kritisierte dazumal, dass die geplante Freigabe der biometrischen Daten absehbare Konsequenzen haben werde: „Wenn Flughafenbetreiber und Airlines diese sensiblen Daten für reine Bequemlichkeitsanwendungen nutzen dürfen, wird es schwierig sein, anderen Branchen den Zugang zu verweigern.“

Dies mindere den Schutz der hochsensiblen biometrischen Daten auf dramatische Weise. Marx weiter: „Es ist ein Hohn, dass die zwangsweise Erhebung und Speicherung der biometrischen Daten stets mit der Abwehr schwerer Verbrechen begründet wurde, und nun diese Gesichtsbilder plötzlich für den bloßen Convenience-Gebrauch von Airlines freigegeben werden sollen.“

Noch bis zum 10. April können zivilgesellschaftliche Organisationen Stellungnahmen zum Gesetz einreichen. Am 29. April soll das Gesetz im Kabinett behandelt werden.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Gesetz gegen digitale Gewalt: Diese Deepfakes sollen künftig strafbar sein

24. März 2026 - 17:16

Die Bundesregierung will Lücken bei der Strafbarkeit digitaler Gewalt schließen. Nach dem Aufschrei über den Fall der Schauspielerin Collien Fernandes soll das Kabinett schon diese Woche über einen Entwurf abstimmen. Wir veröffentlichen den strafrechtlichen Teil des Gesetzentwurfs.

Justizministerin Stefanie Hubig: Ihr Haus arbeitet schon länger an einem Gesetz gegen digitale Gewalt. – Alle Rechte vorbehalten Florian Gärtner / IMAGO

Ein Gesetz zum Schutz vor digitaler Gewalt hatte bereits vor fünf Jahren die Ampel-Regierung geplant; nun will Bundesjustizministerin Stefanie Hubig (SPD) als Teil der schwarz-roten Regierung einen Entwurf vorlegen. Er soll noch diese Woche innerhalb der Bundesregierung abgestimmt werden, sagte sie am Freitag in den Tagesthemen.

Ein Grund für das erhöhte Tempo dürfte der Fall der Schauspielerin Collien Fernandes sein, der nach einem Spiegel-Bericht viel öffentliche Aufmerksamkeit erregt hat.

Der Entwurf sieht Änderungen im Straf- und Zivilrecht vor. Ein Papier mit geplanten Vorschriften im Strafrecht kursiert bereits jetzt; wir veröffentlichen es im Volltext. Es geht darin um bildbasierte Gewalt und Deepfakes sowie um Fälle digitaler Überwachung und Tracking, beispielsweise durch Spyware. Die Übersicht.

Sexualisierte Deepfakes: Bereits Herstellung soll strafbar sein

Vor allem will das Justizministerium Schutzlücken für bildbasierte Gewalt schließen. Dabei geht es unter anderem um Deepfakes – ein Problem, das durch den Fall von Collien Fernandes gerade im Zentrum der öffentlichen Aufmerksamkeit steht; wenige Monate nach dem internationalen Skandal um nicht-einvernehmliche Deepfakes durch den Chatbot Grok.

Zu diesem Anlass soll der Paragraf 184k im Strafrecht umgestaltet werden, der bislang „Verletzungen des Intimbereichs durch Bildaufnahmen“ regelt.

Künftig soll es demnach strafbar sein, sexualisierte Bilder anderer ohne Einverständnis der Gezeigten herzustellen oder zu teilen – auch wenn sie mit einem Computerprogramm umgestaltet wurden, Stichwort: Deepfakes. Der Entwurf sieht dafür eine Freiheitsstrafe von bis zu zwei Jahren oder eine Geldstrafe vor. Konkret soll die neue Norm folgende Fälle umfassen:

  • Aufnahmen, die „eine sexuelle Handlung einer anderen Person“ abbilden.
  • Aufnahmen von Genitalien, der „weiblichen“ Brust und des Hinterns. Das gilt sowohl für unbekleidete Aufnahmen dieser Körperteile, als auch für bekleidete, sofern sie in „sexuell bestimmter Weise“ zu sehen sind.

Die geplante Norm sieht allerdings auch Ausnahmen vor, etwa für Kunst, Wissenschaft, Forschung, Lehre oder „Berichterstattung über Vorgänge des Zeitgeschehens“.

Entwurf geht über EU-Recht hinaus

Es sind nicht viele Zeilen Text, aber sie hätten breite Auswirkungen auf bildbasierte Gewalt und damit einhergehende Schutzlücken.

Mit Blick auf sexualisierte Deepfakes geht der Entwurf über EU-Vorgaben hinaus, die Deutschland bis Mitte 2027 ohnehin umsetzen muss. Die EU-Richtlinie zur Bekämpfung von Gewalt gegen Frauen und häuslicher Gewalt sieht Mindeststrafen für das Verbreiten von sexualisierten Deepfakes vor, und das auch nur, wenn ein schwerer Schaden für die betroffene Person vorliegt. Das Justizministerium plant hingegen eine Strafbarkeit bereits für das Herstellen. Damit würde es schon ausreichen, wenn jemand solche Aufnahmen generiert.

Der ehrverletzende Charakter und der Eingriff in die Persönlichkeitsrechte der betroffenen Person seien bei einem sexualisierten Deepfake schon mit der Herstellung gegeben, schreibt das Ministerium zur Begründung, „weil ihre persönlichen Merkmale in einem von ihr nicht mehr beeinflussbaren – zudem sexuellen bzw. intimen – Kontext verwendet werden.“ Die generierten Daten lägen zudem häufig bei einem Drittanbieter in der Cloud und könnten von dort an die Öffentlichkeit gelangen.

Sauna, Umkleide: Neue Norm gegen Voyeur-Aufnahmen

Die vom Justizministerium vorgeschlagene Norm würde noch weitere Lücken zu bildbasierter Gewalt schließen, auf die Fachleute bereits seit Jahren hinweisen, nämlich sogenannte Voyeur-Aufnahmen. So konnte es bislang zwar strafbar sein, Menschen heimlich nackt in einem „besonders geschützten Raum“ zu filmen – nicht aber in einer öffentlichen Sauna, einer Umkleide oder am Strand. Mit dem neuen Straftatbestand würde sich das ändern.

Eine weitere Lücke bestand, wenn jemand voyeuristische Aufnahmen von einem bekleideten Hintern oder der Brust machte. Unter Strafe steht derzeit bloß, anderen in den Ausschnitt oder unter den Rock zu filmen. Das gilt aber nur, wenn diese Zonen mit Kleidung vor Blicken geschützt sind und die Person an der Kleidung vorbei filmte oder fotografierte. Die Kölnerin Yanni Gentsch, der jemand beim Joggen auf den Hintern gefilmt hatte, hatte eine Petition dazu gestartet, nachdem sie ihren Fall nicht zur Anzeige bringen konnte.

„Künftig sollen generell Aufnahmen bekleideter intimer Körperteile dem strafrechtlichen Schutz unterfallen, sofern diese Körperteile unbefugt in sexuell bestimmter Weise abgebildet sind“, heißt es dazu nun in der Begründung zum Gesetzentwurf.

Zugleich sollen „Zufallsfotos“ nicht strafbar werden, führt das Ministerium weiter aus. Gemeint sind Fotos an öffentlich zugänglichen Orten, auf denen im Hintergrund versehentlich entsprechende Inhalte zu sehen sind. Das entscheidende Kriterium sei hier der Vorsatz.

Unter „Verletzung der Intimsphäre durch Bildaufnahmen“ versteht das Justizministerium auch die unbefugte Weitergabe von Aufnahmen, die ein Mensch zunächst einvernehmlich „erlangt“ hat. Gemeint sind Aufnahmen, die etwa während einer Beziehung durch Sexting entstanden sind, aber ohne Zustimmung der gezeigten Person kursieren – sei es in Chatgruppen oder auf Pornoseiten.

Auch nicht-sexuelle Deepfakes strafbar

Um Deepfakes geht es im Entwurf nicht nur vor dem Hintergrund der Intimsphäre. Die Verbreitung von Deepfakes soll demnach auch unter Strafe stehen, wenn sie „geeignet“ sind, dem Ansehen einer Person „erheblich zu schaden“. Dafür will das Justizministerium einen neuen Straftatbestand 201b einführen: „Verletzung von Persönlichkeitsrechten durch täuschende Inhalte“.

Eine Bedingung ist, dass der Deepfake „den Anschein erweckt, ein tatsächliches Geschehen in Bezug auf eine andere Person wiederzugeben“. Das soll auch für bereits verstorbene Personen gelten. Die bloße Herstellung ist in diesem Fall nicht strafbewehrt, sondern erst die Weitergabe.

Als Beispiel nennt das Justizministerium etwa KI-generierte Videos, die den Eindruck erwecken, dass ein Mediziner Werbung für ein bestimmtes Produkt mache. Darunter fallen laut Entwurf allerdings auch KI-generierte Bikini-Bilder. Die Rede ist von „mittels künstlicher Intelligenz generierten bildlichen Darstellungen von Personen in leichter Badebekleidung, sofern diese Inhalte zur Ansehensschädigung geeignet sind“.

Stalkerware: Vorschrift gegen Tracking geplant

Ein großer Teil der neuen Vorschriften dreht sich um bildbasierte Gewalt; das ist aber nur eine von vielen Erscheinungsformen digitaler Gewalt. Eine weitere ist gezielte, digitale Überwachung und Tracking, oftmals durch (Ex-)Partner*innen. Bereits im Koalitionsvertrag hatten sich Union und SPD darauf geeinigt, sich dem Thema zu widmen.

Nun plant das Justizministerium eine neue Norm, die den Einsatz von Tracking-Werkzeugen unter Strafe stellt. Konkret heißt es dazu:

Wer den Aufenthaltsort oder die Tätigkeit einer anderen Person wiederholt oder ständig mittels Informations- oder Kommunikationstechnik unbefugt überwacht, wird mit Freiheitsstrafe bis zu zwei Jahren oder mit Geldstrafe bestraft.

Allerdings gibt es hier mehrere Einschränkungen: Strafbar sein soll die Überwachung nur, wenn sie „wahrscheinlich dazu führt, dass dieser Person schwerer Schaden zugefügt wird“. Außerdem sei unter Überwachung nur „die zielgerichtete Erhebung von Informationen“ zu verstehen – offenbar eine Abgrenzung zur Massenüberwachung.

Auch mit dieser Vorschrift setzt das Ministerium EU-Recht um. Es geht um „Cyberstalking“ in der 2024 beschlossenen Richtlinie zur Bekämpfung von Gewalt gegen Frauen. Demnach dürfte es zum Beispiel strafbar sein, wenn ein Ex-Partner eine Frau über Tage oder Wochen hinweg heimlich mit Hilfe einer Spionage-App verfolgt, ihre Nachrichten mitliest, ihre Schritte nachverfolgt. Über solche Fälle von digitalem Stalking hatten wir in der Vergangenheit mehrfach berichtet.

Bislang wird der Einsatz solcher Technologien im sogenannten Nachstellungsparagrafen geregelt. Wer sie einsetzt, kann einen besonders schweren Fall von Stalking begehen und mit einer Strafe von drei Monaten bis zu fünf Jahren belangt werden. Die Hürden für eine Anklage wegen Nachstellung liegen allerdings hoch. Betroffene müssen vor Gericht nachweisen, dass das Stalking schwere Folgen für sie hat, sie deswegen etwa unter Angststörungen leiden oder arbeitsunfähig waren.

Die neue Vorschrift zu Tracking soll zudem nur für „unbefugte“ Fälle gelten. Eltern dürften dem Entwurf zufolge weiter den Aufenthaltsort oder die Online-Aktivitäten ihrer Kinder tracken, „wenn bei gemeinsamem Sorgerecht beide Eltern einverstanden sind und die Kinder in die Entscheidung der Eltern über das Tracking einbezogen wurden“.

Entwurf eines Gesetzes zur Stärkung des zivilrechtlichen und strafrechtlichen Schutzes vor digitaler Gewalt [strafrechtlicher Teil]

„§ 184k StGB

Verletzung der Intimsphäre durch Bildaufnahmen

(1) Mit Freiheitsstrafe bis zu zwei Jahren oder mit Geldstrafe wird bestraft, wer unbefugt eine Bildaufnahme herstellt oder einer dritten Person zugänglich macht, die

1. eine sexuelle Handlung einer anderen Person abbildet,

2. die unbekleideten Genitalien, das unbekleidete Gesäß oder die unbekleidete weibliche Brust einer anderen Person abbildet,

3. in sexuell bestimmter Weise die bekleideten Genitalien, das bekleidete Gesäß oder die bekleidete weibliche Brust einer anderen Person abbildet, oder

4. mittels eines Computerprogramms so verändert, umgestaltet oder mit weiteren Inhalten verbunden wurde, dass der Anschein erweckt wird, dass sexuelle Handlungen oder die unbekleideten Genitalien, das unbekleidete Gesäß oder die unbekleidete weibliche Brust einer anderen Person abgebildet seien.

(2) Ebenso wird bestraft, wer eine Bildaufnahme, die die Nacktheit einer anderen Person unter achtzehn Jahren zum Gegenstand hat,

1. herstellt oder anbietet, um sie einer dritten Person gegen Entgelt zu verschaffen,

oder

2. sich oder einer dritten Person gegen Entgelt verschafft.

(3) Die Tat wird nur auf Antrag verfolgt, es sei denn, dass die Strafverfolgungsbehörde wegen des besonderen öffentlichen Interesses an der Strafverfolgung ein Einschreiten von Amts wegen für geboten hält.

(4) Die Absätze 1 und 2 gelten nicht für Handlungen, die in Wahrnehmung überwiegender berechtigter Interessen erfolgen, namentlich der Kunst oder der Wissenschaft, der Forschung oder der Lehre, der Berichterstattung über Vorgänge des Zeitgeschehens oder der Geschichte oder ähnlichen Zwecken dienen.

(5) Die Bildträger sowie Bildaufnahmegeräte oder andere technische Mittel, die der Täter oder Teilnehmer verwendet hat, können eingezogen werden. § 74a ist anzuwenden.“

Begründung zu § 184k StGB

Die Vorschrift soll als neue zentrale Vorschrift im 13. Abschnitt den Schutz vor Verletzungen der Intimsphäre durch Bildaufnahmen regeln. Dabei sollen die verschiedenen Erscheinungsformen des kriminologisch unter dem Begriff der „bildbasierten sexualisierten Gewalt“ oder der „bildbasierten sexuellen Belästigung“ bezeichneten Phänomens erfasst werden.

Dies betrifft einerseits die nicht-einvernehmliche Herstellung von intimen Bildern, Videos und mittels Informationstechnik beziehungsweise Künstlicher Intelligenz manipulierten Materials („Deepfakes“). Darunter fällt auch der „digitale Voyeurismus“, also das heimliche Filmen oder Fotografieren z. B. unter der Kleidung (einschließlich der bisher ausschließlich von § 184k StGB g. F. erfassten Formen des „Upskirting“ und „Downblousing“), in Umkleiden, auf der Toilette, in Saunalandschaften oder am Strand, ferner auch Bildmaterial von nicht-einvernehmlichen, gewalttätigen sexuellen Handlungen (Vergewaltigungsvideos) oder gezielt in sexuell bestimmter Weise erstellte Ausschnitte, die bekleidete intime Körperteile zeigen. Andererseits erfasst werden soll das nicht-einvernehmliche Teilen von einvernehmlich oder nicht-einvernehmlich erlangten Bildern, Videos oder Deepfakes (einschließlich der „Revenge Porns“ als Unterfall). Die Drohung mit der Vornahme entsprechender Handlungen, also insbesondere der Veröffentlichung entsprechenden Materials, auch sexuelle Erpressung oder „Sextortion“ genannt, fällt künftig unter § 241 Absatz 1 StGB (Bedrohung), der bereits in seiner geltenden Fassung rechtswidrige Taten gegen die sexuelle Selbstbestimmung als taugliche Anknüpfungstaten in Bezug nimmt.

Absatz 1

Der Begriff der „Bildaufnahme“ erfasst insbesondere Fotos und Videos (Eisele, in: Tübinger Kommentar, 31. Auflage 2025, § 201a Rn. 6). Er ist enger als der Begriff der „Abbildung“ oder des „Bildnisses“; Gemälde, Zeichnungen oder Karikaturen sind folglich nicht erfasst. Die Bildaufnahme „einer anderen Person“ muss das Abbild einer natürlichen lebenden Person zeigen (vergleiche BGH NStZ-RR 2019, 143).

Eine sexuelle Handlung einer anderen Person im Sinne des Absatzes 1 Nummer 1 ist eine Handlung im Sinne des § 184h Nummer 1 StGB. Darunter fallen solche, die im Hinblick auf das jeweils geschützte Rechtsgut von einiger Erheblichkeit sind. Bildaufnahmen von sexuellen Handlungen unterfallen unabhängig davon, wo die sexuellen Handlungen stattfinden, der Intimsphäre und damit dem Schutz des allgemeinen Persönlichkeitsrechts.

In Absatz 1 Nummer 2 sollen – dem § 184k StGB g. F. entsprechend – die unbekleideten Genitalien, das unbekleidete Gesäß oder die unbekleidete weibliche Brust konkret genannt werden. Es genügt, wenn eines der genannten Merkmale, etwa im Rahmen einer Ganzkörperaufnahme ganz oder teilweise abgebildet ist. Nicht erforderlich ist, dass die Bildaufnahme explizit nur einen Ausschnitt mit den jeweiligen intimen nackten Körperteilen zeigt.

Nicht erfasst werden Abbildungen von Körperteilen, bei denen die in Absatz 1 Nummer 2 genannten Merkmale ganz oder teilweise nicht zu sehen sind, etwa ein nackter Arm, ein nacktes Bein oder ein nackter Rücken. Aus diesem Grund wurde in Absatz 1 das in § 201a Absatz 3 StGB der geltenden Fassung enthaltene Merkmal der „Nacktheit einer anderen Person“ (eingefügt im parlamentarischen Verfahren, vergleiche Bundestags-Drucksache 18/3202, S. 28) nicht aufgegriffen. Bereits zur geltenden Rechtslage stellt sich die Frage, ob diese Formulierung überschießend ist, weil mit der „Nacktheit einer Person“ keine vollständige Nacktheit gemeint sein muss (Hoven, Stellungnahme im Rechtsausschuss zur Einführung des § 184k StGB g. F., S. 6) und damit auch Personen in Unterwäsche oder Badebekleidung erfasst sein können. Die Auslegung des Merkmals ist in der strafrechtlichen Literatur jedenfalls umstritten (für die Einbeziehung nicht vollständiger Nacktheit Fischer/Anstötz, in: Fischer, Strafgesetzbuch mit Nebengesetzen, 73. Auflage 2026, § 201a Rn. 37; zweifelnd Graf, in: Münchener Kommentar zum Strafgesetzbuch, 5. Auflage 2025,

§ 201a StGB Rn. 81). Die die „Nacktheit einer Person“ erfassende Bildaufnahmen sind bislang allerdings nur strafbar, wenn sie Personen unter achtzehn Jahren zum Gegenstand haben und gegen Entgelt verschafft bzw. hergestellt oder angeboten werden und eine Verschaffungsabsicht gegen Entgelt besteht. Für Kinder und Jugendliche kommt es nach dem geltenden Kinder- und Jugendpornographiebegriff des § 184b Absatz 1 Satz 1 Nummer 1 Buchstabe b StGB und § 184c Absatz 1 Nummer 1 Buchstabe b StGB, der auch die Wiedergabe eines teilweise unbekleideten Kindes als ausreichend ansieht, sofern eine aufreizend geschlechtsbetonte Körperhaltung gegeben ist, auf eine vollständige Nacktheit allerdings nicht an. Der Begriff soll daher im Interesse eines umfassenderen Schutzes der Personen unter 18 Jahren für diese beibehalten – und in die hiesige Regelung überführt (vergleiche Absatz 2) – werden.

Für eine Bildaufnahme der in Absatz 1 Nummer 2 genannten intimen Körperteile ist nicht erforderlich, dass die Person, deren Körperteile gezeigt werden, identifizierbar ist, also entweder ihr Gesicht oder andere markante Merkmale in der Darstellung ersichtlich sind. Insofern unterscheidet sich die neue Regelung von § 201a StGB und § 33 in Verbindung mit § 22 KunstUrhG. Artikel 2 Absatz 1 schützt in Verbindung mit Artikel 1 Absatz 1 GG die engere persönliche Lebenssphäre, insbesondere auch den Intim- und Sexualbereich, und gewährleistet das Recht des Einzelnen, grundsätzlich selbst zu bestimmen, aus welchem Anlass und in welchen Grenzen er persönliche Lebenssachverhalte offenbart (vergleiche BVerfGE 120, 224, 238 f.; 65, 88, 87, 97; 65, 1, 43). Die Intimsphäre kann beeinträchtigt sein, wenn Bildmaterial von intimen Körperteilen einer Person ohne deren Einwilligung hergestellt oder verwendet wird. Dies gilt auch für den Fall, dass die abgebildete Person selbst auf den Abbildungen nicht erkennbar sein sollte. Nummer 2 dient ferner der Umsetzung von Artikel 5 Absatz 1 Buchstabe a der Richtlinie (EU) 2024/1385 des Europäischen Parlaments und des Rates vom 14. Mai 2024 zur Bekämpfung von Gewalt gegen Frauen und häuslicher Gewalt (vergleiche VI.).

Absatz 1 Nummer 3 erfasst Bildaufnahmen, die in sexuell bestimmter Weise abgebildete bekleidete intime Körperteile einer anderen Person enthalten. Die Vorschrift soll insbesondere die Herstellung und Verbreitung voyeuristischer Bild- oder Filmaufnahmen erfassen.

Aufnahmen, die lediglich Ausschnitte von intimen Körperteilen enthalten, unterfallen nach geltendem Recht häufig nicht § 201a StGB oder § 33 in Verbindung mit § 22 KunstUrhG, weil sie das Gesicht der betreffenden Person nicht erkennen lassen und damit eine Identifizierbarkeit regelmäßig nicht gegeben ist. Der strafrechtliche Schutz des § 184k StGB der geltenden Fassung („Upskirting“, „Downblousing“) greift zwar auch dann, wenn Personen nicht erkennbar sind, aber nur, wenn die betreffenden Körperteile grundsätzlich gegen Anblick geschützt sind und der Täter eine Lücke im Anblickschutz – etwa unter dem Rock oder von oben oder seitlich – zur Anfertigung der Bildaufnahmen ausnutzt. Künftig sollen generell Aufnahmen bekleideter intimer Körperteile dem strafrechtlichen Schutz unterfallen, sofern diese Körperteile unbefugt in sexuell bestimmter Weise abgebildet sind. Der Begriff „in sexuell bestimmter Weise“ ist bereits in § 184i Absatz 1 StGB enthalten, so dass auf die hierzu von der Rechtsprechung herausgearbeiteten Grundsätze zurückgegriffen werden kann. Im entsprechenden Kontext kann eine Bildaufnahme, die bekleidete intime Körperteile abbildet sowohl objektiv – nach dem äußeren Erscheinungsbild – als auch subjektiv – nach den Umständen des Einzelfalls – sexuell bestimmt sein (für körperliche Berührungen vgl. BGHSt 63, 98, 100 ff. m.w.N.). Weist die Bildaufnahme nach dem Inhalt dessen, was abgebildet ist, bereits nach dem äußeren Erscheinungsbild einen sexuellen Charakter auf, ist nicht erforderlich, dass der Täter auch von sexuellen Absichten geleitet ist; insofern genügen auch andere Motive wie Wut, Sadismus, Scherz oder die Demütigung des Opfers (vgl. BGH NJW 2014, 3737, 3738). Darunter können Bildaufnahmen intimer Körperteile fallen, die etwa aus einer dem begrenzten Raum in öffentlichen Verkehrsmitteln geschuldeten oder eigens vom Täter hergestellten körperlichen Nähe resultieren, etwa die bisherigen Upskirting oder Downblousing-Bildaufnahmen. Darüber hinaus können auch ambivalente Abbildungen, die für sich betrachtet nicht ohne Weiteres einen sexuellen Charakter aufweisen, tatbestandsmäßig sein; in diesem Fall ist im Rahmen der Würdigung aller Umstände zu berücksichtigen, ob der Täter von sexuellen Absichten geleitet war. Abzustellen ist auf das Urteil eines objektiven Betrachters, der alle Umstände des Einzelfalls kennt (BGHSt 63, 98,103).

Absatz 1 Nummer 4 soll sogenannte „sexualisierte“ oder „pornographische“ Deepfakes erfassen, d. h., Bildaufnahmen einer Person, die infolge einer Veränderung, Neugestaltung oder Verbindung mit weiteren Inhalten mittels eines Computerprogramms den Anschein erwecken, dass eine Person sexuelle Handlungen vorgenommen hat oder ihre intimen Körperteile nackt dargestellt sind. Gemeint sind damit in aller Regel Anwendungen, die auf künstlicher Intelligenz basieren, aber auch Computerprogramme, die es ohne Verwendung generativer künstlicher Intelligenz ermöglichen, Montagen aus Fotos oder Videos herzustellen. „Weitere Inhalte“ sind solche im Sinne des § 11 Absatz 3 StGB. Bei der Erstellung eines sexualisierten Deepfakes sind dies in erster Linie weitere Bildinhalte, aber auch Geräusche oder Texte. So kann das Abbild einer Person mit künstlich generierten nackten Körperteilen verbunden und im Falle der Erstellung von Videos mit künstlich generierten Lauten, Geräuschen oder Sätzen unterlegt werden. Für die Verwirklichung des Absatzes 1 Nummer 4 ist allerdings Voraussetzung, dass die Person individualisierbar ist, weil es sich ansonsten um rein fiktive Darstellungen handeln würde, bei denen kein konkretes Rechtsgut verletzt ist. Ist eine Individualisierbarkeit gegeben, ist in den Fällen sexualisierter oder pornographischer Deepfakes bereits mit der Herstellung regelmäßig sowohl ein ehrverletzender Charakter als auch ein Eingriff in das allgemeine Persönlichkeitsrecht der betroffenen Person anzunehmen, weil ihre persönlichen Merkmale in einem von ihr nicht mehr beinflussbaren – zudem sexuellen bzw. intimen – Kontext verwendet werden. Das allgemeine Persönlichkeitsrecht schützt den Einzelnen auch vor verfälschenden oder entstellenden Darstellungen seiner Person in der Öffentlichkeit, die von nicht ganz unerheblicher Bedeutung für die Persönlichkeitsentfaltung sind (BVerfGE 99, 185, 194). Der verfälschende und entstellende Kontext wird mit Herstellung in der Deepfake-Aufnahme perpetuiert und kann vom Hersteller jederzeit sowohl zu eigenen als auch fremden Zwecken verwendet werden. Selbst wenn der Hersteller der Aufnahme diese nur für den eigenen Gebrauch fertigen sollte, geht mit einer Nutzung auf künstlicher Intelligenz beruhender Anwendungen regelmäßig ein Abspeichern der Daten in einer Cloud einher. Entsprechende Daten lägen unter Umständen bei Drittanbietern, wären im Falle mangelhafter Sicherheits- oder Schutzvorkehrungen dem unberechtigten Zugriff Dritter ausgesetzt und könnten gegebenenfalls unbemerkt kopiert werden. Auch unabhängig von den Möglichkeiten und Gefahren im digitalen Raum ist das Risiko einer Verwendung oder Verbreitung einer entsprechenden Deepfake regelmäßig bereits mit der Anfertigung gegeben. Tathandlungen sind in allen Fällen das unbefugte Herstellen oder das unbefugte Zugänglichmachen an Dritte.

Das Herstellen umfasst sämtliche Handlungen, mit denen optische Informationen auf einem Bild- oder Datenträger abgespeichert werden (vergleiche Bundestags-Drucksache 15/2466, S. 5). Die visuelle Wahrnehmung durch den Täter oder eine dritte Person ist nicht Voraussetzung, es genügt, dass der Aufnahmegegenstand sichtbar gemacht werden kann Eisele, in: Tübinger Kommentar Strafgesetzbuch, 31. Auflage 2025, § 201a StGB Rn. 13).

Die Herstellung einer Bildaufnahme ist im geltenden Recht bereits vorgesehen in § 184b Absatz 1 Satz 1 Nummer 3 StGB und § 184c Absatz 1 Nummer 3 StGB für kinder- und jugendpornographische Inhalte, die ein tatsächliches Geschehen wiedergeben, und in § 201a Absatz 1 Nummer 1 bis 3 StGB für Inhalte, die den höchstpersönlichen Lebensbereich einer Person verletzen, die sich in einem gegen Einblick besonders geschützten Raum befindet, deren Hilflosigkeit zur Schau gestellt wird oder bei in grob anstößiger Weise dargestellten Verstorbenen. Anders als in § 201a Absatz 1 Nummer 1 ist für die in § 184k Absatz 1 genannten intimen Bildinhalte nicht erforderlich, dass sich die Person in einem gegen Einblick besonders geschützten Raum befindet. Somit werden etwa auch Bildaufnahmen in öffentlich zugänglichen Bereichen wie etwa Saunen erfasst, die nach der Rechtsprechung bislang nicht strafbar waren (vgl. OLG Koblenz NStZ 2009, 268, 269).

Nur unter weiteren Voraussetzungen strafbar ist derzeit das Herstellen von kinder- und jugendpornographischen Inhalten, die rein fiktive und manipulierte Bilder enthalten (§ 184b Absatz 1 Satz 1 Nummer 4, § 184c Absatz 1 Nummer 4 StGB). Soweit nach § 184k Absatz 1 Nummer 1 StGB künftig die bloße Herstellung von sexualisierten „Deepfakes“, d. h., von mit Methoden generativer künstlicher Intelligenz unter Verwendung realen Ausgangsmaterials manipulierten Inhalten, die den Anschein erwecken, dass eine reale Person sexuelle Handlungen vorgenommen hat oder nackt abgebildet ist, zum Zwecke der eigenen sexuellen Erregung strafbar ist, sind § 184b Absatz 1 Satz 1 Nummer 3 StGB und § 184c Absatz 1 Nummer 3 StGB zur Vermeidung von Widersprüchen entsprechend anzupassen (vergleiche Nummern 3 und 4). Das bloße Herstellen manipulierter Bilder zum Eigengebrauch begründet zwar im Vergleich zum Zugänglichmachen an Dritte und auch im Vergleich zur Herstellung in Verbreitungsabsicht eine geringfügigere Rechtsgutverletzung, auch sind die Abbildungen der intimen Körperteile und sexuellen Handlungen, welche die KI-Anwendung erzeugt, nicht real. Gleichwohl wird die betreffende Person, deren reale persönliche Merkmale (in der Regel das Gesicht) für die Erstellung entsprechender Bilder verwendet werden, ohne dass diese Person Einfluss darauf hat, zur sexuellen Stimulation oder zu anderen Zwecken „benutzt“.

Der Begriff des Zugänglichmachens an Dritte wird im geltenden Recht bereits in § 176e StGB und § 201a StGB verwendet. Anders als der im Strafgesetzbuch ebenfalls gebräuchliche Begriff des Verbreitens zielt das Zugänglichmachen gegenüber Dritten nicht auf einen größeren, nicht mehr kontrollierbaren Personenkreis ab, sondern es genügt regelmäßig die Weitergabe an nur eine weitere Person. Ebenfalls tatbestandsmäßig ist die unbefugte Weitergabe einer ursprünglich befugt hergestellten Bildaufnahme. Das Zugänglichmachen an Dritte erfasst auch Echtzeitübertragungen; eine Speicherung der Bilder beim Empfänger ist dafür nicht erforderlich (Eisele, in: Tübinger Kommentar Strafgesetzbuch, 31. Auflage 2025, § 201a Rn. 6).

In subjektiver Hinsicht verlangt der Tatbestand vorsätzliches Handeln. Der Vorsatz muss sich insbesondere auf den jeweiligen Bildinhalt erstrecken. Bei „Zufallsfotos“, die an öffentlich zugänglichen Orten gefertigt werden und im Hintergrund versehentlich Inhalte im Sinne des § 184k Absatz 1 StGB-E enthalten, fehlt es daher bereits an einem vorsätzlichen Handeln.

Das Herstellen oder Zugänglichmachen der Bildaufnahme muss ferner unbefugt sein. In anderen Vorschriften stellt die Unbefugtheit nach überwiegender Auffassung einen Verweis auf die allgemeinen Rechtfertigungsgründe dar (Lackner/Kühl/Heger, StGB, 31. Auflage 2025, § 201a Rn. 9 m. w. N., auch zur Gegenauffassung). Entscheidend ist danach, ob die Herstellung oder Zugänglichmachung von einer Einwilligung oder einer sonstigen Befugnisnorm gedeckt ist. Bei Personen über 18 Jahren entfällt bei Vorliegen einer wirksamen Einwilligung damit in der Regel die Rechtswidrigkeit der Tathandlung. Gleiches gilt im Falle der mutmaßlichen Einwilligung. Eine solche kommt insbesondere in Betracht, wenn sich Personen außerhalb gesellschaftlich anerkannter Bereiche wie Saunen oder FKK-Stränden in Bereichen, in denen mit der Anfertigung von Aufnahmen gerechnet werden muss (zum Beispiel Großveranstaltungen, Konzerte, Festivals, Demonstrationen) offensiv in der Öffentlichkeit nackt zeigen oder sexuelle Handlungen vornehmen und dadurch deutlich machen, dass sie auf die Wahrung ihrer Privatheit keinen gesteigerten Wert legen. Gleiches ist anzunehmen, wenn die Aufnahmen vor den Augen und mit Wissen der Betroffenen vorgenommen werden, ohne dass diese dagegen einschreiten, obwohl sie dazu in der Lage wären.

Für Minderjährige findet der Tatbestand des § 184k StGB ohnehin nur Anwendung, soweit nicht §§ 184b und 184c StGB aufgrund der höheren Strafandrohungen als leges speciales heranzuziehen sind. Ansonsten dürfte es für die Wirksamkeit der Einwilligung nach allgemeinen Grundsätzen darauf ankommen, ob die entsprechende Person nach ihrer Entwicklung und Reife Wesen, Tragweite und Bedeutung der Handlung erfasst hat und ihren Willen entsprechend danach bestimmen konnte. Bei Kindern unter 14 Jahren wird es insoweit regelmäßig auf die Einwilligung des Erziehungsberechtigten ankommen, sofern diese nicht selbst pflichtwidrig ist und den Interessen des Kindes nicht zuwiderläuft. Das Teilen von Familienfotos im Familienkreis bleibt danach weiterhin straflos, nicht im Interesse des Kindes wäre aber etwa ein Teilen von Bildern auf Plattformen, um weitere Bilder von anderen Kindern erhalten zu können.

Im Anwendungsbereich des § 184k Absatz 1 Nummer 1 und – infolge der durch dieses Gesetz vorgenommenen Ergänzung – der Nummer 4 StGB tritt der Tatbestand auf der Konkurrenzebene regelmäßig hinter §§ 184b und § 184c StGB zurück. Im Anwendungsbereich des § 184k Absatz 1 Nummer 2 und 3 StGB sind, wenngleich der Begriff der Kinder- und Jugendpornographie bereits recht weitreichend die Wiedergabe eines ganz oder teilweise unbekleideten Minderjährigen in aufreizend geschlechtsbetonter Körperhaltung oder die sexuell aufreizende Wiedergabe der unbekleideten Genitalien oder des unbekleideten Gesäßes eines Minderjährigen umfasst, Fälle denkbar, in denen die Abbildungen nicht unter §§ 184b oder 184c StGB fallen; in diesen Fällen soll künftig § 184k Absatz 1 StGB greifen.

Ein Teil der von § 184k StGB-E künftig erfassten Bildaufnahmen dürfte weiterhin von § 201a Absatz 1 Nummer 1 StGB oder von § 22 in Verbindung mit § 33 KunstUrhG erfasst werden; insoweit dürfte § 184k StGB künftig regelmäßig lex specialis sein. Entscheidend dürfte es insoweit auf das konkret verletzte Rechtsgut ankommen. § 201a Absatz 2 StGB enthält mit dem Aspekt der Ansehensschädigung einen eher ehrschädigenden Charakter und ergänzt damit strukturell die Ehrdelikte. Verhaltensweisen, die § 184k StGB künftig unterfallen und auch § 201a Absatz 2 StGB oder verschiedene Ehrdelikte erfüllen, dürften regelmäßig in Tateinheit zueinander stehen.

Absatz 2

Absatz 2 entspricht § 201a Absatz 3 StGB g. F., der aufgrund des Sachzusammenhangs und des vorrangig geschützten Rechtsguts der sexuellen Selbstbestimmung beziehungsweise des Intimbereichs als Aspekt des allgemeinen Persönlichkeitsrechts in den 13. Abschnitt des StGB übernommen werden soll.

Absätze 3 bis 5

Die Absätze 3 bis 5 entsprechen den bisherigen Absätzen 2 bis 4 des § 184k StGB g. F.

Auch die neue, erweiterte Vorschrift soll als relatives Antragsdelikt ausgestaltet sein, eine Klausel für die Wahrnehmung berechtigter Interessen, namentlich der Kunst oder der Wissenschaft, der Forschung oder der Lehre, der Berichterstattung über Vorgänge des Zeitgeschehens oder der Geschichte oder ähnlichen Zwecken, enthalten, und die Einziehung von Tatmitteln anordnen.

„§ 201b StGB

Verletzung von Persönlichkeitsrechten durch täuschende Inhalte

(1) Wer einer dritten Person einen mittels eines Computerprogramms erstellten oder veränderten Inhalt (§ 11 Absatz 3), der den Anschein erweckt, ein tatsächliches Geschehen in Bezug auf eine andere Person wiederzugeben, und der geeignet ist, dem Ansehen dieser Person erheblich zu schaden, unbefugt zugänglich macht, wird mit Freiheitsstrafe bis zu zwei Jahren oder mit Geldstrafe bestraft, wenn die Tat nicht in anderen Vorschriften mit schwererer Strafe bedroht ist. Dies gilt auch dann, wenn sich die Tat nach Satz 1 auf eine verstorbene Person bezieht.

(2) § 201a Absatz 3 und 4 gilt entsprechend.“

Begründung zu § 201b StGB

Aus den im Allgemeinen Teil der Begründung genannten Gründen wird nach § 201a StGB § 201b StGB (Verletzung von Persönlichkeitsrechten durch täuschende Inhalte) eingefügt, der künftig das spezifische Tatunrecht des unbefugten Zugänglichmachens ansehensschädigender sogenannter Deepfakes und vergleichbarer technischer Manipulationen zielgenau erfassen soll, das heißt von mittels eines Computerprogramms erstellten oder veränderten Inhalten (§ 11 Absatz 3 StGB), die den Anschein erwecken, ein tatsächliches Geschehen wiederzugeben. Von § 201b StGB werden beispielsweise Fälle erfasst, in denen mittels künstlicher Intelligenz generierte Videos unbefugt zugänglich gemacht werden, durch die der Anschein erweckt wird, dass ein prominenter Mediziner Werbung für Produkte mache und dieser Anschein geeignet ist, ansehensschädigend zu wirken. In Betracht kommt eine

Strafbarkeit nach § 201b StGB zudem bei der unbefugten Zugänglichmachung von mittels künstlicher Intelligenz generierten bildlichen Darstellungen von Personen in leichter Badebekleidung, sofern diese Inhalte zur Ansehensschädigung geeignet sind. § 184k Absatz 1 Nummer 4 StGB-E wäre bei bildlichen Darstellungen bekleideter Personen nicht einschlägig, da jene Vorschrift nur anwendbar ist, wenn der Anschein erweckt wird, dass sexuelle Handlungen, die unbekleideten Genitalien, das unbekleidete Gesäß oder die unbekleidete weibliche Brust einer anderen Person abgebildet seien.

§ 201b StGB-E orientiert sich in Struktur und Begrifflichkeiten in erster Linie an § 201a Absatz 2 StGB. Durch die technologieneutrale Formulierung wird gewährleistet, dass der Tatbestand auch künftige technologische Neuerungen erfassen kann, insbesondere im Bereich von mittels künstlicher Intelligenz erstellten Inhalten. Inhalte sind gemäß § 11 Absatz 3 StGB solche, die in Schriften, auf Ton- oder Bildträgern, in Datenspeichern, Abbildungen oder anderen Verkörperungen enthalten sind oder auch unabhängig von einer Speicherung mittels Informations- oder Kommunikationstechnik übertragen werden. Der Kreis tauglicher Tatobjekte ist damit weiter gefasst als bei den von § 184k Absatz 1 Nummer 4 StGB-E erfassten sexualisierten Deepfakes, bei denen es sich um bildliche Darstellungen handeln muss. Der Inhalt muss den Anschein erwecken, ein tatsächliches Geschehen wiederzugeben. Amateurhafte Darstellungen, die für den durchschnittlichen Betrachter eindeutig als nicht reales Geschehen zu erkennen sind, fallen daher selbst dann nicht unter den Tatbestand, wenn sie in täuschender Absicht weitergegeben werden. § 201b StGB-E erfasst etwa vermeintlich reale, tatsächlich aber verfälschte bildliche Darstellungen des äußeren Erscheinungsbildes einer Person, aber auch fingierte Stimmaufnahmen und Filmsequenzen.

Durch die Vorgabe, dass sich der Inhalt auf eine andere Person beziehen muss, wird klargestellt, dass § 201b StGB-E nur personenbezogene Deepfakes erfasst. Inhalte, die fingierte anderweitige Geschehnisse wiedergeben, die keinen erkennbaren Bezug zu lebenden oder verstorbenen (§ 201b Absatz 1 Satz 2 StGB-E) Personen haben, sind daher nicht tatbestandsmäßig. Der Inhalt muss mittels eines Computerprogramms erstellt oder verändert worden sein, also mittels einer durch Daten fixierten Arbeitsanweisung an einen Computer (vergleiche Perron, in: Tübinger Kommentar Strafgesetzbuch, 31. Auflage 2025, § 263a Rn. 5, 33; Fischer/Lutz, in: Fischer, Strafgesetzbuch, 73. Auflage 2026, § 263a Rn. 6, 30). In der Praxis wird es sich hierbei im Regelfall um Systeme künstlicher Intelligenz handeln. Ein Inhalt ist erstellt, wenn er (neu) generiert worden ist. Verändert ist ein Inhalt, wenn sein ursprünglicher Aussagegehalt modifiziert worden ist.

§ 201b StGB setzt, anders als der vom Bundesrat auf Bundestags-Drucksache 21/1383 vorgeschlagene Tatbestand „Verletzung von Persönlichkeitsrechten durch digitale Fälschung“, voraus, dass der Inhalt geeignet ist, dem Ansehen der dargestellten Person erheblich zu schaden. Der Begriff der Eignung zur Ansehensschädigung ist wie bei § 201a Absatz 2 StGB an die Ehrverletzungstatbestände der §§ 185 und folgende StGB angelehnt.

Zur Ansehensschädigung im Sinne von § 201b Absatz 1 StGB-E ist der Inhalt geeignet, wenn die dargestellte lebende oder verstorbene Person durch ihn verächtlich gemacht oder in der öffentlichen Meinung herabgewürdigt werden kann (BGH, Urteil vom 27. Februar 2024 – 4 StR 401/22, Beck RS 2024, 8894, Rn. 32, m. w. N.). Durch das Merkmal der Eignung zur „erheblichen“ Ansehensschädigung wird sichergestellt, dass die Beeinträchtigung eine gewisse Schwere erreichen muss und nicht mehr als sozial hinnehmbar erscheinen kann (vergleiche Eisele, in: Tübinger Kommentar Strafgesetzbuch, 31. Auflage 2025, § 201a Rn. 41). Maßgeblich ist die Perspektive eines durchschnittlichen Betrachters (vergleiche Bundestags-Drucksache 18/2601, S. 37; BGH, a. a. O., Rn. 32, m. w. N.).

Der Begriff des unbefugten Zugänglichmachens ist wie in § 201a Absatz 2 StGB zu verstehen und setzt voraus, dass die dritte Person die Möglichkeit eines Zugriffs auf den Inhalt hat (vergleiche Fischer/Anstötz, in: Fischer, Strafgesetzbuch, 73. Auflage 2026, § 201a Rn. 25). Das Zugänglichmachen ist nicht unbefugt, wenn es von einer Einwilligung der dargestellten Person oder einer Befugnisnorm gedeckt ist (vergleiche Bundestags-Drucksache 18/2601, S. 37; Eisele, a. a. O., Rn. 44).

Durch die Subsidiaritätsklausel wird klargestellt, dass § 201b StGB keine Sperrwirkung gegenüber Vorschriften mit schwererer Strafandrohung entfaltet. Insbesondere bleiben §§ 184 und folgende sowie § 187 letzte Variante StGB auch nach Inkrafttreten von § 201b StGB auf die Verbreitung von pornographischen beziehungsweise verleumderischen Deepfakes anwendbar. § 184k Absatz 1 Nummer 4 StGB ist in seinem Anwendungsbereich lex specialis zu § 201b Absatz 1 StGB.

§ 201b Absatz 2 StGB erklärt § 201a Absatz 3 und 4 StGB für entsprechend anwendbar.

§ 201b Absatz 2 StGB in Verbindung mit § 201a Absatz 3 StGB-E verweist auf das Erfordernis einer tatbestandlichen Abwägung zwischen dem Schutz der Persönlichkeitsrechte der betroffenen Person und den in § 201a Absatz 3 StGB-E genannten Interessen, namentlich Kunst, Wissenschaft, Forschung, Lehre sowie Berichterstattung über Vorgänge des Zeitgeschehens und der Geschichte (vergleiche Bundestags-Drucksache 18/3202, S. 29).

§ 201b Absatz 2 StGB in Verbindung mit § 201a Absatz 4 StGB-E regelt die Einziehung. Dementsprechend können die von einem Beteiligten verwendeten technischen Mittel nach §§ 74 und folgende StGB eingezogen werden. Auch eine Dritteinziehung ist möglich (vergleiche § 201b Absatz 2 in Verbindung mit § 201a Absatz 4 Satz 2 StGB-E, § 74a StGB).

„§ 202e StGB

Unbefugte Überwachung mittels Informations- oder Kommunikationstechnik

Wer den Aufenthaltsort oder die Tätigkeit einer anderen Person wiederholt oder ständig mittels Informations- oder Kommunikationstechnik unbefugt überwacht, wird mit Freiheitsstrafe bis zu zwei Jahren oder mit Geldstrafe bestraft. Satz 1 ist nur anzuwenden, wenn die Handlung wahrscheinlich dazu führt, dass dieser Person schwerer Schaden zugefügt wird.“

Begründung zu § 202e StGB

§ 202e StGB-E orientiert sich eng an Artikel 6 der Richtlinie (EU) 2024/1385. Nach § 202e Satz 1 StGB-E wird mit Freiheitsstrafe bis zu zwei Jahren oder mit Geldstrafe bestraft, wer unbefugt den Aufenthaltsort oder die Tätigkeiten einer anderen Person wiederholt oder ständig mittels Informations- oder Kommunikationstechnik überwacht. Unter Überwachung ist die zielgerichtete Erhebung von Informationen über den Aufenthaltsort und die Tätigkeiten einer Person zu verstehen. Tatbestandsmäßig ist nur die Überwachung mittels Informations- oder Kommunikationstechnik, also mit Mitteln der technischen Informationsübertragung (vergleiche Bundestags-Drucksache 19/19859, S. 26; siehe zur Verwendung des Begriffs in § 176 StGB der alten Fassung auch Bundestags-Drucksache 18/2601, S. 14). Die Beobachtung durch bloßes Hinsehen oder Hinhören, ohne dass eine technische Informationsübertragung stattfindet, erfüllt § 202e StGB daher nicht. Unter den Tatbestand fallen insbesondere das „Tracking“, das heißt die Verfolgung des Aufenthaltsorts mit technischen Mitteln, und die Verwendung sogenannter Spyware. Erfasst ist lediglich die unbefugte Überwachung. Das Tatbestandsmerkmal „unbefugt“ beschränkt den Tatbestand auf strafwürdige Fälle. Eine Überwachung ist nicht unbefugt, wenn sie durch ein ausdrückliches oder konkludentes Einverständnis des Opfers oder durch eine Befugnisnorm gedeckt ist, beispielsweise bei der Überwachung des Aufenthaltsortes oder der Online-Aktivitäten jüngerer Kinder durch die Eltern, wenn bei gemeinsamem Sorgerecht beide Eltern einverstanden sind und die Kinder in die Entscheidung der Eltern über das Tracking einbezogen wurden (§ 1626 Absatz 2, §§ 1627, 1631 Absatz 1, § 1687 Absatz 1 Satz 1 BGB). § 202e StGB-E setzt voraus, dass die Überwachung wiederholt oder ständig erfolgt. Beide Tatbestandsmerkmale dienen, wie das Tatbestandsmerkmal „unbefugt“, dazu, den Tatbestand auf strafwürdige Fälle der Überwachung zu beschränken. Es muss insoweit eine gewisse Erheblichkeitsschwelle überschritten sein. Wie im Rahmen von § 238 Absatz 1 StGB ist es vom

Einzelfall abhängig, wie vieler Wiederholungen es für ein Vorliegen des Tatbestandsmerkmals „wiederholt“ bedarf. Bei schwerer wiegenden Einzelhandlungen kann schon eine geringe einstellige Anzahl von Wiederholungen hinreichend für eine Strafbarkeit sein (vergleiche zum Ganzen Bundestags-Drucksache 19/28679, S. 12; Eisele, in: Tübinger Kommentar Strafgesetzbuch, 31. Auflage 2025, § 238 Rn. 33). Die Überwachung erfolgt „ständig“, wenn sie zwar nicht wiederholt, aber ununterbrochen über einen nicht unerheblichen Zeitraum andauert. Qualitativ ist insoweit ein Verhalten von einigem Gewicht erforderlich, das die tatbestandliche Gleichstellung der „wiederholten“ und der „ständigen“ Überwachung zu rechtfertigen vermag, so beispielsweise beim Aufspielen einer Spyware auf ein Smartphone und der daran anschließenden durchgehenden Überwachung des Aufenthaltsortes und dem Mitlesen von Nachrichten des Opfers für mehrere Tage. Der vorgesehene Strafrahmen orientiert sich an § 42 Absatz 2 BDSG.

In Übereinstimmung mit Artikel 6 der Richtlinie (EU) 2024/1385 ist die Tat gemäß § 202e Satz 2 StGB-E nur dann strafbar, wenn die Handlung wahrscheinlich dazu führt, dass der anderen Person schwerer Schaden zugefügt wird. Auch dieses Kriterium dient dazu, den Tatbestand auf strafwürdige Fälle zu beschränken. Ohne eine solche Beschränkung würden etwa auch Fälle erfasst, in denen die Aufenthaltsorte oder die Tätigkeiten einer anderen Person durch schlichtes Verfolgen öffentlich zugänglicher Profile in sozialen Medien nachvollzogen werden. Wer sich unter Verwendung eines Computers oder Mobiltelefons lediglich regelmäßig über die Aufenthaltsorte oder die Tätigkeiten etwa seiner Wahlkreis abgeordneten oder seines Lieblingsmusikers informiert, indem er deren Beiträge in sozialen Medien liest, verhält sich nicht strafwürdig. Eine mögliche Strafbarkeit nach Satz 1 ist in jenen Fällen nicht schon dadurch ausgeschlossen, dass die in sozialen Medien veröffentlichenden Personen freiwillig Auskunft über ihre Aufenthaltsorte oder ihre Tätigkeiten geben und dadurch das Tatbestandsmerkmal der Unbefugtheit entfiele. Denn selbst wenn veröffentlichende Personen gerade möchten, dass ihre Mitteilungen auch gelesen werden, dürfte darin regelmäßig kein Einverständnis zur wiederholten oder ständigen Überwachung liegen.

Während § 42 Absatz 2 BDSG in Bezug auf die Schädigung einer anderen Person ein subjektives Tatbestandselement voraussetzt (Schädigungsabsicht), stellt § 202e Satz 2 StGB-E in Übereinstimmung mit Artikel 6 der Richtlinie (EU) 2024/1385 darauf ob, ob objektiv die Zufügung eines schweren Schadens bei der überwachten Person wahrscheinlich ist. Ein Schaden ist die Beeinträchtigung eines jeden rechtlich geschützten Interesses, unabhängig davon, ob diesem ein Vermögenswert zukommt (vergleiche Brodowski, in: BeckOK DatenschutzR, 53. Edition, 1. August 2025, BDSG § 42 Rn. 52). Die Schädigung muss über die reine Verarbeitung personenbezogener Daten hinausgehen, weil sonst das Merkmal der Schadenszufügung leerliefe (vergleiche Bergt, in: Kühling/Buchner, 4. Auflage 2024, BDSG § 42 Rn. 52). Der zu erwartende Schaden muss schwer sein, das heißt, er muss über eine bloß geringfügige Belästigung oder Unannehmlichkeit hinausgehen, indem das Opfer erheblich oder nachhaltig beeinträchtigt wird. Wahrscheinlich ist die Zufügung eines Schadens dann, wenn der Schadenseintritt im Einzelfall in Anbetracht der Gesamtumstände der Tat bei einem regelmäßigen Geschehensablauf naheliegt.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

BAMF: Asylbehörde gibt wieder deutlich mehr Daten an Geheimdienste und Polizei weiter

24. März 2026 - 15:27

Das Bundesamt für Migration und Flüchtlinge bearbeitet nicht nur Asylanträge, es gibt auch Hinweise an andere Behörden wie das BKA und den BND weiter. Diese Datenübermittlungen sind in den letzten Jahren stark angestiegen.

Im BAMF sitzen auch Mitarbeitende anderer Behörden als „Verbindungsbeamte“. – Alle Rechte vorbehalten IMAGO / Future Image

Migration und Asyl sind Themen, die zunehmend „versicherheitlicht“ sind. In anderen Worten: Statt humanitären oder sozialen Fragen bekommen im Umgang mit Geflüchteten vor allem Sicherheitsfragen Aufmerksamkeit. Datenbanken wie das europäische Fingerabdrucksystem EURODAC werden immer weiter entsprechend der Bedarfe von Polizeien und anderen ausgebaut. Die zentrale Aufgabe, Migration und Asylverfahren abzuwickeln, gerät dabei in den Hintergrund.

Das Bundesamt für Migration und Flüchtlinge (BAMF) bezeichnet sich seit einigen Jahren selbst als „wichtige Säule der deutschen Sicherheitsarchitektur“. Entsprechend eng ist auch die Zusammenarbeit des BAMF mit den Behörden, die sich klassischerweise Sicherheitsbehörden nennen: Polizeien und Geheimdienste. Diese Zusammenarbeit läuft nicht nur über gemeinsame Arbeitsgruppen oder Gremiensitzungen wie im Gemeinsamen Terrorabwehrzentrum, sie zeigt sich auch in der Menge der Daten, die das BAMF an BKA, den Auslandsgeheimdienst BND und Bundesverfassungsschutz übermittelt.

4.224 Sicherheitshinweise für das BKA

So hat die Asylbehörde im Jahr 2025 fast doppelt so viele als sicherheitsrelevant vermutete Hinweise (4.224) an das BKA geschickt wie im Jahr zuvor (2.151). Die Zahl der Asylanträge hingegen ging im gleichen Zeitraum von 250.945 auf 168.548 signifikant zurück.

window.addEventListener("message",function(a){if(void 0!==a.data["datawrapper-height"]){var e=document.querySelectorAll("iframe");for(var t in a.data["datawrapper-height"])for(var r,i=0;r=e[i];i++)if(r.contentWindow===a.source){var d=a.data["datawrapper-height"][t]+"px";r.style.height=d}}});

Auch die Übermittlungen an Bundesnachrichtendienst und Verfassungsschutz stiegen in den letzten Jahren wieder an. An den Militärgeheimdienst MAD gibt es weiterhin kaum Datenübergaben. Insgesamt reichte das BAMF im Jahr 2025 knapp 8.000 Meldungen an die vier Sicherheitsbehörden weiter. Das geht aus der Antwort der Bundesregierung auf eine parlamentarische Anfrage der Linken-Abgeordneten Clara Bünger hervor.

Ein KI-System liefert Hinweise

Um die entsprechenden Hinweise zu erstellen und weiterzuleiten, gibt es im 9.800 Beschäftigte starken BAMF einen besonderen Arbeitsbereich, die Referatsgruppe „Sicherheit“ mit ihrem Referat 71B für die „Operative Zusammenarbeit mit den Sicherheitsbehörden des Bundes und der Länder“. Dort arbeitet fast die Hälfte (112) der Mitarbeitenden der gesamten Referatsgruppe, die derzeit 240 Menschen umfasst. Andere Referate in der Gruppe kümmern sich beispielsweise um Echtheitsprüfungen von Dokumenten oder um Radikalisierungsprävention.

Seit einigen Jahren bekommen die Mitarbeitenden des Referats 71B neben den Hinweisen von Entscheider:innen, die Asylverfahren prüfen, dabei technische Unterstützung. Ein Programm sucht automatisch nach sicherheitsrelevanten Hinweisen in den Protokollen zur Asylanhörung und markiert entsprechende Funde – ohne dass die Entscheider:innen erst aufmerksam werden müssen. Diese Eingaben werden dann von den Mitarbeitenden des Sicherheitsreferats überprüft und an die entsprechende Behörde weitergegeben, wenn sie den Mitarbeitenden relevant erscheinen.

Aus früheren parlamentarischen Anfragen ist bekannt, dass es zu Fehlmeldungsquoten des Systems keine Erfassung gibt. Auch, was relevant ist und was nicht, offenbart das BAMF nicht. Fest steht jedenfalls: Es geht nicht nur um die Asylsuchenden selbst, zu denen Sicherheitsmeldungen erstellt werden. Auch wenn die Befragten in ihrer Anhörung etwas zu Vorfällen sagen, bei denen sie Zeug:innen oder Opfer waren, kann das relevant sein.

Deutlich häufiger, als Daten vom BAMF an andere Behörden fließen, fragt die Asylbehörde selbst bei externen Stellen ab, ob es Sicherheitsbedenken zu einer asylsuchenden Person gibt. Verwaltet werden die Rückmeldungen von BND, Verfassungsschutz, MAD, BKA, Bundespolizei und Zollkriminalamt dabei vom Bundesverwaltungsamt, das dem BAMF mitteilt, ob es Sicherheitsbedenken oder sonstige Gründe für eine Asylablehnung zu einer Person gibt. Insgesamt 258.500 Mal gab es im Jahr 2025 eine solche Überprüfung. Das ist nur etwas weniger als die Zahl der Asylentscheidungen (310.930), die das BAMF im selben Jahr getroffen hat.

Verbindungsbeamte und Geheimdienstbefragungen

Daten sind nicht das Einzige, was das BAMF mit anderen Behörden tauscht. Auch Mitarbeitende der Behörde sitzen als Verbindungsbeamt:innen bei BKA (7) und Bundespolizei (7). Zwölf Mitglieder anderer Behörden sitzen dafür in Räumen des BAMF. Welche das sind, will die Bundesregierung nicht öffentlich beantworten.

Eine weitere Form der Kooperation ist es, dass Mitarbeitende des Verfassungsschutzes direkt an Asylanhörungen teilnehmen können. Wie oft das geschieht, kann die Bundesregierung indes nicht sagen. Darüber würden keine Statistiken geführt. Auch wie oft der Bundesnachrichtendienst Geflüchtete befragt, werde nicht erfasst, heißt es in der Antwort an die Bundestagsabgeordnete.

Fragestellerin Clara Bünger kritisiert die Geheimdienstbefragungen. „Es ist besorgniserregend, wie eng das BAMF mit Geheimdiensten kooperiert. Im Asylverfahren sollte es eigentlich darum gehen, Fluchtgründe vorzutragen und zu bewerten – und nicht um Informationsbeschaffung für sogenannte Sicherheitsbehörden“, schreibt Bünger gegenüber netzpolitik.org. „Dabei besteht zudem die Gefahr, dass Geflüchtete unter Generalverdacht gestellt werden. Sie sind aber kein Sicherheitsrisiko, sondern Menschen, die Schutz suchen.“ Dass zu dem Ausmaß der Befragungen keine Statistiken geführt werden, findet sie problematisch. So bleibe das Ausmaß der Zusammenarbeit für Außenstehende unklar.

Kaum mehr „Interventionsfälle“

Bünger wünscht sich mehr Transparenz. Außerdem müsse die Bundesregierung „den Austausch von Daten über Asylsuchende zwischen dem BAMF mit Sicherheitsbehörden auf wenige Einzelfälle beschränken, in denen es tatsächlich einen begründeten Verdacht eines Sicherheitsrisikos gibt. Pauschal und flächendeckend Daten zu übermitteln, ist völlig unverhältnismäßig und greift tief in die Grundrechte von Geflüchteten ein.“

Im Gegensatz zur Teilnahme an den Befragungen werden jedoch jene Fälle erfasst, in denen ein Geheimdienst dem BAMF meldete, dass er Geflüchtete befragt hat. Denn wenn eine asylsuchende Person Kontakt zu einem deutschen Geheimdienst hatte, kann das ein Nachfluchtgrund sein – weil ihr aufgrund dessen in ihrem Herkunftsland Konsequenzen drohen. Doch mittlerweile, zeigt die Statistik, kommen derartige Fälle nur noch selten vor. Zwischen 2018 und 2025 gibt es insgesamt neun Fälle, in denen dem BAMF gemeldet wurde, dass es „nachrichtendienstlichen Kontakt eines Asylsuchenden mit dem BND und/oder dem BfV gegeben hat“.

Derartige „Interventionsfälle“ waren bis zum Jahr 2015 deutlich häufiger. Allein vom BND wurden von 2000 bis 2015 842 solcher Befragungen gemeldet. Der deutsche Auslandsgeheimdienst hatte mit der „Hauptstelle für Befragungswesen“ bis Mitte 2014 sogar eine eigene Tarnbehörde.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Der Fall Collien Fernandes: Ein mächtiges politisches Momentum

24. März 2026 - 14:09

Mit Collien Fernandes gelangt digitale Gewalt wie nie zuvor ins öffentliche Bewusstsein. Am Wochenende haben tausende Menschen in Berlin protestiert. Jetzt kommt es drauf an, das politische Momentum wirksam für Betroffene zu nutzen. Ein Kommentar.

Schild von der Demo gegen digitale Gewalt am 22. März in Berlin – Alle Rechte vorbehalten IMAGO/Bernd Elmenthaler

Von ungefähr 13.000 Menschen sprachen die Veranstalter*innen, von 6.700 die Polizei. Am Sonntag protestierten Tausende vor dem Brandenburger Tor in Berlin für besseren Schutz vor digitaler Gewalt. Sie zeigten Plakate mit der Aufschrift: „Nicht wütend genug“ oder „Gewalt gegen Frauen gefährdet Demokratie“. Der Grund dafür ist der Fall der Schauspielerin Collien Fernandes.

Seit Jahren kursieren von ihr nicht-einvernehmliche sexuelle Deepfakes. Bereits 2024 erschien eine ZDF-Dokumentation mit Fernandes: Jagd nach den Tätern. Seit einem Bericht des Spiegel sind ihre Erfahrungen wieder in den Schlagzeilen, und Reaktionen aus Politik und Zivilgesellschaft überschlagen sich. Früher als geplant will das Justizministerium ein Gesetz vorlegen zum Schutz vor digitaler Gewalt.

Eine wertvolle Gelegenheit

Mit dem Fall Fernandes bekommt ein Thema Momentum, das lange unter dem Radar der breiten Öffentlichkeit war. Rund ein Vierteljahrhundert nach den ersten Spuren des Begriffs steht digitale Gewalt in Deutschland wie nie zuvor im Fokus. Verschiedene Formen digitaler und häuslicher Gewalt bekommen mit Collien Fernandes ein Gesicht und eine Fürsprecherin. Damit bietet sich eine seltene und wertvolle Gelegenheit, Betroffenen eine Stimme zu geben – und ihren politischen Forderungen.

Ein solches politisches Momentum ist mächtig, es lauern aber zwei Gefahren. Erstens kann das Momentum schnell wieder verpuffen, denn Nachrichtenzyklen sind oft kurzlebig. Zweitens kann sich das Momentum an Forderungen festmachen, die Betroffenen wenig oder nur scheinbar helfen.

Innerhalb kürzester Zeit hat sich Bundesjustizministerin Stefanie Hubig (SPD) geäußert. Sie hat auf ihre – bereits länger laufende – Arbeit an einem Gesetz gegen digitale Gewalt verwiesen. Geplant ist unter anderem eine neue Strafbarkeit für sexualisierte Deepfakes, die seit der neuen EU-Richtlinie zur Bekämpfung von Gewalt gegen Frauen allerdings ohnehin Pflicht ist. Vor klaffenden Lücken beim Schutz vor bildbasierter Gewalt warnen Fachleute bereits seit Jahren. Erste Teile des Entwurfs kursieren schon, wir werden ihn zeitnah analysieren.

Achtung: Vorratsdatenspeicherung

Verwiesen hat die Justizministerien allerdings auch auf die bereits im Koalitionsvertrag vereinbarte Einführung der Vorratsdatenspeicherung. Mit Vorratsdatenspeicherung gegen digitale Gewalt? Wenn Netzbetreiber IP-Adressen und Portnummern auf Vorrat speichern müssen, ist das grundrechtlich kritisch. Das sehen auch Fachleute für digitale Gewalt so. Ende 2024 hat die Initiative „Ein Team gegen digitale Gewalt“ gemeinsam mit 60 weiteren Organisationen und Projekten ein umfassendes Forderungspapier vorgelegt. Darin heißt es:

Schutz vor digitaler Gewalt begründet keine Grundrechtseinschränkungen. Es ist im Interesse der Betroffenen, auf Repressions- und Verfolgungsmaßnahmen zu verzichten, die zwar den Straftäter aufspüren, aber auch die Betroffenen und die Gesamtgesellschaft vulnerabler machen.

Stattdessen sollten „Möglichkeiten ausgeschöpft und erprobt werden, die keine oder weniger negative Effekte haben“. Als konkrete Maßnahmen nennt das Papier Werkzeuge mit weniger Kollateralschäden wie etwa Login-Falle und Quick-Freeze-Verfahren.

Wie viel ist dem Staat der Schutz vor digitaler Gewalt wert?

Ein neues Bündel an Forderungen steht in einem neuen 10-Punkte-Papier, das mehr als 250 namhafte Frauen unterzeichnet haben. Manche der Forderungen sind spezifisch, andere breit. Die Strafbarkeit für sexualisierte Deepfakes (Forderung eins) zum Beispiel zielt auf jene konkrete Reform im Strafgesetzbuch, die das Justizministerium bereits plant. Weitaus größer ist allerdings Forderung fünf: Hier geht es um „Schutzstrukturen“ in der Breite nach dem Vorbild des spanischen Modells.

Dieses spanische Modell umfasst Prävention, Schutz und Strafverfolgung; ein Netz aus Unterstützungsdiensten und spezialisierten Staatsanwaltschaften, wie es der Verein Frauenhauskoordinierung zusammenfasst. Im Vergleich zu einer Strafrechtsreform geht es hier also auch um viel Geld für Personal, Behörden und Fortbildungen. Es geht um Menschen in Polizei und Justiz, die Zeit und Expertise brauchen, um Betroffene und ihre Erlebnisse ernst nehmen zu können. Um Menschen in Beratungsstellen, die Betroffenen Zeit und Rat geben sollen. Um Frauenhäuser, bei denen Betroffene Schutz und Zuflucht finden.

Bezeichnenderweise soll Fernandes ihre Anzeige nicht in Deutschland eingereicht haben, sondern in Spanien. Nicht nur, weil sie auf Mallorca einen Wohnsitz habe, sondern auch aufgrund der besseren Rechtslage. Für das deutsche Schutzsystem ist das ein bitteres Zeugnis. Selbst wenn sich jetzt ein politischer Wille formt, das System zu verbessern: Das wird Jahre dauern, länger als ein typischer Nachrichtenzyklus.

Erst vor wenigen Wochen hatten wir acht deutsche Organisationen gefragt: „Was brauchen Betroffene digitaler Gewalt am dringendsten?“ Aus den zahlreichen Antworten lässt sich eine wichtige Forderung kondensieren: Es muss mehr Geld ins Hilfesystem fließen.

Dieser Aspekt kann schnell unter den Tisch fallen, wenn Politik und Nachrichtenmedien über vergleichsweise kostengünstige Verschärfungen im Strafrecht sprechen. Oder über Vorratsdatenspeicherung, die ohnehin längst auf dem Wunschzettel der schwarz-roten Koalition stand.

Wie viel ist dem Staat der Schutz vor digitaler Gewalt wirklich wert? Genau hier gilt es den Finger in die Wunde zu legen, wenn es darum geht, das Momentum des Falls Fernandes im Sinne der Betroffenen zu nutzen.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Attacken bei Signal und WhatsApp: Immer mehr Spuren beim Messenger-Phishing weisen auf Russland

24. März 2026 - 13:30

Seit Monaten versuchen bislang unbekannte Angreifer, die Accounts von Personen aus Politik, Militär und Journalismus auf Messengern zu übernehmen. Eine Medienrecherche hat nun weitere Spuren entdeckt, die auf eine russische Urheberschaft hinweisen.

Betroffen sind die Messenger WhatsApp und Signal. – Alle Rechte vorbehalten IMAGO / photothek

Die Hinweise auf eine russische Urheberschaft der Phishing-Attacken auf die Messenger Signal und WhatsApp verdichten sich. Das Medienhaus Correctiv hat nun den Angriff auf den früheren Vizepräsidenten des Bundesnachrichtendienstes, Arndt Freytag von Loringhoven, ausgewertet und ist dabei auf digitale Spuren gestoßen, die nach Russland führen.

Seit Monaten werden vorrangig Personen aus Politik, Militär und Journalismus gezielt mit einer Phishing-Attacke auf den Messengern Signal und WhatsApp angegriffen, wie netzpolitik.org im Januar berichtete. Anfang Februar warnten der deutsche Verfassungsschutz und das BSI vor dem Angriff und verwiesen auf „wahrscheinlich staatlich gesteuerte Cyberakteure“.

Nachdem niederländische Geheimdienste den Angriff Russland zugeschrieben hatten, veröffentlichte netzpolitik.org weitere Hinweise auf diese Spur, deren Muster sich zudem in Belarus und Armenien beobachten lässt. Am vergangenen Freitag haben nun auch das US-amerikanische FBI und die IT-Sicherheitsbehörde CISA die Attacke russischen „Cyberakteuren“, die mit russischen Geheimdiensten in Verbindung stünden, zugeschrieben.

Russisches Hosting und Phishing-Programm

Die Recherche von Correctiv untermauert nun diese Behauptung. So konnte Correctiv die laufende Angriffswelle in Deutschland mit früheren Kampagnen in der Ukraine und Moldau in Verbindung bringen. Zudem konnte Correctiv die Nutzung des russischen Hosting-Dienstleisters Aeza und den Einsatz eines russischen Phishing-Programms Defisher nachweisen. In Kombination mit dem politischen Zuschnitt spreche dies dafür, dass es sich um eine zusammenhängende politische Kampagne handle, die ihren Ursprung in Russland habe, folgern die Rechercheure.

Eine Auftraggeberschaft des russischen Staates kann dies nicht beweisen. Die eindeutige Attribution ist bei Hackerangriffen in der Regel sehr schwierig, da es viele Faktoren gibt, um die Herkunft eines Angriffs zu verschleiern oder falsche Fährten zu legen. Dazu kommen politische Interessen bei der Zuweisung der Urheberschaft und der Drahtzieher, die sich in einer militärischen Auseinandersetzung wie dem Angriffskrieg gegen die Ukraine noch verschärfen.

Wie kann man sich schützen?

„Diese Angriffe nutzen keine Schwachstelle in der Signal-Anwendung selbst aus. Signal ist nach wie vor eine der sichersten und am weitesten verbreiteten verschlüsselten Messaging-Apps“, sagte Donncha Ó Cearbhaill, Leiter des Security Lab bei Amnesty International im Januar gegenüber netzpolitik.org.

Von Signal selbst hieß es damals gegenüber netzpolitik.org: „Signal wird Sie niemals in irgendeiner Form über einen Zwei-Wege-Chat innerhalb der App kontaktieren.“ Zudem sollten die Nutzer:innen die Registrierungssperre aktivieren. Das geht unter „Einstellungen“ –> „Konto“ und dann den Schieberegler bei „Registrierungssperre“ aktivieren. Zudem sagt Signal: „Geben Sie Ihre Signal-PIN oder Registrierungssperre niemals an Dritte weiter.“

Wenn eine Nachricht eines bislang unbekannten Accounts mit dem beschriebenen oder einem ähnlichen Inhalt ankommt, sollte man die ankommende Nachricht „melden“ und dann „melden und blockieren“ klicken. In keinem Fall sollte man den Anweisungen folgen, weil Signal niemals Nutzer:innen auf einem solchen Weg kontaktieren würde.

Sollte in Chats die Nachricht auftauchen, dass sich die Sicherheitsnummer eines Kontakts geändert hat, bedeutet das häufig nur, dass dieser ein neues Handy hat. Dennoch sollte man immer in solchen Situationen auf einem anderen Kanal als dem Signal-Textchat bei dem betreffenden Kontakt nachfragen, warum sich dessen Sicherheitsnummer geändert hat.

Für die Überprüfung eignet sich in der Regel ein Telefonat oder noch besser ein Videotelefonat. Ratsam ist zudem, sich alle mit Signal verbundenen eigenen Geräte anzeigen zu lassen und nicht mehr benötigte zu löschen.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Gewalt gegen Frauen: Ein Gesetz stürzt noch kein Patriarchat

23. März 2026 - 12:49

Das geplante Gesetz gegen digitale Gewalt schließt längst überfällige Strafbarkeitslücken. Doch auf einem Verbot für sexualisierte Deepfakes kann sich die Bundesregierung nicht ausruhen, so lange die meisten Fälle nicht mal bis zur Anklage kommen. Ein Kommentar.

Dieses Problem wird Bundesjustizministerin Hubig nicht allein mit dem Strafrecht in den Griff bekommen. – Alle Rechte vorbehalten Florian Gärtner / IMAGO

Jetzt kommt es also endlich, das Gesetz gegen digitale Gewalt, an dem das Justizministerium bereits seit fünf Jahren arbeitet, das schon zu Ampelzeiten versprochen wurde und dann versandete. Am Freitag hat Bundesjustizministerin Stefanie Hubig (SPD) angekündigt, den Entwurf noch diese Woche vorzulegen. Er soll in den kommenden Tagen innerhalb der Bundesregierung abgestimmt werden.

Die sexualisierten Deepfakes, über die derzeit ganz Deutschland spricht, nachdem die Schauspielerin Collien Fernandes ihren Fall öffentlich machte, sie sollen damit unter Strafe gestellt werden.

Nicht nur das Verbreiten und Teilen, sondern schon das Erstellen solcher Aufnahmen wird dann in Deutschland verboten. Und auch viele weitere Schutzlücken zu bildbasierter Gewalt soll das Gesetz schließen, etwa zu heimlichen Aufnahmen in Umkleiden und Saunen oder dem ungefragten heimlichen Filmen eines bekleideten Hinterns – unglaublich, aber all das war bislang nicht explizit strafbar.

Jurist*innen und Betroffene weisen seit Jahren auf diese Ungerechtigkeiten hin. Sie sind nicht nur den Betroffenen kaum vermittelbar, sondern allen, die zurecht fragen, welchen Wert sexuelle Selbstbestimmung in einem Land hat, in dem solche Übergriffe erlaubt ist. Es ist gut, dass das deutsche Strafrecht sie in Zukunft klar verbietet, auch wenn die Reaktion reichlich spät kommt.

Was ist mit den restlichen 97 Prozent?

Gleichzeitig könnte man, wenn man der Justizministerin derzeit zuhört, meinen, damit sei es schon getan.

Das ist es leider nicht. Nur sehr wenige Betroffene von sexualisierter Gewalt zeigen diese derzeit an. Bei digitaler Gewalt liegt der Anteil bei 2,4 Prozent. Das zeigt eine kürzlich erschienene Studie von Bundesfamilienministerium, Bundesinnenministerium und Bundeskriminalamt.

Der mit Abstand größte Teil der Menschen bringt die Fälle also nicht zur Polizei, es folgen nie Ermittlungen oder Anklagen einer Staatsanwaltschaft deswegen. Was die Frage aufwirft: Was ist denn mit den restlichen 97,6 Prozent?

Natürlich kann es sein, dass die Anzeigequote steigt, wenn Betroffene davon ausgehen, dass ihre Anzeigen eine größere Chance für eine Strafverfolgung bieten. Dass mutmaßliche Täter*innen nicht so leicht davon kommen. Dass ihre Schilderungen von der Polizei verstanden und ernst genommen werden und auch vor Gericht. Hier muss der Staat daran arbeiten, dass seine Behörden bei einer Anzeige wegen digitaler und sexualisierter Gewalt nicht als Hindernis und Schikane wahrgenommen werden, sondern als Unterstützung.

Die öffentlich zur Schau gestellte Zufriedenheit der Justizministerin, bei der es nun klingt als hätte ihre Regierung mit dem Gesetzentwurf quasi schon das Patriarchat halb in die Knie gezwungen: Vor allem Fachleute teilen sie nicht. Sie verweisen stattdessen auf all die vielen Hebel, die darüber hinaus umgelegt werden müssen.

„Dann schäme ich mich noch mehr“

Was Menschen – oder sagen wir es gleich, es sind ganz überwiegend Frauen und Mädchen – fühlen und denken, wenn sie ein sexualisiertes Deepfake von sich im Internet entdecken, beschreibt etwa die Moderatorin Lola Weippert in der Dokumentation, die Collien Fernandes vor zwei Jahren für das ZDF gedreht hat.

Auf die gefälschten Videos von ihr angesprochen sagt Weippert: „Ich schäme mich, dass es so etwas überhaupt gibt. Und dann schäme ich mich noch mehr, wenn ich denke, wie viele Menschen das sehen und denken, das ist echt. Und ich kann nichts dagegen tun.“

Die Betroffenen fühlen Scham, viele sprechen von Panik, fragen sich, wer die Bilder kennt oder was passiert, wenn Auftrag- und Arbeitgeber*innen, Familie, Freunde diese finden. Sie fürchten um ihre Jobs, ihre Einkommen. Die psychischen und körperlichen Folgen, der Stress, die Angst, sie sind ähnlich wie bei anderen Gewalterfahrungen, der Körper unterscheidet da nicht.

In so einer Situation brauchen Betroffene vor allem praktische und sofortige Unterstützung. Wie können sie dafür sorgen, dass Bilder oder Deepfakes gelöscht werden? Dass sie aus den Suchmaschinen verschwinden? Welche Aussichten hat es überhaupt, Anzeige zu erstatten und wie müssen sie dafür Beweise sichern?

Recht auf Beratung für Betroffene? Ab 2032.

Dazu gehört juristische Beratung, aber auch psychologische Hilfe. Die Stellen, die solche Hilfe aber anbieten, sind in Deutschland chronisch unterfinanziert. Sie müssen um Stellen und Mittel kämpfen, wissen oft nicht, wie es zum Jahresende finanziell weitergeht. Das Gewalthilfegesetz, das die Bundesregierung vor einem Jahr verabschiedet hat, soll die Beratung in solchen Fällen zu einem Recht machen. Dieser Rechtsanspruch: Er greift ab dem Jahr 2032.

Eine Bundesregierung, die ihre Bürger*innen vor Gewalt schützen will, kann sich nicht auf einer reichlich späten Verschärfung des Strafrechts ausruhen. Tech-Oligarchen haben Technologien entwickelt, die es möglich machen, mit ein paar Klicks und wenigen Worten die sexuelle Selbstbestimmung eines anderen Menschen zu verletzen.

Sie dürfen damit nicht durchkommen und die EU hat bereits Mittel, um sie damit auch nicht durchkommen zu lassen. Weitere Werkzeuge sind in Arbeit. Aber so lange die Technologien in der Welt sind und es auch bleiben werden, so lange das Patriarchat weiterhin stabil und breitbeinig steht, muss die Bundesregierung so schnell wie möglich für das absolute Minimum sorgen: Dass diejenigen, die den Schaden tragen, wenigsten die Hilfe und Unterstützung bekommen, die sie brauchen.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Pilotprojekt der Polizei Berlin: Ohne Plan und ohne Partner

23. März 2026 - 10:19

Ein angekündigtes Projekt der Berliner Polizei zum „Früherkennungs- und Bedrohungsmanagement“ soll eigentlich im April starten. Doch weder eine Evaluation der Rechtsgrundlagen noch konkrete Risikoindikatoren scheinen fertig zu sein. Die Opposition warnt vor einer Stigmatisierung psychisch Erkrankter.

Die Polizei Berlin will Risiken besser einschätzen können. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Elena Crobu

Anfang Februar kündigte die Berliner Polizeipräsidentin Barbara Slowik ein neues Projekt an: Potenzielle Gewalttäter:innen sollen in einem Drei-Stufen-Modell früher identifiziert werden. Das bezieht sich auch, aber nicht nur, auf Menschen mit vermuteten psychischen Erkrankungen, die sich auffällig verhalten. Das Projekt, so Slowik, solle im April starten.

Bis April ist nur noch wenig Zeit. Doch eine Anfrage von netzpolitik.org bei der Berliner Polizei zeigt: Zu der vollmundigen Ankündigung gibt es kurz vor Projektstart auffallend wenig Konkretes. Viele Fragen sind ungeklärt, darunter die nach einer Rechtsgrundlage für den Datenaustausch oder um welche Daten es überhaupt geht. Außerdem hat sich die Polizei offenkundig mit kaum einer anderen relevanten Institution zu ihrem Vorhaben abgestimmt.

Die drei Stufen zum Hochrisikofall

Was zu dem Projekt mit dem Namen „Früherkennungs- und Bedrohungsmanagement“ bekannt ist: Die drei Stufen des Modells beziehen sich auf unterschiedliche Gruppen von Polizist:innen. In der ersten Stufe sind Beamt:innen gemeint, die üblicherweise Erstkontakt zu Personen haben, weil sie ihnen etwa auf Streife begegnen oder zu einem Einsatz gerufen werden. Diese sollen „wissenschaftlich anerkannte und interdisziplinär erarbeitete Risikoindikatoren“ an die Hand bekommen, um Situationen besser einschätzen zu können. Das sagte im Februar der Vizepräsident der Polizei in einer Sitzung des Innenausschusses im Berliner Abgeordnetenhaus.

Welche Indikatoren das sind, kann die Polizei auf Nachfrage allerdings nicht sagen. Es heißt von der Pressestelle, sie basierten „auf aktuellen wissenschaftlichen Standards kriminalprognostischer Verfahren im Hinblick auf schwere Gewalttaten“ und würden sich aus statischen und dynamischen Faktoren sowie Warnsignalen und Schutzfaktoren zusammensetzen. Weitergehende Auskünfte seien „aufgrund der dynamischen Entwicklungen“ aktuell nicht möglich. Das klingt, als wären die Indikatoren schlicht noch nicht fertig formuliert.

Die zweite Stufe bezieht sich auf besonders geschulte Beamt:innen, die auf Basis von Meldungen der Kolleg:innen aus der ersten Stufe eine „umfassende und fortlaufende Risikobeurteilung“ durchführen. Sie könnten also vielleicht prüfen, ob eine Person, die gerade Menschen am Alexanderplatz beschimpft, schon öfter bei einem Polizeieinsatz aufgefallen ist. Kommen diese Beamt:innen zum Ergebnis, dass es ein Risiko für schwere Straftaten wie Tötungsdelikte gibt, leiten sie die Fälle an die dritte Stufe weiter: einen Dienstbereich für „Hochrisikofälle“.

Mit wem hat sich die Polizei abgestimmt?

Während es im Modell nicht speziell um mutmaßlich psychisch erkrankte Personen geht, lag der Fokus in der Ankündigung der Polizeipräsidentin auf diesen. „Wir sehen bereits seit längerem immer häufiger Menschen, die verhaltensauffällig sind, also unter Drogen stehen oder psychische Erkrankungen aufweisen, und in diesem Zusammenhang schwere Straftaten begehen“, sagte sie gegenüber der Deutschen Presseagentur. Es solle auch Fallkonferenzen geben und über die Einbindung sozialpsychiatrischer Dienste oder Zwangseinweisungen entschieden werden, wenn die Risikoanalyse das nahelege.

Der Vizepräsident der Polizei erläuterte in der Sitzung des Innenausschusses, es gehe „bei Menschen mit psychischen Verhaltensauffälligkeiten“ insbesondere auch darum, „über eine Zusammenarbeit mit dem Gesundheitssektor eine nachhaltige psychologische Versorgung sicherzustellen“. Das suggeriert: Kommt die Polizei in ihrer neuen Risikobewertung zum Ergebnis, dass eine Person medizinische oder therapeutische Hilfe benötigt, setzt sie sich mit anderen in Verbindung. Dafür braucht es eine geregelte Zusammenarbeit.

Zuständig für gesundheits- und damit auch psychiatriepolitische Themen ist in Berlin die Senatsverwaltung für Gesundheit. Die war jedoch, wie ein Sprecher der obersten Landesbehörde auf Anfrage von netzpolitik.org schreibt, nicht an den Abstimmungen zum Pilotprojekt beteiligt. Es gebe jedoch einen Austausch mit der Innenverwaltung über den „Umgang mit psychisch auffälligen Gewalttätern“.

Gesundheitsverwaltung hat eigene Pläne

Daneben setzt die Gesundheitsverwaltung auf eine Bestandsaufnahme. „Derzeit wird die gesamte psychiatrische Versorgung evaluiert“, schreibt ein Sprecher. „Dabei sollen die Strukturen, insbesondere im Hinblick auf die Versorgung von Menschen mit schweren psychischen Erkrankungen, analysiert werden.“

Ziel sei eine Landespsychiatrieplanung für Berlin. Die Gesundheitsverwaltung schreibt auch: „Die wirksamste Maßnahme der Gewaltprävention bei Menschen mit psychischen Erkrankungen ist eine fachgerechte psychiatrisch-psychotherapeutische Behandlung. Sie senkt nachweislich das Risiko für Gewalttaten.“ Der Sprecher betont, dass nur wenige Menschen mit einer psychischen Erkrankung überhaupt zu einer Risikogruppe gehören, „die ein erhöhtes Gewalt- bzw. Straftatpotenzial aufweist […] Ein simpler Kausalzusammenhang zwischen psychischer Erkrankung und Gewalt- beziehungsweise Straftaten besteht nicht.“

Außerdem sei eine Novellierung des Berliner Gesetzes über Hilfen und Schutzmaßnahmen bei psychischen Krankheiten (PsychKG) geplant. Das Gesetz regelt auf der einen Seite Unterstützungsmaßnahmen, definiert aber auch, wann eine Person gegen ihren Willen in eine Klinik eingewiesen werden kann. Die Reform wird die nächste Berliner Landesregierung nach den Wahlen im September 2026 in Angriff nehmen müssen. Dabei habe der Schutz der persönlichen Rechte von Menschen mit psychischer Erkrankung „höchste Priorität“, so der Sprecher.

In einer Antwort der Gesundheitsverwaltung auf eine Frage der Grünen-Fraktion im Abgeordnetenhaus positionierte diese sich bereits dazu, ob mit einer Novelle des Berliner PsychKGs künftig auch Daten über psychisch erkrankte Personen an Polizei und andere Sicherheitsbehörden übermittelt werden sollen. Derartige Regeln haben etwa Hessen und Niedersachsen in den letzten Monaten in ihre PsychKG-Reformen eingebracht, unter viel Kritik von medizinischen Fachleuten, Betroffenenverbänden und Datenschützer:innen. Das sei in Berlin nicht vorgesehen, der Senat berücksichtige das Recht auf Privatsphäre, schreibt die Gesundheitsverwaltung in ihrer Antwort.

Datenaustausch mit „Akteuren“

Die Polizei indes will in ihrem Pilotprojekt offenbar Daten mit anderen austauschen, anders wäre eine Zusammenarbeit mit dem „Gesundheitssektor“ kaum möglich. Aber um geht es genau? Dazu kann sie wenige Wochen vor dem geplanten Projektstart erstaunlich wenig sagen. Sie stehe bei ihrer Arbeit „im Rahmen der rechtlichen Möglichkeiten im Austausch mit relevanten staatlichen und nichtstaatlichen Akteuren“, antwortet ein Pressesprecher. Der könne „sowohl fallbezogen als auch auf die Abstimmung notwendiger Arbeitsprozesse gerichtet sein“. Das soll auch im „Früherkennungs- und Bedrohungsmanagement“ stattfinden, weitergehende Auskünfte seien aber nicht möglich, weil sich das „noch in Planung“ befinde.

Ebenso in der Planung – oder besser in der Findung – ist offenbar auch die Rechtsgrundlage, auf der Informationen ausgetauscht werden könnten: „Die Prüfung, auf welcher Rechtsgrundlage ein Daten- und/oder Erkenntnisaustausch zwischen den verschiedenen Akteuren erfolgen könnte, ist noch nicht abgeschlossen.“

Landesdatenschutzbeauftragte erfuhr aus der Presse vom Projekt

Helfen bei dieser Suche oder einer Einschätzung, ob das nach derzeitigen rechtlichen Regelungen überhaupt möglich ist, könnte vielleicht die Berliner Landesdatenschutzbehörde. Immerhin hieß es in der Sitzung des Innenausschusses im Februar, die neu geschaffenen Arbeitsprozesse würden einer datenschutzrechtlichen Kontrolle unterzogen. Doch die Landesdatenschutzbeauftragte Berlins war damit wohl nicht gemeint. „Wir wurden nicht einbezogen und haben erst aus der Presse von dem Projekt erfahren“, schreibt ein Sprecher auf Anfrage von netzpolitik.org.

Vielmehr meint die Polizei wohl eine Selbstkontrolle. „Die neu geschaffenen Arbeitsprozesse werden einer datenschutzrechtlichen Überprüfung durch Datenschutzbereiche der Polizei Berlin unterzogen, sofern datenschutzrechtliche Belange betroffen sind“, heißt es auf Anfrage.

Niklas Schrader, innenpolitischer Sprecher der Linken im Berliner Abgeordnetenhaus, kann all das nicht verstehen. „Es ist mir vollkommen unverständlich, warum die Berliner Polizei mit einem derart unausgegorenen Vorhaben an die Öffentlichkeit gegangen ist“, schreibt der Abgeordnete gegenüber netzpolitik.org. „Weder sind Rechtsgrundlagen oder datenschutzrechtliche Fragen geklärt, noch hat eine Abstimmung mit dem Gesundheitsbereich stattgefunden.“ Er befürchtet, dass aus dem Projekt Stigmatisierung und eine Abschreckung für Hilfesuchende folgen könnten. „Wenn gleichzeitig die Versorgung mit therapeutischen und anderen Hilfsangeboten so mangelhaft ist wie derzeit in Berlin, ist das eine absolut besorgniserregende Entwicklung.“

Auch Vasili Franco, innenpolitischer Sprecher der Grünen, hat ähnliche Kritik. Er versuchte mit einer parlamentarischen Anfrage im Februar, mehr über die Pläne der Polizei zu erfahren. „Menschen mit psychischen Erkrankungen brauchen in erster Linie Hilfe. Diese Hilfebedarfe treffen schon heute auf ein System der Unterversorgung“, so der Abgeordnete. „Die entscheidende Frage ist, wie man Menschen mit psychischen Erkrankungen von einer polizeilichen Bearbeitung in eine regelhafte und nachhaltige Gesundheitsversorgung überführt. Davon scheint das Pilotprojekt der Berliner Polizei noch weit entfernt zu sein.“

Es sei unter medizinischen und ethischen Standards nicht vertretbar, der Polizei zukünftig die Beurteilung von psychischen Erkrankungen zu überlassen. „Eine psychisch erkrankte Person darf nicht mit einem Sicherheitsrisiko gleichgesetzt werden.“

Zusammenfassend lässt sich wenig sagen. Es wirkt, als habe die Polizeipräsidentin ein Projekt angekündigt, das noch weit von einer konkreten Umsetzbarkeit entfernt ist. Bis jetzt ist noch nicht einmal geklärt, wie lange der angekündigte „zeitlich begrenzte Probebetrieb“ überhaupt dauern soll. „Der konkrete Zeitrahmen für den Probebetrieb zur gezielten Testung spezifischer interner Arbeitsabläufe befindet sich derzeit noch in der Abstimmungsphase“, heißt es von der Polizei. Ob es also im April überhaupt losgeht, wird sich zeigen müssen.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Compact: Verfassungsfeindlich, aber nicht verboten

22. März 2026 - 8:26

Das Bundesverwaltungsgericht hat letzten Sommer das Verbot der COMPACT-Magazin GmbH aufgehoben, obwohl es verfassungsfeindliche Positionen fand. David Werdermann analysiert, ob das ein Erfolg für die Pressefreiheit ist und was das Urteil für ein mögliches AfD-Verbotsverfahren bedeutet.

Compact-Chefredakteur Jürgen Elsässer feierte sich nach der Aufhebung des Verbots selbst. – Alle Rechte vorbehalten IMAGO / dts Nachrichtenagentur

David Werdermann ist Rechtsanwalt bei der Gesellschaft für Freiheitsrechte und der Berliner Kanzlei KM8 Rechtsanwältinnen & Rechtsanwälte. Zu seinen Schwerpunkten gehören das Polizei- und Verfassungsschutzrecht sowie die Pressefreiheit. Dieser Beitrag erscheint in „Recht gegen rechts – Report 2026“, der am 25. März im S. Fischer Verlag erscheint. Veröffentlichung mit freundlicher Genehmigung des Verlages und der Herausgeber*innen. Alle Rechte vorbehalten.

Mit Urteil vom 24. Juni 2025 hat das Bundesverwaltungsgericht das Verbot der COMPACT-Magazin GmbH aufgehoben. Das Bundesinnenministerium unter Nancy Faeser (SPD) wollte das Compact-Magazin verbieten, weil es seiner Auffassung nach rechtsextreme und verfassungsfeindliche Inhalte verbreitet.

Der Report „Recht gegen rechts“ analysiert rechte Tendenzen innerhalb von Justiz, Verwaltung und Parlamenten sowie Gegenstrategien. - Alle Rechte vorbehalten S. Fischer Verlag

Ein direktes Verbot des Magazins war nicht möglich, deswegen ging das Ministerium einen Umweg über das Vereinsrecht: Es erklärte die COMPACT-Magazin GmbH zu einem Verein und verbot diesen nach dem Vereinsgesetz. Damit sollte auch das Magazin getroffen werden. Doch dieser Versuch ist gescheitert.

Compact-Chefredakteur Jürgen Elsässer konnte sich noch im Gericht mit einem eigens dafür vorbereiteten T-Shirt als „Bundesregierung Besieger“ feiern lassen. Compact ist ein rechtsextremes Monatsmagazin, das für seine rassistischen, antisemitischen und geschichtsrevisionistischen Inhalte bekannt ist. Hinter der Zeitschrift steckt ein Kreis rund um Chefredakteur Jürgen Elsässer mit engen Verbindungen zu anderen rechtsextremen Akteur*innen, darunter die AfD, „Die Heimat“ (früher NPD) und die Identitäre Bewegung.

Dieser Kreis produziert nicht nur das Compact-Magazin, sondern bespielt auch einen eigenen Youtube-Kanal, veröffentlicht Bücher und organisiert Veranstaltungen und Kampagnen.

Medienverbot nach Vereinsrecht

Mit Verfügung vom 5. Juni 2024 verbot das Bundesinnenministerium die COMPACT-Magazin GmbH, die das Magazin herausgibt, und ihre Teilorganisation CONSPECT Film GmbH. Gestützt wurde das Verbot auf das Vereinsgesetz, begründet wurde es vor allem mit den publizierten Inhalten. In diesen werde ein „völkisch-nationalistisches Gesellschaftskonzept“ propagiert. Die Vereinigung richte sich daher gegen die verfassungsmäßige Ordnung, weswegen sie nach Artikel 9 Absatz 2 des Grundgesetzes verboten sei.

Nachdem das Bundesverwaltungsgericht bereits am 14. August 2024 dem Eilantrag der COMPACT-Magazin GmbH und der CONSPECT FILM GmbH stattgegeben und das Verbot vorläufig außer Kraft gesetzt hatte, hob es mit Urteil vom 24. Juni 2025 das Verbot endgültig auf.

Die Entscheidung lässt sich wie folgt zusammenfassen: Die COMPACT-Magazin GmbH richtet sich gegen die verfassungsmäßige Ordnung, ihr Verbot ist aber unverhältnismäßig, weil die verfassungsfeindlichen Aktivitäten die Vereinigung nicht insgesamt prägen.

In der Begründung setzt sich das Gericht zunächst ausführlich mit der Frage auseinander, ob das Vereinsrecht überhaupt auf Medienunternehmen anwendbar ist. Denn am Ende geht es um ein Verbot einer Zeitung und somit um einen gravierenden Eingriff in die Pressefreiheit. Das Gericht unterscheidet jedoch zwischen der Organisation und den von dieser herausgegebenen Medien. Gegenstand des Verbots sei der „Elsässer-Kreis“ als hinter der COMPACT-Magazin GmbH stehende Vereinigung. Das Vereinsrecht sei „blind“ für den von der jeweiligen Organisation verfolgten Zweck. Ergänzend weist das Gericht darauf hin, dass die COMPACT-Magazin GmbH kein reines Medienunternehmen sei, sondern eine politische Agenda verfolge sowie Veranstaltungen und Kampagnen organisiere.

Remigration verstößt gegen Menschenwürde und Demokratie

Das Gericht geht dann auf die vom „Elsässer-Kreis“ vertretenen Positionen ein. Im Zentrum steht dabei das „Remigrationskonzept“ vom Aktivisten der Identitären Bewegung Martin Sellner, das dieser unter anderem in seiner Compact-Kolumne, in Videos sowie in einer eigenen Compact-Edition („Sellner – Geheimplan – Was ich wirklich will“) ausbreiten durfte.

Das Bundesverwaltungsgericht legt ausführlich dar, dass Sellner von einem „Vorrang der ethnisch-kulturell Deutschen“ ausgehe (Randnummer 97 ff.). Dies steht im Widerspruch zu dem Verständnis der Staatsangehörigkeit nach dem Grundgesetz, das durch die Gleichheit vor dem Gesetz und die Achtung der Menschenwürde geprägt ist. Der „Elsässer-Kreis“ identifiziere sich mit dem Remigrationskonzept, wie es sich unter anderem aus der prominenten Rolle Sellners bei Compact, verschiedenen Äußerungen von Compact-Führungspersonen sowie ihrer Nähe zu anderen rechtsextremen Akteur*innen ergebe.

Neben dem Remigra­tionskonzept zieht das Bundesverwaltungsgericht „fortgesetzte Herabsetzungen von Zugewanderten im Allgemeinen“ heran, was ebenfalls gegen die Menschenwürde verstoße (Randnummer 132 ff.). Antisemitismus trete bei Compact hingegen nicht „eindeutig genug hervor“ (Randnummer 142).

Das Bundesverwaltungsgericht erkennt jedoch eine demokratiefeindliche Haltung. Die politischen Pläne der Remigration seien „erkennbar auch dadurch motiviert, den Einfluss der Gruppe von Deutschen mit Migrationshintergrund bei Wahlen und Abstimmungen zu schmälern“ (Randnummer 145). Einzelne Beiträge würden darüber hinaus darauf hindeuten, dass der „Elsässer-Kreis“ das gegenwärtige parlamentarisch-repräsentative System ablehne, sie könnten jedoch auch als „überspitzte Machtkritik“ interpretiert werden (Randnummer 146 f.). Die Vereinigung nehme auch eine kämpferisch-aggressive Haltung ein.

Hierfür genügt es laut Bundesverwaltungsgericht, „dass die Vereinigung ihre verfassungsfeindlichen Ziele in die Tat umsetzen bzw. die verfassungsmäßige Ordnung fortlaufend aktiv untergraben will und zum Kampf gegen sie aufruft“. Das sei bei der COMPACT-Magazin GmbH gegeben, was das Gericht unter anderem an den von der Vereinigung organisierten Protestveranstaltungen und Demonstrationen sowie an der „agitatorischen Rhetorik“ festmacht.

Verfassungsfeindliche Beiträge reichen nicht aus

Trotzdem kommt das Bundesverwaltungsgericht zu dem Ergebnis, dass das Verbot rechtswidrig ist. Aus dem Grundsatz der Verhältnismäßigkeit leitet es die Voraussetzung für ein Verbot ab, dass die verfassungsfeindlichen Äußerungen und Aktivitäten die Vereinigung in entscheidender Weise prägen müssen. Bei Compact sei diese verfassungsfeindliche Prägung aus vier Gründen nicht gegeben (Randnummer 146 ff.):

Erstens berücksichtigt das Gericht den hohen Schutz der Presse- und Meinungsfreiheit. Abstrakte Gefahren, die mit der Verbreitungsform in Presse- und Medienprodukten verbunden seien, nehme das Grundgesetz hin.

Zweitens würden die verbotsrelevanten Äußerungen nur einen „Teilbereich der Tätigkeiten“ der Vereinigung ausmachen. Viele andere Äußerungen könnten als „Ausdruck einer polemisch formulierten Machtkritik und der verfassungsrechtlich unbedenklichen Forderung nach einer Verschärfung des Zuwanderungs- und Staatsangehörigkeitsrechts“ verstanden werden.

Drittens zeichne sich Chefredakteur Elsässer durch eine „beachtliche Wendigkeit“ aus, was das Bundesverwaltungsgericht an dessen früherer Tätigkeit für linke Medien und an seinen Aussagen zu sogenannten Gastarbeitern festmacht, die eine „durchaus auch ambivalente Haltung zu Ausländern“ offenbarten. Das ist ein zweifelhaftes Argument, zumal das Gericht an anderer Stelle zutreffend herausarbeitet, dass Elsässer auch Gastarbeiter mit deutscher Staatsangehörigkeit nicht als Deutsche anerkennt (Randnummer 141).

Viertens berücksichtigt das Bundesverwaltungsgericht die Themenbreite der Publikationen. In weiten Teilen erfolge eine „neutrale Berichterstattung“, die völlig unverfängliche Themen betreffe und keinerlei verfassungsfeindliche Aussagen enthalte.

Bei der Frage der verfassungsfeindlichen Prägung nimmt das Bundesverwaltungsgericht ausdrücklich keine quantitative, sondern eine „wertende Betrachtung“ vor (Randnummer 153). Damit wird ausgeschlossen, dass etwa Medienunternehmen sich durch das gezielte „Beimischen“ unpolitischer oder neutraler Inhalte (zum Beispiel Kochrezepte, Reisereportagen) vor einem Vereinsverbot „schützen“ können. Gleichzeitig ist das Merkmal der verfassungsfeindlichen Prägung dehnbar und wertungsoffen. Es eröffnet damit den Verbotsbehörden und Verwaltungsgerichten einen weiten Entscheidungsspielraum.

Erfolg für die Pressefreiheit?

Daher kann das Urteil des Bundesverwaltungsgerichts auch nicht uneingeschränkt als Erfolg für die Pressefreiheit bezeichnet werden. Das Verbot der COMPACT-Magazin GmbH wurde zwar – im Ergebnis richtig – aufgehoben. In der Begründung wird jedoch Zeitungsverboten durch die Hintertür des Vereinsrechts der Weg geebnet. Das kann auch andere Medien treffen, wie die Verbote der linken Internetplattform linksunten.indymedia und des kurdischen Mezopotamien Verlags zeigen. Dabei überzeugt schon die Anwendung des Vereinsgesetzes nicht.

Wenn ein Verbot – wie hier – in erster Linie auf Medieninhalte zielt, handelt es sich in der Sache um Medienrecht, für das die Länder zuständig sind. Schade ist in dem Zusammenhang, dass das Bundesverwaltungsgericht ausdrücklich die Frage offenlässt, ob es mildere Mittel gibt, die ein Vereinsverbot entbehrlich machen. Im Eilbeschluss hatte das Gericht noch „presse- und medienrecht­liche Maßnahmen, Veranstaltungsverbote, orts- und veranstaltungsbezogene Äußerungsverbote sowie Einschränkungen und Verbote von Versammlungen“ in Betracht gezogen.

Ob solche Maßnahmen gegen Compact angewendet werden können, ist jedoch zweifelhaft. Denn die Pressegesetze der Länder kennen aus gutem Grund (Zensurverbot!) keine präventiven Verbote, und gegen konkrete Inhalte kann nur unter strengen Voraussetzungen vorgegangen werden, etwa bei Volksverhetzung. Gegen Compact-Redakteur*innen gab es – soweit ersichtlich – nur vereinzelt Strafverfahren. Das spricht auch gegen das Vereinsverbot. Denn ein solches ist nach der Rechtsprechung des Bundesverfassungsgerichts mit dem Grundgesetz nicht zu vereinbaren, wenn es nur das Mittel ist, Meinungsäußerungen oder Publikationen zu untersagen, die für sich genommen den Schutz der Meinungs- und Pressefreiheit genießen.

Schlussfolgerungen für ein AfD-Verbot?

Interessant ist das Urteil auch mit Blick auf die Diskussion über ein mögliches AfD-Verbotsverfahren. Insbesondere die Ausführungen zu Sellners Remigrationskonzept und zum egalitären Verständnis der Staatsangehörigkeit sind hierfür relevant. Jedoch ist die Zurechnung von Positionen bei einer Massenpartei mit Tausenden Mitgliedern und Hunderten Funktionär*innen deutlich schwieriger.

Andere Begründungselemente aus dem Compact-Urteil, wie die meinungsfreiheitsfreundliche Bewertung mehrdeutiger Aussagen oder das Merkmal der verfassungsfeindlichen Prägung, finden sich so bisher nicht in der verfassungsgerichtlichen Rechtsprechung zu Parteiverboten. Die Compact-Entscheidung spricht also nicht zwingend gegen die Erfolgsaussichten eines AfD-Verbotsantrags.

Andererseits zeigt der Fall, dass repressive Maßnahmen gegen Rechtsextreme hochgradig ambivalent sind und gut überlegt sein sollten. Sonst feiern am Ende nur die Rechten.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

KW 12: Die Woche, als sich Eltern um Daten von Kindern sorgten

21. März 2026 - 9:24

Die 12. Kalenderwoche geht zu Ende. Wir haben 17 neue Texte mit insgesamt 138.331 Zeichen veröffentlicht. Willkommen zum netzpolitischen Wochenrückblick.

Liebe Leser*innen,

diese Woche ging es für mich und meine Kollegin Chris weiter mit dem Dauerbrenner-Thema Alterskontrollen und Social-Media-Verbot. Warum wir nicht locker lassen? Weil auch Politiker*innen weiter Druck machen auf höchster Ebene.

Familienministerin Karin Prien (CDU), selbst Befürworterin eines Social-Media-Verbots, hat diese Woche ihren Regulierungs-Wunschzettel erweitert, und zwar um Messenger wie WhatsApp. Damit macht sie genau das Gegenteil von dem, was die von ihr selbst einberufene Expert*innen-Kommission zu Kinder- und Jugendschutz im Netz jüngst gefordert hat. Deren Co-Vorsitzende sagte nämlich am 12. März: „Ich rate der Politik dringend, uns in Ruhe arbeiten zu lassen.“

Von Ruhe kann jedoch keine Rede sein. Auch der französische Präsident, Emmanuel Macron, drängt weiter auf ein Social-Media-Verbot für Minderjährige. Diese Woche sagte Macron, er habe der Präsidentin der EU-Kommission, Ursula von der Leyen (CDU) deswegen persönlich geschrieben.

Auch wir haben geschrieben, allerdings nicht an die EU-Kommission, sondern an Deutschlands Elternverbände. Mir war bis vor Kurzem nicht einmal klar, dass es diese Verbände gibt. In jedem Bundesland, und weitere auf Bundesebene.

Am Anfang war ich mir nicht sicher: Haben Deutschlands Elternverbände überhaupt eine ausführliche Meinung zur Social-Media-Debatte und zu Alterskontrollen? Immerhin kostet Meinungsbildung Zeit, und Arbeit in Verbänden ist oft ehrenamtlich.

Heute weiß ich: Die haben Meinungen. Und zwar sehr differenzierte.

Es geht um Datenschutz und die digitale Brieftasche, um Privacy by Design und die Gefahren biometrischer Erfassung. Acht Verbände haben uns geantwortet. Alle hatten Bedenken um den Datenschutz ihrer Kinder. Denn Kinderschutz ist auch Datenschutz – und Alterskontrollen sind eine Gefahr.

Vom Kontrollapparat zur Massenüberwachung

Hier könnt ihr nachlesen, was die Elternverbände genau zu sagen haben. Und hier erklärt Chris Schritt für Schritt, worauf sich Eltern einstellen müssen, falls ein Social-Media-Verbot und Alterskontrollen wirklich kommen. Mit konkreten Szenarien wie: „Ihr Kind lässt sein Gesicht scannen“. Ich bin mir übrigens sicher: Den meisten Fans eines Social-Media-Verbots ist nicht bewusst, was da wirklich auf sie zukäme. Und auf ihre Kinder, falls sie welche haben.

Je mehr ich mich unter Fachleuten umhöre, desto mehr fällt mir auf: Es gibt eine Menge Zögerlichkeit und Bedenken zum Social-Media-Verbot, und zwar interdisziplinär. Ich finde, das passt so gar nicht zur Ungeduld, die Befürworter*innen wie Macron oder Prien verbreiten.

Wahrscheinlich kommt inzwischen rüber, wie mich das Thema gerade umtreibt. Mit dem Kollegen Holger Klein von Übermedien habe ich dazu jüngst im Podcast von Übermedien gesprochen.

Es ist höchste Zeit, die Debatte vom Kopf auf die Füße zu stellen. In der öffentlichen Debatte gab es schon viel Fokus auf das Verbot sozialer Medien für junge Menschen; auf Eingriffe in die Grundrechte auf Teilhabe und Information. Dabei sollte aber nicht unter den Tisch fallen, was im Windschatten des Verbots daherkommt: Alterskontrollen für alle, ob sie nun Kinder haben oder nicht. Ein Kontrollapparat mit enormen Technikfolgen, der nur ein Update – juristisch oder technisch – davon entfernt ist, ein Apparat zur Massenüberwachung zu werden.

Es stimmt mich optimistisch, dass so viele Elternverbände da genau hinschauen, und damit eine breite Palette an Stimmen aus der Zivilgesellschaft ergänzen.

Lasst euch nicht unterkriegen, und habt ein schönes Wochenende
Sebastian

Gesetzentwurf zur Stärkung der Cybersicherheit: Gefährliche Offensive

Bundespolizei und BKA sollen bei Angriffen auf IT-Systeme in manchen Fällen zurückhacken und infizierte Systeme ausschalten dürfen, wünscht sich das Innenministerium. Fachleute warnen vor Kollateralschäden und Eingriffen, die eigentlich eine Grundgesetzdebatte bräuchten. Von Anna Biselli –
Artikel lesen

Rechtlich fragwürdig: Bundesregierung will biometrische Fotofahndung im Netz

Die Polizei soll künftig Fahndungsfotos mit allen im Internet verfügbaren Bildern abgleichen dürfen. In der EU sind die technischen Grundlagen für diese Fotofahndung eigentlich verboten. Dennoch will die Bundesregierung Ermittlungsbehörden genau das nun erlauben. Von Daniel Leisegang, Chris Köver –
Artikel lesen

Mobile Gesichtserkennung: Frankfurts Polizei identifiziert Menschen per Foto-App

Na, wen haben wir denn da? Die Polizei in Frankfurt am Main nutzt bei Personenkontrollen eine Gesichtserkennungs-App. Der hessische Ministerpräsident glaubt dabei an die Vorbildfunktion seines Bundeslandes. Von Martin Schwarzbeck –
Artikel lesen

Recht auf Breitband: Gefangen in Elon Musks Sicherungsnetz

Seit einigen Jahren gibt es ein Recht auf einen halbwegs zeitgemäßen Internetanschluss. Der Bedarf ist groß, doch der Prozess ist langwierig und kompliziert. Nur wenige kommen zu ihrem Recht. Ausgerechnet Starlink von Elon Musk füllt eine Lücke. Von Tomas Rudl –
Artikel lesen

Gescheiterte Verhandlungen: „Freiwillige Chatkontrolle“ wird vorerst nicht verlängert

Nachdem das EU-Parlament am Freitag einer Verlängerung der freiwilligen Chatkontrolle mit Einschränkungen zustimmte, scheiterten diese Woche die Verhandlungen mit den Mitgliedstaaten. Das erhöht den Druck auf parallele Einigungsversuche für eine dauerhafte Lösung. Von Anna Biselli –
Artikel lesen

Bezahlkarten in Freiburg: „Wir waren die Einzigen, die bis zum Schluss gekämpft haben“

Das baden-württembergische Regierungspräsidium hat die Stadt Freiburg angewiesen, Bezahlkarten einzuführen. Der dortige Sozialbürgermeister erzählt im Interview, warum sich seine Stadt so lange gegen die Maßnahme gewehrt hat und wie sie weiter kämpft. Von Anna Biselli –
Artikel lesen

eco-Beschwerdestelle: Rekord an gemeldeten und gelöschten strafbaren Inhalten

Mehr als 30.000 rechtswidrige Internetinhalte, die Missbrauchsdarstellungen von Kindern und Jugendlichen zeigen, konnten im letzten Jahr aus dem Netz entfernt werden. Das berichtet der Internetwirtschaftsverband eco von seiner Beschwerdestelle. Von Constanze –
Artikel lesen

Versteckte Kosten von KI: „Sie wissen, welche Schäden Künstliche Intelligenz verursacht“

Datenarbeiter:innen hinter KI werden ausgebeutet und unsichtbar gemacht. Joan Kinyua aus Kenia kämpft für Anerkennung und bessere Arbeitsbedingungen. Im Interview erklärt sie, warum sie nicht auf Gewerkschaften zählt und warum auch deutsche Autokonzerne Verantwortung tragen. Von Ingo Dachwitz, Constanze –
Artikel lesen

„Tag-X“-Demonstration: Aktivistin verklagt Verfassungsschutz

Nur weil sie an einer Demonstration teilgenommen und eine andere angemeldet hatte, landete eine linke Aktivistin in einer Datenbank des Verfassungsschutzes. Dagegen klagt sie nun mit der Gesellschaft für Freiheitsrechte. Es geht darum, ihre Daten zu löschen, aber auch um die Versammlungsfreiheit an sich. Von Tomas Rudl –
Artikel lesen

Neues aus dem Fernsehrat (114): Der Alte

Der ZDF-Fernsehrat hat den Intendanten für das ZDF bestätigt: Norbert Himmler bleibt im Amt. Keine Überraschung, er war ja auch der einzige Kandidat. Unser Kolumnist Erik Tuchtfeld fragt: Ist die Wahl ohne Auswahl ein Problem? Von Erik Tuchtfeld –
Artikel lesen

Maschinen sollen Papierkram erledigen: „Kollege KI“ steht auf wackeligen Beinen

Sogenannte KI-Agenten sollen die Arbeit von Behörden einfacher machen und Personal entlasten. Digitalminister Karsten Wildberger verspricht sich viel davon. Für KI-Experimente gibt die Verfassung der öffentlichen Verwaltung aber wenig Spielraum. Von Esther Menhard –
Artikel lesen

Ministerien und Behörden auf X: Wenig Reichweite, viel Hass

Bis heute posten deutsche Behörden und Bundesministerien auf dem Kurznachrichtendienst X. Sie begründen dies mit ihrem Informationsauftrag und der Reichweite, die das soziale Netzwerk angeblich bietet. Eine Analyse des Zentrums für Digitalrechte und Demokratie zeigt nun, wie wacklig diese Argumente sind. Von Tomas Rudl –
Artikel lesen

Social-Media-Verbot: Darauf müssen sich Eltern einstellen

Ein Social-Media-Verbot für Kinder soll Eltern entlasten, das versprechen dessen Befürworter*innen. Dahinter steckt aber auch Arbeit: Eltern müssten mit einer Ausweis-App hantieren und entscheiden, ob ihr Kind sein Gesicht biometrisch scannen lassen soll. Der Überblick. Von Chris Köver –
Artikel lesen

Alterskontrollen und Social-Media-Verbot: Elternverbände sehen Daten von Kindern in Gefahr

CDU und Teile der SPD fordern Alterskontrollen im Netz, um ein Social-Media-Verbot für Minderjährige durchzusetzen. Aber Deutschlands Elternverbände haben Einwände: Manche lehnen die Pläne ab, andere knüpfen ihre Zustimmung an strenge Bedingungen. Von Sebastian Meineck –
Artikel lesen

KI-Vorhersagemodelle: Niederländische Polizei und Frontex testen Konzept des „digitalen Zwillings“

Die niederländische Stadt Heerlen erhält fünf Millionen Euro EU-Förderung für ein algorithmisches Überwachungssystem, das auf einem „digitalen Zwilling“ basiert. Auch Frontex interessiert sich für die Technologie. Von Matthias Monroy –
Artikel lesen

Verlängerung der Ausnahmeregelung: Rat ließ Chatkontrolle-Verhandlungen sehenden Auges scheitern

Die EU-Mitgliedstaaten gingen schon vor den Verhandlungen zur Verlängerung der freiwilligen Chatkontrolle mit dem EU-Parlament von einem Scheitern aus. Man wollte keine Kompromisse und fürchtet Vorfestlegungen für die Verhandlungen zur permanenten Chatkontrolle. Das zeigen eingestufte Protokolle, die wir im Volltext veröffentlichen. Von Markus Reuter –
Artikel lesen

Politische Online-Werbung: Bundestag soll Schutz der Pressefreiheit sicherstellen

Deutschland muss EU-Vorgaben zum Schutz vor digitalen Manipulationskampagnen umsetzen. Bei einer Anhörung im Bundestag kritisierten Sachverständige zu weite Definitionen und warnten vor Folgen für die Pressefreiheit. Der Bundesverband der Zeitungsverleger und die AfD wollen die Regeln am liebsten ganz abschaffen. Von Ingo Dachwitz –
Artikel lesen

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Politische Online-Werbung: Bundestag soll Schutz der Pressefreiheit sicherstellen

20. März 2026 - 17:47

Deutschland muss EU-Vorgaben zum Schutz vor digitalen Manipulationskampagnen umsetzen. Bei einer Anhörung im Bundestag kritisierten Sachverständige zu weite Definitionen und warnten vor Folgen für die Pressefreiheit. Der Bundesverband der Zeitungsverleger und die AfD wollen die Regeln am liebsten ganz abschaffen.

Die Werbe-Verordnung soll unter anderem für den Schutz vor digitaler Manipulation bei Wahlen und Abstimmungen sorgen. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Element5 Digital

Die EU-Verordnung über die Transparenz und das Targeting politischer Online-Werbung (TTPW-VO) hat derzeit keinen leichten Stand. Eigentlich soll sie Wahlen und die demokratische Öffentlichkeit vor Manipulation schützen. Dabei setzt sie nicht auf Verbote, sondern vor allem auf Transparenzvorgaben. Doch Meta und Google haben politische Werbung als Reaktion auf die neuen Regeln gleich ganz verboten. Seitdem herrscht in der Welt der politischen Kommunikation Panik.

Als der Digitalausschuss des Bundestages diese Woche zur Sachverständigenanhörung über das deutsche Umsetzungsgesetz zu der EU-Verordnung geladen hatte, war die Situation deshalb gleich doppelt paradox. Zum einen gibt es derzeit einfach kaum noch politische Online-Werbung (wobei die Plattformen ihre Verbote offenbar nicht konsequent durchsetzen). Zum anderen hat der deutsche Gesetzgeber bei seinem Politische-Werbung-Transparenz-Gesetz (PWTG) kaum Spielräume, um eigene Regeln zu setzen.

Die EU-Verordnung gilt bereits seit Oktober 2025 unmittelbar, das Umsetzungsgesetz soll vor allem die komplexe Aufsichtsstruktur im föderalen System Deutschlands regeln. Hierbei spielen nach Ansicht der Sachverständigen nicht nur die Bundesdatenschutzbeauftragte und die Koordinierungsstelle für digitale Dienste in der Bundesnetzagentur eine Rolle, sondern auch Landesmedienanstalten und Landesdatenschutzbehörden.

Deutschland ist spät dran

Die Probleme, die man bei der Anhörung besprechen werde, seien nicht in erster Linie auf das deutsche Umsetzungsgesetz zurückzuführen, sondern vor allem auf die zugrundeliegende EU-Verordnung, so leitete entsprechend Professor Matthias Cornils von der Johannes-Gutenberg-Universität Mainz seine Stellungnahme ein. Diskutiert wurden diese Probleme im Ausschuss natürlich trotzdem, wobei die Positionen von grundsätzlicher Zustimmung zur Verordnung mit Vorschlägen für Nachbesserungen bis zur kompletten Abschaffung der EU-Verordnung reichten.

Jene TTPW-Verordnung wurde bereits Anfang 2024 verabschiedet, ihre Umsetzung in Deutschland erfolgt aufgrund des Bruchs der Ampel-Koalition verspätet. Anlass für die Verordnung waren Sorgen vor Manipulation wie im Fall des Cambridge-Analytica-Skandals, zahlreiche digitale Desinformationskampagnen von in- und ausländischen Akteuren sowie zuletzt die mutmaßliche Einflussnahme-Operation bei der Präsidentschaftswahl in Rumänien.

Unter anderem müssen Werbetreibende und Werbedienstleister künftig mehr über die Finanzierung und das Targeting von zielgerichteter politischer Werbung offenlegen. Bei der EU-Kommission soll ein Transparenzregister aller politischen Online-Anzeigen entstehen. Verboten ist das Targeting mit sensiblen Daten wie jenen zu sexueller Orientierung, politischen Meinungen oder Religion. Außerdem schränkt die Verordnung Wahlwerbung ein, die aus dem Ausland bezahlt wird.

Trifft die Verordnung die Falschen?

Bei der Anhörung standen zwei Fragen im Mittelpunkt, die sehr typisch für Versuche der Digitalregulierung sind: Werden mit den Regeln überhaupt die beabsichtigten Akteur:innen getroffen? Und schießen die Regeln womöglich über das Ziel hinaus oder haben sie vielleicht andere unerwünschte Effekte? Bei beiden Fragen fiel das Echo der Sachverständigen überwiegend kritisch aus.

Es steht bereits fest, dass die eigentlich primär gemeinten großen Werbeplattformen von Meta und Google sich der Verordnung entziehen wollen, indem sie politische Werbung verbieten. Allerdings sind sie beileibe nicht die einzigen Werbedienstleister im Internet. So können beispielsweise auch journalistische Online-Medien unter die Verordnung fallen, wenn auf ihren Seiten politische Werbung geschaltet wird.

Das führte bei mehreren Sachverständigen zu Sorgen um die Pressefreiheit, denn das PWTG sieht weitreichende Befugnisse für die Aufsichtsbehörden vor, sollten Werbedienstleister nicht mit ihnen kooperieren. Das Gesetz erlaubt es ihnen, Geschäftsräume zu durchsuchen und Dokumente zu beschlagnahmen. Bei Gefahr im Verzug soll dies sogar ohne vorherige richterliche Genehmigung der Fall sein. Bei Medien, so die Befürchtung, könne das auch Redaktionen betreffen.

Der Gesetzgeber müsse deshalb sicherstellen, dass Pressefreiheit und Quellenschutz nicht gefährdet werden, so die Forderung mehrerer Sachverständiger wie etwa Alina Clasen von Reporter ohne Grenzen. Das könnte etwa durch einen expliziten Hinweis auf den Schutz von Berufsgeheimnisträger:innen in der Strafprozessordnung geschehen oder durch eine explizite Ausnahme der Presse für Beschlagnahmeregeln.

Ringen um Definitionen und Sanktionen

Sorgen gibt es auch, dass die Regel unbeabsichtigte Konsequenzen haben könnten. Das liegt vor allem am recht breit gefassten Begriff der politischen Werbung. Die EU-Verordnung versteht darunter bezahlte Online-Kommunikation von politischen Akteuren und solche, die „geeignet und darauf ausgerichtet ist, das Ergebnis einer Wahl oder eines Referendums, ein Abstimmungsverhalten oder einen Rechtsetzungs- oder Regulierungsprozess“ zu beeinflussen.

Sachverständige wie der Werber Jochen König, der die Verordnung grundsätzlich begrüßt, oder Rechtsanwalt Jörg Frederik Ferreau kritisierten, dass durch diesen sehr weit gefassten Begriff Rechtsunsicherheiten entstünden. Sie regten eine Präzisierung an, entweder im Rahmen des PWTG oder auf EU-Ebene. Aus Sorge, gegen Regeln zu verstoßen, könnten Medien, Werbeagenturen, NGOs oder Lokalpolitiker:innen lieber ganz auf politische Werbung verzichten.

Dass gerade mit Blick auf möglichen Sanktionen, die bei größeren Unternehmen bis zu sechs Prozent des Umsatzes betragen könnten, Abschreckungseffekte eintreten könnten, befürchtet auch Juristin Tahireh Audrey Panahi von der Universität Kassel. Sie empfahl deshalb, dass Sanktionen gegen bestimmte Akteursgruppen erst nach zweimaligem Verstoß verhängt werden sollten. Außerdem schlug sie Leitlinien zur Auslegung des Gesetzes vor, die die Koordinierungsstelle für digitale Dienste bei der Bundesnetzagentur unter Einbindung des DSC-Beirats erarbeiten solle.

Zeitungsverleger auf Linie mit Tech-Konzernen und AfD

Während also die meisten Sachverständigen nicht mit Kritik hinter dem Berg hielten und konkrete Verbesserungsvorschläge machten, fielen die beiden geladenen Vertreter der Verlagsbranche vor allem durch Polemik auf.

Christoph Fiedler vom Medienverband der freien Presse etwa bemühte die omnipräsente Floskel vom „Bürokratie-Monster“ und kündigte an, dass Medien die Preise für politische Werbung erhöhen müssten, um den Anforderungen der Verordnung gerecht zu werden. Während er noch konkrete Vorschläge zum Schutz der Pressefreiheit machte, forderte Helmut Verdenhalven vom Bundesverband Digitalpublisher und Zeitungsverleger (BDZV) hingegen, die EU-Verordnung komplett abzuschaffen.

Um seine Forderung zu untermauern, hatte Verdenhalven ein vermeintlich klares Beispiel im Gepäck: Ein norddeutscher Zeitungsverlag habe kürzlich auf Instagram einen Podcast bewerben wollen, in dem Politiker:innen mit unterschiedlichen Positionen ins Gespräch kommen sollten, in diesem Fall von FDP und Linken. Die Plattform habe die Anzeige jedoch abgelehnt. Verantwortlich für diese „Verarmung der politischen Debatte“ macht der BDZV-Vertreter nicht etwa den Social-Media-Konzern, der politische Werbung verbot und dies auch auf Werbung für journalistische Inhalte bezieht, sondern die EU.

Gegen diese führte der BDZV-Vertreter auch eine mehrere Jahre alte und längst verworfene Idee der EU-Kommission ins Feld, unter Umständen auch journalistische Inhalte als politische Werbung einzustufen. Dass das überhaupt diskutiert worden sei, reichte ihm schon als Beleg dafür, „wie schmal in Brüssel der Grat ist zwischen gut gemeint, und (…) sehr schlecht gemacht“.

Diese pauschale Breitseite gegen einen Versuch der EU, die demokratische Öffentlichkeit zu schützen, ist einerseits nicht verwunderlich, kämpfen Zeitungsunternehmen und ihre Branchenverbände doch seit Jahren Seite an Seite mit Tech-Konzernen gegen jegliche Form der Regulierung von Werbung im Internet. Andererseits ist es bemerkenswert, wie bräsig ein von der SPD vorgeschlagener Sachverständiger ausgerechnet den Feinden der Presse nach dem Mund reden kann. Genüsslich aufgegriffen wurden Verdenhalvens Einlassungen vor allem von den Abgeordneten der AfD, die wie er eine Abschaffung der EU-Verordnung wollen.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Verlängerung der Ausnahmeregelung: Rat ließ Chatkontrolle-Verhandlungen sehenden Auges scheitern

20. März 2026 - 15:05

Die EU-Mitgliedstaaten gingen schon vor den Verhandlungen zur Verlängerung der freiwilligen Chatkontrolle mit dem EU-Parlament von einem Scheitern aus. Man wollte keine Kompromisse und fürchtet Vorfestlegungen für die Verhandlungen zur permanenten Chatkontrolle. Das zeigen eingestufte Protokolle, die wir im Volltext veröffentlichen.

Die Mitgliedstaaten der EU wollen bei der freiwilligen Chatkontrolle anlasslos überwachen. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Volodymyr Hryshchenko

Der Trilog zur Verlängerung der temporären, freiwilligen Chatkontrolle 1.0 ist vorerst gescheitert, die Ausnahmeregelung würde damit am 3. April auslaufen. Diesem Scheitern ging eine Parlamentsabstimmung in der vergangenen Woche voraus. Dabei hatten die Abgeordneten zwar einer Verlängerung zugestimmt, aber gleichzeitig Einschränkungen beschlossen: Das Scannen soll nicht anlasslos sein, sondern nur zielgerichtet bei bestimmten Nutzer:innen stattfinden, wenn ein Verdacht besteht.

Diese Variante wurde allerdings vom Rat im Trilog abgelehnt, denn die Länder wollen die Chatkontrolle 1.0 anlasslos –  also ohne Verdacht  – weiterführen. Ein solches verdachtsloses Scannen ist seit Jahren in der Kritik, unter anderem durch Bürgerrechtsorganisationen und den europäischen Datenschutzbeauftragten.

Durch ein eingestuftes Ratsprotokoll vom 13. März, das wir im Volltext veröffentlichen, wird deutlich, dass die EU-Mitgliedstaaten Kompromisse bei der temporären freiwilligen Chatkontrolle 1.0 offenbar als eine Art Vorentscheidung für die weitaus wichtigeren Verhandlungen zur CSA-Verordnung und damit zu einer permanenten Regelung (Chatkontrolle 2.0) sehen.

Angst vor Kompromissen

Laut dem Protokoll vom 13. März bat zum Beispiel der Vorsitz die Mitgliedstaaten für die Verhandlungen „um Flexibilität hinsichtlich des Ausschluss eines Zugriffs auf Ende-zu-Ende Verschlüsselung (E2EE) und der Herausnahme von Grooming aus dem Anwendungsbereich“. Ein Kompromiss in diesem Bereich „würde sich nicht allzu negativ auf die Verhandlungen zur CSA-Verordnung auswirken“, so das Protokoll weiter.

In einem eingestuften Protokoll vom 10. März, das wir im Volltext veröffentlichen, wird auch auf den Zusammenhang von Interimsverordnung (Chatkontrolle 1.0) und der CSA-Verordnung (Chatkontrolle 2.0) verwiesen.

Der zypriotische Vorsitz ging zudem laut den Protokollen schon vor den Trilog-Verhandlungen davon aus, dass diese aufgrund der Ratsposition scheitern würden. Nach dem Scheitern zeigten sich Birgit Sippel, die Berichterstatterin des Parlaments, wie auch die Ratsvertreter enttäuscht von der Haltung ihrer Verhandlungspartner.

Alles netzpolitisch Relevante Drei Mal pro Woche als Newsletter in deiner Inbox. Jetzt abonnieren

Konstantin Macher von der Digitalen Gesellschaft sieht vor allem den Rat in der Verantwortung: „Der Rat hat die Verhandlungen aus politischem Kalkül bewusst platzen lassen.“ Das sei unverantwortlich. „Damit setzt sich ein bekanntes Muster bei der Chatkontrolle fort: zielgerichtete Maßnahmen zum Kinderschutz wären längst möglich, werden aber durch das Beharren der Regierungen auf Maximalforderungen und anlassloser Massenüberwachung verhindert“, so Macher weiter.

Chatkontrolle am 26. März wieder im Parlament

Für Verwirrung sorgt zudem, dass der Punkt „Freiwillige Chatkontrolle“ am 26. März wieder im Europaparlament auf der Agenda steht und dann offenbar erneut über die Änderungsanträge vom 11. März abgestimmt werden soll. Auch wenn es sich um ein ordnungsgemäßes Verfahren handelt, ist der Vorgang zumindest ungewöhnlich, bestätigen Mitarbeiter von Abgeordneten verschiedener Fraktionen gegenüber netzpolitik.org.

Es sind nun verschiedene Szenarien denkbar:

Wenn es vor der Sitzung einen Antrag und eine Mehrheit dafür gibt, dass der Punkt von der Tagesordnung genommen wird, dann wäre die Chatkontrolle 1.0 beerdigt.

Sollte die Abstimmung auf der Tagesordnung bleiben, dann würde erneut über die Änderungsanträge abgestimmt, auch über den wichtigen Änderungsantrag 5, der die Chatkontrolle 1.0 auf Verdächtige beschränkt. Sollte auch nur ein Änderungsantrag im Plenum angenommen werden, dann könnte es zu weiteren Trilogverhandlungen kommen. Ein derartiges Prozedere ist so selten, dass auch langjährige Mitarbeiter von Abgeordneten so etwas noch nicht erlebt haben. Konstantin Macher kritisiert, dass überhaupt erneut abgestimmt werden soll: „Neu abstimmen lassen, weil einem das Ergebnis nicht passt, wäre zutiefst undemokratisch. Das Parlament darf sich nicht auf solche Machtspielchen einlassen, das rüttelt sonst am Vertrauen in die Politik.“

Nur wenn alle Änderungsanträge im Parlament durchfallen, wäre die Chatkontrolle-Verlängerung in der Version der EU-Kommission angenommen. Dieses Szenario ist allerdings sehr unwahrscheinlich.

Wir sind communityfinanziert Unterstütze auch Du unsere Arbeit mit einer Spende. Jetzt spenden

 

Dokument 1 in Volltext:

  • Geheimhaltungsgrad: Verschlusssache – Nur für den Dienstgebrauch
  • Datum: 13. März 2026
  • An: Auswärtiges Amt
  • Kopie:BMI, BMJV, BKAmt, BMBFSFJ, BMF, BMWE, BMWK
  • Betreff: AStV-2 am 13.03.2026 – TOP 33 – Regulation amending Regulation (EU) 2021/1232 as regards the extension of its period of application
  • Zweck: Zur Unterrichtung
  • Geschäftszeichen: 350.80

 

I. Zusammenfassung und Wertung

AStV-2 befasste sich am 13.3. erneut mit der Verlängerung der Interims-VO, die zeitlich begrenzte Maßnahmen zur Aufdeckung, Entfernung und Meldung von Material des sexuellen Missbrauchs von Kindern ermöglicht.

CYP RP berichtete aus dem Trilog vom 12. März. Man hab sich noch nicht mit dem EP einigen können. CYP RP habe in den Verhandlungen klar gemacht, dass die MS keiner Einschränkung des Anwendungsbereichs zustimmen könnten. Die Berichterstatterin des EP (MdEP Sippel) habe indes unterstrichen, dass es keine Einigung ohne eine solche Einschränkungen geben könne. Der Rat müsse Kompromisse vorschlagen. EP könne ggf. das Verbot der Übermittlung von Verkehrsdaten sowie die Voraussetzung eines konkreten Verdachts gegen eine Person oder eine Personengruppe fallen lassen. Vors. bat MS um Flexibilität hinsichtlich des Ausschluss eines Zugriffs auf Ende-zu-Ende Verschlüsselung (E2EE) und der Herausnahme von Grooming aus dem Anwendungsbereich. Ein solcher Kompromiss würde sich nicht allzu negativ auf die Verhandlungen zur CSA-Verordnung auswirken.

Alle sich zu Wort meldenden MS brachten mehr oder weniger deutlich ihre Enttäuschung über die Haltung des EP zum Ausdruck. HUN, BEL, SWE, ESP, LVA, SVK, MLT, EST, SVN und ROU waren nicht zu Zugeständnissen beim Anwendungsbereich bereit. Neben uns signalisierten FRA, IRL, LTU, HRV, FIN, LUX und EST, sich bei E2EE bewegen zu können, wobei FRA klar machte, dass man hierfür erst den konkreten Text sehen müsse. Die vom EP vorgelegte Formulierung sei zu breit und könne faktisch dazu führen, dass die Diensteanbieter gar nichts mehr tun könnten. IRL, FRA, LTU und HRV zeigten auch Bereitschaft, sich bei Grooming evtl. zu bewegen, auch wenn dies schwer zu verdauen sei (FRA) und Kinder den Straftätern ausliefere (IRL). AUT und BGR machten deutlich, die Beibehaltung des Ratsmandats zu bevorzugen, sich aber letztlich der Mehrheit nicht verschließen zu wollen, sollte es zu Kompromissen kommen.

CYP RP schlussfolgerte, dass man nicht davon ausgehe, mit dem heute erteilten Mandat eine Einigung beim Trilog am kommenden Montag erzielen zu können. Man werde die MS über den Ausgang informieren.

II. Im Einzelnen

entfällt

 

Dokument 2 in Volltext

 

  • Geheimhaltungsgrad: Verschlusssache – Nur für den Dienstgebrauch
  • Datum: 13. März 2026
  • An: Auswärtiges Amt
  • Kopie: BMI, BMJV, BKAmt, BMBFSFJ, BMF, BMWE, BMWK
  • Betreff: Sitzung der JI-Referent*innen zur CSA-VO am 10. März 2026
  • Zweck: Zur Unterrichtung
  • Geschäftszeichen: 350.80
I. Zusammenfassung und Wertung

TOP 2 – Proposal for a Regulation amending Regulation (EU) 2021/1232 as regards the extension of its application (6949/26)

Vors erinnerte eingangs, dass es bis zum Auslaufen der Interims-VO nur noch 25 Tage sei. Das Ratsmandat sei klar, aber im LIBE Ausschuss habe es keine Mehrheit für den Bericht der Berichterstatterin gegeben. Diese habe wesentliche Änderungen ggü. dem KOM Vorschlag enthalten. Morgen werde im EP Plenum daher zunächst darüber abgestimmt, ob der Vorschlag der KOM komplett abgelehnt werde. Eine Mehrheit dafür sei aber unwahrscheinlich, da S&D, EVP und Renew gemeinsame Änderungsanträge vorgelegt hätten. Es sei absehbar, dass diesen zugestimmt werde.

Diese Änderungsanträge seien im Bezugsdokument kurz erläutert. Vors. sei sich der Dringlichkeit bewusst und möglicherweise habe man nur noch eine Möglichkeit („one shot“), mit dem EP einen Kompromiss zu finden. Vors. plane daher bei einer positiven Abstimmung im EP einen Trilog am 12. März durchzuführen. Sollte der Rat auf seinem Mandat beharren, werde EP den Vorschlag insgesamt höchstwahrscheinlich ablehnen.

BEL stellte die Frage, inwiefern sich die Beschränkung auf Inhaltsdaten und das Verbot der Übermittlung von Verkehrsdaten wie z.B. IP-Adressen auf die praktische Arbeit auswirke.

KOM machte daraufhin deutlich, dass Berichte ohne Verkehrsdaten lediglich in eine Interpol-Datenbank aufgenommen werden könnten und man dann hoffen müsse, dass dieses Bild irgendwann einmal im Rahmen von anderen Ermittlungen relevant werde. Ohne Verkehrsdaten seien eigenständige Ermittlungen quasi unmöglich. KOM unterstrich zudem, dass der Ausschluss von neuem Material auch KI-generiertes Material beinhalte. Und dessen Zahlen seien ja bekanntlich sprungartig gestiegen. Die Formulierung der Änderungsanträge bzw. E2EE seien sei breit und könnten dazu führen, dass jegliche Kommunikation aus dem Anwendungsbereich herausgenommen werde. Zudem sei in den Änderungsanträgen 1 und 2 ein Widerspruch festzustellen, da ÄA 1 neues Material ausschließe, ÄA2 dieses aber unter bestimmten Umständen wieder zulasse. Problematisch sei auch, dass neues Material in der Interims-VO nicht definiert sei und die Definition in der CSA-VO eine hohe Schwelle vorgebe.

Alle wortnehmenden MS (DEU, IRL, FIN, ESP, NLD, FRA, AUT, LVA und HUN) unterstrichen, dass eine Rechtslücke zu vermeiden sei. Hinsichtlich der Dauer der Verlängerung zeigten sich alle flexibel.

Ich verwies auf die laufende Abstimmung für den morgigen AStV. IRL zeigte sich flexibel bzgl. eine Ausschlusses von E2EE und grooming, aber nicht bzgl. Verkehrsdaten (auch AUT und ESP). FIN formulierte hinsichtlich der Einschränkung des Anwendungsbereichs eine rote Linie. ESP unterstrich, immer für einen weiten Anwendungsbereich geworben zu haben. Auch AUT sprach sich für einen unveränderten Anwendungsbereich aus. FRA äußerte insbesondere Bedenken dahingehend, neues CSAM auszuschließen. Allerdings wolle man am Ende auch nicht „mit nichts“ dastehen. LVA verwies darauf, dass man zur allgemeinen Ausrichtung einen Kabinettsbeschluss habe, den man nicht einfach ändern könne. HUN zeigte das Dilemma auf, dass man entweder nichts habe, oder ein komplett nutzloses Instrument. NLD zeigte sich komplett flexibel.

Auf Nachfrage musste Vors. einräumen, dass sich das Mandat des Rates zur CSA-VO zwar auf die damalige Fassung der Interims-VO beziehe, dieses Argument jedoch vermutlich nicht vom EP akzeptiert werde, wenn man diese Bestimmung im Trilog zur CSA-VO verhandle.

TOP 3 – Proposal for a Regulation laying down rules to prevent and combat child sexual abuse (6946/26, WK 3494/2026)

Vors. unterstrich, dass die Verhandlungen sehr schnell voranschritten und man in einer sehr positiven Stimmung mit dem EP verhandle. Im Übrigen seien die Fortschritte im Bezugsdokument ersichtlich und man erbitte schriftliche Kommentare bis zum 12. März. Vors. habe auch begonnen, die Erwägungsgründe anzupassen. Das ITM am kommenden Freitag habe man abgesagt, um ich um die Interims-VO zu kümmern und weitere Schritte – dann auch zu umstritteneren Artikeln (Art. 3 – 5) – vorzubereiten.

KOM bestätigte den positiven Eindruck des Vors., sprach jedoch die Problematik des case-by-case Zugriffs von Europol auf die Datenbank des Zentrums an. Dies könne leicht zu bürokratisch werden. Vors. entgegnete, dass die MS dieser Formulierung zugestimmt hätten.

Auf meine Nachfrage zu Artikel 45, Zeile 646, erläuterten KOM und Vors., dass dies sowohl für statistische Auswertungen sinnvoll sei als auch helfen können, die Diensteanbieter zu informieren, wenn diese Bilder mehrfach gemeldet würden.

FRA bat erneut um Klarstellung, was mit „manifestly unfounded“ gemeint sei. Zudem sei Zeile 411 so breit gefasst, dass auch Täter Informationen anfordern könnten. Es sei nicht sinnvoll, hier auf das Wort „Opfer“ zu verzichten. KOM und Vors. sahen hierin kein Problem, wollten sich den Text aber erneut anschauen. Grundsätzlich sei die Verwendung des Begriffs „Opfer“ schwierig, da hieran z.B. aus der Opferschutz-RL besondere Bedingungen geknüpft seien.

Auf AUT Bitte, die „manifestly unfounded reports“ auch mit Hashes zu speichern, unterstrich Vors. dann die Anonymisierung ein ausdrücklicher Wunsch des EP sei. Ob dies Hashes umfasse, müsse man dann in der praktischen Umsetzung sehen.

II. Im Einzelnen

entfällt

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

KI-Vorhersagemodelle: Niederländische Polizei und Frontex testen Konzept des „digitalen Zwillings“

20. März 2026 - 9:37

Die niederländische Stadt Heerlen erhält fünf Millionen Euro EU-Förderung für ein algorithmisches Überwachungssystem, das auf einem „digitalen Zwilling“ basiert. Auch Frontex interessiert sich für die Technologie.

Heerlen will den digitalen Zwilling für die Polizei, aber auch Steuerung von Verkehr und Energiemanagement nutzen. (Archivbild) – Alle Rechte vorbehalten IMAGO / ANP

Die niederländische Gemeinde Heerlen baut mit fünf Millionen Euro Förderung der Europäischen Union ein KI-gestütztes System auf, das Kriminalität und Störungen der öffentlichen Ordnung vorhersagen soll. Das im letzten Jahr begonnene Projekt heißt „Pulse-Twin“. Noch in diesem Jahr soll eine erste Version fertiggestellt sein, die dann bis zum Frühjahr 2028 erprobt wird.

Vorhersagesoftware für Polizeibehörden wird seit rund zwei Jahrzehnten weltweit erprobt. Bisherige Systeme zielten vor allem auf die Prognose bestimmter Delikte wie Einbrüche oder Diebstähle. Künstliche Intelligenz soll diese Ansätze auf ein neues Niveau heben.

Technische Grundlage ist ein sogenannter digitaler Zwilling – eine kontinuierlich aktualisierte digitale Nachbildung der realen Stadt mit Daten aus sozialen, statistischen und polizeilichen Quellen. Ein Algorithmus verarbeitet diese Informationen und errechnet Wahrscheinlichkeiten für Ordnungsstörungen oder Straftaten. Auf Basis dieser Prognosen sollen Behörden dann „präventiv“ handeln können. Neben der Kriminalitätsvorhersage ist das System laut Projektverantwortlichen auch für Verkehrssteuerung und das Energiemanagement in Gebäuden einsetzbar.

Weltweit erstes Projekt im urbanen Raum

Die EU-Mittel für „Pulse-Twin“ stammen aus dem europäischen COVID-Wiederaufbaufonds. Das Projekt soll nach Angaben seiner Betreiber*innen „urbane Herausforderungen mit datengetriebenen Lösungen“ angehen. Heerlen gilt dabei als erste Stadt der Welt, die ein derartiges System einführt.

Die niederländische Sektion von Amnesty International kritisiert das Projekt: „Bei Systemen, die Belästigungen oder Kriminalität vorhersagen und für die Strafverfolgung durch die Polizei eingesetzt werden, besteht ein großes Risiko des ethnischen Profilings. Amnesty International hofft daher, dass die Gemeinde Heerlen den Einsatz von Pulse-Twin noch einmal überdenkt.“

Hintergrund dieser Warnung ist ein strukturelles Problem algorithmischer Systeme, die auf historischen Polizeidaten basieren: Wurden in der Vergangenheit bestimmte Bevölkerungsgruppen oder Stadtteile unverhältnismäßig stark kontrolliert, bildet das Modell diese Muster ab und reproduziert sie.

Das ist auch die Kritik an Systemen wie Gotham von Palantir, die bereits in vier deutschen Bundesländern eingeführt wurden oder werden. Nach Darstellung von Behörden und dem US-Hersteller kann Gotham aber nicht auf Daten im Internet zugreifen und funktioniert auch nicht nach dem Prinzip des digitalen Zwillings.

Frontex lädt Hersteller zu „Industrietag“

Das Konzept des digitalen Zwillings wird längst auch zur Entscheidungsfindung oder Befehlsführung im militärischen Bereich angewendet. Als virtuelle Repräsentation etwa von Panzern, Flugzeugen oder Truppenverbänden verknüpft die KI Sensordaten, um Einsätze vor dem Auslösen einer Waffe zu simulieren oder Probleme beim Nachschub vorherzusagen. Sie optimiert außerdem militärische Ausbildung und Wartungsbedarfe.

Auch die EU-Grenzagentur Frontex beschäftigt sich mit dem Konzept. Im Rahmen ihres Copernicus-Grenzüberwachungsdienstes arbeitet die Behörde daran, digitale Zwillingsmodelle der EU-Außengrenzen zu entwickeln. Diese sollen Beamt*innen ermöglichen, spezifische Szenarien zu simulieren – etwa irreguläre Grenzübertritte unter verschiedenen Wetterbedingungen.

Digitaler Zwilling einer Grenzregion - Alle Rechte vorbehalten Frontex

Frontex will damit Ressourcen gezielter einsetzen sowie die Überwachungstechnik effizienter nutzen. Das System soll geografisch skalierbar sein und unterschiedliche Grenztypen abbilden können, von Flussläufen über Küstenabschnitte bis hin zu Waldgebieten und Gebirgsregionen.

Im vergangenen Juni hat Frontex einen zweitägigen, mit insgesamt 180.000 Euro dotierten Wettbewerb durchgeführt, bei dem die drei Firmen Kondorcad Landsurv aus Rumänien, GMV aus Spanien sowie das Institut für Geodäsie und Kartographie aus Polen „digitale Zwillingslösungen“ für ein Geländegebiet nahe des rumänischen Dubova präsentierten. Für die mögliche Beschaffung digitaler Zwillinge für Grenztruppen in den EU-Mitgliedstaaten hat Frontex im Februar europäische Hersteller zu einem „Industrietag“ eingeladen.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Alterskontrollen und Social-Media-Verbot: Elternverbände sehen Daten von Kindern in Gefahr

20. März 2026 - 5:00

CDU und Teile der SPD fordern Alterskontrollen im Netz, um ein Social-Media-Verbot für Minderjährige durchzusetzen. Aber Deutschlands Elternverbände haben Einwände: Manche lehnen die Pläne ab, andere knüpfen ihre Zustimmung an strenge Bedingungen.

Eltern und Erziehungsberechtigte führen Kinder auch in die digitale Welt. (Symbolbild) – Alle Rechte vorbehalten IMAGO / Alexander Rochau

Kinder sollen keine sozialen Medien mehr nutzen dürfen, und alle sollen dafür im Netz ihr Alter nachweisen. Das sind die Pläne der Kanzlerpartei CDU und wichtiger Politiker*innen der SPD Bei vielen Elternverbänden in Deutschland stößt das Vorhaben auf Kritik.

„Ein pauschales Social-Media-Verbot ohne begleitende Maßnahmen findet keine breite Unterstützung“, schreibt der Bundeselternrat mit Blick auf seine Landesverbände. Ein generelles Verbot „könnte Kinder eher isolieren als schützen“, warnt das Bundeselternnetzwerk, der Dachverband migrantischer Elternvereine, auf Anfrage von netzpolitik.org.

Durch die Bank äußern Eltern-Organisationen Bedenken beim Schutz sensibler Daten von Erwachsenen und Minderjährigen. Denn ein Social-Media-Verbot, wie es viele derzeit fordern, soll mit strengen Alterskontrollen einhergehen. Ältere Menschen könnten sich etwa per Ausweis prüfen lassen; Kinder ihr Gesicht vor die Handykamera halten. Die Elternvertretung Thüringen zum Beispiel lehnt die biometrische Erfassung von Kindern „ausdrücklich“ ab.

Zwei Organisationen fordern freiwillige Alterskontrollen. Das entspricht allerdings nicht dem australischen Modell, das deutsche und europäische Politiker*innen nachahmen möchten. Kontrollen beugen müssen sich demnach alle, auch die Erwachsenen. In Australien können Plattformen das Verhalten ihrer Nutzer*innen zunächst im Hintergrund mithilfe von Software prüfen. Sobald sich der Verdacht erhärtet, eine Person könnte zu jung sein, muss sie ihr Alter nachweisen.

Wie genau Alterskontrollen in Deutschland aussehen könnten, ist noch offen. Mindestens drei Szenarien sind wahrscheinlich:

  • Erstens könnten Erwachsene und Jugendliche ab 16 Jahren ihr Alter per Ausweis-App bestätigen. Unter anderem der SPD-Vorschlag sieht dafür die für alle EU-Bürger*innen geplante digitale Brieftasche (EUDI-Wallet) vor, die in Deutschland Anfang 2027 kommen soll.
  • Zweitens könnten Menschen ihr Gesicht biometrisch scannen lassen; dann soll eine oftmals als „KI“ bezeichnete Software das Alter schätzen. So etwas gibt es schon heute für Pornoseiten.
  • Schließlich könnten sich Erwachsene selbst bei einer Plattformen anmelden, dort ihr Alter verifizieren, und dann Minderjährigen Kindern einen Account freischalten.

Hier erklären wir genau, was die geplanten Alterskontrollen für Eltern bedeuten können.

Für diesen Artikel hat netzpolitik.org Elternverbände auf Bundes- und Landesebene um ihre Einschätzung zu Alterskontrollen und Social-Media-Verbot gebeten. Ihre Antworten ergänzen die vielfältigen Reaktionen aus Zivilgesellschaft, Wissenschaft und Kirche. Die Übersicht.

Bundeselternrat: Biometrie bei Kindern „besonders kritisch“

Der Bundeselternrat vertritt als Dachverband die Elternverbände der 16 Bundesländer. Diese Verbände engagieren sich auf Basis der Schulgesetze in der Schulpolitik. Nach einer internen Umfrage zieht der Dachverband ein ambivalentes Fazit. „Viele können sich strengere Altersregelungen grundsätzlich vorstellen – allerdings nur in Verbindung mit verbindlicher Medienbildung, wirksamer Prävention und klarer Verantwortung der Plattformanbieter.“

Wenn es um die praktische Umsetzung eines Social-Media-Verbots geht, äußert sich der Bundeselternrat skeptisch. Die geforderten Alterskontrollen werfen „Fragen zu Datenschutz, Datensicherheit und Verhältnismäßigkeit auf“, so der Dachverband. „Viele Eltern sehen es kritisch, wenn für alltägliche Online-Aktivitäten sensible Daten oder biometrische Verfahren erforderlich werden.“

Biometrische Verfahren bei Kindern würden viele Eltern sogar „besonders kritisch“ sehen. Ansätze, bei denen Eltern selbst einen Account anlegen, um einen Kinder-Account freizuschalten, müssten praktikabel und niedrigschwellig sein.

Bundeselternnetzwerk: „Alterskontrollen möglichst freiwillig“ bbt-Geschäftsführerin Anja Treichel: Social-Media-Verbot könnte Kinder „isolieren“. - Alle Rechte vorbehalten David Xavier

Der Verein „Bundeselternnetzwerk der Migrantenorganisationen für Bildung & Teilhabe“, kurz bbt, versteht sich als Stimme migrantischer Eltern und Familien in Deutschland. Auf Anfrage erklärt Geschäftsführerin Anja Treichel, digitale Räume „dienen der Verbindung zu transnationalen Familien, zur Pflege von Sprache und Identität und zum Kontakt mit Freundeskreisen“. Ein generelles Social-Media-Verbot für Minderjährige würde das ignorieren. Es könnte „Kinder eher isolieren als schützen“, warnt sie.

Gegen Risiken im Netz brauche es Treichel zufolge „bessere Prävention von digitalem Mobbing, niedrigschwellige Meldewege für Diskriminierung“ sowie Unterstützung für Eltern, die sprachlichen Barrieren gegenüberstehen. Alterskontrollen sieht der Verein kritisch. Treichel erklärt:

Viele Familien – insbesondere solche mit Flucht- oder Migrationserfahrungen und solche, die in Diktaturen/ autoritären Regimen aufgewachsen sind – sind sensibel gegenüber staatlicher oder kommerzieller Datenerfassung. Biometrische Verfahren können Vertrauen in digitale Angebote untergraben. Alterskontrollen sollten daher möglichst datensparsam und freiwillig gestaltet sein.

Kontrollen auf Basis von Ausweisen könnten bestimmte Gruppen benachteiligen, schreibt sie weiter. „Menschen ohne sicheren Aufenthaltsstatus sind hier generell in Gefahr, ausgeschlossen zu werden.“

Außerdem kritisiert der Verein das Modell, dass Eltern sich zunächst selbst auf einer Plattform anmelden, um dann einen Account für ihre Kinder freizuschalten. Das setze voraus, „dass Eltern Zeit, digitale Kompetenz und Sprachkenntnisse haben“. Die beste Voraussetzung für gesunden Medienkonsum sei es, „wenn die Kinder den Eltern ihre Sorgen und Ängste anvertrauen und ihre Freuden mit ihnen teilen können“.

Deutscher Familienverband: „Bedenken“ bei Datenschutz

Der gemeinnützige Deutsche Familienverband befürwortet eine Social-Media-Regulierung für Kinder unter 14 Jahren, erklärt Geschäftsführer Sebastian Heimann auf Anfrage. Als Risiken nennt er „Cybermobbing, Suchtverhalten und unangemessene Inhalte“.

Bei Alterskontrollen mit digitalen Ausweisverfahren allerdings bestünden „Bedenken hinsichtlich Datenschutz und der Nutzung sensibler persönlicher Daten durch private Anbieter“. Das müsse „anhand der geltenden Gesetzeslage adressiert werden“, schreibt Heimamn.

Müssten Menschen ab 16 Jahren ihr Alter per Ausweis-App nachweisen, wäre das „akzeptabel“. Auf biometrische Scans per KI geht Heimann nicht ausdrücklich ein. Sollten Eltern ihren Kindern einen Account freischalten, könne das nur funktionieren, „wenn die Prozesse einfach und datenschutzfreundlich gestaltet sind“.

NRW: Verbot „zwingend“ durch Bildungsoffensive begleiten

Die Landeselternkonferenz Nordrhein-Westfalen vertritt die Eltern aus Deutschlands bevölkerungsreichstem Bundesland. Soziale Medien erst ab 14 Jahren zu erlauben ist ein „notwendiger Schritt zum Schutz der psychischen Gesundheit junger Menschen“, schreiben Torsten Hemkemeier und Hinrich Pich aus dem Vorstand auf Anfrage. Sie verweisen auf Risiken wie „Algorithmen, Suchtpotenziale und Cybermobbing“. Den Zuspruch knüpft die Elternkonferenz jedoch an zwei Bedingungen.

Erstens brauche es „technische Lösungen, die lediglich das Alter verifizieren, ohne personenbezogene Daten an die Konzerne zu übermitteln oder die Datenhoheit der Bürger zu gefährden“. Eine direkte Anmeldung per Ausweis bei Anbietern wie TikTok oder Meta würde „die Anonymität im Netz zerstören“, so Hemkemeier und Pich. Beim Austausch zu sensiblen Themen „wie Krankheiten, Schwangerschaften oder schulischen Problemen“ müsse Anonymität gewahrt bleiben. In der Vergangenheit seien soziale Netzwerk mehrfach Ziel erfolgreicher Hackerangriffe geworden, „bei denen Millionen von Nutzerdaten entwendet wurden“.

Durchblick statt Schnellschüsse Recherchen wie diese sind nur möglich durch eure Unterstützung. Jetzt Spenden

Zweitens müsse ein Social-Media-Verbot „zwingend durch eine massive Bildungsoffensive in den Schulen begleitet werden“, weil Sperren „niemals lückenlos sein werden“. Lehrer*innen seien bereits stark belastet. Deshalb fordert der Verband Geld „für externes Fachpersonal, dass die Medienkunde professionell in den Schulalltag integriert“. Die Kosten für diese Art der Prävention seien „weitaus geringer als die gesellschaftlichen und medizinischen Folgekosten“ von Cybermobbing oder Mediensucht.

Bayern: „Kein generelles Verbot“

Der Bayerische Elternverband (BEV) vertritt die Eltern aus Bayern, dem nach Einwohner*innen zweitgrößten deutschen Bundesland. Die Forderung des Verbands: „Kein generelles Verbot sozialer Medien“. Ein solches Verbot würde digitale Teilhabe von Kindern und Jugendlichen einschränken, nicht aber das Kernproblem lösen, erklärt BEV-Vorstandsmitglied Gundolf Kiefer. Neben seiner Tätigkeit im BEV ist er Professor für Informatik an der Technischen Hochschule Augsburg. Kiefer schreibt:

Das eigentliche Problem ist nicht der soziale Austausch Jugendlicher über das Internet, sondern es sind die Geschäftsmodelle der großen kommerziellen Plattformen: Algorithmen, die gezielt auf Engagement durch Empörung und Eskalation optimiert sind, auf möglichst langen Verbleib auf der Plattform, kombiniert mit zielgerichteter Werbung und umfassender Datenerfassung.

Statt eines pauschalen Verbots fordert der BEV ein rechtlich durchgesetztes Verbot von Plattformen, die für Menschen unter 16 Jahren „suchtverstärkende Algorithmen einsetzen oder Lock-in-Effekte zur Bindung nutzen“. Das könne Eltern entlasten. Zur Einordnung: Einen solchen Risiko-basierten Ansatz verfolgt das bereits bestehende Gesetz über digitale Dienste (DSA); dessen Lücken will die EU-Kommission mit dem geplanten Digital Fairness Act schließen.

In technischen Alterskontrollen sieht der BEV keine Lösung, wie aus der Antwort hervorgeht. Kontrollen per Biometrie oder Ausweis-App „sind aus Datenschutzsicht problematisch und lassen sich leicht umgehen“, warnt Kiefer. Hochsensible Daten könnten bei Unternehmen landen, „deren Geschäftsmodell auf Datenextraktion basiert – ein erhebliches Datenschutzrisiko“.

Statt eines Verbots sollten Schulen jungen Menschen Alternativen nahebringen, etwa das dezentrale Fediverse oder offene Messenger wie Element. Dann könnten Eltern ihren Kindern sagen: „Nein, du brauchst TikTok nicht – hier sind bessere Optionen.“

Sachsen: „Privacy by Design“ als Voraussetzung

Der Landeselternrat in Sachsen fordert ein „umfassendes Schutzkonzept“ für Kinder und Jugendliche, schreibt Vorsitzender Ronald Lindecke auf Anfrage. Lehrkräften zufolge seien Klassen weniger konzentriert; Schüler*innen würden Konflikte aus digitalen Räumen in den Schulalltag tragen. „Kinder sollten nicht den Mechanismen einer Plattformökonomie ausgesetzt sein, die stark auf Aufmerksamkeit, Datenauswertung und Konsum ausgerichtet ist“, schreibt Lindecke.

Wenn Social-Media-Regeln für unter 14-Jährige ein Teil des Konzepts sind, stehe er dem „grundsätzlich offen gegenüber“. Alterskontrollen hält er sogar für „zwingend notwendig“, entscheidend sei jedoch das Wie. Hierfür nennt Lindecke zwei Bedingungen: „Aus Elternperspektive kann eine Verifizierung Zustimmung finden, wenn sie datenschutzfreundlich und freiwillig umgesetzt wird“. Zur Erinnerung: Das australische Modell, das hierzulande als Vorbild gilt, ist nicht freiwillig oder datenschutzfreundlich.

Konkret fordert Lindecke „Privacy by Design“. Daten sollen demnach mit Ende-zu-Ende-Verschlüsselung übertragen werden; es sollen keine zentralen Datenbanken entstehen; und eine App sollte nur notwendige Attribute übermitteln. Das heißt zum Beispiel, dass eine Plattform mit Altersbeschränkung nicht etwa das Geburtsdatum einer Person erfährt, sondern bloß, ob sie alt genug ist.

Thüringen: „Lehnen biometrische Erfassung von Kindern ab“

Die Landeselternvertretung Thüringen sieht „hohen Klärungsbedarf“ bei Alterskontrollen für soziale Medien. „Wir halten Lösungen für sinnvoll, die sicherstellen, dass Eltern ihre Kinder schützen können, ohne selbst umfangreiche persönliche Daten preiszugeben“, schreibt Landeselternsprecher Peter Oehmichen auf Anfrage. „Dabei lehnen wir ausdrücklich die biometrische Erfassung von Kindern ab.“

Wenn Bilder von Kindern ins Netz gelangen, lasse sich nicht lückenlos prüfen, ob Datensammlungen entstehen. Die Elternvertretung warnt vor einem Risiko für die Sicherheit der Kinder.

„Verbote allein sind keine Lösung“, schreibt Oehmichen weiter. Er warnt davor, die Nutzung sozialer Medien zu kriminalisieren. Ein Verbot mache es schwerer, Kinder bei digitalen Aktivitäten zu begleiten. „Eltern sollen Partner im digitalen Schutz sein“. Der wichtigste Ansatz sei „Prävention, Aufklärung und Stärkung von Kindern“.

Mecklenburg-Vorpommern: Medienkompetenz vermitteln

Für den Landeselternrat Mecklenburg-Vorpommern steht ein Social-Media-Verbot nicht oben auf der Prioritätenliste. „Entscheidend ist aus unserer Sicht vor allem, dass Kinder frühzeitig lernen, verantwortungsvoll und kritisch mit digitalen Medien umzugehen“, erklärt Vorsitzende Diana Zander. Der Landeselternrat setze sich dafür ein, dass Schulen verbindlich Medienkompetenz vermitteln. „Ein reines Verbot ohne begleitende Bildung und Aufklärung würde zu kurz greifen.“

Technische Alterskontrollen könnten zwar helfen, Altersgrenzen besser durchzusetzen. Gleichzeitig müssten sie hohe Anforderungen an Datenschutz und Datensicherheit erfüllen. „Viele Eltern haben hier Bedenken, insbesondere wenn biometrische Daten wie Gesichtsscans genutzt werden sollen“, schreibt Zander. Außerdem dürften technische Lösungen nicht nur Hürden schaffen; sie müssten tatsächlich zur Sicherheit von Kindern beitragen.

Fazit: Eltern wollen Datenschutz für ihre Kinder

Die angefragten Eltern und ihre Vertreter*innen wünschen sich Schutz für ihre Kinder – das umfasst auch den Schutz ihrer Daten und Privatsphäre. Wirksame Alterskontrollen, die Daten von Kindern und Erwachsenen schützen und keine problematischen Hürden schaffen, diese Hoffnung prägt die aktuelle Debatte zum Social-Media-Verbot.

Erfüllen lässt sich diese Hoffnung aber nicht, denn bisher gibt es keine Technologie, die den Ansprüchen gerecht werden kann. Der Stand der Technik und die Rechtslage legen nahe: Die von Elternverbänden geäußerten Bedenken sind fundiert.

  • Die digitale Brieftasche (EUDI-Wallet) ist die derzeit wohl ambitionierteste Lösung für potenziell EU-weite Alterskontrollen bei hohem Datenschutz. Ob diese Alterskontrollen jedoch wirklich anonym ablaufen, steht noch nicht fest. Eine Lösung für alle kann die digitale Brieftasche ohnehin nicht sein: Menschen ohne mit der Wallet kompatible Papiere können sie nicht nutzen, in Deutschland sind das Schätzungen zufolge mehrere Hunderttausend. Laut EU-Gesetz muss die digitale Brieftasche zudem „freiwillig“ sein. Das heißt, es muss Alternativen geben.
  • Alternative Methoden zur Alterskontrolle wiederum versagen regelmäßig in Sachen Datenschutz und Privatsphäre. Wie gefährlich das werden kann, zeigen Fälle der jüngsten Vergangenheit: Kurz nachdem die Team-Software Discord Alterskontrollen eingeführt hatte, gab es einen Leak bei einem Drittanbieter; Betroffen waren sensible Ausweisdaten von 70.000 Menschen. In Australien wiederum horten manche Anbieter für Alterskontrollen ohne Not biometrische Daten, wie ein Gutachten im Auftrag der australischen Regierung zeigte.

In einem offenen Brief von Anfang März forderten 400 Forscher*innen aus 29 Ländern: Staaten sollen ihre Pläne für Alterskontrollen stoppen. Es fehle ein klares Verständnis für die Folgen der Technologie in Bezug auf „Sicherheit, Privatsphäre, Gleichberechtigung“ und die „Autonomie“ aller Menschen. Die Einführung von Alterskontrollen ohne weitere Forschung sei „gefährlich und gesellschaftlich nicht hinnehmbar“.

Derzeit arbeiten Expert*innen-Kommission auf Deutschland- und EU-Ebene an Antworten für Kinder- und Jugendschutz im Netz. Ergebnisse sollen beide Gremien bis zum Sommer vorlegen. Im Anschluss könnte die Arbeit an Gesetzentwürfen beginnen. Deutschlands Elternverbände dürften das genau verfolgen.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Social-Media-Verbot: Darauf müssen sich Eltern einstellen

20. März 2026 - 5:00

Ein Social-Media-Verbot für Kinder soll Eltern entlasten, das versprechen dessen Befürworter*innen. Dahinter steckt aber auch Arbeit: Eltern müssten mit einer Ausweis-App hantieren und entscheiden, ob ihr Kind sein Gesicht biometrisch scannen lassen soll. Der Überblick.

Biometrischer Scan mit Lebenderkennung: Was bedeuten Alterskontrollen für Eltern und Kinder? – Alle Rechte vorbehalten IMAGO / Wolfgang Maria Weber

Täglich um die Zeit am Handy streiten, Einstellungen prüfen, den Überblick behalten darüber, was das eigene Kind auf TikTok, Instagram oder YouTube sieht und tut – das sorgt bei vielen Eltern für Stress. Sie treten an gegen mächtige Tech-Konzerne, deren Produkte mit Finesse darauf optimiert sind, möglichst oft und lange die Aufmerksamkeit zu binden. Viele fühlen sich ohnmächtig angesichts dieser Anziehungskraft.

Ein Social-Media-Verbot verspricht da eine scheinbar schnelle Lösung. Statt selbst dem Teenagerkind TikTok zu verbieten und dafür Türenknallen zu kassieren, könnten Eltern einfach auf ein gesetzliches Verbot verweisen.

Zum Schutz von Kindern im Netz und als Entlastung für Eltern drängen gerade viele Politiker*innen international auf ein Social-Media-Verbot für Minderjährige. In Deutschland wollen es der Bundeskanzler und der Vize-Kanzler, ebenso die Ministerinnen für Familie und Justiz: Ein Social-Media-Verbot nach australischem Vorbild. Jungen Menschen bis zu einer festen Altersgrenze sollen dann keine Accounts mehr auf TikTok, YouTube oder Instagram haben dürfen – und auch alle Älteren müssten ihr Alter nachweisen, um dort weiterhin liken, posten oder kommentieren zu dürfen.

Politiker*innen der SPD hatten im Februar ein Forderungspapier veröffentlicht, in dem sie ein umfassendes Verbot sozialer Medien für Kinder bis 14 Jahre verlangten. Für unter 16-Jährige soll es demnach eine entschärfte Jugendversion geben. Die CDU hat sich auf ihrem Parteitag Ende Februar auf ein ähnliches Modell verständigt. Einig ist sich die Bundesregierung aber noch nicht: Wichtige Politiker*innen der CSU sind gegen ein Social-Media-Verbot.

Hört man den Politiker*innen zu, dann soll das gesetzliche Verbot nicht nur junge Menschen schützen, sondern auch Eltern entlasten. Familienministerin Karin Prien (CDU) spricht von einer „enormen Herausforderung“ für Eltern, die das digitale Aufwachsen ihrer Kinder begleiten müssen. „Wir bekommen es auch im Elternhaus nicht mehr reguliert“, sagt auch der Ministerpräsident von Rheinland-Pfalz, Alexander Schweitzer (SPD). Was dabei regelmäßig unter den Tisch fällt: Die im selben Zug geforderten Alterskontrollen für alle, die das Social-Media-Verbot durchsetzen sollen, können Eltern auch belasten.

Der genaue mögliche Ablauf solcher Kontrollen in Deutschland ist nicht bekannt; noch ist nichts beschlossen. Es gibt aber das australische Modell als Vorbild – und es gibt konkrete Konzepte, wie Kontrollen in Deutschland oder der EU aussehen könnten. Einige Methoden von Alterskontrollen gibt es sogar schon jetzt in Deutschland; sie werden bislang allerdings nur für den Zugang zu Pornoseiten genutzt.

Worauf genau müssten sich Eltern also einstellen, wenn ein Social-Media-Verbot und Alterskontrollen in Deutschland real werden? Hierfür haben wir mehrere, wahrscheinliche Szenarien formuliert.

  • Szenario 1: Ihr Kinder lässt sein Gesicht scannen
  • Szenario 2: Ihr Kind lädt seinen Ausweis hoch
  • Szenario 3: Sie schalten Ihr Kind mit Ihrem Account frei
  • Szenario 4: Was, wenn Sie keine Papiere haben?
  • Szenario 5: Was, wenn Sie keine (minderjährigen) Kinder haben?
Szenario 1: Ihr Kinder lässt sein Gesicht scannen

Stellen wir uns vor, Ihr 15-Jähriges Kind hat bereits Instagram und möchte es nach Einführung der verpflichtenden Altersgrenze weiter nutzen. Nach kurzer Zeit fordert die Plattform Ihr Kind auf, sein Alter zu verifizieren. Dafür bietet die Plattform eine Altersschätzung über einen biometrischen Gesichtsscan.

Ihr Kind muss der App dafür Zugriff auf die Handykamera erlauben und sein Gesicht abfilmen. Die Aufnahme wird von einem Unternehmen ausgewertet, das sich auf solche digitalen Alterskontrollen spezialisiert hat. Dort analysiert ein KI-Modell die biometrischen Daten und gibt eine Schätzung ab, wie alt Ihr Kind wahrscheinlich ist. Auf das Versprechen, dass der Anbieter diese Aufnahmen zügig wieder löscht, müssen Sie sich verlassen.

KI-basierte Alterseinschätzung macht häufig Fehler. Sie kann Menschen als zu alt oder zu jung einschätzen. Stellen wir uns vor, Ihr Kind hat in diesem Fall Pech gehabt: Weil seine Gesichtszüge für die Software zu kindlich aussehen, wird es vom System auf unter 14 Jahre geschätzt. (Stand aktuell ist das Mindestalter für Instagram noch 13 Jahre.) Die Plattform teilt Ihrem Kind mit, dass es seinen Account nicht länger nutzen darf; es kann sich nicht mehr einloggen. Gemeinsam wühlen Sie sich durch Infoseiten, um herauszufinden, wie Sie einer falschen Alterseinschätzung widersprechen können, und eine erneute Prüfung anstoßen.

Biometrische Daten wie jene zu einem Gesicht gelten als besonders sensibel, denn sie bleiben ein Leben lang gleich. Anders als ein Passwort können sie nicht „zurückgesetzt“ werden. Sollte eine Datenbank mit derart sensiblen Daten Sicherheitslücken haben, wie es in der Vergangenheit schon passiert ist, könnten Angreifer*innen die Daten erbeuten und etwa für Betrug oder Identitätsdiebstahl missbrauchen.

Viele Eltern posten vorsichtshalber keine Bilder ihrer Kinder im Internet und wollen auch nicht, dass deren Gesichter biometrisch gescannt werden.

Szenario 2: Ihr Kind lädt seinen Ausweis hoch

Stellen wir uns vor, Ihr Kind, 14 Jahre alt, folgt auf YouTube gerne Influencern und kommentiert dort deren Videos. Auf der Suche nach zu jungen Nutzer*innen analysiert YouTube in Hintergrund das Verhalten Ihres Kindes. Die Plattform prüft möglicherweise, welche Videos Ihr Kind schaut und mit welchen Accounts es interagiert. Dabei kommt YouTube zu dem Schluss, dass Ihr Kind vielleicht doch noch nicht 14 Jahre alt ist. Die Plattform schickt Ihrem Kind deshalb eine Nachricht mit der Aufforderung, sein Alter überprüfen zu lassen.

Wieder landet ihr Kind bei einem Unternehmen, das für digitale Alterskontrollen zuständig ist. Dieses Mal soll es dort ein Ausweisdokument hochladen. Einen eigenen Personalausweis hat ihr Kind noch nicht, aber einen Reisepass. Ihr Kind soll den Pass fotografieren; die Fotos landen dann auf den Servern des Unternehmens. Dort prüft eine Software das Dokument und liest das Geburtsdatum aus. YouTube selbst bekommt den Reisepass nicht zu sehen, sondern nur den Hinweis, dass Ihr Kind über 14 Jahre alt ist.

Staaten sollen Social-Media-Verbote stoppen

Möglicherweise muss Ihr Kind noch beweisen, dass es wirklich den eigenen Ausweis hochgeladen hat. Dafür soll es zusätzlich sein Gesicht vor die Kamera halten, sodass eine Software diese Aufnahme mit dem Gesicht auf dem Passfoto vergleichen kann. Mehrfach bittet die Software Ihr Kind, sein Gesicht aus einem anderen Winkel aufzunehmen. Auf diese Weise prüft die Software, dass Ihr Kind nicht bloß das Foto einer anderen Person präsentiert. Der Prozess, den Ihr Kind dabei durchläuft, heißt Lebenderkennung. Auch hier kommt sogenannte KI zum Einsatz.

Sie und Ihr Kind müssen sich nun darauf verlassen, dass der Drittanbieter die Daten Ihres Kindes und die Fotos seines Reisepasses wieder löscht. Im Herbst musste etwa die Team-Software Discord eingestehen: Ausweisdaten von rund 70.000 Menschen, die über einen Drittanbieter ihr Alter verifizieren ließen, sind einem Leak zum Opfer gefallen.

Szenario 3: Sie schalten Ihr Kind mit Ihrem Account frei

Ihr 15-Jähriger will endlich einen eigenen TikTok-Account, um dort Creator*innen zu folgen und Videos von Freund*innen zu kommentieren. Stellen wir uns vor, für diese Altersgruppe zwischen 14 und 16 Jahren gibt es eine verpflichtende Jugendversion, wie es Politiker*innen der SPD vorgeschlagen haben. In dieser Version darf es keinen personalisierten, optimierten Feed geben. Auch Funktionen wie endloses Scrollen gäbe es nicht. Außerdem gilt: „Der Zugang erfolgt ausschließlich nach Verifizierung durch die Erziehungsberechtigten über deren EUDI-Wallet.“

Diese europäische digitale Brieftasche soll bald allen EU-Bürger*innen zu Verfügung stehen. Sie können damit ihren Führerschein und Personalausweis auf dem Handy speichern oder ihr Alter im Internet nachweisen. In Deutschland soll eine erste Version Anfang 2027 eingeführt werden.

Als Elternteil sind sie jetzt in der Verantwortung nachzuweisen, dass ihr Kind bereits 14 ist und ein Konto auf der Plattform eröffnen darf. Dazu müssen sie sich allerdings zunächst selbst die App herunterladen und einen TikTok-Account anlegen. Dabei geben sie TikTok unter anderem Ihre E-Mail-Adresse und Telefonnummer preis, sowie möglicherweise Standortdaten und viele weitere Eckdaten über Ihr Handy.

Als nächstes müssen Sie TikTok mithilfe Ihrer staatlichen Ausweis-App beweisen, dass zumindest Sie schon erwachsen sind. Danach können Sie das Konto Ihres Kindes mit Ihrem eigenen Konto verknüpfen und dafür bürgen, dass es bereits über 14 Jahre alt sind. Möglicherweise möchte die Plattform noch prüfen, dass Sie wirklich erziehungsberechtigt sind und nicht einfach nur der große Bruder – wie das technisch funktionieren soll, ist bislang nicht geklärt. Ist Ihr Konto mit dem Ihres Kindes verbunden, können Sie künftig auch den Überblick über die Einstellungen und Bildschirmzeiten Ihres Kindes behalten.

Einen „begleiteten Modus“ für Accounts von Minderjährigen bietet TikTok bereits heute an. Eltern die ihn nutzen wollen, brauchen dazu auch jetzt schon einen eigenen TikTok-Account. Allerdings müssen Eltern bislang nicht beweisen, dass sie bereits erwachsen sind.

Szenario 4: Was, wenn Sie keine Papiere haben?

Die geplante digitale Brieftasche (EUDI-Wallet) ist für EU-Bürger*innen gedacht sowie für Menschen, die in der EU leben. Wer künftig sein Alter mit der digitalen Brieftasche nachweisen will, muss dafür wahrscheinlich eine App herunterladen und dort die eigenen Ausweisdaten hinterlegen. Stellen wir uns vor, Sie gehören zu den schätzungsweise Hunderttausenden Menschen in Deutschland, die schlicht keine oder keine passenden Ausweispapiere besitzen. Oder Sie haben kein Smartphone – oder finden es schlicht unangenehm, Ihre Ausweisdaten einer App auf dem Handy anzuvertrauen.

In beiden Fällen könnten weder Sie noch Ihr Kind die Alterskontrollen zu Facebook, Instagram oder YouTube auf die Weise überwinden, die viele andere nutzen. Sie können sich jedoch auf ein Recht berufen, dass die EU in der Verordnung für die digitale Brieftasche vorgesehen hat: Die Nutzung der Brieftasche muss demnach freiwillig sein. Es braucht also Alternativen. Möglicherweise bleibt ihnen also noch die Möglichkeit, Ihr Alter mit einem Gesichtsscan schätzen zu lassen.

Vielleicht ist das KI-Scan für Sie kein Problem und funktioniert einwandfrei. Vielleicht gehören Sie aber auch zu einer Gruppe von Personen, deren Alter von KI-Systemen überdurchschnittlich häufig falsch eingeschätzt wird. Denn KI-Systeme sind oftmals auf Gesichter von weißen Männern optimiert.

Szenario 5: Was, wenn Sie keine (minderjährigen) Kinder haben?

Stellen wir uns vor, Sie haben keine Kinder, oder Ihre Kinder sind schon längst erwachsen. Müssen Sie sich dann überhaupt mit Alterskontrollen herumschlagen? – Ja.

In der Debatte spielt das bislang nur eine Nebenrolle: Kommt ein Social-Media-Verbot mit Alterskontrollen, werden nicht nur Kinder und Jugendliche ihr Alter nachweisen müssen, damit sie Zutritt zu Plattformen bekommen, sondern alle.

Sie wollen ein Brettspiel-Video auf YouTube kommentieren; einer Köchin auf Instagram folgen? Möglicherweise bezweifelt die Plattform, ob sie bereits erwachsen sind, und bittet sie per Pop-up um einen Altersnachweis. Dann haben Sie wiederum die Wahl, ob Sie Ihr Gesicht biometrisch scannen lassen, Ihre digitale Brieftasche verwenden oder Ihre Ausweispapiere bei einem Anbieter hochladen wollen.

Alterskontrollen in Deutschland: So geht es jetzt weiter

Derzeit arbeitet eine von Bundesfamilienministerin Karin Prien eingesetzte Expert*innen-Kommission an Vorschlägen für einen effektiven Schutz von Kindern und Jugendlichen im Netz. Ergebnisse sollen es noch vor der parlamentarischen Sommerpause geben. Parallel arbeitet eine ähnliche Kommission auf EU-Ebene am gleichen Thema.

Sowohl SPD als auch CDU drängen auf eine EU-weite Lösung für ein Social-Media-Verbot. Sollte die EU jedoch bis Sommer „keine ausreichenden Fortschritte“ erzielen, hält Prien auch einen deutschen Alleingang für möglich. Die rechtlichen Spielräume für beide Vorhaben sind jedoch schmal.

Auf EU-Ebene gibt es derzeit keine Pflicht für Plattformen, das Alter ihrer Nutzer*innen zu überprüfen oder Kinder auszusperren. Es gelten lediglich Auflagen, die Risiken für Minderjährige auf den Plattformen zu mindern– im Rahmen des Gesetzes für digitale Dienste (DSA).

Kaum beachtet von der breiten Öffentlichkeit verhandeln Kommission, Parlament und Mitgliedstaaten zudem über ein neues Gesetz, das Alterskontrollen in der EU zur Pflicht machen könnte. Anlass ist die Verordnung zur Prävention und Bekämpfung des sexuellen Missbrauchs von Kindern, kurz: CSA-VO. Demnach sollen Anbieter mit Chatfunktion flächendeckende Alterskontrollen einführen, um minderjährige Nutzer*innen etwa vor Grooming zu schützen, also die Anbahnung sexuellen Kontakts durch Erwachsene. Entschieden ist jedoch nichts: Während sich Kommission und Rat für solche Kontrollen einsetzen, ist das Parlament dagegen.

Viele Elternverbände in Deutschland haben Bedenken, dass Daten junger Menschen bei Alterskontrollen nicht ausreichend geschützt werden. Hier geht es zu unserem Bericht: Elternverbände sehen Daten von Kindern in Gefahr.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Ministerien und Behörden auf X: Wenig Reichweite, viel Hass

19. März 2026 - 16:23

Bis heute posten deutsche Behörden und Bundesministerien auf dem Kurznachrichtendienst X. Sie begründen dies mit ihrem Informationsauftrag und der Reichweite, die das soziale Netzwerk angeblich bietet. Eine Analyse des Zentrums für Digitalrechte und Demokratie zeigt nun, wie wacklig diese Argumente sind.

Beim Amtsantritt von Donald Trump zeigte X-Eigentümer Elon Musk den Hitlergruß. Deutsche Behörden scheint dies nicht übermäßig zu irritieren. – Alle Rechte vorbehalten IMAGO / ZUMA Press Wire

Viele deutsche Bundesministerien und Behörden sind weiterhin auf dem umstrittenen Kurznachrichtendienst X aktiv. Meist begründen sie dies mit dem verfassungsrechtlichen Informationsauftrag, der sie angeblich dazu zwinge, auf der auf rechts gepolten Propagandaplattform des US-Unternehmers Elon Musk zu bleiben.

Sonderlich erfolgreich sind die Behörden damit jedoch nicht, wie nun eine Reichweitenanalyse des Zentrums für Digitalrechte und Demokratie zeigt. Ihre Beiträge werden in Summe kaum angesehen, kommentiert oder weiterverbreitet. Wenn es Interaktionen gibt, dann fallen diese selten konstruktiv aus. Stattdessen hetzen etwa unter Posts des Innenministeriums mal mutmaßliche, mal offen rechtsradikale Accounts gegen Geflüchtete oder verbreiten rassistische Kriminalitätserzählungen.

Es handle sich um eine kleine Stichprobe, die keine repräsentativen Aussagen erlaube, betont das Zentrum. Aber dabei enthüllte „deutliche Muster“, Tendenzen und beispielhafte Kommunikationsdynamiken deckten sich mit Forschungsergebnissen über Polarisierung, Plattformlogik und Benachteiligung sachlicher Kommunikation.

Zu einem ähnlichen Ergebnis ist im Februar netzpolitik.org gelangt, das die X-Accounts ausgewählter großer deutscher Medienhäuser analysiert hatte. Obwohl auch sie nur verhältnismäßig wenige Nutzer:innen erreichen, berufen sie sich unter anderem auf die Reichweite, die das vormals als Twitter bekannte soziale Netzwerk biete. Zudem sei der Online-Dienst genau der richtige Ort, um der auf X grassierenden Desinformation mit Fakten und Qualitätsjournalismus zu begegnen, so die befragten Medien.

Interaktionen im einstelligen Prozentbereich

Wie die Untersuchung des Zentrums nun offenlegt, ergeht es Behörden auf X kaum anders als journalistischen Inhalten. Die meisten untersuchten Accounts der Bundesministerien haben unter 200.000 Follower:innen und erzeugen kaum Resonanz. Selbst das Gesundheitsministerium (BMG), das immerhin knapp 330.000 folgende Accounts aufweist, geht auf der Spielwiese für Reaktionäre unter: Im Schnitt erreichte das BMG im Untersuchungszeitraum nicht einmal 1,3 Prozent seiner Follower:innen, wie das Zentrum vorrechnet. Gelingt es Behörden zuweilen, reichweitenstarke Posts abzusetzen, dann besetzen oft rechtsradikale Nutzer:innen den Debattenraum darunter.

Diesen Schnappschuss untermauern zahlreiche wissenschaftliche Studien, die das Zentrum heranzieht. So ist etwa belegbar, dass der Empfehlungsalgorithmus von X dafür anfällige Menschen nach rechts zieht. Faktenbasierte Kommunikation reicht in stark polarisierten Umfeldern nicht aus, um Desinformation wirksam zurückzudrängen, zeigt eine andere Studie – erst recht nicht in stark ideologisch aufgeladenen Kontexten. Und konstruktiver Dialog ist nur dann möglich, wenn Menschen wirklich miteinander reden und auf Argumente eingehen, was sich auf X nur selten beobachten lässt.

Damit verschiebe sich auch die Bedeutung des Informationsauftrags, schreibt das Zentrum: „Behörden sind auf X nicht einfach nur präsent. Sie kommunizieren in einer Umgebung, die aktiv gegen sie arbeitet – und der Algorithmus auf X ist ein mächtiger Gegner.“ Das zeige sich etwa daran, dass algorithmisch sortierte Kommentare immer wieder rechtsextremistische Accounts nach oben spülen, unter anderem die Identitäre Bewegung. Dass sich staatliche Behörden in einem derartigen Umfeld, selbst losgelöst von etwaigen Reichweitenargumenten, nicht mehr auf ihren verfassungsrechtlichen Informationsauftrag berufen können, hatte bereits im Vorjahr der Verfassungsblog ausgeführt.

Ein Abschied von X ist möglich

Indes sprechen deutsche Behörden nicht mit einer Stimme. Einige haben X dauerhaft verlassen, etwa die Berliner Staatsanwaltschaft oder die Antidiskriminierungsstelle des Bundes. X sei „für eine öffentliche Stelle kein tragbares Umfeld mehr“, erklärte Behörden-Chefin Ferda Ataman damals. Andere lassen ihren X-Account ruhen oder bespielen ihn nur mehr unregelmäßig, darunter das Verteidigungsministerium oder das Landwirtschaftsministerium. Ein sachlicher Austausch werde auf X „zunehmend erschwert“, begründete das Verteidigungsministerium den Schritt.

Auf die Kommunikation mit der Außenwelt verzichten sie deshalb jedoch nicht, schließlich existieren neben X zahlreiche weitere Online-Dienste mit grob vergleichbaren Funktionen. Dabei sei die „Förderung einer respektvollen und sachorientierten Diskussion“ maßgeblich, teilte ein Sprecher des Landwirtschaftsministeriums dem Zentrum mit. „Vor diesem Hintergrund setzen wir in unserer digitalen Kommunikation den Fokus auf Plattformen wie LinkedIn oder Instagram, auf denen erfahrungsgemäß häufiger ein fachlicher und konstruktiver Austausch stattfindet.“

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Maschinen sollen Papierkram erledigen: „Kollege KI“ steht auf wackeligen Beinen

19. März 2026 - 11:54

Sogenannte KI-Agenten sollen die Arbeit von Behörden einfacher machen und Personal entlasten. Digitalminister Karsten Wildberger verspricht sich viel davon. Für KI-Experimente gibt die Verfassung der öffentlichen Verwaltung aber wenig Spielraum.

Der „Kollege KI“ soll Verwaltungsmitarbeiter:innen entlasten. (Symbolbild) – Alle Rechte vorbehalten Figuren: IMAGO / Zoonar; Macintosh: Wikimedia/Tmarki; Montage: netzpolitik.org

Digitalminister Karsten Wildberger (CDU) lässt wenig Gelegenheiten aus, um über sogenannte Künstliche Intelligenz zu sprechen. Sein Plan: KI in die Workflows der öffentlichen Verwaltung bringen und die KI-Branche in Deutschland ankurbeln. Im Blick hat er dabei nicht mehr nur Chatbots wie BärGPT vom CityLab Berlin oder LLMoin des öffentlichen IT-Dienstleisters Dataport aus Hamburg. Der neue Hype ist sogenannte agentische KI.

Um diese flächendeckend in der öffentlichen Verwaltung einzuführen, hat das Bundesministerium für Digitales und Staatsmodernisierung (BMDS) im Februar den Agentic AI Hub gestartet. Die Idee des Hubs: KI-Start-ups entwickeln KI-Tools, zugeschnitten auf die Bedürfnisse von Behörden und Ämtern. Staatssekretär Thomas Jarzombek (CDU) sagt dazu: „Wir wollen Start-ups eine Rampe in die Verwaltung bauen.“

Mit KI-Agenten soll die öffentliche Verwaltung effizienter arbeiten und Verwaltungsverfahren sollen insgesamt schneller werden, teilt das BMDS auf Anfrage mit. Das könne man dadurch erreichen, dass agentische KI die Entscheidungsfindung von Sachbearbeiter:innen unterstützt.

„Kollege KI“

Personal in Behörden ist vielerorts überlastet. Unter anderem liegt das an Personalknappheit. Schon jetzt zeichnet sich ab, dass sich das Problem weiter verschärfen wird, wenn Mitarbeiter:innen aus der Boomer-Generation in den Ruhestand gehen.

Mit KI will das BMDS gegen diese Entwicklung ankommen. Die Idee dahinter ist ein „Kollege KI“. Den solle man in die Verwaltung bringen, sagte Heiko Geue im Kontext des KI-Marktplatzes beim Pressegespräch im November. Er ist Vorsitzender des IT-Planungsrats und Finanz- und Digitalminister des Landes Mecklenburg-Vorpommern. Agentische KI könne ähnlich wie ein:e Mitarbeiter:in damit beauftragt werden, bestimmte Aufgaben selbstständig zu erledigen, so das BMDS gegenüber netzpolitik.org. Generative KI könne eine Aufforderung wie „Schreibe einen Bescheid“ in Text umsetzen.

Agentische KI hingegen generiere keine Inhalte wie Texte, Code oder Bilder, sondern könne Aufgaben übernehmen, etwa Antragsunterlagen auf Vollständigkeit prüfen oder personenbezogene Daten in Dokumenten schwärzen. Die Entscheidung solle am Ende aber immer der Mensch treffen, so das Ministerium.

Kommunale KI-Piloten

Ob KI-Programme Mitarbeiter:innen wirklich entlasten und die Arbeit beschleunigen, hierfür legt das BMDS gegenüber netzpolitik.org keine Belege vor. Auf die Frage, welche KI-Projekte Verwaltungsarbeit übernehmen können sollen, verweist die Pressestelle auf den KI-Marktplatz und die H2KI-Plattform. Diese Plattform nutzt KI um Genehmigungsverfahren abzuwickeln. Laut BMDS sei sie „eine Blaupause für den KI-Einsatz bei der Genehmigung von Infrastrukturprojekten“.

Ähnliche Projekte aus Kommunen wählte das BMDS Anfang März aus. Davon gehen zunächst 18 in die Pilotphase und sollen langfristig Verwaltungen bundesweit zur Verfügung stehen. Das Programm Forml der Städte Frankfurt am Main und Düsseldorf richtet sich etwa an Sachbearbeiter:innen von Anträgen auf einen Wohnberechtigungsschein. Laut Produktbeschreibung ist Forml eine Cloud-Software, die „unstrukturierte Daten aus Dokumenten, Scans oder Bildern“ verarbeitet. Es soll eingehende Anträge „auf Vollständigkeit und Einkommen“ prüfen.

Formfix, entwickelt in Köln, Heinsberg und zwei Berliner Bezirken, soll Antragsprozesse auf Hilfe zur Pflege vereinfachen; sowohl für die Antragstellenden als auch für das Amt, das die eingereichten Unterlagen schneller bearbeiten können soll.

Aus dem Neckar-Odenwald-Kreis stammt Lector.ai. „Mittels Vision-LLMs“ verarbeitet die Software Behördenpost und soll „den hohen manuellen Sortieraufwand großer Dokumentenmengen“ reduzieren.

Mehr als Marketing?

Wie viel Zeit können die Werkzeuge in der Praxis einsparen; wie viel Arbeit machen sie langfristig durch Pflege und Fehler? Während solche Fragen noch unbeantwortet sind, rührt der Digitalminister die Werbetrommel. Im Januar warb er damit, dass die KI-Agenten Genehmigungsverfahren zu über 80 Prozent beschleunigen könnten.

Die Bundestagsabgeordnete Rebecca Lenhard von den Grünen fragte nach, wie er zu dieser Einschätzung komme. Weder Methodik noch Vergleichsmaßstäbe hat der Minister offengelegt. „Für eine so weitreichende Behauptung ist das zu wenig“, kommentiert Lenhard in einem Pressestatement.

Effekte der KI-Nutzung müssten „transparent, nachvollziehbar und belastbar evaluiert werden“. Da KI bereits in Genehmigungsverfahren eingesetzt werde, brauche es umso dringlicher „klare Standards für Qualitätssicherung, Nachvollziehbarkeit und Verantwortlichkeit“, fordert die Abgeordnete.

KI ist nicht neutral

Technisch beruhen agentische und generative KI auf denselben großen Sprachmodellen und teilen deren strukturelle Schwächen: KI ist eine Black Box und liefert Output, der nicht neutral ist, sondern „biased“, verzerrt. Black Box meint, es lässt sich nicht genau nachvollziehen, warum KI-Programme zu einem bestimmten Ergebnis kommen.

Das Bias-Problem besteht darin, dass KI-Systeme auf Trainingsdaten basieren, die ihrerseits von Vorurteilen und Ressentiments geprägt sein können. KI-Output kann daher je nach Kontext diskriminierend sein, rassistisch, ableistisch, sexistisch oder ageistisch.

Dieser Effekt kann sich durch kognitive Verzerrungen bei Menschen verstärken, die mit KI-Erzeugnissen arbeiten. Vorurteile und Ressentiments verbergen sich nicht nur in Trainingsdaten, sondern auch in der Interaktion zwischen Mensch und KI. Welche Fragen Menschen KI stellen, wie sie den Output interpretieren und wie sie darauf reagieren, kann beeinflussen, was diese Systeme tun. Zudem kann der sogenannte Automation Bias dazu führen, dass Menschen die Ergebnisse einer Maschine weniger kritisch hinterfragen als Ergebnisse von Kolleg:innen.

Weiter sind Ergebnisse von KI-Systemen sind nicht verlässlich reproduzierbar. Das macht das Arbeiten nach Grundsätzen wie Nachvollziehbarkeit und Verantwortlichkeit schwer.

Verwaltung muss neutral arbeiten

Wenn Unternehmen mit KI experimentieren, haben sie größere rechtliche Spielräume. Die Verwaltung wiederum muss laut Verfassung neutral, objektiv und gesetzestreu handeln. KI-Systeme sind durch ihre Funktionsweise allerdings nicht in der Lage, Normen anzuwenden oder ethische Verantwortung zu übernehmen – ihre Outputs basieren auf berechneten Wahrscheinlichkeiten. Wie lässt sich das mit der Arbeit der Verwaltung vereinbaren?

David Wagner von der Kanzlei Spirit Legal untersucht, wie die öffentliche Verwaltung KI dennoch in verfassungskonformer Weise nutzen kann. Der Rechtsanwalt beschäftigt sich mit Legal Requirement Engineering, er übersetzt also rechtliche Vorgaben methodisch in technische Anforderungen. Unternehmen regulatorische Anforderungen effizient und rechtskonform in technische Lösungen überführen  Zwar schließe das Grundgesetz den KI-Einsatz nicht aus. Doch bedürfe es technischer und rechtlicher Leitplanken. Ein Baustein könne eine Protokollpflicht sein, die Sachbearbeiter:innen verpflichtet, Eingaben, Ausgaben und eigene Änderungen am Ergebnis zu dokumentieren. Das allein genüge aber nicht.

Das BMDS betont, am Ende treffe immer ein Mensch die Entscheidung. Wagner hält dagegen: Wenn KI-Systeme Anträge vorprüfen oder Bescheide vorbereiten, präge ihr Output die Entscheidung der Sachbearbeiter:innen. Das europäische Datenschutzrecht schränke solche Konstellationen ein. Demnach dürften Entscheidungen gegenüber Betroffenen nicht allein auf automatisierter Verarbeitung beruhen.

Der EuGH habe klargestellt, dass das Verbot auch greife, wenn die Verarbeitung eine menschliche Entscheidung maßgeblich beeinflusse, so Wagner. Menschliche Kontrolle sei ohnehin gefordert. Im Kontext der Verwaltung entbinde sie den Gesetzgeber aber nicht, den Einsatz von KI durch spezielle Rechtsgrundlagen einzuhegen.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Neues aus dem Fernsehrat (114): Der Alte

19. März 2026 - 10:45

Der ZDF-Fernsehrat hat den Intendanten für das ZDF bestätigt: Norbert Himmler bleibt im Amt. Keine Überraschung, er war ja auch der einzige Kandidat. Unser Kolumnist Erik Tuchtfeld fragt: Ist die Wahl ohne Auswahl ein Problem?

Norbert Himmler ist alter und neuer Intendant des ZDF. – CC-BY-SA 2.0 Jan Zappner/re:publica

Er bleibt es: Vergangenen Freitag haben wir als ZDF-Fernsehrat Norbert Himmler für weitere fünf Jahre als ZDF-Intendanten bestätigt. Auffällig ist, wie kontroverse öffentliche Berichterstattung und große Einigkeit innerhalb des Gremiums auseinanderfallen.

Himmler war – nachdem die zwischenzeitliche Überraschungskandidatin Floria Fee Fassihi zurückgezogen hatte – der einzige Kandidat und wurde mit einer Mehrheit von über 90 Prozent der abgegebenen Stimmen gewählt. Die heftige Kritik dieser „Wahl ohne Auswahl“ ist Anlass für eine Kolumne zum Wahlverfahren und der Frage, ob die Vielfalt im Fernsehrat für demokratische Wahlen genügt.

Die Kritik

Auf dem Wahlzettel am Freitag standen ein Name und drei Optionen:

Norbert Himmler; [ ] Ja, [ ] Nein, [ ] Enthaltung

Anders war es noch vor fünf Jahren, als ein Nachfolger für den damaligen Intendanten Thomas Bellut gesucht wurde. Himmler trat damals gegen die Leiterin des ARD-Hauptstadtstudios Tina Hassel an. Zur Entscheidung kam es erst, nachdem Tina Hassel im dritten Wahlgang ihre Kandidatur zurückzog. Sie hatte in den beiden Wahlgängen davor weniger Stimmen als Himmler erhalten, dieser hatte allerdings nicht das erforderliche Quorum von drei Fünfteln der Stimmen des Fernsehrats auf sich vereinen können.

In der Logik des Fernsehrates, der sich in einen „schwarzen“ (konservativen) und einen „roten“ (progressiven) Freundeskreis aufteilt (zur Kritik von Leonhard Dobusch an diesem System siehe hier), war Hassel damals die Kandidatin des roten und Himmler der des schwarzen Freundeskreises.

Nun gab es also nur noch einen Kandidaten. Vorgeschlagen von der Vorsitzenden des schwarzen Freundeskreises Christiane Schenderlein, Staatsministerin für Sport und Ehrenamt im Bundeskanzleramt, trifft beides – Person und Verfahren – auf scharfe Kritik in den (soweit ich es erkennen kann nahezu ausschließlich konservativen) Medien. Wolfgang Kubicki poltert in der BILD, das Wahlverfahren sei „intransparenter Muff“, der „radikal demokratisiert“ gehöre. Boehme-Neßler (den man sonst davon kennt, dass er die Forderung eines AfD-Verbots als „Zivilisationsbruch“ bezeichnet) im Cicero und Hanfeld in der FAZ sind sich einig, dass diese Wahl eine „Farce“ war (für die Zusammenstellung der Kritik sei Bartels im Altpapier gedankt).

Das Verfahren

Das Ausmaß und die Stoßrichtung der Kritik überraschen doch etwas, wenn man bedenkt, dass es sich um Empörung des konservativen (bis rechtsäußeren) Feuilletons über die Wahl eines Kandidaten auf Vorschlag der konservativen Gruppe handelt. Wolfgang Kubicki, so scheint es, ist völlig erbost darüber, dass es nicht mehr links-grüne Vorschläge auf dem Stimmzettel gab. Wie demokratisch und offen war das Verfahren für die Kandidatenaufstellung also?

Gemäß der Wahlsatzung des ZDF wurde das Amt des Intendanten vom 5. bis 30. Januar 2026 öffentlich ausgeschrieben, bewerben konnte sich also jedermann. Sofern die Bewerbungen die formalen gesetzlichen Voraussetzungen erfüllten (recht banale Eigenschaften wie die unbeschränkte Geschäftsfähigkeit und ein ständiger Wohnsitz in Deutschland, § 26 Abs. 2 ZDF-Staatsvertrag), wurden sie an sämtliche Mitglieder des Fernsehrats weitergeleitet. Danach lagen uns als Fernsehratsmitgliedern sieben Bewerbungen vor.

Wenn nur ein einziges Fernsehratsmitglied eine Bewerbung unterstützt, wäre die Person zur Wahl zugelassen worden und hätte die Möglichkeit bekommen, sich im Plenum vorzustellen und befragt zu werden (§ 5 Abs. 4 ZDF-Wahlsatzung). Während die Möglichkeit der Bewerbung also so gut wie keinen Einschränkungen unterlag, waren die Hürden für die Zulassung zur Wahl zumindest denkbar gering (und es erscheint mir absolut sinnvoll, dass Kandidierende ohne Aussicht auf auch nur eine Stimme sich nicht einer öffentlichen Wahl stellen müssen). Das Verfahren selbst hätte deshalb kaum offener ausgestaltet sein können.

Nun stellt sich die Anschlussfrage: Sind wir als Wahlgremium – als Fernsehrat – vielleicht derart gleichartig besetzt, dass von vornherein klar war, dass sämtliche Mitglieder die gleiche Präferenz teilen werden?

Welche Gesellschaft repräsentiert dieser Fernsehrat?

Wie homogen ist also der Fernsehrat, diese laut Rosenfelder (Welt) „Ständevertretung des politischen Beamtenapparats und der durchpolitisierten Verbands- und NGO-Landschaft“? Ist – so könnte die Kontrollfrage lauten – (ausgerechnet) Wolfgang Kubicki der wahre Anwalt marginalisierter Gruppen, der darauf hinweist, welche Interessen im Gremium nicht ausreichend vertreten sind?

In seiner Grundsatzentscheidung aus dem Jahr 2014 hat das Bundesverfassungsgericht entschieden, dass die damalige Zusammensetzung des Fernsehrats den Anforderungen des Grundgesetzes nicht genügte. Seitdem ist klar, dass maximal ein Drittel der Fernsehratsmitglieder „staatlich oder staatsnah“ sein darf. In der Praxis besteht diese „Staatsbank“ im Fernsehrat nun aus 20 der 60 Mitglieder (16 für die Bundesländer, zwei für die Bundesregierung, zwei für die Kommunen). Gemeinsam mit den 40 weiteren Mitgliedern muss der Fernsehrat „möglichst vielfältige […] Perspektiven und Erfahrungshorizonte […] aus allen Bereichen des Gemeinwesens zusammenzuführen“, um als „Sachwalter des Interesses der Allgemeinheit“ zu dienen. Die Zusammensetzung soll gleichermaßen das „Gebot der Vielfaltsicherung“ und das „Gebot der Staatsferne“ sichern.

Und es ist tatsächlich ein recht bunter Strauß an zivilgesellschaftlichen und wirtschaftlichen Organisationen, die Menschen in den Fernsehrat entsenden. Von Arbeitgeberverbänden zu den Gewerkschaften und Sozialverbänden, von den Kirchen bis zum Bund der Vertriebenen, von den Bereichen „Internet“ (den ich vertreten darf) über „Kunst“ und „Musik“ bis zu „Wissenschaft“ und „Heimat und Brauchtum“. Dank des Rotationsprinzips (auf jeden Mann muss eine Frau folgen und umgekehrt, § 21 Abs. 4 ZDF-Staatsvertrag – nicht-binäre Geschlechter wurden in der Gesetzesnovelle 2015 offensichtlich nicht bedacht) ist er aktuell zudem auch weit überwiegend weiblich. So kommt auch eine große Diversitätsstudie der Neuen Deutschen Medienmacher*innen zu dem Ergebnis, dass zumindest „[im] Vergleich mit anderen Rundfunkräten […] der ZDF-Fernsehrat damit recht vielfältig besetzt“ ist.

Trotzdem gibt es auch Schwächen: Die Perspektiven junger Menschen sind in dem Gremium mit einem Altersdurchschnitt von 57,3 Jahren [Stand: Juli 2022, Diversitätsstudie] eindeutig unterrepräsentiert, auch die ganz unterschiedlichen Erfahrungen von Menschen mit Einwanderungsgeschichte (rund 25 Prozent der deutschen Bevölkerung) oder muslimischen Glaubens (6,4 Prozent der Bevölkerung) werden primär durch jeweils eine:n Vertreter:in für die Bereiche „Muslime“ und „Migranten“ vertreten, aber sind selten bei Repräsentant:innen anderer Bereiche vorhanden. Auch Nicht-Akademiker:innen und, noch deutlich weniger, Menschen mit Armutsgeschichte sind nach meinem sehr subjektiven Eindruck kaum im Fernsehrat vertreten.

Das Fehlen all dieser Diversitätsmerkmale macht insoweit auch mich zu einem geradezu typischen Vertreter in dem Gremium. Selbstverständlich prägt das auch die Debatten im Fernsehrat: Welche Themen diskutiert und welche Programmbeschwerden als begründet angesehen werden, hängt auch mit den Erfahrungen und Werten zusammen, die die Mitglieder des Fernsehrats individuell einbringen.

Wenn wir als Fernsehrat tatsächlich die Vielfalt der Gesellschaft abbilden möchten, müssen wir in diesen Bereichen besser werden. Das wäre gesetzlich beispielsweise über eine explizite Vertretung für junge Menschen oder vielfältigere Sitze für Menschen mit Migrationsgeschichte möglich. Noch wichtiger ist aber, dass sich zivilgesellschaftliche und wirtschaftliche Entsendeorganisationen (auch „das Internet“) an die eigene Nase fassen und bei zukünftigen Entsendungen darauf achten, den Fernsehrat mit einem Profil zu ergänzen, welches wirklich neue Perspektiven einbringen kann.

Fernsehrat bestätigt Amtsinhaber

Nach diesem sehr großen Bogen soll es zurück zur Ausgangsfrage gehen: Ist die Wahl des Intendanten durch den Fernsehrat demokratisch legitim? Ich würde das eindeutig bejahen. Das Verfahren war offen und der Fernsehrat ist vielfältig besetzt (auch wenn es hier Defizite gibt, um denen es Kubicki, Rosenfeld und Boehme-Neßler aber wohl kaum ging). Gibt es trotzdem eine große Einigkeit im Gremium, mag das vielleicht überraschend sein, ist aber für sich noch kein Anzeichen für fehlende Streitkultur und offene Kritik in anderen Fragen. Verweise auf die (Aus-)Wahl von vor fünf Jahren gehen schlicht fehl, weil es für ein solches Amt einen erheblichen Unterschied macht, ob ein Amtsinhaber zur Wiederwahl antritt (man also über den bisherigen Kurs abstimmt) oder es notwendigerweise aufgrund einer Neubesetzung frischen Wind gibt.

Offensichtlich sind große Teile des Fernsehrats mit der Arbeit von Norbert Himmler grundsätzlich zufrieden. Aus meiner Perspektive gerade nicht, weil er ein „Verwalter“ ist, sondern weil er die notwendige Transformation des ZDF vom Sender zum Ermöglicher gesellschaftlichen Dialogs ernst nimmt (und sie unter anderem als ersten Punkt seiner Bewerbungsrede nannte). Auch die konsequente Nutzung und Entwicklung von Open-Source-Systemen und der (wenn auch meiner Meinung nach viel zu zögerliche) Ausbau des Angebots frei-lizensierter Inhalte sind Schritte in die richtige Richtung.

Das ist alles kein Persilschein, sondern lediglich die Grundlage für Vertrauen, dass dieser Intendant weiter die Zukunft des Senders gestalten soll. Dabei ist er – so wie der Sender als Ganzes – auf kritische Begleitung angewiesen, die Fehler klar benennt (um Nutzung von KI-Material im heute-journal geht es in der nächsten Kolumne, versprochen!) und Druck macht, wenn Dinge sich zu langsam entwickeln.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

„Tag-X“-Demonstration: Aktivistin verklagt Verfassungsschutz

18. März 2026 - 16:06

Nur weil sie an einer Demonstration teilgenommen und eine andere angemeldet hatte, landete eine linke Aktivistin in einer Datenbank des Verfassungsschutzes. Dagegen klagt sie nun mit der Gesellschaft für Freiheitsrechte. Es geht darum, ihre Daten zu löschen, aber auch um die Versammlungsfreiheit an sich.

Die Polizei Leipzig rückte am „Tag X“ zu einem Großeinsatz aus – und griff dabei die Daten von über 1.000 Teilnehmer:innen ab. – Alle Rechte vorbehalten IMAGO / EHL Media

Mehr als 1.300 Demonstrierende kesselte die Polizei im Juni 2023 ein. Bis zu elf Stunden lang mussten die Menschen im Leipziger Kessel verharren, darunter auch unbeteiligte Anwohner:innen, Jugendliche und Kinder. Die Polizei nahm Personalien auf, teilte Anzeigen aus und leitete die Daten an den Verfassungsschutz weiter.

Bald drei Jahre später ist die Sache noch lange nicht ausgestanden. Der harte Einsatz der Polizei, die später Fehler einräumen musste, geriet in die Kritik. Zwar gab es im Umfeld der Demonstration gewalttätige Auseinandersetzungen. Im Dezember wurde indes bekannt, dass 85 Prozent der Ermittlungsverfahren wegen des Vorwurfs des schweren Landfriedensbruchs eingestellt werden mussten.

Nun klagt die Aktivistin Jona, gemeinsam mit der Gesellschaft für Freiheitsrechte (GFF), gegen den bayerischen Verfassungsschutz vor dem Verwaltungsgericht München. Ihre Daten musste sie beim Verlassen des Kessels dem Sächsischen Landeskriminalamt übergeben, der leitete sie an das Sächsische Landesamt für Verfassungsschutz weiter. Von dort flossen sie nach Bayern, wo die Aktivistin ihren Wohnsitz hat.

Stigmatisiert ohne Fehlverhalten

Obwohl Jona kein konkretes Fehlverhalten vorgeworfen wird – ein gegen sie eingeleitetes Strafverfahren wegen Landfriedensbruch wurde eingestellt –, sind ihre Daten weiterhin beim bayerischen Verfassungsschutz gespeichert. Laut der Klageschrift geht es neben ihrer Teilnahme an der Demonstration am sogenannten „Tag X“ in Leipzig auch um eine Anzeige im März 2024.

Zum einen will Jona mit der Klage erreichen, dass ihre Daten beim Verfassungsschutz gelöscht werden. Bislang weigert sich die Behörde mit der Begründung, Jona habe mit ihrer Teilnahme an der Versammlung die linksextreme Szene unterstützt. Zum anderen will die GFF grundsätzlich gerichtlich klarstellen lassen, dass die Teilnahme an einer Demonstration nicht Anlass für das Speichern von Daten beim Verfassungsschutz werden darf.

„Demokratie lebt von Protest“, sagt Luise Bublitz, Juristin und Verfahrenskoordinatorin bei der GFF. „Wenn Menschen befürchten müssen, dass ihre Daten wegen der bloßen Teilnahme an einer Demonstration beim Verfassungsschutz landen, entsteht ein Gefühl staatlicher Beobachtung.“ Politische Teilhabe dürfe nicht zum Risiko werden, so Bublitz.

Schwammige Gefahr

Dabei lässt sich das Risiko schwer einschätzen. So sei nicht klar definiert, was genau als „linksextreme Szene“ gilt, die Jona angeblich unterstützen würde, führt die GFF aus. Zwar dürfe der Verfassungsschutz Daten von Menschen speichern, aber nur dann, wenn es tatsächliche Anhaltspunkte dafür gibt, dass Personen Bestrebungen gegen die freiheitliche demokratische Grundordnung unterstützen. An einer legalen Versammlung teilzunehmen, sollte dafür nicht ausreichen, so die Grundrechteorganisation.

Was mit solchen Daten geschieht, bleibt oft unklar. So hatte etwa kürzlich der konservative Kulturstaatsminister Wolfram Weimer drei Buchhandlungen vom Deutschen Buchhandlungspreis ausgeschlossen. Im Rahmen des sogenannten Haber-Verfahrens hatte ihm der Verfassungsschutz zurückgemeldet, dass gegen die Buchhandlungen geheimdienstliche Erkenntnisse vorliegen würden.

Einträge mit Konsequenzen

Welche das genau sind, ist öffentlich nicht bekannt. Der Süddeutschen Zeitung zufolge soll einer der Buchläden einst eine Rolle im „Kommunikationsnetzwerk der RAF“ gespielt haben, ein anderer auf seiner Fassade „Deutschland verrecke“ stehen gehabt haben. Offenbar Grund genug, um die Buchhandlungen außerhalb des Verfassungsbogens zu stellen: Das Haber-Verfahren kann immer dann zum Zug kommen, wenn es um staatliche Förderung von Projekten geht, etwa von Nichtregierungsorganisationen.

Der „chilling effect“, vor dem die GFF nun warnt, der Menschen davon abschrecken könnte, ihre Grundrechte öffentlich auszuüben, könnte sich also nicht nur auf die Teilnahme an Demonstrationen beschränken. Zudem betreffe der Fall nicht nur eine einzelne Aktivistin, betont die GFF. Es gehe um die grundsätzliche Frage, wie weit Verfassungsschutzbehörden beim Erfassen und Speichern personenbezogener Daten nach Versammlungen gehen dürfen: „Die aktuelle Speicherpraxis ist eine Gefahr für die engagierte Zivilgesellschaft und die freie demokratische Meinungs- und Willensbildung“, so die GFF.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Versteckte Kosten von KI: „Sie wissen, welche Schäden Künstliche Intelligenz verursacht“

18. März 2026 - 10:51

Datenarbeiter:innen hinter KI werden ausgebeutet und unsichtbar gemacht. Joan Kinyua aus Kenia kämpft für Anerkennung und bessere Arbeitsbedingungen. Im Interview erklärt sie, warum sie nicht auf Gewerkschaften zählt und warum auch deutsche Autokonzerne Verantwortung tragen.

Berliner Straßenszene mit Labels für Machine Learning – Alle Rechte vorbehalten Imago / Jürgen Held, Bearbeitung: netzpolitik.org

Wir treffen Joan Kinyua im Büro des superrr Lab in Berlin-Kreuzberg. Draußen regnet es in Strömen, drinnen macht die junge Frau aus Kenia erstmal einen Corona-Test. Sie hat sich wohl erkältet, es ist ihr erster Besuch in Deutschland. Und doch, so Joan, kommen ihr die Straßen Berlins seltsam bekannt vor.

Es sind die auffälligen gelben Busse, die Trams, die gelegentlich am Straßenrand geparkten Camper-Vans. „Ich habe immer gedacht, ich arbeite mit Bildern aus den USA“, sagt Joan. In ihrem früheren Job hat sie Daten für KI-Unternehmen aufbereitet. Tagein, tagaus sichtete sie Aufnahmen von Straßenszenen und versah sie mit Labels, damit selbstfahrende Autos auseinanderhalten können, ob sie auf eine Katze, eine Plastiktüte oder eine Baustelle zusteuern.

Diese Tätigkeit wird Daten-Annotation genannt und ist ein zentraler Bestandteil der Herstellung von KI-Anwendungen. Für das Training von Machine-Learning-Systemen versehen die Arbeiter:innen hierbei beispielsweise Bilder mit Metadaten, also mit Labels, die den Inhalt beschreiben. Kolleg:innen von Joan spielten zum Beispiel eine entscheinde Rolle dabei, ChatGPT sicherer zu machen, indem sie für das hinter dem Chatbot stehende Sprachmodell gewalttätige Inhalte klassifizierten.

Beschäftigt sind Datenarbeiter:innen in der Regel unter ausbeuterischen Bedingungen bei Outsourcing-Firmen oder digitalen Oursourcing-Plattformen. „Geisterarbeit“ nennen die Anthropoligin Mary L. Gray und der Informatiker Siddarth Suri diese und ähnliche Tätigkeiten hinter den Kulissen der digitalen Welt. Die Weltbank schätzt, dass es insgesamt zwischen 154 und 435 Millionen solcher sogenannter „Gig Workers“ geben könnte.

Heute ist Joan die Präsidentin der 2025 gegründeten Data Labelers Association. Die kenianische Organisation setzt für die Rechte von Datenarbeiter:innen ein. Für einen Workshop der Gesellschaft für Internationale Zusammenarbeit war Joan in Frankfurt am Main. Das „Solutions Lab“ soll Lösungen erarbeiten, wie die Arbeitsbedingungen in der Branche verbessert werden können.

„Lagern auch deutsche Autokonzerne Arbeit an uns aus?“ Joan Kinyua - CC-BY-NC 4.0 netzpolitik.org

netzpolitik.org: Hi Joan, wie lief es in Frankfurt? Konntet ihr Lösungen finden, wie die Situation für ausgebeutete Arbeiter:innen hinter KI verbessert werden kann?

Joan Kinyua: Das leider noch nicht, aber es ist zumindest der Beginn einer Konversation. Es ging vor allem darum, wie Plattform-Arbeiter:innen durch Sozialversicherungssysteme geschützt werden können. Es ist gut, wenn politische Entscheidungsträger:innen uns zuhören. Bei dem Workshop war unter anderem die Weltbank dabei. Auf meiner Reise treffe ich auch Abgeordnete, zum Beispiel von den Grünen und Sonja Lemke von der Linkspartei.

netzpolitik.org: Was erzählst du ihnen?

Joan Kinyua: Dass sie Big Tech zur Verantwortung ziehen müssen. Sie wissen, welche Schäden Künstliche Intelligenz verursacht, aber es gibt keine Konsequenzen. Die großen Tech-Konzerne könnten für bessere Arbeitsbedingungen sorgen.

Wobei: Vielleicht zeigen wir mit dem Finger auch in die falsche Richtung. KI im medizinischen Bereich ist ebenfalls ein Treiber für Datenarbeit. In Deutschland gibt es zudem große Autohersteller, die an selbstfahrenden Autos arbeiten. Lagern sie auch Arbeit an uns aus? Wir brauchen hier mehr Transparenz.

netzpolitik.org: Für Verbraucher:innen ist es derzeit sehr schwer, überhaupt herauszufinden, unter welchen Bedingungen KI-Anwendungen produziert werden. Natürlich ist Transparenz allein nicht die Lösung, aber für andere Konsumgüter gibt es Labels, die zum Beispiel über Produktionsbedingungen aufklären. Kann das auch bei KI funktionieren?

Joan Kinyua: Das ist der wichtigste Schritt: anzuerkennen, dass KI keine Magie ist, dass Künstliche Intelligenz immer einen menschlichen Anteil hat. Lasst uns mit der Anerkennung für die Arbeiter:innen anfangen, die dafür sorgen, dass die Maschinen funktionieren. Auf dieser Grundlage können wir über Gesetze und Regulierung sprechen.

netzpolitik.org: Outsourcing-Firmen, bei denen viele Datenarbeiter:innen beschäftigt sind, erschweren Transparenz unter anderem durch Schweigeklauseln in Arbeitsverträgen, sogenannte Non-Disclosure-Agreements, kurz NDAs. Muss sich das ändern?

Joan Kinyua: Ich verstehe schon, dass Unternehmen sicherstellen müssen, dass vertrauliche Informationen nicht publik werden, zum Beispiel wenn mit Finanzdaten gearbeitet wird. Aber sie nutzen das aus. Sie verbieten ihren Arbeiter:innen, überhaupt über ihre Tätigkeit zu sprechen oder sich gewerkschaftlich zu organisieren und anderweitig für ihre Rechte einzutreten. NDAs sollten das Produkt schützen, an dem du arbeitest, nicht deine Rechte beschneiden.

„Das System arbeitet gegen uns“

netzpolitik.org: Bei der Data Labelers Association in Kenia habt ihr euch kürzlich mit ehemaligen und aktiven Datenarbeiter:innen zusammengeschlossen. Wofür streitet ihr?

Joan Kinyua: Wir wollen die Stimmen der Arbeiter:innen verstärken, Öffentlichkeit für unsere Anliegen schaffen und das Narrativ mitbestimmen. Das Wichtigste ist, dass wir wie wirkliche Arbeiter:innen mit spezifischen Fähigkeiten behandelt werden und soziale Absicherung schaffen. Gerade auch Migrant:innen, deren Aufenthaltstatus an dem Job hängt, brauchen Schutz. Es geht uns um faire Löhne, akzeptable Arbeitsstunden und Anerkennung. Es gibt eine große Wissenslücke, die wir schließen müssen.

netzpolitik.org: Die ausbeuterischen Arbeitsbedingungen von Datenarbeiter:innen hinter KI haben in den vergangenen Jahren in internationalen Medien einige Aufmerksamkeit erfahren. Merkt ihr Fortschritte?

Joan Kinyua: Ich kann das nur für Kenia beantworten: Als wir vor einigen Jahren mit unserem Engagement begonnen haben, waren wir sehr hoffnungsvoll. Damals wusste einfach kaum jemand, was Daten-Annotation überhaupt ist. Unsere Mission war es, für Aufmerksamkeit zu sorgen.

Doch vor einiger Zeit hielt der kenianische Präsident eine Rede, in der er Outsourcing-Firmen praktisch Immunität versprochen hat. Er hat ein Gesetz auf den Weg gebracht, das Klagen gegen sie praktisch unmöglich macht. Es wurde ohne große Debatte verabschiedet, unser Widerspruch wurde nicht gehört. Deshalb bin ich heute leider ziemlich hoffnungslos.

netzpolitik.org: Präsident William Ruto hat angekündigt, dass er eine Million Jobs im Outsourcing-Sektor schaffen will.

Joan Kinyua: Wir sind nicht gegen Arbeitsplätze, sondern gegen die Natur dieser Arbeit. Was haben wir von Jobs, wenn die diese irreparable Schäden bei uns anrichten? Das System, das uns schützen sollte, arbeitet gegen uns.

netzpolitik.org: Haben die Outsourcing-Firmen ihr Verhalten geändert?

Joan Kinyua: Es gibt kleine Erfolge. Ein Anbieter, Cloud-Factory, hat beispielsweise die Dauer seiner Arbeitsverträge von einem auf drei Monate erhöht. Außerdem zahlen sie jetzt 1,80 US-Dollar pro Stunde statt 1,50 US-Dollar. Ein anderer Anbieter jedoch hat Kenia sehr plötzlich verlassen. Auch mein Account auf der Plattform ScaleAI wurde einfach gelöscht. Das ist natürlich ein Problem: Die Firmen können einfach in ein anderes Land weiterziehen.

netzpolitik.org: Welche Rolle spielen Gewerkschaften bei eurem Kampf?

Joan Kinyua: In Kenia sind die Gewerkschaften ein Haufen alter Leute, die nicht mal eine E-Mail schreiben können. Wie sollen die uns bei KI helfen? Gar nicht. Wir haben da wirklich sehr schlechte Erfahrungen gemacht. Wir glauben auch, dass die Gewerkschaften teilweise mit Big Tech unter eine Decke stecken. Auch deshalb organisieren wir uns jetzt anders.

„Humor unter Datenarbeiter:innen hilft“

netzpolitik.org: Woher nimmst du die Energie für deine Arbeit?

Joan Kinyua: Ich war schon immer eine Person, die lautstark ist und sich für Gerechtigkeit einsetzt. Jedes Mal, wenn mir jemand zuhört und meine Geschichte ernst nimmt, gibt mir das Kraft. Auch der schwarze Humor unter uns Datenarbeiter:innen hilft mir, die Dinge zu verarbeiten.

netzpolitik.org: Was wünscht du dir für die Zukunft?

Joan Kinyua: Ich wünsche mir, dass Outsourcing-Firmen und -Plattformen für menschenwürdige Arbeitsbedingungen sorgen, damit Arbeiter:innen ganz normale Achtstundentage haben und ihre Mieten zahlen können. Ich wünsche mir, dass wir nicht länger in der aktuellen Situation festhängen, sondern Dinge verändern können. Und ich wünsche mir, dass meine Kinder gute Schulen besuchen können, sozial abgesichert sind und gute medizinische Behandlung haben, wenn sie sie brauchen.

netzpolitik.org: Was können unsere Leser:innen tun, um eure Arbeit zu unterstützen?

Joan Kinyua: Wir haben eine neue Website und freuen uns, wenn Menschen unsere Arbeit teilen. Man kann uns auch mit Spenden unterstützen. Wir suchen zudem immer nach Partnern, mit denen wir zusammenarbeiten können.

netzpolitik.org: Vielen Dank für das Gespräch und weiter viel Erfolg!

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker