«Und während Sie über Ungarn mal dies hören und mal das, sollten Sie besser schleunigst nach Brüssel sehen, wo von der Leyen das Projekt der Zweckentfremdung der EU, der Vergewaltigung der europäischen Verträge und der finalen Entmachtung der Nationalstaaten vorantreibt, als gäb’s kein Morgen. Ein Projekt, das nie etwas anderes als Ihre eigene Entmachtung, werter Bürger, war, die unter dieser Kommissionspräsidentin natürlich verlässlich aufs Hässlichste verschleiert ist.» (– Martin Sonneborn)
netzpolitik.org
Social-Media-Verbot: Darauf müssen sich Eltern einstellen
Ein Social-Media-Verbot für Kinder soll Eltern entlasten, das versprechen dessen Befürworter*innen. Dahinter steckt aber auch Arbeit: Eltern müssten mit einer Ausweis-App hantieren und entscheiden, ob ihr Kind sein Gesicht biometrisch scannen lassen soll. Der Überblick.
Biometrischer Scan mit Lebenderkennung: Was bedeuten Alterskontrollen für Eltern und Kinder? – Alle Rechte vorbehalten IMAGO / Wolfgang Maria WeberTäglich um die Zeit am Handy streiten, Einstellungen prüfen, den Überblick behalten darüber, was das eigene Kind auf TikTok, Instagram oder YouTube sieht und tut – das sorgt bei vielen Eltern für Stress. Sie treten an gegen mächtige Tech-Konzerne, deren Produkte mit Finesse darauf optimiert sind, möglichst oft und lange die Aufmerksamkeit zu binden. Viele fühlen sich ohnmächtig angesichts dieser Anziehungskraft.
Ein Social-Media-Verbot verspricht da eine scheinbar schnelle Lösung. Statt selbst dem Teenagerkind TikTok zu verbieten und dafür Türenknallen zu kassieren, könnten Eltern einfach auf ein gesetzliches Verbot verweisen.
Zum Schutz von Kindern im Netz und als Entlastung für Eltern drängen gerade viele Politiker*innen international auf ein Social-Media-Verbot für Minderjährige. In Deutschland wollen es der Bundeskanzler und der Vize-Kanzler, ebenso die Ministerinnen für Familie und Justiz: Ein Social-Media-Verbot nach australischem Vorbild. Jungen Menschen bis zu einer festen Altersgrenze sollen dann keine Accounts mehr auf TikTok, YouTube oder Instagram haben dürfen – und auch alle Älteren müssten ihr Alter nachweisen, um dort weiterhin liken, posten oder kommentieren zu dürfen.
Politiker*innen der SPD hatten im Februar ein Forderungspapier veröffentlicht, in dem sie ein umfassendes Verbot sozialer Medien für Kinder bis 14 Jahre verlangten. Für unter 16-Jährige soll es demnach eine entschärfte Jugendversion geben. Die CDU hat sich auf ihrem Parteitag Ende Februar auf ein ähnliches Modell verständigt. Einig ist sich die Bundesregierung aber noch nicht: Wichtige Politiker*innen der CSU sind gegen ein Social-Media-Verbot.
Hört man den Politiker*innen zu, dann soll das gesetzliche Verbot nicht nur junge Menschen schützen, sondern auch Eltern entlasten. Familienministerin Karin Prien (CDU) spricht von einer „enormen Herausforderung“ für Eltern, die das digitale Aufwachsen ihrer Kinder begleiten müssen. „Wir bekommen es auch im Elternhaus nicht mehr reguliert“, sagt auch der Ministerpräsident von Rheinland-Pfalz, Alexander Schweitzer (SPD). Was dabei regelmäßig unter den Tisch fällt: Die im selben Zug geforderten Alterskontrollen für alle, die das Social-Media-Verbot durchsetzen sollen, können Eltern auch belasten.
Der genaue mögliche Ablauf solcher Kontrollen in Deutschland ist nicht bekannt; noch ist nichts beschlossen. Es gibt aber das australische Modell als Vorbild – und es gibt konkrete Konzepte, wie Kontrollen in Deutschland oder der EU aussehen könnten. Einige Methoden von Alterskontrollen gibt es sogar schon jetzt in Deutschland; sie werden bislang allerdings nur für den Zugang zu Pornoseiten genutzt.
Worauf genau müssten sich Eltern also einstellen, wenn ein Social-Media-Verbot und Alterskontrollen in Deutschland real werden? Hierfür haben wir mehrere, wahrscheinliche Szenarien formuliert.
- Szenario 1: Ihr Kinder lässt sein Gesicht scannen
- Szenario 2: Ihr Kind lädt seinen Ausweis hoch
- Szenario 3: Sie schalten Ihr Kind mit Ihrem Account frei
- Szenario 4: Was, wenn Sie keine Papiere haben?
- Szenario 5: Was, wenn Sie keine (minderjährigen) Kinder haben?
Stellen wir uns vor, Ihr 15-Jähriges Kind hat bereits Instagram und möchte es nach Einführung der verpflichtenden Altersgrenze weiter nutzen. Nach kurzer Zeit fordert die Plattform Ihr Kind auf, sein Alter zu verifizieren. Dafür bietet die Plattform eine Altersschätzung über einen biometrischen Gesichtsscan.
Ihr Kind muss der App dafür Zugriff auf die Handykamera erlauben und sein Gesicht abfilmen. Die Aufnahme wird von einem Unternehmen ausgewertet, das sich auf solche digitalen Alterskontrollen spezialisiert hat. Dort analysiert ein KI-Modell die biometrischen Daten und gibt eine Schätzung ab, wie alt Ihr Kind wahrscheinlich ist. Auf das Versprechen, dass der Anbieter diese Aufnahmen zügig wieder löscht, müssen Sie sich verlassen.
KI-basierte Alterseinschätzung macht häufig Fehler. Sie kann Menschen als zu alt oder zu jung einschätzen. Stellen wir uns vor, Ihr Kind hat in diesem Fall Pech gehabt: Weil seine Gesichtszüge für die Software zu kindlich aussehen, wird es vom System auf unter 14 Jahre geschätzt. (Stand aktuell ist das Mindestalter für Instagram noch 13 Jahre.) Die Plattform teilt Ihrem Kind mit, dass es seinen Account nicht länger nutzen darf; es kann sich nicht mehr einloggen. Gemeinsam wühlen Sie sich durch Infoseiten, um herauszufinden, wie Sie einer falschen Alterseinschätzung widersprechen können, und eine erneute Prüfung anstoßen.
Biometrische Daten wie jene zu einem Gesicht gelten als besonders sensibel, denn sie bleiben ein Leben lang gleich. Anders als ein Passwort können sie nicht „zurückgesetzt“ werden. Sollte eine Datenbank mit derart sensiblen Daten Sicherheitslücken haben, wie es in der Vergangenheit schon passiert ist, könnten Angreifer*innen die Daten erbeuten und etwa für Betrug oder Identitätsdiebstahl missbrauchen.
Viele Eltern posten vorsichtshalber keine Bilder ihrer Kinder im Internet und wollen auch nicht, dass deren Gesichter biometrisch gescannt werden.
Szenario 2: Ihr Kind lädt seinen Ausweis hochStellen wir uns vor, Ihr Kind, 14 Jahre alt, folgt auf YouTube gerne Influencern und kommentiert dort deren Videos. Auf der Suche nach zu jungen Nutzer*innen analysiert YouTube in Hintergrund das Verhalten Ihres Kindes. Die Plattform prüft möglicherweise, welche Videos Ihr Kind schaut und mit welchen Accounts es interagiert. Dabei kommt YouTube zu dem Schluss, dass Ihr Kind vielleicht doch noch nicht 14 Jahre alt ist. Die Plattform schickt Ihrem Kind deshalb eine Nachricht mit der Aufforderung, sein Alter überprüfen zu lassen.
Wieder landet ihr Kind bei einem Unternehmen, das für digitale Alterskontrollen zuständig ist. Dieses Mal soll es dort ein Ausweisdokument hochladen. Einen eigenen Personalausweis hat ihr Kind noch nicht, aber einen Reisepass. Ihr Kind soll den Pass fotografieren; die Fotos landen dann auf den Servern des Unternehmens. Dort prüft eine Software das Dokument und liest das Geburtsdatum aus. YouTube selbst bekommt den Reisepass nicht zu sehen, sondern nur den Hinweis, dass Ihr Kind über 14 Jahre alt ist.
Staaten sollen Social-Media-Verbote stoppen
Möglicherweise muss Ihr Kind noch beweisen, dass es wirklich den eigenen Ausweis hochgeladen hat. Dafür soll es zusätzlich sein Gesicht vor die Kamera halten, sodass eine Software diese Aufnahme mit dem Gesicht auf dem Passfoto vergleichen kann. Mehrfach bittet die Software Ihr Kind, sein Gesicht aus einem anderen Winkel aufzunehmen. Auf diese Weise prüft die Software, dass Ihr Kind nicht bloß das Foto einer anderen Person präsentiert. Der Prozess, den Ihr Kind dabei durchläuft, heißt Lebenderkennung. Auch hier kommt sogenannte KI zum Einsatz.
Sie und Ihr Kind müssen sich nun darauf verlassen, dass der Drittanbieter die Daten Ihres Kindes und die Fotos seines Reisepasses wieder löscht. Im Herbst musste etwa die Team-Software Discord eingestehen: Ausweisdaten von rund 70.000 Menschen, die über einen Drittanbieter ihr Alter verifizieren ließen, sind einem Leak zum Opfer gefallen.
Szenario 3: Sie schalten Ihr Kind mit Ihrem Account freiIhr 15-Jähriger will endlich einen eigenen TikTok-Account, um dort Creator*innen zu folgen und Videos von Freund*innen zu kommentieren. Stellen wir uns vor, für diese Altersgruppe zwischen 14 und 16 Jahren gibt es eine verpflichtende Jugendversion, wie es Politiker*innen der SPD vorgeschlagen haben. In dieser Version darf es keinen personalisierten, optimierten Feed geben. Auch Funktionen wie endloses Scrollen gäbe es nicht. Außerdem gilt: „Der Zugang erfolgt ausschließlich nach Verifizierung durch die Erziehungsberechtigten über deren EUDI-Wallet.“
Diese europäische digitale Brieftasche soll bald allen EU-Bürger*innen zu Verfügung stehen. Sie können damit ihren Führerschein und Personalausweis auf dem Handy speichern oder ihr Alter im Internet nachweisen. In Deutschland soll eine erste Version Anfang 2027 eingeführt werden.
Als Elternteil sind sie jetzt in der Verantwortung nachzuweisen, dass ihr Kind bereits 14 ist und ein Konto auf der Plattform eröffnen darf. Dazu müssen sie sich allerdings zunächst selbst die App herunterladen und einen TikTok-Account anlegen. Dabei geben sie TikTok unter anderem Ihre E-Mail-Adresse und Telefonnummer preis, sowie möglicherweise Standortdaten und viele weitere Eckdaten über Ihr Handy.
Als nächstes müssen Sie TikTok mithilfe Ihrer staatlichen Ausweis-App beweisen, dass zumindest Sie schon erwachsen sind. Danach können Sie das Konto Ihres Kindes mit Ihrem eigenen Konto verknüpfen und dafür bürgen, dass es bereits über 14 Jahre alt sind. Möglicherweise möchte die Plattform noch prüfen, dass Sie wirklich erziehungsberechtigt sind und nicht einfach nur der große Bruder – wie das technisch funktionieren soll, ist bislang nicht geklärt. Ist Ihr Konto mit dem Ihres Kindes verbunden, können Sie künftig auch den Überblick über die Einstellungen und Bildschirmzeiten Ihres Kindes behalten.
Einen „begleiteten Modus“ für Accounts von Minderjährigen bietet TikTok bereits heute an. Eltern die ihn nutzen wollen, brauchen dazu auch jetzt schon einen eigenen TikTok-Account. Allerdings müssen Eltern bislang nicht beweisen, dass sie bereits erwachsen sind.
Szenario 4: Was, wenn Sie keine Papiere haben?Die geplante digitale Brieftasche (EUDI-Wallet) ist für EU-Bürger*innen gedacht sowie für Menschen, die in der EU leben. Wer künftig sein Alter mit der digitalen Brieftasche nachweisen will, muss dafür wahrscheinlich eine App herunterladen und dort die eigenen Ausweisdaten hinterlegen. Stellen wir uns vor, Sie gehören zu den schätzungsweise Hunderttausenden Menschen in Deutschland, die schlicht keine oder keine passenden Ausweispapiere besitzen. Oder Sie haben kein Smartphone – oder finden es schlicht unangenehm, Ihre Ausweisdaten einer App auf dem Handy anzuvertrauen.
In beiden Fällen könnten weder Sie noch Ihr Kind die Alterskontrollen zu Facebook, Instagram oder YouTube auf die Weise überwinden, die viele andere nutzen. Sie können sich jedoch auf ein Recht berufen, dass die EU in der Verordnung für die digitale Brieftasche vorgesehen hat: Die Nutzung der Brieftasche muss demnach freiwillig sein. Es braucht also Alternativen. Möglicherweise bleibt ihnen also noch die Möglichkeit, Ihr Alter mit einem Gesichtsscan schätzen zu lassen.
Vielleicht ist das KI-Scan für Sie kein Problem und funktioniert einwandfrei. Vielleicht gehören Sie aber auch zu einer Gruppe von Personen, deren Alter von KI-Systemen überdurchschnittlich häufig falsch eingeschätzt wird. Denn KI-Systeme sind oftmals auf Gesichter von weißen Männern optimiert.
Szenario 5: Was, wenn Sie keine (minderjährigen) Kinder haben?Stellen wir uns vor, Sie haben keine Kinder, oder Ihre Kinder sind schon längst erwachsen. Müssen Sie sich dann überhaupt mit Alterskontrollen herumschlagen? – Ja.
In der Debatte spielt das bislang nur eine Nebenrolle: Kommt ein Social-Media-Verbot mit Alterskontrollen, werden nicht nur Kinder und Jugendliche ihr Alter nachweisen müssen, damit sie Zutritt zu Plattformen bekommen, sondern alle.
Sie wollen ein Brettspiel-Video auf YouTube kommentieren; einer Köchin auf Instagram folgen? Möglicherweise bezweifelt die Plattform, ob sie bereits erwachsen sind, und bittet sie per Pop-up um einen Altersnachweis. Dann haben Sie wiederum die Wahl, ob Sie Ihr Gesicht biometrisch scannen lassen, Ihre digitale Brieftasche verwenden oder Ihre Ausweispapiere bei einem Anbieter hochladen wollen.
Alterskontrollen in Deutschland: So geht es jetzt weiterDerzeit arbeitet eine von Bundesfamilienministerin Karin Prien eingesetzte Expert*innen-Kommission an Vorschlägen für einen effektiven Schutz von Kindern und Jugendlichen im Netz. Ergebnisse sollen es noch vor der parlamentarischen Sommerpause geben. Parallel arbeitet eine ähnliche Kommission auf EU-Ebene am gleichen Thema.
Sowohl SPD als auch CDU drängen auf eine EU-weite Lösung für ein Social-Media-Verbot. Sollte die EU jedoch bis Sommer „keine ausreichenden Fortschritte“ erzielen, hält Prien auch einen deutschen Alleingang für möglich. Die rechtlichen Spielräume für beide Vorhaben sind jedoch schmal.
Auf EU-Ebene gibt es derzeit keine Pflicht für Plattformen, das Alter ihrer Nutzer*innen zu überprüfen oder Kinder auszusperren. Es gelten lediglich Auflagen, die Risiken für Minderjährige auf den Plattformen zu mindern– im Rahmen des Gesetzes für digitale Dienste (DSA).
Kaum beachtet von der breiten Öffentlichkeit verhandeln Kommission, Parlament und Mitgliedstaaten zudem über ein neues Gesetz, das Alterskontrollen in der EU zur Pflicht machen könnte. Anlass ist die Verordnung zur Prävention und Bekämpfung des sexuellen Missbrauchs von Kindern, kurz: CSA-VO. Demnach sollen Anbieter mit Chatfunktion flächendeckende Alterskontrollen einführen, um minderjährige Nutzer*innen etwa vor Grooming zu schützen, also die Anbahnung sexuellen Kontakts durch Erwachsene. Entschieden ist jedoch nichts: Während sich Kommission und Rat für solche Kontrollen einsetzen, ist das Parlament dagegen.
Viele Elternverbände in Deutschland haben Bedenken, dass Daten junger Menschen bei Alterskontrollen nicht ausreichend geschützt werden. Hier geht es zu unserem Bericht: Elternverbände sehen Daten von Kindern in Gefahr.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Ministerien und Behörden auf X: Wenig Reichweite, viel Hass
Bis heute posten deutsche Behörden und Bundesministerien auf dem Kurznachrichtendienst X. Sie begründen dies mit ihrem Informationsauftrag und der Reichweite, die das soziale Netzwerk angeblich bietet. Eine Analyse des Zentrums für Digitalrechte und Demokratie zeigt nun, wie wacklig diese Argumente sind.
Beim Amtsantritt von Donald Trump zeigte X-Eigentümer Elon Musk den Hitlergruß. Deutsche Behörden scheint dies nicht übermäßig zu irritieren. – Alle Rechte vorbehalten IMAGO / ZUMA Press WireViele deutsche Bundesministerien und Behörden sind weiterhin auf dem umstrittenen Kurznachrichtendienst X aktiv. Meist begründen sie dies mit dem verfassungsrechtlichen Informationsauftrag, der sie angeblich dazu zwinge, auf der auf rechts gepolten Propagandaplattform des US-Unternehmers Elon Musk zu bleiben.
Sonderlich erfolgreich sind die Behörden damit jedoch nicht, wie nun eine Reichweitenanalyse des Zentrums für Digitalrechte und Demokratie zeigt. Ihre Beiträge werden in Summe kaum angesehen, kommentiert oder weiterverbreitet. Wenn es Interaktionen gibt, dann fallen diese selten konstruktiv aus. Stattdessen hetzen etwa unter Posts des Innenministeriums mal mutmaßliche, mal offen rechtsradikale Accounts gegen Geflüchtete oder verbreiten rassistische Kriminalitätserzählungen.
Es handle sich um eine kleine Stichprobe, die keine repräsentativen Aussagen erlaube, betont das Zentrum. Aber dabei enthüllte „deutliche Muster“, Tendenzen und beispielhafte Kommunikationsdynamiken deckten sich mit Forschungsergebnissen über Polarisierung, Plattformlogik und Benachteiligung sachlicher Kommunikation.
Zu einem ähnlichen Ergebnis ist im Februar netzpolitik.org gelangt, das die X-Accounts ausgewählter großer deutscher Medienhäuser analysiert hatte. Obwohl auch sie nur verhältnismäßig wenige Nutzer:innen erreichen, berufen sie sich unter anderem auf die Reichweite, die das vormals als Twitter bekannte soziale Netzwerk biete. Zudem sei der Online-Dienst genau der richtige Ort, um der auf X grassierenden Desinformation mit Fakten und Qualitätsjournalismus zu begegnen, so die befragten Medien.
Interaktionen im einstelligen ProzentbereichWie die Untersuchung des Zentrums nun offenlegt, ergeht es Behörden auf X kaum anders als journalistischen Inhalten. Die meisten untersuchten Accounts der Bundesministerien haben unter 200.000 Follower:innen und erzeugen kaum Resonanz. Selbst das Gesundheitsministerium (BMG), das immerhin knapp 330.000 folgende Accounts aufweist, geht auf der Spielwiese für Reaktionäre unter: Im Schnitt erreichte das BMG im Untersuchungszeitraum nicht einmal 1,3 Prozent seiner Follower:innen, wie das Zentrum vorrechnet. Gelingt es Behörden zuweilen, reichweitenstarke Posts abzusetzen, dann besetzen oft rechtsradikale Nutzer:innen den Debattenraum darunter.
Diesen Schnappschuss untermauern zahlreiche wissenschaftliche Studien, die das Zentrum heranzieht. So ist etwa belegbar, dass der Empfehlungsalgorithmus von X dafür anfällige Menschen nach rechts zieht. Faktenbasierte Kommunikation reicht in stark polarisierten Umfeldern nicht aus, um Desinformation wirksam zurückzudrängen, zeigt eine andere Studie – erst recht nicht in stark ideologisch aufgeladenen Kontexten. Und konstruktiver Dialog ist nur dann möglich, wenn Menschen wirklich miteinander reden und auf Argumente eingehen, was sich auf X nur selten beobachten lässt.
Damit verschiebe sich auch die Bedeutung des Informationsauftrags, schreibt das Zentrum: „Behörden sind auf X nicht einfach nur präsent. Sie kommunizieren in einer Umgebung, die aktiv gegen sie arbeitet – und der Algorithmus auf X ist ein mächtiger Gegner.“ Das zeige sich etwa daran, dass algorithmisch sortierte Kommentare immer wieder rechtsextremistische Accounts nach oben spülen, unter anderem die Identitäre Bewegung. Dass sich staatliche Behörden in einem derartigen Umfeld, selbst losgelöst von etwaigen Reichweitenargumenten, nicht mehr auf ihren verfassungsrechtlichen Informationsauftrag berufen können, hatte bereits im Vorjahr der Verfassungsblog ausgeführt.
Ein Abschied von X ist möglichIndes sprechen deutsche Behörden nicht mit einer Stimme. Einige haben X dauerhaft verlassen, etwa die Berliner Staatsanwaltschaft oder die Antidiskriminierungsstelle des Bundes. X sei „für eine öffentliche Stelle kein tragbares Umfeld mehr“, erklärte Behörden-Chefin Ferda Ataman damals. Andere lassen ihren X-Account ruhen oder bespielen ihn nur mehr unregelmäßig, darunter das Verteidigungsministerium oder das Landwirtschaftsministerium. Ein sachlicher Austausch werde auf X „zunehmend erschwert“, begründete das Verteidigungsministerium den Schritt.
Auf die Kommunikation mit der Außenwelt verzichten sie deshalb jedoch nicht, schließlich existieren neben X zahlreiche weitere Online-Dienste mit grob vergleichbaren Funktionen. Dabei sei die „Förderung einer respektvollen und sachorientierten Diskussion“ maßgeblich, teilte ein Sprecher des Landwirtschaftsministeriums dem Zentrum mit. „Vor diesem Hintergrund setzen wir in unserer digitalen Kommunikation den Fokus auf Plattformen wie LinkedIn oder Instagram, auf denen erfahrungsgemäß häufiger ein fachlicher und konstruktiver Austausch stattfindet.“
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Maschinen sollen Papierkram erledigen: „Kollege KI“ steht auf wackeligen Beinen
Sogenannte KI-Agenten sollen die Arbeit von Behörden einfacher machen und Personal entlasten. Digitalminister Karsten Wildberger verspricht sich viel davon. Für KI-Experimente gibt die Verfassung der öffentlichen Verwaltung aber wenig Spielraum.
Der „Kollege KI“ soll Verwaltungsmitarbeiter:innen entlasten. (Symbolbild) – Alle Rechte vorbehalten Figuren: IMAGO / Zoonar; Macintosh: Wikimedia/Tmarki; Montage: netzpolitik.orgDigitalminister Karsten Wildberger (CDU) lässt wenig Gelegenheiten aus, um über sogenannte Künstliche Intelligenz zu sprechen. Sein Plan: KI in die Workflows der öffentlichen Verwaltung bringen und die KI-Branche in Deutschland ankurbeln. Im Blick hat er dabei nicht mehr nur Chatbots wie BärGPT vom CityLab Berlin oder LLMoin des öffentlichen IT-Dienstleisters Dataport aus Hamburg. Der neue Hype ist sogenannte agentische KI.
Um diese flächendeckend in der öffentlichen Verwaltung einzuführen, hat das Bundesministerium für Digitales und Staatsmodernisierung (BMDS) im Februar den Agentic AI Hub gestartet. Die Idee des Hubs: KI-Start-ups entwickeln KI-Tools, zugeschnitten auf die Bedürfnisse von Behörden und Ämtern. Staatssekretär Thomas Jarzombek (CDU) sagt dazu: „Wir wollen Start-ups eine Rampe in die Verwaltung bauen.“
Mit KI-Agenten soll die öffentliche Verwaltung effizienter arbeiten und Verwaltungsverfahren sollen insgesamt schneller werden, teilt das BMDS auf Anfrage mit. Das könne man dadurch erreichen, dass agentische KI die Entscheidungsfindung von Sachbearbeiter:innen unterstützt.
„Kollege KI“Personal in Behörden ist vielerorts überlastet. Unter anderem liegt das an Personalknappheit. Schon jetzt zeichnet sich ab, dass sich das Problem weiter verschärfen wird, wenn Mitarbeiter:innen aus der Boomer-Generation in den Ruhestand gehen.
Mit KI will das BMDS gegen diese Entwicklung ankommen. Die Idee dahinter ist ein „Kollege KI“. Den solle man in die Verwaltung bringen, sagte Heiko Geue im Kontext des KI-Marktplatzes beim Pressegespräch im November. Er ist Vorsitzender des IT-Planungsrats und Finanz- und Digitalminister des Landes Mecklenburg-Vorpommern. Agentische KI könne ähnlich wie ein:e Mitarbeiter:in damit beauftragt werden, bestimmte Aufgaben selbstständig zu erledigen, so das BMDS gegenüber netzpolitik.org. Generative KI könne eine Aufforderung wie „Schreibe einen Bescheid“ in Text umsetzen.
Agentische KI hingegen generiere keine Inhalte wie Texte, Code oder Bilder, sondern könne Aufgaben übernehmen, etwa Antragsunterlagen auf Vollständigkeit prüfen oder personenbezogene Daten in Dokumenten schwärzen. Die Entscheidung solle am Ende aber immer der Mensch treffen, so das Ministerium.
Kommunale KI-PilotenOb KI-Programme Mitarbeiter:innen wirklich entlasten und die Arbeit beschleunigen, hierfür legt das BMDS gegenüber netzpolitik.org keine Belege vor. Auf die Frage, welche KI-Projekte Verwaltungsarbeit übernehmen können sollen, verweist die Pressestelle auf den KI-Marktplatz und die H2KI-Plattform. Diese Plattform nutzt KI um Genehmigungsverfahren abzuwickeln. Laut BMDS sei sie „eine Blaupause für den KI-Einsatz bei der Genehmigung von Infrastrukturprojekten“.
Ähnliche Projekte aus Kommunen wählte das BMDS Anfang März aus. Davon gehen zunächst 18 in die Pilotphase und sollen langfristig Verwaltungen bundesweit zur Verfügung stehen. Das Programm Forml der Städte Frankfurt am Main und Düsseldorf richtet sich etwa an Sachbearbeiter:innen von Anträgen auf einen Wohnberechtigungsschein. Laut Produktbeschreibung ist Forml eine Cloud-Software, die „unstrukturierte Daten aus Dokumenten, Scans oder Bildern“ verarbeitet. Es soll eingehende Anträge „auf Vollständigkeit und Einkommen“ prüfen.
Formfix, entwickelt in Köln, Heinsberg und zwei Berliner Bezirken, soll Antragsprozesse auf Hilfe zur Pflege vereinfachen; sowohl für die Antragstellenden als auch für das Amt, das die eingereichten Unterlagen schneller bearbeiten können soll.
Aus dem Neckar-Odenwald-Kreis stammt Lector.ai. „Mittels Vision-LLMs“ verarbeitet die Software Behördenpost und soll „den hohen manuellen Sortieraufwand großer Dokumentenmengen“ reduzieren.
Mehr als Marketing?Wie viel Zeit können die Werkzeuge in der Praxis einsparen; wie viel Arbeit machen sie langfristig durch Pflege und Fehler? Während solche Fragen noch unbeantwortet sind, rührt der Digitalminister die Werbetrommel. Im Januar warb er damit, dass die KI-Agenten Genehmigungsverfahren zu über 80 Prozent beschleunigen könnten.
Die Bundestagsabgeordnete Rebecca Lenhard von den Grünen fragte nach, wie er zu dieser Einschätzung komme. Weder Methodik noch Vergleichsmaßstäbe hat der Minister offengelegt. „Für eine so weitreichende Behauptung ist das zu wenig“, kommentiert Lenhard in einem Pressestatement.
Effekte der KI-Nutzung müssten „transparent, nachvollziehbar und belastbar evaluiert werden“. Da KI bereits in Genehmigungsverfahren eingesetzt werde, brauche es umso dringlicher „klare Standards für Qualitätssicherung, Nachvollziehbarkeit und Verantwortlichkeit“, fordert die Abgeordnete.
KI ist nicht neutralTechnisch beruhen agentische und generative KI auf denselben großen Sprachmodellen und teilen deren strukturelle Schwächen: KI ist eine Black Box und liefert Output, der nicht neutral ist, sondern „biased“, verzerrt. Black Box meint, es lässt sich nicht genau nachvollziehen, warum KI-Programme zu einem bestimmten Ergebnis kommen.
Das Bias-Problem besteht darin, dass KI-Systeme auf Trainingsdaten basieren, die ihrerseits von Vorurteilen und Ressentiments geprägt sein können. KI-Output kann daher je nach Kontext diskriminierend sein, rassistisch, ableistisch, sexistisch oder ageistisch.
Dieser Effekt kann sich durch kognitive Verzerrungen bei Menschen verstärken, die mit KI-Erzeugnissen arbeiten. Vorurteile und Ressentiments verbergen sich nicht nur in Trainingsdaten, sondern auch in der Interaktion zwischen Mensch und KI. Welche Fragen Menschen KI stellen, wie sie den Output interpretieren und wie sie darauf reagieren, kann beeinflussen, was diese Systeme tun. Zudem kann der sogenannte Automation Bias dazu führen, dass Menschen die Ergebnisse einer Maschine weniger kritisch hinterfragen als Ergebnisse von Kolleg:innen.
Weiter sind Ergebnisse von KI-Systemen sind nicht verlässlich reproduzierbar. Das macht das Arbeiten nach Grundsätzen wie Nachvollziehbarkeit und Verantwortlichkeit schwer.
Verwaltung muss neutral arbeitenWenn Unternehmen mit KI experimentieren, haben sie größere rechtliche Spielräume. Die Verwaltung wiederum muss laut Verfassung neutral, objektiv und gesetzestreu handeln. KI-Systeme sind durch ihre Funktionsweise allerdings nicht in der Lage, Normen anzuwenden oder ethische Verantwortung zu übernehmen – ihre Outputs basieren auf berechneten Wahrscheinlichkeiten. Wie lässt sich das mit der Arbeit der Verwaltung vereinbaren?
David Wagner von der Kanzlei Spirit Legal untersucht, wie die öffentliche Verwaltung KI dennoch in verfassungskonformer Weise nutzen kann. Der Rechtsanwalt beschäftigt sich mit Legal Requirement Engineering, er übersetzt also rechtliche Vorgaben methodisch in technische Anforderungen. Unternehmen regulatorische Anforderungen effizient und rechtskonform in technische Lösungen überführen Zwar schließe das Grundgesetz den KI-Einsatz nicht aus. Doch bedürfe es technischer und rechtlicher Leitplanken. Ein Baustein könne eine Protokollpflicht sein, die Sachbearbeiter:innen verpflichtet, Eingaben, Ausgaben und eigene Änderungen am Ergebnis zu dokumentieren. Das allein genüge aber nicht.
Das BMDS betont, am Ende treffe immer ein Mensch die Entscheidung. Wagner hält dagegen: Wenn KI-Systeme Anträge vorprüfen oder Bescheide vorbereiten, präge ihr Output die Entscheidung der Sachbearbeiter:innen. Das europäische Datenschutzrecht schränke solche Konstellationen ein. Demnach dürften Entscheidungen gegenüber Betroffenen nicht allein auf automatisierter Verarbeitung beruhen.
Der EuGH habe klargestellt, dass das Verbot auch greife, wenn die Verarbeitung eine menschliche Entscheidung maßgeblich beeinflusse, so Wagner. Menschliche Kontrolle sei ohnehin gefordert. Im Kontext der Verwaltung entbinde sie den Gesetzgeber aber nicht, den Einsatz von KI durch spezielle Rechtsgrundlagen einzuhegen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Neues aus dem Fernsehrat (114): Der Alte
Der ZDF-Fernsehrat hat den Intendanten für das ZDF bestätigt: Norbert Himmler bleibt im Amt. Keine Überraschung, er war ja auch der einzige Kandidat. Unser Kolumnist Erik Tuchtfeld fragt: Ist die Wahl ohne Auswahl ein Problem?
Norbert Himmler ist alter und neuer Intendant des ZDF. – CC-BY-SA 2.0 Jan Zappner/re:publicaEr bleibt es: Vergangenen Freitag haben wir als ZDF-Fernsehrat Norbert Himmler für weitere fünf Jahre als ZDF-Intendanten bestätigt. Auffällig ist, wie kontroverse öffentliche Berichterstattung und große Einigkeit innerhalb des Gremiums auseinanderfallen.
Himmler war – nachdem die zwischenzeitliche Überraschungskandidatin Floria Fee Fassihi zurückgezogen hatte – der einzige Kandidat und wurde mit einer Mehrheit von über 90 Prozent der abgegebenen Stimmen gewählt. Die heftige Kritik dieser „Wahl ohne Auswahl“ ist Anlass für eine Kolumne zum Wahlverfahren und der Frage, ob die Vielfalt im Fernsehrat für demokratische Wahlen genügt.
Die KritikAuf dem Wahlzettel am Freitag standen ein Name und drei Optionen:
Norbert Himmler; [ ] Ja, [ ] Nein, [ ] Enthaltung
Anders war es noch vor fünf Jahren, als ein Nachfolger für den damaligen Intendanten Thomas Bellut gesucht wurde. Himmler trat damals gegen die Leiterin des ARD-Hauptstadtstudios Tina Hassel an. Zur Entscheidung kam es erst, nachdem Tina Hassel im dritten Wahlgang ihre Kandidatur zurückzog. Sie hatte in den beiden Wahlgängen davor weniger Stimmen als Himmler erhalten, dieser hatte allerdings nicht das erforderliche Quorum von drei Fünfteln der Stimmen des Fernsehrats auf sich vereinen können.
In der Logik des Fernsehrates, der sich in einen „schwarzen“ (konservativen) und einen „roten“ (progressiven) Freundeskreis aufteilt (zur Kritik von Leonhard Dobusch an diesem System siehe hier), war Hassel damals die Kandidatin des roten und Himmler der des schwarzen Freundeskreises.
Nun gab es also nur noch einen Kandidaten. Vorgeschlagen von der Vorsitzenden des schwarzen Freundeskreises Christiane Schenderlein, Staatsministerin für Sport und Ehrenamt im Bundeskanzleramt, trifft beides – Person und Verfahren – auf scharfe Kritik in den (soweit ich es erkennen kann nahezu ausschließlich konservativen) Medien. Wolfgang Kubicki poltert in der BILD, das Wahlverfahren sei „intransparenter Muff“, der „radikal demokratisiert“ gehöre. Boehme-Neßler (den man sonst davon kennt, dass er die Forderung eines AfD-Verbots als „Zivilisationsbruch“ bezeichnet) im Cicero und Hanfeld in der FAZ sind sich einig, dass diese Wahl eine „Farce“ war (für die Zusammenstellung der Kritik sei Bartels im Altpapier gedankt).
Das VerfahrenDas Ausmaß und die Stoßrichtung der Kritik überraschen doch etwas, wenn man bedenkt, dass es sich um Empörung des konservativen (bis rechtsäußeren) Feuilletons über die Wahl eines Kandidaten auf Vorschlag der konservativen Gruppe handelt. Wolfgang Kubicki, so scheint es, ist völlig erbost darüber, dass es nicht mehr links-grüne Vorschläge auf dem Stimmzettel gab. Wie demokratisch und offen war das Verfahren für die Kandidatenaufstellung also?
Gemäß der Wahlsatzung des ZDF wurde das Amt des Intendanten vom 5. bis 30. Januar 2026 öffentlich ausgeschrieben, bewerben konnte sich also jedermann. Sofern die Bewerbungen die formalen gesetzlichen Voraussetzungen erfüllten (recht banale Eigenschaften wie die unbeschränkte Geschäftsfähigkeit und ein ständiger Wohnsitz in Deutschland, § 26 Abs. 2 ZDF-Staatsvertrag), wurden sie an sämtliche Mitglieder des Fernsehrats weitergeleitet. Danach lagen uns als Fernsehratsmitgliedern sieben Bewerbungen vor.
Wenn nur ein einziges Fernsehratsmitglied eine Bewerbung unterstützt, wäre die Person zur Wahl zugelassen worden und hätte die Möglichkeit bekommen, sich im Plenum vorzustellen und befragt zu werden (§ 5 Abs. 4 ZDF-Wahlsatzung). Während die Möglichkeit der Bewerbung also so gut wie keinen Einschränkungen unterlag, waren die Hürden für die Zulassung zur Wahl zumindest denkbar gering (und es erscheint mir absolut sinnvoll, dass Kandidierende ohne Aussicht auf auch nur eine Stimme sich nicht einer öffentlichen Wahl stellen müssen). Das Verfahren selbst hätte deshalb kaum offener ausgestaltet sein können.
Nun stellt sich die Anschlussfrage: Sind wir als Wahlgremium – als Fernsehrat – vielleicht derart gleichartig besetzt, dass von vornherein klar war, dass sämtliche Mitglieder die gleiche Präferenz teilen werden?
Welche Gesellschaft repräsentiert dieser Fernsehrat?Wie homogen ist also der Fernsehrat, diese laut Rosenfelder (Welt) „Ständevertretung des politischen Beamtenapparats und der durchpolitisierten Verbands- und NGO-Landschaft“? Ist – so könnte die Kontrollfrage lauten – (ausgerechnet) Wolfgang Kubicki der wahre Anwalt marginalisierter Gruppen, der darauf hinweist, welche Interessen im Gremium nicht ausreichend vertreten sind?
In seiner Grundsatzentscheidung aus dem Jahr 2014 hat das Bundesverfassungsgericht entschieden, dass die damalige Zusammensetzung des Fernsehrats den Anforderungen des Grundgesetzes nicht genügte. Seitdem ist klar, dass maximal ein Drittel der Fernsehratsmitglieder „staatlich oder staatsnah“ sein darf. In der Praxis besteht diese „Staatsbank“ im Fernsehrat nun aus 20 der 60 Mitglieder (16 für die Bundesländer, zwei für die Bundesregierung, zwei für die Kommunen). Gemeinsam mit den 40 weiteren Mitgliedern muss der Fernsehrat „möglichst vielfältige […] Perspektiven und Erfahrungshorizonte […] aus allen Bereichen des Gemeinwesens zusammenzuführen“, um als „Sachwalter des Interesses der Allgemeinheit“ zu dienen. Die Zusammensetzung soll gleichermaßen das „Gebot der Vielfaltsicherung“ und das „Gebot der Staatsferne“ sichern.
Und es ist tatsächlich ein recht bunter Strauß an zivilgesellschaftlichen und wirtschaftlichen Organisationen, die Menschen in den Fernsehrat entsenden. Von Arbeitgeberverbänden zu den Gewerkschaften und Sozialverbänden, von den Kirchen bis zum Bund der Vertriebenen, von den Bereichen „Internet“ (den ich vertreten darf) über „Kunst“ und „Musik“ bis zu „Wissenschaft“ und „Heimat und Brauchtum“. Dank des Rotationsprinzips (auf jeden Mann muss eine Frau folgen und umgekehrt, § 21 Abs. 4 ZDF-Staatsvertrag – nicht-binäre Geschlechter wurden in der Gesetzesnovelle 2015 offensichtlich nicht bedacht) ist er aktuell zudem auch weit überwiegend weiblich. So kommt auch eine große Diversitätsstudie der Neuen Deutschen Medienmacher*innen zu dem Ergebnis, dass zumindest „[im] Vergleich mit anderen Rundfunkräten […] der ZDF-Fernsehrat damit recht vielfältig besetzt“ ist.
Trotzdem gibt es auch Schwächen: Die Perspektiven junger Menschen sind in dem Gremium mit einem Altersdurchschnitt von 57,3 Jahren [Stand: Juli 2022, Diversitätsstudie] eindeutig unterrepräsentiert, auch die ganz unterschiedlichen Erfahrungen von Menschen mit Einwanderungsgeschichte (rund 25 Prozent der deutschen Bevölkerung) oder muslimischen Glaubens (6,4 Prozent der Bevölkerung) werden primär durch jeweils eine:n Vertreter:in für die Bereiche „Muslime“ und „Migranten“ vertreten, aber sind selten bei Repräsentant:innen anderer Bereiche vorhanden. Auch Nicht-Akademiker:innen und, noch deutlich weniger, Menschen mit Armutsgeschichte sind nach meinem sehr subjektiven Eindruck kaum im Fernsehrat vertreten.
Das Fehlen all dieser Diversitätsmerkmale macht insoweit auch mich zu einem geradezu typischen Vertreter in dem Gremium. Selbstverständlich prägt das auch die Debatten im Fernsehrat: Welche Themen diskutiert und welche Programmbeschwerden als begründet angesehen werden, hängt auch mit den Erfahrungen und Werten zusammen, die die Mitglieder des Fernsehrats individuell einbringen.
Wenn wir als Fernsehrat tatsächlich die Vielfalt der Gesellschaft abbilden möchten, müssen wir in diesen Bereichen besser werden. Das wäre gesetzlich beispielsweise über eine explizite Vertretung für junge Menschen oder vielfältigere Sitze für Menschen mit Migrationsgeschichte möglich. Noch wichtiger ist aber, dass sich zivilgesellschaftliche und wirtschaftliche Entsendeorganisationen (auch „das Internet“) an die eigene Nase fassen und bei zukünftigen Entsendungen darauf achten, den Fernsehrat mit einem Profil zu ergänzen, welches wirklich neue Perspektiven einbringen kann.
Fernsehrat bestätigt AmtsinhaberNach diesem sehr großen Bogen soll es zurück zur Ausgangsfrage gehen: Ist die Wahl des Intendanten durch den Fernsehrat demokratisch legitim? Ich würde das eindeutig bejahen. Das Verfahren war offen und der Fernsehrat ist vielfältig besetzt (auch wenn es hier Defizite gibt, um denen es Kubicki, Rosenfeld und Boehme-Neßler aber wohl kaum ging). Gibt es trotzdem eine große Einigkeit im Gremium, mag das vielleicht überraschend sein, ist aber für sich noch kein Anzeichen für fehlende Streitkultur und offene Kritik in anderen Fragen. Verweise auf die (Aus-)Wahl von vor fünf Jahren gehen schlicht fehl, weil es für ein solches Amt einen erheblichen Unterschied macht, ob ein Amtsinhaber zur Wiederwahl antritt (man also über den bisherigen Kurs abstimmt) oder es notwendigerweise aufgrund einer Neubesetzung frischen Wind gibt.
Offensichtlich sind große Teile des Fernsehrats mit der Arbeit von Norbert Himmler grundsätzlich zufrieden. Aus meiner Perspektive gerade nicht, weil er ein „Verwalter“ ist, sondern weil er die notwendige Transformation des ZDF vom Sender zum Ermöglicher gesellschaftlichen Dialogs ernst nimmt (und sie unter anderem als ersten Punkt seiner Bewerbungsrede nannte). Auch die konsequente Nutzung und Entwicklung von Open-Source-Systemen und der (wenn auch meiner Meinung nach viel zu zögerliche) Ausbau des Angebots frei-lizensierter Inhalte sind Schritte in die richtige Richtung.
Das ist alles kein Persilschein, sondern lediglich die Grundlage für Vertrauen, dass dieser Intendant weiter die Zukunft des Senders gestalten soll. Dabei ist er – so wie der Sender als Ganzes – auf kritische Begleitung angewiesen, die Fehler klar benennt (um Nutzung von KI-Material im heute-journal geht es in der nächsten Kolumne, versprochen!) und Druck macht, wenn Dinge sich zu langsam entwickeln.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
„Tag-X“-Demonstration: Aktivistin verklagt Verfassungsschutz
Nur weil sie an einer Demonstration teilgenommen und eine andere angemeldet hatte, landete eine linke Aktivistin in einer Datenbank des Verfassungsschutzes. Dagegen klagt sie nun mit der Gesellschaft für Freiheitsrechte. Es geht darum, ihre Daten zu löschen, aber auch um die Versammlungsfreiheit an sich.
Die Polizei Leipzig rückte am „Tag X“ zu einem Großeinsatz aus – und griff dabei die Daten von über 1.000 Teilnehmer:innen ab. – Alle Rechte vorbehalten IMAGO / EHL MediaMehr als 1.300 Demonstrierende kesselte die Polizei im Juni 2023 ein. Bis zu elf Stunden lang mussten die Menschen im Leipziger Kessel verharren, darunter auch unbeteiligte Anwohner:innen, Jugendliche und Kinder. Die Polizei nahm Personalien auf, teilte Anzeigen aus und leitete die Daten an den Verfassungsschutz weiter.
Bald drei Jahre später ist die Sache noch lange nicht ausgestanden. Der harte Einsatz der Polizei, die später Fehler einräumen musste, geriet in die Kritik. Zwar gab es im Umfeld der Demonstration gewalttätige Auseinandersetzungen. Im Dezember wurde indes bekannt, dass 85 Prozent der Ermittlungsverfahren wegen des Vorwurfs des schweren Landfriedensbruchs eingestellt werden mussten.
Nun klagt die Aktivistin Jona, gemeinsam mit der Gesellschaft für Freiheitsrechte (GFF), gegen den bayerischen Verfassungsschutz vor dem Verwaltungsgericht München. Ihre Daten musste sie beim Verlassen des Kessels dem Sächsischen Landeskriminalamt übergeben, der leitete sie an das Sächsische Landesamt für Verfassungsschutz weiter. Von dort flossen sie nach Bayern, wo die Aktivistin ihren Wohnsitz hat.
Stigmatisiert ohne FehlverhaltenObwohl Jona kein konkretes Fehlverhalten vorgeworfen wird – ein gegen sie eingeleitetes Strafverfahren wegen Landfriedensbruch wurde eingestellt –, sind ihre Daten weiterhin beim bayerischen Verfassungsschutz gespeichert. Laut der Klageschrift geht es neben ihrer Teilnahme an der Demonstration am sogenannten „Tag X“ in Leipzig auch um eine Anzeige im März 2024.
Zum einen will Jona mit der Klage erreichen, dass ihre Daten beim Verfassungsschutz gelöscht werden. Bislang weigert sich die Behörde mit der Begründung, Jona habe mit ihrer Teilnahme an der Versammlung die linksextreme Szene unterstützt. Zum anderen will die GFF grundsätzlich gerichtlich klarstellen lassen, dass die Teilnahme an einer Demonstration nicht Anlass für das Speichern von Daten beim Verfassungsschutz werden darf.
„Demokratie lebt von Protest“, sagt Luise Bublitz, Juristin und Verfahrenskoordinatorin bei der GFF. „Wenn Menschen befürchten müssen, dass ihre Daten wegen der bloßen Teilnahme an einer Demonstration beim Verfassungsschutz landen, entsteht ein Gefühl staatlicher Beobachtung.“ Politische Teilhabe dürfe nicht zum Risiko werden, so Bublitz.
Schwammige GefahrDabei lässt sich das Risiko schwer einschätzen. So sei nicht klar definiert, was genau als „linksextreme Szene“ gilt, die Jona angeblich unterstützen würde, führt die GFF aus. Zwar dürfe der Verfassungsschutz Daten von Menschen speichern, aber nur dann, wenn es tatsächliche Anhaltspunkte dafür gibt, dass Personen Bestrebungen gegen die freiheitliche demokratische Grundordnung unterstützen. An einer legalen Versammlung teilzunehmen, sollte dafür nicht ausreichen, so die Grundrechteorganisation.
Was mit solchen Daten geschieht, bleibt oft unklar. So hatte etwa kürzlich der konservative Kulturstaatsminister Wolfram Weimer drei Buchhandlungen vom Deutschen Buchhandlungspreis ausgeschlossen. Im Rahmen des sogenannten Haber-Verfahrens hatte ihm der Verfassungsschutz zurückgemeldet, dass gegen die Buchhandlungen geheimdienstliche Erkenntnisse vorliegen würden.
Einträge mit KonsequenzenWelche das genau sind, ist öffentlich nicht bekannt. Der Süddeutschen Zeitung zufolge soll einer der Buchläden einst eine Rolle im „Kommunikationsnetzwerk der RAF“ gespielt haben, ein anderer auf seiner Fassade „Deutschland verrecke“ stehen gehabt haben. Offenbar Grund genug, um die Buchhandlungen außerhalb des Verfassungsbogens zu stellen: Das Haber-Verfahren kann immer dann zum Zug kommen, wenn es um staatliche Förderung von Projekten geht, etwa von Nichtregierungsorganisationen.
Der „chilling effect“, vor dem die GFF nun warnt, der Menschen davon abschrecken könnte, ihre Grundrechte öffentlich auszuüben, könnte sich also nicht nur auf die Teilnahme an Demonstrationen beschränken. Zudem betreffe der Fall nicht nur eine einzelne Aktivistin, betont die GFF. Es gehe um die grundsätzliche Frage, wie weit Verfassungsschutzbehörden beim Erfassen und Speichern personenbezogener Daten nach Versammlungen gehen dürfen: „Die aktuelle Speicherpraxis ist eine Gefahr für die engagierte Zivilgesellschaft und die freie demokratische Meinungs- und Willensbildung“, so die GFF.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Versteckte Kosten von KI: „Sie wissen, welche Schäden Künstliche Intelligenz verursacht“
Datenarbeiter:innen hinter KI werden ausgebeutet und unsichtbar gemacht. Joan Kinyua aus Kenia kämpft für Anerkennung und bessere Arbeitsbedingungen. Im Interview erklärt sie, warum sie nicht auf Gewerkschaften zählt und warum auch deutsche Autokonzerne Verantwortung tragen.
Berliner Straßenszene mit Labels für Machine Learning – Alle Rechte vorbehalten Imago / Jürgen Held, Bearbeitung: netzpolitik.orgWir treffen Joan Kinyua im Büro des superrr Lab in Berlin-Kreuzberg. Draußen regnet es in Strömen, drinnen macht die junge Frau aus Kenia erstmal einen Corona-Test. Sie hat sich wohl erkältet, es ist ihr erster Besuch in Deutschland. Und doch, so Joan, kommen ihr die Straßen Berlins seltsam bekannt vor.
Es sind die auffälligen gelben Busse, die Trams, die gelegentlich am Straßenrand geparkten Camper-Vans. „Ich habe immer gedacht, ich arbeite mit Bildern aus den USA“, sagt Joan. In ihrem früheren Job hat sie Daten für KI-Unternehmen aufbereitet. Tagein, tagaus sichtete sie Aufnahmen von Straßenszenen und versah sie mit Labels, damit selbstfahrende Autos auseinanderhalten können, ob sie auf eine Katze, eine Plastiktüte oder eine Baustelle zusteuern.
Diese Tätigkeit wird Daten-Annotation genannt und ist ein zentraler Bestandteil der Herstellung von KI-Anwendungen. Für das Training von Machine-Learning-Systemen versehen die Arbeiter:innen hierbei beispielsweise Bilder mit Metadaten, also mit Labels, die den Inhalt beschreiben. Kolleg:innen von Joan spielten zum Beispiel eine entscheinde Rolle dabei, ChatGPT sicherer zu machen, indem sie für das hinter dem Chatbot stehende Sprachmodell gewalttätige Inhalte klassifizierten.
Beschäftigt sind Datenarbeiter:innen in der Regel unter ausbeuterischen Bedingungen bei Outsourcing-Firmen oder digitalen Oursourcing-Plattformen. „Geisterarbeit“ nennen die Anthropoligin Mary L. Gray und der Informatiker Siddarth Suri diese und ähnliche Tätigkeiten hinter den Kulissen der digitalen Welt. Die Weltbank schätzt, dass es insgesamt zwischen 154 und 435 Millionen solcher sogenannter „Gig Workers“ geben könnte.
Heute ist Joan die Präsidentin der 2025 gegründeten Data Labelers Association. Die kenianische Organisation setzt für die Rechte von Datenarbeiter:innen ein. Für einen Workshop der Gesellschaft für Internationale Zusammenarbeit war Joan in Frankfurt am Main. Das „Solutions Lab“ soll Lösungen erarbeiten, wie die Arbeitsbedingungen in der Branche verbessert werden können.
„Lagern auch deutsche Autokonzerne Arbeit an uns aus?“ Joan Kinyua - CC-BY-NC 4.0 netzpolitik.orgnetzpolitik.org: Hi Joan, wie lief es in Frankfurt? Konntet ihr Lösungen finden, wie die Situation für ausgebeutete Arbeiter:innen hinter KI verbessert werden kann?
Joan Kinyua: Das leider noch nicht, aber es ist zumindest der Beginn einer Konversation. Es ging vor allem darum, wie Plattform-Arbeiter:innen durch Sozialversicherungssysteme geschützt werden können. Es ist gut, wenn politische Entscheidungsträger:innen uns zuhören. Bei dem Workshop war unter anderem die Weltbank dabei. Auf meiner Reise treffe ich auch Abgeordnete, zum Beispiel von den Grünen und Sonja Lemke von der Linkspartei.
netzpolitik.org: Was erzählst du ihnen?
Joan Kinyua: Dass sie Big Tech zur Verantwortung ziehen müssen. Sie wissen, welche Schäden Künstliche Intelligenz verursacht, aber es gibt keine Konsequenzen. Die großen Tech-Konzerne könnten für bessere Arbeitsbedingungen sorgen.
Wobei: Vielleicht zeigen wir mit dem Finger auch in die falsche Richtung. KI im medizinischen Bereich ist ebenfalls ein Treiber für Datenarbeit. In Deutschland gibt es zudem große Autohersteller, die an selbstfahrenden Autos arbeiten. Lagern sie auch Arbeit an uns aus? Wir brauchen hier mehr Transparenz.
netzpolitik.org: Für Verbraucher:innen ist es derzeit sehr schwer, überhaupt herauszufinden, unter welchen Bedingungen KI-Anwendungen produziert werden. Natürlich ist Transparenz allein nicht die Lösung, aber für andere Konsumgüter gibt es Labels, die zum Beispiel über Produktionsbedingungen aufklären. Kann das auch bei KI funktionieren?
Joan Kinyua: Das ist der wichtigste Schritt: anzuerkennen, dass KI keine Magie ist, dass Künstliche Intelligenz immer einen menschlichen Anteil hat. Lasst uns mit der Anerkennung für die Arbeiter:innen anfangen, die dafür sorgen, dass die Maschinen funktionieren. Auf dieser Grundlage können wir über Gesetze und Regulierung sprechen.
netzpolitik.org: Outsourcing-Firmen, bei denen viele Datenarbeiter:innen beschäftigt sind, erschweren Transparenz unter anderem durch Schweigeklauseln in Arbeitsverträgen, sogenannte Non-Disclosure-Agreements, kurz NDAs. Muss sich das ändern?
Joan Kinyua: Ich verstehe schon, dass Unternehmen sicherstellen müssen, dass vertrauliche Informationen nicht publik werden, zum Beispiel wenn mit Finanzdaten gearbeitet wird. Aber sie nutzen das aus. Sie verbieten ihren Arbeiter:innen, überhaupt über ihre Tätigkeit zu sprechen oder sich gewerkschaftlich zu organisieren und anderweitig für ihre Rechte einzutreten. NDAs sollten das Produkt schützen, an dem du arbeitest, nicht deine Rechte beschneiden.
„Das System arbeitet gegen uns“netzpolitik.org: Bei der Data Labelers Association in Kenia habt ihr euch kürzlich mit ehemaligen und aktiven Datenarbeiter:innen zusammengeschlossen. Wofür streitet ihr?
Joan Kinyua: Wir wollen die Stimmen der Arbeiter:innen verstärken, Öffentlichkeit für unsere Anliegen schaffen und das Narrativ mitbestimmen. Das Wichtigste ist, dass wir wie wirkliche Arbeiter:innen mit spezifischen Fähigkeiten behandelt werden und soziale Absicherung schaffen. Gerade auch Migrant:innen, deren Aufenthaltstatus an dem Job hängt, brauchen Schutz. Es geht uns um faire Löhne, akzeptable Arbeitsstunden und Anerkennung. Es gibt eine große Wissenslücke, die wir schließen müssen.
netzpolitik.org: Die ausbeuterischen Arbeitsbedingungen von Datenarbeiter:innen hinter KI haben in den vergangenen Jahren in internationalen Medien einige Aufmerksamkeit erfahren. Merkt ihr Fortschritte?
Joan Kinyua: Ich kann das nur für Kenia beantworten: Als wir vor einigen Jahren mit unserem Engagement begonnen haben, waren wir sehr hoffnungsvoll. Damals wusste einfach kaum jemand, was Daten-Annotation überhaupt ist. Unsere Mission war es, für Aufmerksamkeit zu sorgen.
Doch vor einiger Zeit hielt der kenianische Präsident eine Rede, in der er Outsourcing-Firmen praktisch Immunität versprochen hat. Er hat ein Gesetz auf den Weg gebracht, das Klagen gegen sie praktisch unmöglich macht. Es wurde ohne große Debatte verabschiedet, unser Widerspruch wurde nicht gehört. Deshalb bin ich heute leider ziemlich hoffnungslos.
netzpolitik.org: Präsident William Ruto hat angekündigt, dass er eine Million Jobs im Outsourcing-Sektor schaffen will.
Joan Kinyua: Wir sind nicht gegen Arbeitsplätze, sondern gegen die Natur dieser Arbeit. Was haben wir von Jobs, wenn die diese irreparable Schäden bei uns anrichten? Das System, das uns schützen sollte, arbeitet gegen uns.
netzpolitik.org: Haben die Outsourcing-Firmen ihr Verhalten geändert?
Joan Kinyua: Es gibt kleine Erfolge. Ein Anbieter, Cloud-Factory, hat beispielsweise die Dauer seiner Arbeitsverträge von einem auf drei Monate erhöht. Außerdem zahlen sie jetzt 1,80 US-Dollar pro Stunde statt 1,50 US-Dollar. Ein anderer Anbieter jedoch hat Kenia sehr plötzlich verlassen. Auch mein Account auf der Plattform ScaleAI wurde einfach gelöscht. Das ist natürlich ein Problem: Die Firmen können einfach in ein anderes Land weiterziehen.
netzpolitik.org: Welche Rolle spielen Gewerkschaften bei eurem Kampf?
Joan Kinyua: In Kenia sind die Gewerkschaften ein Haufen alter Leute, die nicht mal eine E-Mail schreiben können. Wie sollen die uns bei KI helfen? Gar nicht. Wir haben da wirklich sehr schlechte Erfahrungen gemacht. Wir glauben auch, dass die Gewerkschaften teilweise mit Big Tech unter eine Decke stecken. Auch deshalb organisieren wir uns jetzt anders.
„Humor unter Datenarbeiter:innen hilft“netzpolitik.org: Woher nimmst du die Energie für deine Arbeit?
Joan Kinyua: Ich war schon immer eine Person, die lautstark ist und sich für Gerechtigkeit einsetzt. Jedes Mal, wenn mir jemand zuhört und meine Geschichte ernst nimmt, gibt mir das Kraft. Auch der schwarze Humor unter uns Datenarbeiter:innen hilft mir, die Dinge zu verarbeiten.
netzpolitik.org: Was wünscht du dir für die Zukunft?
Joan Kinyua: Ich wünsche mir, dass Outsourcing-Firmen und -Plattformen für menschenwürdige Arbeitsbedingungen sorgen, damit Arbeiter:innen ganz normale Achtstundentage haben und ihre Mieten zahlen können. Ich wünsche mir, dass wir nicht länger in der aktuellen Situation festhängen, sondern Dinge verändern können. Und ich wünsche mir, dass meine Kinder gute Schulen besuchen können, sozial abgesichert sind und gute medizinische Behandlung haben, wenn sie sie brauchen.
netzpolitik.org: Was können unsere Leser:innen tun, um eure Arbeit zu unterstützen?
Joan Kinyua: Wir haben eine neue Website und freuen uns, wenn Menschen unsere Arbeit teilen. Man kann uns auch mit Spenden unterstützen. Wir suchen zudem immer nach Partnern, mit denen wir zusammenarbeiten können.
netzpolitik.org: Vielen Dank für das Gespräch und weiter viel Erfolg!
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
eco-Beschwerdestelle: Rekord an gemeldeten und gelöschten strafbaren Inhalten
Mehr als 30.000 rechtswidrige Internetinhalte, die Missbrauchsdarstellungen von Kindern und Jugendlichen zeigen, konnten im letzten Jahr aus dem Netz entfernt werden. Das berichtet der Internetwirtschaftsverband eco von seiner Beschwerdestelle.
Die Beschwerdestelle des Internetwirtschaftsverbands eco hilft gegen strafbare Inhalte. – CC-BY-SA 2.0 Martin AbegglenDie Beschwerdestelle des eco, bei der man illegale und jugendgefährdende Inhalte im Internet melden kann, feiert dieses Jahr ihr dreißigjähriges Jubiläum. Sie ist fast so alt wie der Internetwirtschaftsverband eco selbst, der 1995 gegründet wurde und heute etwa eintausend Mitgliedsunternehmen hat. Der Verband nennt seine Meldestelle ein „Erfolgsmodell“.
Das beweisen die Zahlen, die heute im Jahresbericht der Meldungen vorgestellt wurden. Die Bilanz der eco-Meldestelle legt den Fokus auf die gemeldeten Missbrauchsdarstellungen von Kindern, die den weit überwiegenden Teil (93 Prozent) aller 51.359 eingegangenen Beschwerden betrafen. Der Betreiber der Beschwerdestelle arbeitet in der Bekämpfung dieser sogenannten CSAM-Inhalte permanent und aktiv mit Strafverfolgungsbehörden zusammen.
Ein neuer Höchststand von mehr als 30.000 rechtswidrigen Internetinhalten konnte aus dem Netz getilgt werden. Bei kinderpornographischen Inhalten berichtet eco von einer sehr hohen Gesamterfolgsquote von 99,51 Prozent. Im Inland wurde eine 100-Prozent-Erfolgsquote erreicht: Sämtliche der gemeldeten Inhalte mit Missbrauchsdarstellungen, die in Deutschland gehostet wurden, konnten entfernt werden.
CSAM Wir berichten seit Jahren unter dem Stichwort CSAM (Child Sexual Abuse Material) über politische Vorhaben im Kampf gegen Missbrauchsdarstellungen von Kindern. Unterstütze unsere Arbeit! Jetzt spendenJeder einzelne an die Meldestelle in Köln herangetragene Fall werde geprüft, berichtete Alexandra Koch-Skiba, Leiterin der Beschwerdestelle bei eco. Sind die gemeldeten Inhalte, etwa Bilder, Videos oder Texte, nach juristischer Prüfung strafbar, wird zum einen die schnelle Löschung beim Provider oder beim Plattformbetreiber in Angriff genommen und der Fall zum anderen den Strafverfolgungsbehörden zur Kenntnis gebracht.
Diesen doppelten Ansatz bei der Bekämpfung rechtswidriger Inhalte betont Alexander Rabe, Geschäftsführer von eco, bei der Vorstellung des Jahresberichts. Denn „Internetsperren sind immer umgehbar“, daher gelte für eco der Grundsatz „löschen statt sperren“. Statt strafbare Inhalte nur zu blockieren, sollen die Dateien also direkt an ihrer Quelle aus dem Netz entfernt werden. Im Nachgang prüfen Mitarbeiter auch, ob die Inhalte wirklich verschwunden sind.
30.035 strafbare InhalteNicht alle Meldungen, die bei eco zum Jugendmedienschutz eingingen, waren rechtswidrig. Nach rechtlicher Prüfung blieben insgesamt 30.035 Fälle als „berechtigte Beschwerden“, also betrafen strafbare Inhalte.
Jahresvergleich: Berechtigte Beschwerden, die einen Rechtsverstoß darstellen. - Alle Rechte vorbehalten eco-BeschwerdestelleDas ist ein neuer Rekord an berechtigten Fällen. Zugleich wurden aber auch fast 42 Prozent der eingegangenen Meldungen nach der Prüfung als unberechtigt bewertet. Das ist dann der Fall, wenn der Inhalt rechtlich nicht relevant oder nicht prüfbar oder aber ein Duplikat ist, also bereits bekannt und zum Zeitpunkt der Meldung schon in Bearbeitung ist. Auch Meldungen außerhalb des Zuständigkeitsbereiches der eco-Beschwerdestelle fallen darunter.
Hinweise zumeist aus dem INHOPE-NetzwerkEin sehr großer Teil aller Hinweise kam im vergangenen Jahr über INHOPE, die internationale Dachorganisation der Beschwerdestellen von fünfzig Ländern. 24.400 Fälle sind über diese Partnerbeschwerdestellen an eco gemeldet worden.
Vom INHOPE-Netzwerk kamen die meisten Fälle: 24.400. - Alle Rechte vorbehalten eco-BeschwerdestelleMeldungen, die nicht aus dem INHOPE-Netzwerk stammen und nicht bei der Beschwerdebearbeitung selbst aufgedeckt wurden, kamen überwiegend von dem Online-Meldeformular des Internetverbands. Das bietet – auf Wunsch anonym – die Möglichkeit, auf Inhalte hinzuweisen, die der jeweilige Hinweisgeber als rechtswidrig einschätzt.
Auch die Möglichkeit, Meldungen per E-Mail einzureichen, kann genutzt werden. Sogar per Brief gingen in wenigen Fällen tatsächlich Hinweise ein. In 5.727 Fällen sind Beschwerden im vergangenen Jahr anonym eingereicht worden.
Manuelle Prüfung nötigSeit vielen Jahren betont eco seine erfolgreiche Beschwerdestellenarbeit. Doch schnelle Löscherfolge können nicht durchweg erreicht werden. In Deutschland dauert es im Schnitt viereinhalb Tage, bis ein rechtswidriger Inhalt gelöscht ist. Das ist eine Summe aus der Zeit für Eingang und Prüfung der Meldung an Werktagen und der Reaktionszeit der betroffenen Provider.
Zunehmende Verschleierungsmethoden oder auch Massenhinweise seien herausfordernd, so Koch-Skiba. Das bedeute einen enormen Zeitaufwand. Es könne vorkommen, dass „zeitweise alle mit der Hinweisbearbeitung betrauten Mitarbeitenden der Beschwerdestelle“ Massenmeldungen über mehrere Werktage hinweg vollständig abarbeiten, erklärt eco gegenüber netzpolitik.org.
Im vergangenen Jahr seien diese Massenhinweise aber nicht ganz so umfänglich wie in früheren Jahren gewesen. Es seien diesmal nicht mehr als 2.500 URLs auf einmal gemeldet worden. Es gab jedoch in den Vorjahren auch Massenmeldungen mit URLs im fünfstelligen Bereich.
Eine manuelle Prüfung bei dieser Fülle an Meldungen, die manchmal also Hunderte oder gar Tausende einzelne Hinweise auf URLs enthalten, ist entsprechend zeitaufwendig. Allerdings erklärte eco gegenüber netzpolitik.org, dass eingehende Hinweise schon länger nicht mehr manuell erfasst werden müssen. Auch bei der Bearbeitung der Meldungen greife man auf „Automatisierungen und technische Unterstützung“ zurück.
Allerdings gilt: „Die inhaltliche Prüfung erfolgt jedoch weiterhin einzeln: Jeder gemeldete Inhalt wird […] gesichtet und bewertet.“ Das übernehmen nach wie vor die Menschen in der Meldestelle.
Eine Zunahme von KI-generierten Inhalten ist nicht zu verzeichnen, berichtet eco gegenüber netzpolitik.org. „Im Jahr 2025 lag ihr Anteil bei knapp einem Prozent.“ In Deutschland dürften auch fiktive Darstellungen von sexualisierter Gewalt und Grenzverletzungen gegen Kinder und Jugendliche nicht verbreitet werden. Für die Arbeit der Beschwerdestelle und deren juristische Bewertung machten daher generierte Inhalte keinen entscheidenden Unterschied.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Bezahlkarten in Freiburg: „Wir waren die Einzigen, die bis zum Schluss gekämpft haben“
Das baden-württembergische Regierungspräsidium hat die Stadt Freiburg angewiesen, Bezahlkarten einzuführen. Der dortige Sozialbürgermeister erzählt im Interview, warum sich seine Stadt so lange gegen die Maßnahme gewehrt hat und wie sie weiter kämpft.
Freiburg wollte keine Bezahlkarten und muss sie jetzt trotzdem einführen. – CC-BY-SA 4.0 Zoltan SasvariSeit Ende 2024 begannen Kreise und Städte in Baden-Württemberg, Bezahlkarten an Asylsuchende auszugeben – auch in anderen Teilen Deutschlands wurde das so praktiziert. Doch an einem Ort gab es bis zuletzt Gegenwehr: in Freiburg. Nun wurde auch die Universitätsstadt im Breisgau gezwungen, Geflüchtete auf die restriktiven Zahlungsinstrumente umzustellen. Doch die Stadt wehrt sich weiter.
Wir haben mit Ulrich von Kirchbach (SPD) gesprochen. Er ist Sozialbürgermeister in Freiburg und berichtet von den Gründen für die Ablehnung und den Problemen, die Bezahlkarten mit sich bringen.
Seit 2002 ist Ulrich von Kirchbach Bürgermeister für Kultur, Jugend, Soziales und Integration in Freiburg. - Alle Rechte vorbehalten Freiburgnetzpolitik.org: Herr von Kirchbach, warum ist Freiburg gezwungen, Bezahlkarten einzuführen, während beispielsweise Potsdam in Brandenburg die Ausgabe ohne Probleme verweigern kann?
Ulrich von Kirchbach: In Brandenburg haben die dortige Landesregierung und das Sozialministerium den Landkreisen und kreisfreien Städten freie Hand gegeben, ob sie Bezahlkarten einführen wollen oder nicht. Das hätte ich mir auch für Baden-Württemberg gewünscht, aber das Land ging einen anderen Weg. Es hat eine landeseinheitliche Einführung verfügt und Freiburg ist an diese Vorgaben gebunden.
Wir haben uns dagegen ausgesprochen, aber bekamen dann Ende 2025 eine Weisung und mussten das umsetzen. Ich habe nicht verstanden, warum Baden-Württemberg unter einer grün geführten Landesregierung die Zügel so anzieht. Es wurde auch zunächst gesagt, es würde Pilotgemeinden oder Pilotstädte geben – die gab es dann aber doch nicht.
netzpolitik.org: Hat Freiburg mittlerweile begonnen, Bezahlkarten auszugeben?
Ulrich von Kirchbach: Wir haben im Februar damit begonnen, die Bezahlkarte auszugeben. Da dies nicht automatisiert funktioniert, erfolgt die Ausgabe nach und nach. Wir vergeben fortlaufend persönliche Termine für die Ausgabe weiterer Bezahlkarten.
Dass bislang nur wenige Karten ausgegeben worden sind, das hat auch mit personellen Engpässen zu tun. Außerdem erfordert die Einführung der Bezahlkarte auch einige Anpassungen bei unseren IT-Systemen, die wir erst kompatibel machen mussten.
netzpolitik.org: Werden Sie trotz der Weisung des Landes weiter versuchen, sich gegen die Bezahlkarten zu wehren?
Ulrich von Kirchbach: Wir haben beim Land einen Antrag gestellt, dass die landesrechtlichen Vorgaben ausgesetzt werden. Das hatte der Freiburger Gemeinderat angeregt. Aber über unseren Antrag wurde bislang noch nicht entschieden.
netzpolitik.org: Haben Sie davon abgesehen noch Handlungsspielräume, etwa was die Obergrenze für Bargeld-Abhebungen angeht?
Ulrich von Kirchbach: Leider hat das Land auch hier einheitliche Vorgaben gemacht, eine Bargeldabhebung darf nur bis maximal 50 Euro im Monat möglich sein. Das heißt, wir haben leider so gut wie keinen Spielraum. Auch wenn mir bisher niemand erklären konnte, wie es genau zu diesem Betrag gekommen ist.
netzpolitik.org: Was war denn vor den Bezahlkarten der Verwaltungsprozess, um Asylbewerber:innen Leistungen auszuzahlen?
Ulrich von Kirchbach: Die Menschen bekamen das Geld auf ihr Konto überwiesen, wenn sie eines hatten. Neben den Geldleistungen gab es auch Direktleistungen, beispielsweise wenn Miete direkt überwiesen wurde.
Für diejenigen ohne Konto gab es Barauszahlungen oder einen Bargeldautomaten. Damit gab es keinerlei Probleme, außer dass der Automat mal ein, zwei Tage technische Probleme hatte. Ansonsten lief alles reibungslos.
Durch die Bezahlkarten kommt es nicht zu einem Bürokratieabbau, sondern im Gegenteil zu zusätzlichem Verwaltungsaufwand: Es entstehen zusätzliche Schritte bei der Ausgabe, bei der Aufladung, bei den Einzelfallprüfungen, bei der Information der Betroffenen, bei der Klärung praktischer Probleme. Darauf habe ich bereits im Vorfeld öffentlich hingewiesen. Auch in anderen Kommunen wird von zusätzlichem und nicht von sinkendem Aufwand berichtet.
netzpolitik.org: War das der Hauptgrund für Freiburg, Bezahlkarten abzulehnen?
Ulrich von Kirchbach: Neben dem Verwaltungsaufwand sehen wir vor allem Nachteile bei der Integration. Durch die Bezahlkarten besteht die Gefahr, dass Menschen stigmatisiert werden, die Leistungen nach dem Asylbewerberleistungsgesetz beziehen.
Was wir auch nicht verstanden haben, ist, dass auch Menschen auf Bezahlkarten umgestellt werden müssen, die schon länger in Deutschland sind. Das hat uns nicht eingeleuchtet.
Für mich ist die Einführung reine Symbolpolitik. Dabei wäre es viel wichtiger, ob solche Dinge rechtssicher, praktikabel und mit vertretbarem Aufwand umsetzbar sind.
netzpolitik.org: Ist Freiburg mit anderen Kommunen im Austausch, die ebenfalls keine Bezahlkarten wollen oder keine haben?
Ulrich von Kirchbach: Wir sind in Baden-Württemberg gut vernetzt, aber letztlich waren wir die Einzigen, die noch bis zum Schluss gekämpft haben.
In anderen Kommunen gab es auch Kritik, aber teilweise haben die Oberbürgermeister die Einführung vorangetrieben. Und bei uns war es eben so, dass sich sowohl der Oberbürgermeister als auch der Gemeinderat gegen die Bezahlkarten ausgesprochen haben.
In Baden-Württemberg gibt es jetzt erstmal keine Möglichkeit mehr, sich der Einführung zu entziehen, da diese nun durch Vorgaben und Weisungen durchgesetzt wird.
netzpolitik.org: Müsste man etwas auf Bundesebene ändern, um Bezahlkarten wieder abzuschaffen?
Ulrich von Kirchbach: Die Bundesvorgaben formulieren keinen Zwang, dass Bezahlkarten eingeführt werden müssen. Sondern sie geben Rahmenbedingungen, um das umsetzen zu können. Gleichzeitig ist den Ländern freie Hand gegeben worden. Daher haben wir nur die Möglichkeit, auf eine Änderung der landesrechtlichen Vorgaben hinzuwirken – und dafür setzen wir uns natürlich weiter ein.
Aber ich habe da ehrlich gesagt keine große Hoffnung, auch nicht bei der neuen grün-schwarzen Landesregierung, die von der Konstellation wohl die gleiche sein wird wie die vorherige.
Es könnten allerdings Betroffene klagen, wenn sie auf Bezahlkarten umgestellt werden und dann könnte ein Gericht prüfen, ob die Vorgaben vom Bundesgesetzgeber so intendiert waren, dass den kreisfreien Städten und Landkreisen kein Ermessensspielraum mehr gegeben wird. Da könnte es noch gerichtliche Entscheidungen geben.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Gescheiterte Verhandlungen: „Freiwillige Chatkontrolle“ wird vorerst nicht verlängert
Nachdem das EU-Parlament am Freitag einer Verlängerung der freiwilligen Chatkontrolle mit Einschränkungen zustimmte, scheiterten diese Woche die Verhandlungen mit den Mitgliedstaaten. Das erhöht den Druck auf parallele Einigungsversuche für eine dauerhafte Lösung.
Gescheiterte Verhandlung (Symbolbild) – Gemeinfrei-ähnlich freigegeben durch unsplash.com Hände: Rock Staar, Blitz: Zoltan Tasi, Bearbeitung: netzpolitik.orgAm 3. April wird eine Ausnahmeregel auslaufen, die Anbietern von Kommunikationsdiensten erlaubt, Nachrichten ihrer Nutzenden zu scannen. Sie sollen darin nach Missbrauchsdarstellungen von Kindern und Jugendlichen zu suchen, um diese an Behörden zu melden. Diese „Chatkontrolle 1.0“ genannte Regelung gibt es seit 2021, sie schafft eine Ausnahme von der europäischen ePrivacy-Richtlinie und wurde bereits ein Mal verlängert. Nun stand eine zweite Verlängerung an, doch die scheiterte: Das EU-Parlament und die Mitgliedstaaten konnten sich bei Verhandlungen am Montag nicht auf einen Kompromiss einigen.
Diesem Scheitern ging eine Parlamentsabstimmung am Freitag voraus. Dabei hatten die Abgeordneten zwar einer Verlängerung zugestimmt, aber gleichzeitig Einschränkungen beschlossen: Das Scannen solle nur zielgerichtet bei bestimmten Nutzenden stattfinden, wenn eine Verdacht bestehe. Außerdem solle die Verlängerung bis August 2027 gelten, ein halbes Jahr weniger als von der EU-Kommission ursprünglich vorgeschlagen. Bürgerrechtler:innen begrüßten dieses Ergebnis.
Doch die Mitgliedstaaten waren offenbar nicht bereit, auf die Einschränkungen des Parlaments einzugehen. Die SPD-Europaabgeordnete Birgit Sippel, die für das Gesetz zuständig ist, kritisierte die Verhandler:innen: „Sie nehmen in Kauf, dass es den Anbietern bald nicht mehr möglich sein wird, der Verbreitung von Material über sexuellen Kindesmissbrauch entgegenzuwirken.“
Druck auf Trilog wächstDem Parlament sei wichtig gewesen, dass „bereits identifiziertes oder gemeldetes Material über sexuellen Kindesmissbrauch auffindbar und für Strafverfolgung verwendbar“ ist. Sippel, die zugleich innenpolitische Sprecherin der Sozialdemokrat:innen im Parlament ist, sagt: „Unser Ziel bleibt: Kinder schützen, ohne die Privatsphäre von digitaler Kommunikation komplett aufzuheben.“
Hintergrund sind parallele Verhandlungen über eine dauerhafte Regelung dazu, wie Missbrauchsmaterial im Netz bekämpft werden kann – die „Chatkontrolle 2.0“. Dazu verhandeln derzeit Kommission, Mitgliedstaaten und Parlament im Trilog. Auch dort liegen die Positionen der EU-Organe nicht gerade nah beieinander: Die EU-Kommission sah in ihrem ursprünglichen Vorschlag weitreichendes Scannen auch verschlüsselter Kommunikation vor; die Mitgliedstaaten brauchten mehrere Jahre, um eine Einigung ohne Aufdeckungspflichten zu finden, und das Parlament beschloss bereits 2023 eine Position, die sowohl verpflichtendes Scannen als auch verschlüsselte Kommunikation ausschließt.
Der Trilog-Prozess ist sehr intransparent, es soll jedoch erste Einigungen zu strittigen Punkten gegeben haben. Doch wie lange der Trilog dauert und ob der durch die gescheiterte Verlängerung der freiwilligen Chatkontrolle gestiegene Druck den Prozess beschleunigt, ist noch nicht abzusehen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Recht auf Breitband: Gefangen in Elon Musks Sicherungsnetz
Seit einigen Jahren gibt es ein Recht auf einen halbwegs zeitgemäßen Internetanschluss. Der Bedarf ist groß, doch der Prozess ist langwierig und kompliziert. Nur wenige kommen zu ihrem Recht. Ausgerechnet Starlink von Elon Musk füllt eine Lücke.
Derzeit springt oft Starlink des US-Milliardärs Elon Musk ein, wenn mit Internet unterversorgte Haushalte den Sprung ins digitale Zeitalter schaffen wollen. – Alle Rechte vorbehalten IMAGO / ZUMA Press WireAls Christian F. (Name geändert) im Sommer 2023 einen Antrag stellt, um sein Recht auf eine schnellere Internet-Leitung einzufordern, ist ihm bewusst, auf was er sich einlässt. „Mir war von Anfang an klar, dass die gesetzliche Mindestversorgung mit Internet nicht nur bei einer viel zu niedrigen Bandbreite angesetzt ist, sondern auch so konzipiert wurde, dass man dieses Recht kaum wahrnehmen kann“, sagt er.
Er will es trotzdem probieren, um „zu sehen, ob da was funktioniert“. Schließlich führt nur eine alternde Kupfer-Leitung zu seinem Haus in der Pfalz, die mit gerade mal 4 MBit/s im Download weit unter den Mindestanforderungen liegt. Regelmäßig gibt es Ausfälle. Mühselig sollte es bleiben: „Zwei Jahre lang habe ich gegen alle Abwiegelungen und Zurückweisungen Einspruch erhoben, bis ein Messtrupp vor Ort war“, sagt er.
Starlink als GrundsicherungEine bessere Leitung hat er trotzdem nicht bekommen, denn viel ausgerichtet hat der Messtrupp nicht. Vor allem hat er festgestellt, dass sich eine Verbindung zu Starlink-Satelliten herstellen lässt. Nach einigem Hin und Her war die Sache für die Bundesnetzagentur erledigt. Die ist dafür zuständig, sich um die unterversorgten Gebiete zu kümmern und am Ende auch Netzbetreiber zu verpflichten, für einen angemessenen Anschluss zu sorgen.
Das passierte bei F. nicht: „Zum Zeitpunkt der Mitteilung war ein neues Angebot des Anbieters Starlink zu einem monatlichem Entgelt in Höhe von 29,00 Euro verfügbar, so dass ich Sie auf den Tarif ‚Privathaushalt-Lite‘ als neue Versorgungsoption aufmerksam gemacht habe. Der Tarif erfüllt die Kriterien der TKMV und kann zu einem erschwinglichen Preis gebucht werden“, teilte ihm die Behörde mit.
Das Kürzel TKMV steht für die „Verordnung über die Mindestanforderungen für das Recht auf Versorgung mit Telekommunikationsdiensten“. Diese legt die Anforderungen an Internetzugangsdienste fest: Sie müssen im Download mindestens 15 MBit/s, und im Upload mindestens 5 MBit/s liefern, bei einer Latenz von höchstens 150 Millisekunden. Außerdem muss das Zugangsprodukt bezahlbar sein, die Bundesnetzagentur rechnet dafür mit rund 30 Euro monatlich.
Seit vergangenem Jahr bietet der Satellitenbetreiber Starlink des US-Milliardärs Elon Musk ein Produkt in Deutschland an, das diese Bedingungen erfüllt. Tausende Satelliten in einer niedrigen Erdumlaufbahn kreisen um die Welt und versorgen dabei beinahe das gesamte Bundesgebiet. Versprochen werden Download-Geschwindigkeiten von bis zu 100 Mbit/s für einen Preis von knapp 30 Euro. Wer nicht in einer ungünstigen Tallage oder im Umkreis eines großen Radioteleskops lebt, gilt unter diesen Umständen in der Regel als versorgt.
Kaum amtlich festgestellte UnterversorgungenGleichzeitig ist es still geworden um das Recht auf schnelles Internet. Im Jahr 2025 hat die Bundesnetzagentur eine einzige Unterversorgung festgestellt, nur um sie umgehend wieder zurückzuziehen. Ein Netzbetreiber habe mitgeteilt, doch einen Anschluss herstellen zu können, heißt es im Aufhebungsbescheid.
Auch in den Jahren zuvor fällt die Bilanz mager aus: Seit dem Jahr 2023 hat die Bonner Behörde insgesamt 29 sogenannte Unterversorgungsfeststellungen veröffentlicht. 13 davon hat sie wieder aufgehoben, in einem Fall hat sie die Unterversorgung später erneut amtlich bestätigt. Die Zahlen sind erstaunlich niedrig: Im Vorfeld der seit 2021 im Gesetz verankerten Regelung hatte die Bundesnetzagentur mit rund 300.000 betroffenen Haushalten gerechnet.
Etwa 1.650 Eingaben sind im Vorjahr bei der Behörde eingegangen, teilt eine Sprecherin auf Nachfrage mit. Rund 95 Prozent dieser Eingaben konnten beantwortet werden, indem die Bundesnetzagentur alternative Versorgungsmöglichkeiten aufzeigte, so die Behörde.
Über die verbleibenden Eingaben berate die Bundesnetzagentur zunächst mit den Telekommunikations-Unternehmen. „In diesem Prozess konnten fast alle Fälle einer Lösung zugeführt werden, so dass die formale Feststellung einer Unterversorgung mit anschließender Verpflichtung eines TK-Unternehmens nicht erforderlich wurde“, so die Behördensprecherin.
„Keine Erfolgsgeschichte“Andreas Neumann, Experte für Telekommunikationsrecht am IRNIK-Institut, zieht eine durchwachsene Bilanz. „Blickt man auf die unmittelbaren Ergebnisse, ist das Recht auf Versorgung mit Telekommunikationsdiensten keine Erfolgsgeschichte“, sagt Neumann. Selbst in den drei Jahren vor dem einschlägigen Starlink-Produkt habe die Bundesnetzagentur gerade einmal rund 30 Unterversorgungsfeststellungen erlassen. Bei einem Potential von mehreren hundertausend unterversorgten Haushalten ist das „kein zufriedenstellender Befund“, sagt Neumann.
Dies gelte auch für den „ganz erheblichen Aufwand“, den die Bundesnetzagentur betreiben musste, um das Recht auf Breitband-Internet mit Leben zu füllen: „Nach einer Auskunft der Bundesregierung wurden hierfür 25 Dienstposten geschaffen. Außerdem hat die Bundesnetzagentur mehrere Gutachten von Beratungsunternehmen beauftragt“, sagt der Experte.
All dieser Aufwand, und alles für nichts? Nicht unbedingt, sagt Neumann. Letzten Endes liege das Problem in einer „sehr ambitionierten gesetzlichen Ausgestaltung, die sich dann jedoch als nicht wirklich praxistauglich erwiesen hat“. Das muss so nicht bleiben: Zum einen lasse sich der verfahrenstechnische Ansatz schlanker und einfacher gestalten, zum anderen könne die die Bundesnetzagentur weiterhin eine starke Informations- und Moderationsrolle einnehmen, empfiehlt er.
Streit um BerechnungsgrundlageWeniger ambitioniert als die gesetzlichen Regelungen sind hingegen die Vorgaben, die über eine Mindestversorgung entscheiden. Derzeit orientieren sie sich daran, was „mindestens 80 Prozent der Verbraucher im Bundesgebiet“ an Mindestbandbreite, Uploadrate und Latenz zur Verfügung steht, heißt es im Gesetz. Als Grundlage diente jedoch eine veraltete EU-Universaldienstrichtlinie aus dem Jahr 2002.
Neuere Rechtsakte wie der TK-Kodex gehen, jedenfalls in der Auslegung von Verbraucherschützer:innen, von einer „Mehrheit der Verbraucher“ aus, die zur Festlegung der qualitativen Ausgestaltung des Universaldienstes herangezogen werden sollte. Damit würden die Anforderungen für die Mindestbandbreiten nach oben schnellen, während die Latenzzeiten sinken müssten. Auf einen Schlag wären deutlich mehr Haushalte erfasst, als dies derzeit der Fall ist. Also deutlich mehr als jene, die weniger als 15 MBit/s Download-Geschwindigkeit erreichen.
Ob sich eine derartige Änderung auszahlt, hängt wohl maßgeblich davon ab, was man sich von diesem Instrument verspricht. „Versteht man es weiterhin als bloßes Sicherheitsnetz für eine ‚Minimalteilhabe‘ im Sinne des 80-Prozent-Kriteriums und hält insbesondere eine Satellitenversorgung für ausreichend, dürfte es in absehbarer Zeit keine große praktische Bedeutung erlangen“, sagt Neumann. „Verfolgt man im Sinne eines 50-Prozent-Kriteriums einen ambitionierteren Ansatz, auch im Einklang mit dem Ziel, bis 2030 alle Haushalte gigabitfähig zu machen, spricht meines Erachtens viel für eine grundlegende Umgestaltung.“
Vorgaben „nicht mehr ausreichend“Für eine Verbesserung setzt sich der Bundesverband der Verbraucherzentralen (VZBV) ein. Die derzeit geltenden Mindestleistungsparameter seien „nicht mehr ausreichend“, sagt Nikola Schiefke aus dem VZBV-Team Digitales und Medien. Entsprechend müssten die Vorgaben „zeitnah an den tatsächlichen Bedarf“ angepasst werden, fordert die Verbraucherschützerin.
Vom Recht auf eine Grundversorgung mit Internet möchte sie keinesfalls abrücken. Es ist „weiterhin ein wichtiges Sicherheitsnetz zur Sicherstellung der digitalen Teilhabemöglichkeit für alle Menschen in Deutschland“. Außerdem könnte Starlink jederzeit die Preise anheben oder die Qualität verschlechtern. Eine adäquate und bezahlbare Mindestversorgung müsse deshalb auch zukünftig weiterhin gesetzlich abgesichert sein, sagt Schiefke.
Allerdings müsste sich der Prozess drastisch verbessern, so die Verbraucherschützerin. Seinen persönlichen Anspruch geltend zu machen, sei „so komplex und langwierig, dass viele Verbraucher:innen von einer Durchsetzung absehen“, berichtet Schiefke aus der Praxis.
So auch Christian F., der letztlich einen Starlink-Anschluss bestellt hat. Aufgrund der Tallage muss er zwar mit Aussetzern leben, was gerade bei beruflichen Video-Anrufen nerve. Besser als die alte DSL-Leitung sei der Satellitenanschluss aber allemal. Den DSL-Anschluss hat er trotz ständiger Probleme behalten, er dient als Backup: „Ein Tag Ausfall als Freelancer kostet mehr als noch ein Internetanschluss“, sagt F.
Überarbeitung steht anEine Gelegenheit, das Recht auf Breitband zu verbessern, wird sich zwangsläufig ergeben. Die Anforderungen müssen regelmäßig evaluiert und gegebenenfalls angepasst werden, zudem müssen dies das Digitalministerium sowie der Digitalausschuss des Bundestags absegnen. Ob ein anstehender Prüfbericht der Bundesnetzagentur an den Mindestanforderungen rütteln wird, bleibt vorerst unklar.
„Mit Blick nach vorn stellt sich die Frage, ob die Mindestversorgung weiterentwickelt werden sollte“, sagt Johannes Schätzl, digitalpolitischer Sprecher der SPD-Bundestagsfraktion. Ihm zufolge sollte es dabei aber weniger um Bandbreiten, sondern mehr um die Qualität der Anschlüsse gehen. Hohe beworbene Bandbreiten würden wenig helfen, wenn beispielsweise Kabelnetze zu Spitzenzeiten regelmäßig einbrechen, so der Abgeordnete. „Deshalb lohnt sich die Diskussion, wie Mindestversorgung künftig stärker auch die tatsächliche Qualität und Verlässlichkeit der Verbindung berücksichtigen kann“, sagt Schätzl.
Auch die Union stellt eine Verbesserung in Aussicht. „Eine Mindestbandbreite von 15 MBit/s ist nicht zeitgemäß und wird den Anforderungen an Homeoffice oder Online-Unterricht in Mehrfamilienhäusern nicht gerecht“, sagt Hansjörg Durz, Vorsitzender des Digitalausschusses. Das Recht auf Breitband müsse „ein Sicherheitsnetz bleiben“, vor allem müsse aber der „flächendeckende Ausbau zukunftsfähiger Telekommunikationsnetze signifikant beschleunigt werden“, so der CSU-Abgeordnete. Hierzu hat die Bundesregierung kürzlich einen Referentenentwurf vorgestellt.
Aus der Abhängigkeit von Elon Musk befreienBleibt aber immer noch das Problem, dass das derzeitige „Sicherheitsnetz“ ausgerechnet von Elon Musk betrieben wird. Der rechtsradikale US-Unternehmer gilt trotz Verwerfungen als Verbündeter des US-Präsidenten Donald Trump, unterstützt weltweit rechtsradikale und rechtsextreme Bewegungen, darunter die AfD, und nutzte Starlink wiederholt als undurchsichtige Verhandlungsmasse, auch im russischen Angriffskrieg auf die Ukraine.
Während also Europa über digitale Souveränität diskutiert, läuft Deutschland Gefahr, sich bei grundlegender Infrastruktur zumindest teilweise noch stärker von Akteuren wie ihm abhängig zu machen. Für die grüne Digitalsprecherin Rebecca Lenhard ist das ein ernstes Problem. „Genau deshalb sind europäische Alternativen wie Eutelsat OneWeb so wichtig. Wie in vielen anderen Bereichen gilt auch beim Satelliteninternet: Wir dürfen uns nicht von außereuropäischen Anbietern abhängig machen. Europa muss hier stärker investieren und eigene Kapazitäten aufbauen“, fordert Lenhard.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Mobile Gesichtserkennung: Frankfurts Polizei identifiziert Menschen per Foto-App
Na, wen haben wir denn da? Die Polizei in Frankfurt am Main nutzt bei Personenkontrollen eine Gesichtserkennungs-App. Der hessische Ministerpräsident glaubt dabei an die Vorbildfunktion seines Bundeslandes.
Polizeikontrolle im Bahnhofsviertel von Frankfurt am Main. – Alle Rechte vorbehalten IMAGO / brennweiteffmDonnerstag der 12. März, abends, Bahnhofsviertel von Frankfurt am Main. Die Polizei macht mal wieder Razzia, mit 200 Mann. Als der hessische CDU-Ministerpräsident Boris Rhein und sein CDU-Innenminister Roman Poseck die Szene betreten, haben die Polizist*innen schon alles angerichtet: 40 bis 50 Menschen stehen mit der Stirn zur Wand, die Hände auf dem Rücken, sie werden von Polizist*innen durchsucht, so berichtet es die Frankfurter Neue Presse.
Demnach wurden an dem Abend 414 Menschen kontrolliert, bei 36 fand man illegale Drogen, stellte Verstöße gegen die Waffenverbotszone oder das Aufenthaltsgesetz fest. Solche Großrazzien gibt es im Frankfurter Bahnhofsviertel regelmäßig. Für die zwei CDU-Landespolitiker bot die Inszenierung dennoch etwas ganz Besonderes.
Dabei wurde nämlich ein neues Polizei-Instrument vorgestellt. Eine App, die Menschen identifizieren kann. GES-App heißt die. Frankfurt ist seit einigen Wochen Testgelände dafür. Angeblich wurde sie bereits mehrfach erfolgreich eingesetzt. Dass die Polizei so etwas nutzt, ist bundesweit einmalig. Bisher kennt man es vor allem von us-amerikanischen ICE-Beamt*innen, dass sie bei Kontrollen Menschen mit Handykameras identifizieren.
Foto-Datenbank von 5,5 Millionen MenschenFrankfurter Polizist*innen fotografieren Verdächtige, die sich nicht ausweisen können oder wollen, mit ihren Dienst-Telefonen. Die GES-App wirft die Bilder in die Gesichtersuchmaschine des BKA, die gleicht sie mit Bildern von fast 5,5 Millionen Menschen ab. Sie stammen aus der Polizeidatenbank INPOL. Dort sind Menschen mit Bild gespeichert, die erkennungsdienstlich behandelt wurden, aber auch weitere Bilder, die die Polizei im Rahmen von Ermittlungen erstellt oder beschlagnahmt hat.
Gibt es einen Treffer, erscheinen auf dem Display des Dienst-Telefons Name und Geburtsdatum der fotografierten Person und womöglich weitere Informationen. In INPOL werden unter anderem gespeichert: Vergleichsfotos, die Info, ob nach der Person gefahndet wird, personengebundene Hinweise wie etwa „Ansteckungsgefahr“ oder „Psychische und Verhaltensstörung“.
Die App ist ein Gemeinschaftsprojekt des hessischen Landeskriminalamts, des Bundeskriminalamts und einer Innovations-Abteilung der hessischen Polizei. Der hessische Innenminister berichtet bei seinem Besuch in Frankfurt, dass man bundesweit neidisch auf die High-Tech-Überwachung schaue, die dort aufgebaut wird. Es ist wohl nicht unwahrscheinlich, dass auch weitere hessische und bundesdeutsche Polizeipräsidien die GES-App einführen.
Frankfurt, das Reallabor für die GES-App, war auch ohne diese schon Gesichtserkennungs-Frontstadt. Im Bahnhofsviertel ist seit Sommer 2025 – ebenfalls bundesweit einmalig – Live-Gesichtserkennung mit festinstallierten Videokameras im Einsatz.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Rechtlich fragwürdig: Bundesregierung will biometrische Fotofahndung im Netz
Die Polizei soll künftig Fahndungsfotos mit allen im Internet verfügbaren Bildern abgleichen dürfen. In der EU sind die technischen Grundlagen für diese Fotofahndung eigentlich verboten. Dennoch will die Bundesregierung Ermittlungsbehörden genau das nun erlauben.
Bei Straftaten von erheblicher Bedeutung soll die Polizei auch per biometrischem Abgleich das Internet nach Treffern durchsuchen dürfen. – CC-BY 4.0 Alan Warburton / https://betterimagesofai.org / © BBCDie Bundesregierung will der Polizei erlauben, für die Strafverfolgung und Terrorismusbekämpfung künftig das Internet nach Gesichtern zu durchsuchen. Ein Fahndungsfoto soll dafür mit allen im öffentlichen Internet auffindbaren Gesichtern biometrisch abgeglichen werden können. Bundesjustizministerin Stefanie Hubig (SPD) und Bundesinnenminister Alexander Dobrindt (CSU) haben sich dazu vergangenen Donnerstag auf drei Gesetzentwürfe geeinigt.
Biometrische Gesichtserkennung beruht darauf, dass jedes Gesicht einzigartige Merkmale hat, etwa den Abstand von Augen, Nasenspitze und Kinn. Diese Merkmale lassen ich vermessen und als Daten darstellen, das sogenannte Template. Diese Templates werden dann automatisiert miteinander verglichen.
Sicherheitspolitiker*innen fordern den Einsatz dieser Fahndungsmethode spätestens seitdem Journalist*innen Ende 2023 das untergetauchte mutmaßliche ehemalige RAF-Mitglied Daniela Klette aufspürten. Sie verwendeten dafür die kommerzielle Gesichtersuchmaschine PimEyes und fanden Bilder von Klette, die unter neuer Identität in Berlin lebte.
Allerdings verbietet die KI-Verordnung der Europäischen Union, Gesichtsbilder aus dem Internet wahllos einzusammeln und daraus biometrische Datenbanken zu erstellen. Die Ministerien wollen dieses Verbot offenbar gezielt umgehen. Sie betonen, dass für das Auslesen der Daten keine KI-Systeme genutzt würden. Außerdem würden beim geplanten „Ad-hoc-Vergleich“ keine Daten dauerhaft gespeichert. Wie dies technisch umgesetzt werden soll, geht aus den Gesetzentwürfen nicht hervor.
Das Vorhaben knüpft an die Debatte um das sogenannte Sicherheitspaket im Herbst 2024 an. Damals scheiterte die Ampel-Regierung mit ihren Plänen, weil den Ländern einige der geplanten Überwachungsbefugnisse nicht weit genug gingen.
Insgesamt bringt die Bundesregierung jetzt drei Gesetzentwürfe auf den Weg. Bundesjustizministerin Hubig stellte die geplanten Änderungen in der Strafprozessordnung (StPO) vor. Parallel kommen aus dem Bundesinnenministerium zwei Entwürfe mit vergleichbaren Befugnissen für die Polizeibehörden des Bundes.
Wie der biometrische Abgleich funktionieren sollLaut den Plänen aus dem Justizministerium soll die Polizei die biometrische Fahndung einsetzen dürfen, um die Identität oder den Aufenthaltsort von Beschuldigten oder Zeug*innen festzustellen. Erlaubt sein soll das beim Verdacht einer Straftat von erheblicher Bedeutung – das sind etwa Mord und Vergewaltigung, aber auch Steuerhinterziehung, Geldwäsche oder Drogendelikte.
Einen Abgleich mit „öffentlich zugänglichen Echtzeitbildern“ schließt das Gesetz explizit aus. Außerdem darf der Abgleich nur auf Anordnung einer Staatsanwaltschaft erfolgen. Sollte der Einsatz keine Ermittlungsansätze, also Treffer, ergeben, müssen die Daten nach dem Abgleich wieder gelöscht werden.
Keine Datenbank mit Milliarden von GesichternUm im öffentlichen Internet nach Personen suchen zu können, müssen Ermittlungsbehörden die öffentlich im Netz verfügbaren Fotos von Gesichtern zunächst durchsuchen, sammeln und in Templates umrechnen. Dabei entsteht eine Datenbank mit den biometrischen Entsprechungen von möglicherweise Milliarden von Gesichtern.
Das Ministerium betont, dass diese Vergleichsdatenbank bei dem geplanten „Ad-hoc-Abgleich“ nicht dauerhaft gespeichert würde. Die Templates müssten stattdessen für jeden Abgleich neu erstellt werden. Damit sei die „Erstellung einer dauerhaften Datenbank, die aus dem Internet erhobene Lichtbilder und/oder zugehörige Templates vorhält, […] ausgeschlossen“.
Allerdings steht das so nicht explizit im Gesetzentwurf. Dieser legt nur fest, dass die „beim Abgleich erhobenen und verarbeiteten Daten“ im Anschluss „unverzüglich“ zu löschen sind, wenn sie für die weiteren Ermittlungen nicht relevant sind. Die Referenzdatenbank selbst erwähnt der Text nicht explizit.
EU-KI-Verordnung: Warum das Vorhaben problematisch istHinzu kommt: Artikel 5 der KI-Verordnung verbietet „das Inverkehrbringen, die Inbetriebnahme […] oder die Verwendung von KI-Systemen, die Datenbanken zur Gesichtserkennung durch das ungezielte Auslesen von Gesichtsbildern aus dem Internet oder von Überwachungsaufnahmen erstellen oder erweitern“.
Aus Sicht von Dirk Lewandowski ist die Sache damit eindeutig. Der Professor für Information Research & Information Retrieval an der Hochschule für Angewandte Wissenschaften Hamburg hat für die Organisation AlgorithmWatch ein Gutachten erstellt. Darin kommt er zu dem Schluss, dass die KI-Verordnung es „ausnahmslos“ verbiete, „durch ein anlassloses Scraping von Gesichter-Aufnahmen Datenbanken zur Gesichtserkennung aufzubauen“.
Ohne eine solche Referenzdatenbank könne der Abgleich nicht sinnvoll duchgeführt werden. Laut Lewandowski scheitere ein solches Vorhaben damit rechtlich wie praktisch.
Bundestagsgutachten: Wie das Verbot umgangen werden könnteEin Gutachten der Wissenschaftlichen Dienste des Deutschen Bundestages kommt allerdings zu einem leicht anderen Schluss. Demnach verbiete die KI-Verordnung nicht den Aufbau einer Datenbank, sondern nur das „ungezielte Auslesen von Gesichtsbildern mittels KI […], da es die Privatsphäre und den Datenschutz der Betroffenen erheblich beeinträchtigt und das Gefühl ständiger Überwachung erzeugt“.
Das in der KI-Verordnung festgelegte Verbot gelte demnach nur dann, wenn die Strafverfolgungsbehörden die Datenbanken mit Hilfe von KI-Systemen erstellen. Werden dafür keine solchen Systeme verwendet, greife die Verordnung nicht. Die Kernfrage sei also, „ob – und wenn ja, wann – bei dem biometrischen Abgleich mit Bildern aus dem Internet KI ins Spiel kommt“.
Datenbanken von Bildern aus dem Internet könnten auch ohne Künstliche Intelligenz erstellt werden, schreiben die Wissenschaftlichen Dienste weiter. So können beispielsweise Bilder mit herkömmlichen Methoden aus dem Netz heruntergeladen und dann in einer Datenbank gespeichert werden.
„Der Einsatz von KI ist also nicht zwingend erforderlich, um einen biometrischen Abgleich mit Bildern aus dem Internet durchzuführen“, so das Fazit der Wissenschaftlichen Dienste, sondern es komme „auf die konkrete Ausgestaltung und technische Umsetzung des in den Gesetzesentwürfen vorgesehenen biometrischen Abgleichs an“.
Ministerium geht durch die HintertürDas Justizministerium argumentiert in die gleiche Richtung. In der Gesetzesbegründung schreibt das Ministerium, ein Verbot durch die KI-Verordnung gelte nicht, „sofern für das Auslesen der Daten keine KI-Systeme eingesetzt werden“.
Diese Auslegung vertritt auch die EU-Kommission in ihren Leitlinien zur Einhaltung der Verbote aus der KI-Verordnung. Die Sichtweise würde allerdings bedeuten, dass auch andere Datenbanken zur Gesichtersuche, etwa von kommerziellen Anbietern wie PimEyes und Clearview, in der EU nicht verboten wären.
Damit würde die Kommission explizit die erklärte Absicht des EU-Parlaments umgehen. Dieses hatte bei den Verhandlungen um die KI-Verordnung auf das Verbot bestanden, weil mit der Gesichtersuche die Anonymität im öffentlichen Raum bedroht wird und es die gesellschaftlichen Auswirkungen einer solchen Überwachungsmöglichkeit fürchtete.
Fachleute für den Schutz von Grundrechten weisen bereits seit Jahren auf die Gefahren hin, die mit der biometrischen Gesichtersuche einhergehen: Die biometrischen Merkmale eines Gesichtes sind unveränderlich. Mit Hilfe der Suche lassen sich Fotos einer Person im Internet finden – und darüber indirekt wahrscheinlich auch ihr Name, der Arbeitgeber oder der Wohnort. Ein Schnappschuss reicht dafür aus.
Das erhöht nicht nur das Risiko für Stalking, sondern kann dazu führen, dass man sich auch auf einer Demonstration, bei einem Arztbesuch oder in anderen Situationen ständig beobachtet fühlt und sein Verhalten entsprechend anpasst. Der Chaos Computer Club spricht in einer Stellungnahme von der „Idee einer allgegenwärtigen Überwachung und Datenrasterung, der niemand mehr ausweichen kann“.
Die Ministerien haben die Gesetzentwürfe jetzt an die Länder geschickt. Auch Verbände können jetzt bis Anfang April ihre Kritik und Verbesserungsvorschläge zu den Vorhaben einreichen – einiges davon könnte in die Entwürfe einfließen. Eines des Gesetze benötigt zudem die Zustimmung des Bundesrates.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Gesetzentwurf zur Stärkung der Cybersicherheit: Gefährliche Offensive
Bundespolizei und BKA sollen bei Angriffen auf IT-Systeme in manchen Fällen zurückhacken und infizierte Systeme ausschalten dürfen, wünscht sich das Innenministerium. Fachleute warnen vor Kollateralschäden und Eingriffen, die eigentlich eine Grundgesetzdebatte bräuchten.
Der Innenminister und der BKA-Präsident. – Alle Rechte vorbehalten IMAGO / IPONUnbekannte haben IT-Systeme des Arbeiter-Samariter-Bunds im Saarland angegriffen und sich Zugriff auf Daten von Beschäftigten und Kund:innen verschafft. Der Ex-BND-Vizepräsident ist auf eine Phishing-Attacke über einen Messenger reingefallen. Böswillige Hacker:innen erpressen eine Einrichtung für Menschen mit Behinderungen in Essen. Das sind nur drei von unzähligen Meldungen über IT-Sicherheitsvorfälle der letzten Wochen. Das Problem scheint bodenlos und in Deutschland gibt es eine unübersichtliche Landschaft an Behörden, Organisationen und Gesetzen, die dabei helfen sollen, es in den Griff zu bekommen.
Nun soll ein weiteres Gesetz dazukommen, das „Gesetz zur Stärkung der Cybersicherheit“. Ende Februar veröffentlichte das Bundesinnenministerium dazu einen Referentenentwurf, der Vorschriften für Bundespolizei, Bundeskriminalamt (BKA) und das Bundesamt für Sicherheit in der Informationstechnik (BSI) ändern und ihnen mehr Befugnisse geben soll. Dabei markiert der Gesetzentwurf eine Abkehr vom Grundsatz, dass der beste Schutz vor Angriffen auf IT-Systeme in der Prävention und Stärkung von Resilienz liegt.
Von der Abwehr zum Angriff„Gegen groß angelegte Cyberangriffe mit großem Schadenspotential“ böten präventive Maßnahmen in eigenen IT-Systeme keinen „hinreichenden Schutz“, heißt es in der Problembeschreibung. Daher müsse es „ergänzend Möglichkeiten zur Unterbindung solcher Cyberangriffe“ geben. Das heißt: Bundespolizei, BKA und BSI sollen künftig in IT-Systeme eingreifen dürfen, um sie etwa abzuschalten, Datenverkehr zu verändern oder sogar Daten zu löschen.
Das BKA würde dem Entwurf zufolge die Aufgabe bekommen, Gefahren für IT-Sicherheit „bei internationaler Zusammenarbeit oder außen- und sicherheitspolitischer Bedeutung“ abzuwehren. Liegt eine solche Gefahr vor, soll das BKA unter anderem Datenverkehr umleiten oder blockieren dürfen sowie Daten auf einem IT-System „erheben, löschen oder verändern“ können.
Es soll also „zurückhacken“, was unter dem Begriff „Hackback“ bekannt ist. Das gilt in bestimmten Fällen selbst für privat genutzte IT-Systeme, beispielsweise wenn es um Gefahren geht, die für „die Vertraulichkeit und Integrität informationstechnischer Systeme einer großen Anzahl von Personen“ relevant sind.
Die Eingriffsbefugnisse sind so formuliert, dass sie sich nicht nur gegen IT-Systeme richten, von denen Angriffe ausgehen, sondern auch gegen Opfersysteme. Das können gekaperte Router im Heimnetz sein, die von Angreifer:innen für kriminelle Zwecke missbraucht werden. Ähnliche Regeln sind analog für die Bundespolizei in deren Aufgabenbereich vorgesehen.
IT-Sicherheitsfachleute kritisieren diese Befugnis scharf. Sven Herpig, Leiter für Cybersicherheitspolitik und Resilienz beim Policy-Institut interface, schreibt gegenüber netzpolitik.org: „Auch wenn für Eingriffe in private Systeme zusätzliche gerichtliche Hürden vorgesehen sind, wird der Anwendungsbereich strukturell weit gezogen. Die Darstellung als bloße Detailkorrektur verkennt damit die qualitative Erweiterung staatlicher Eingriffsbefugnisse im digitalen Raum.“ Herpigs Auffassung nach müsste wegen der „Intensität der vorgesehenen Maßnahmen und ihrer potenziellen Reichweite“ die Frage gestellt werden, ob es dafür nicht eine „offene verfassungsrechtliche Grundsatzdebatte – einschließlich der Frage nach einer Grundgesetzänderung“ geben müsse.
Warnung vor KollateralschädenDie Arbeitsgruppe KRITIS, die sich insbesondere mit der Sicherheit Kritischer Infrastrukturen wie Energieversorgern oder Transportunternehmen befasst, warnt in einer Stellungnahme vor möglichen Folgeschäden. Auch Betreiber Kritischer Infrastrukturen und Behörden könnten ohne ihr Wissen von Angreifern instrumentalisiert werden und wären damit entsprechende Opfersysteme, in die Bundespolizei oder BKA eingreifen könnten.
„Dies würde ohne Wissen des Betreibers geschehen. Die Behörden hätten dabei sogar die Befugnis, Daten zu verändern oder zu löschen“, schreibt die AG KRITIS. „Ein nicht abgestimmter Eingriff in Konfigurationsdaten, Systemparameter oder Netzwerkverbindungen kann dort unmittelbare Betriebsstörungen auslösen und bis zum Versorgungsausfall für die Bevölkerung führen.“ Auf dieses Risiko gehe der Entwurf nicht ein. Neben Kollateralschäden gehört zur Kritik der offensiven Abwehr von Angriffen, dass Sicherheitslücken offengelassen werden könnten, um im Zweifel Angreifer darüber zu schlagen – was wiederum IT-Systeme für alle unsicherer macht. Ein klar geregeltes Schwachstellenmanagement, das zur konsequenten Schließung der Lücken verpflichtet, fehlt weiterhin.
Die AG KRITIS kritisiert zusätzlich, dass das BKA überhaupt eine Zuständigkeit für Cyberangriffe bekommt. Gemäß dem Grundgesetz ist Gefahrenabwehr prinzipiell Sache der Länder, das BKA ist hingegen etwa bei internationalem Terrorismus oder Verbrechen zuständig. Dass es nun auch bei Cyberangriffen von „außen- und sicherheitspolitischer Bedeutung“ tätig werden soll, sei „verfassungsrechtlich in mehrfacher Hinsicht fragwürdig“. Der Begriff sei unbestimmt und biete einen „unkontrollierbaren Beurteilungsspielraum“.
Wie bereits Herpig von interface regt die AG KRITIS an, dass der Weg einer Verfassungsänderung geboten sei, wenn es bei Angriffen auf IT-Systeme Bundesregelungen brauche. Eine Haltung, die von Staatsrechtlern geteilt wird.
Neben den Polizeien soll künftig auch das BSI neue Kompetenzen bekommen. Bislang durfte das Bundesamt etwa bei Vorfällen in der Bundesverwaltung helfen, um einen Schaden zu bewältigen und Systeme wiederherzustellen. Nun soll es bereits dann zu Hilfe gerufen werden können, wenn Anhaltspunkte für eine Beeinträchtigung vorliegen. Das heißt beispielsweise: wenn erkannt wird, dass ein Angriff vorbereitet werden könnte, indem Systeme ausgeforscht werden. Ebenso soll es Dienstleistern wie Domain-Registrierungsstellen anordnen können, Einträge umzuleiten.
Massiver Personalaufwuchs bei BKA und BundespolizeiNeben den Befugniserweiterungen für die drei Behörden ist der Teil des Gesetzentwurfs bemerkenswert, der keine existierenden Gesetze ändert, sondern den personellen Aufwand für die Änderungen einschätzt. Allein im BKA sollen 264 Personen für die Umsetzung benötigt werden, in der Bundespolizei schätzt das Innenministerium, dass 90 und im BSI 21 neue Stellen bis zum Jahr 2030 anfallen.
Herpig sieht den massiven Stellenaufbau bei BKA und Bundespolizei „für hochinvasive, personalintensive und nur in Einzelfällen benötigte aktive Abwehrmaßnahmen“ kritisch. „Dies steht im Widerspruch zu politischen Versprechen von Bürokratieabbau und Ausgabendisziplin“, so der Experte für IT-Sicherheit. Er verweist dabei auf einen Bericht des Bundesrechnungshofs aus dem Sommer 2025. Der bemängelte, dass die IT des Bundes selbst „nicht auf die aktuellen Bedrohungen vorbereitet“ sei, es Mängel bei Detektion und Resilienz gäbe und sich die Cybersicherheitsarchitektur „durch einen Dschungel von Institutionen und Zuständigkeiten“ auszeichne.
Für Herpig ist das „ein klarer Hinweis darauf, dass die Priorität auf die Stärkung dauerhafter Schutz- und Früherkennungsstrukturen liegen sollte, statt auf den Ausbau einmalig einsetzbarer Einsatzapparate“.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
KW 11: Die Woche, in der wir uns über Pfusch am Bau aufregen
Die 11. Kalenderwoche geht zu Ende. Wir haben 15 neue Texte mit insgesamt 116.790 Zeichen veröffentlicht. Willkommen zum netzpolitischen Wochenrückblick.
– Fraktal, generiert mit MandelBrowser von Tomasz ŚmigielskiLiebe Leser*innen,
seit 2019 begleite ich für netzpolitik.org die Pläne für die Verordnung der EU zu sogenannter „Künstlicher Intelligenz“. Es ist das erste europäische Gesetz, bei dessen Entstehung ich von Anfang an mit dabei war. Wie bei einem Gebäude, für das man schon die ersten Ideen und Entwürfe am Reißbrett mitverfolgt hat. Dann jeden Tag an der Baustelle vorgefahren ist, erst beim Aushub und dann Stockwerk um Stockwerk zuschaute, wie es nach oben wächst.
2024 waren die Pläne fertig verhandelt. Doch im Nachhinein muss ich sagen: Wenn die KI-Verordnung ein Gebäude ist, dann kommt mir das Ergebnis zunehmend vor wie Pfusch am Bau.
Ich fühle mich verschaukelt von diesem Gesetz, das doch eigentlich zumindest in Teilen den Zweck haben soll, die Grundrechte der Menschen in der EU zu schützen. Dafür zu sorgen, dass sie nicht zu Unrecht im Gefängnis landen, von Sozialleistungen ausgeschlossen werden, an den EU-Grenzen von Maschinen schikaniert oder bei jedem Schritt im öffentlichen Raum verfolgt werden können – weil ein „KI-System“ das nun einmal möglich macht.
Auf die vielen Schwachstellen im fertig verhandelten Bauplan hatten wir damals schon hingewiesen. Artikel 5 der Verordnung regelt all die grundrechtsrelevanten Schweinereien, die mit “KI” technisch möglich, in der Union aber tabu sind. Darunter etwa Systeme, die Gefühle erkennen sollen oder Vorhersagen dazu treffen, ob jemand wohl kriminell wird. (Minority Report lässt grüßen.)
Verboten sind in der EU demnach auch Systeme, mit denen man im Internet gezielt nach einem Gesicht suchen kann und dann weitere Treffer zu der Person angezeigt bekommt. Man kennt das von umstrittenen Suchmaschinen wie PimEyes oder Clearview. Denn Menschen aus dem Team Bürgerrechte sind sich schon lange einig: Solche Systeme stellen eine besonders große Gefahr für unsere Gesellschaft dar. Diese kommerziellen Anbieter scannen das öffentliche Internet nach auffindbaren Gesichtern und erstellen daraus gigantische Datenbanken. Der Upload eines Fotos in die Suchmaschine reicht aus, schon werden Treffer zu dem gesuchten Gesicht im Netz angezeigt. Und damit sehr wahrscheinlich auch der Name, der Job oder dieses eine peinliche Video, das man mit 20 irgendwo hochgeladen und dann vergessen hat.
Ich dachte, dass solche Suchmaschinen in der EU verboten sind. Doch damit liege ich wohl falsch.
Denn die Bundesregierung möchte solche Systeme schon seit einer Weile haben. Sie möchte es der Polizei erlauben, die Gesichtersuche einzusetzen, um in Strafverfahren nach Verdächtigen und auch Zeug*innen suchen zu können. Am Donnerstag haben die Bundesjustizministerin und der Bundesinnenminister dafür eine Reihe von neuen Gesetzentwürfen vorgestellt.
Eines davon ändert die Strafprozessordnung und schafft damit die Rechtsgrundlage für den “automatisierten biometrischen Abgleich mit öffentlich zugänglichen Daten aus dem Internet”. Und der Begründung zu diesem Gesetz ist zu entnehmen: Das vermeintliche Verbot der biometrischen Gesichtersuche in der KI-Verordnung war womöglich nur ein großes Missverständnis.
Dort steht: „Dieses Verbot gilt nicht, sofern für das Auslesen der Daten keine KI-Systeme eingesetzt werden.“ Dann folgt ein Verweis auf die Leitlinien der EU-Kommission, die das Verbot tatsächlich so auslegen. Und daraufhin erläutert das Ministerium weiter, warum es also unproblematisch und mit der KI-Verordnung im Einklang sei, wenn die Polizei künftig all unsere Urlaubsfotos, Demovideos und sonstigen Bilder im Netz einsammeln, auswerten und in eine große Datenbank kippen darf, um darin per biometrischem Abgleich nach bestimmten Gesichtern zu suchen.
Ohne allzu tief in die Funktionsweise von biometrischen Gesichtersuchmaschinen einzusteigen, kann man wohl zurecht behaupten: Wenn die Bundesregierung mit dieser Interpretation durchkommt, dann ist im Grunde das ganze Verbot den Baustoff nicht wert gewesen, mit dem es errichtet wurde. Dann wären nämlich auch kommerzielle Gesichtersuchmaschinen wie PimEyes – um deren Verbot es dem EU-Parlament gerade ging – in der EU legal.
Das alles sind erste Eindrücke. Wir haben eine Menge Fragen und werden uns jetzt auf die Suche nach Antworten machen. Ich gehe aber vor allem mit dieser Frage ins Wochenende: Was bringt ein Bauwerk, wenn es so löchrig ist, dass es schon durchregnet, noch bevor wir überhaupt einziehen konnten?
Erbauliche Grüße
Chris
Degitalisierung: VerdrängungZeitungen, Radio, Kino, Fernsehen – all diese Medien sind nicht mehr ganz frisch, existieren aber weiterhin. Sie wurden nie völlig verdrängt. Doch was machen soziale und generative Medien mit der Medienlandschaft? Von Bianca Kastl –
Artikel lesen
Die Berliner Datenschutzbeauftragte ist mit Änderungsplänen beim Datenschutz nicht einverstanden: Europarechtliche Vorgaben seien missachtet worden. Auch geplante Einschränkungen der Informationsfreiheit kritisiert sie. Die „Fördermittelaffäre“ macht die geplanten Gesetzesänderungen zum Politikum. Von Constanze –
Artikel lesen
Das baden-württembergische Landtagswahlergebnis gibt der grün-schwarzen Koalition freie Hand für ihre Überwachungspläne. Geht es nach den Spitzenpolitikern, kann bald jedes Dorf videoüberwacht werden, und eine KI schaut, wer sich gut benimmt. Jetzt braucht es nur noch eine lokale Palantir-Alternative. Von Martin Schwarzbeck –
Artikel lesen
Niederländische Geheimdienste sagen, dass Russland hinter dem Phishing steckt, bei dem auch in Deutschland prominente Personen betroffen sind. Dafür liefern sie allerdings keine Beweise. Netzpolitik.org hat in den letzten Wochen Indizien für eine russische Urheberschaft gesammelt. Von Markus Reuter –
Artikel lesen
Jahrelang konnte sich die Netzbetreiber-Branche nicht auf einen freiwilligen Open-Access-Ansatz einigen. Nun will das Digitalministerium den gordischen Knoten durchschlagen: Unter bestimmten Bedingungen sollen Wettbewerber die Marktführerin in ihre Netze lassen. Das könnte unvorhergesehene Nebenwirkungen haben. Von Tomas Rudl –
Artikel lesen
In wenigen Monaten startet die ID Wallet, mit der sich Bürger:innen gegenüber Behörden und Unternehmen ausweisen können. Die Bundesregierung erhofft sich einen Durchbruch bei der Verwaltungsdigitalisierung, Datenschützer:innen warnen vor Missbrauch. Wir beantworten zentrale Fragen rund um das Vorhaben. Von Daniel Leisegang –
Artikel lesen
Ende dieses Jahres soll die digitale Brieftasche für alle kommen. Doch Bürgerrechtsorganisationen warnen, dass die EU-Kommission zentrale Datenschutzgarantien aushöhlen und Nutzer:innen zur Weitergabe biometrischer Daten zwingen will. Von Daniel Leisegang –
Artikel lesen
In einer Rede vor dem Bundestag spricht sich CDU-Familienministerin Karin Prien für Alterskontrollen und ein Social-Media-Verbot bis 14 Jahre aus. Dabei ist ihre Argumentation widersprüchlich und irreführend. Die Analyse. Von Sebastian Meineck –
Artikel lesen
Deutschland setzt sich im EU-Rat offenbar dafür ein, dass pseudonymisierte Daten teilweise von der Datenschutzgrundverordnung ausgenommen werden. Zivilgesellschaft und Datenschutzbehörden warnen davor, auch andere Mitgliedstaaten sind dagegen. Von Ingo Dachwitz –
Artikel lesen
Das EU-Parlament hat die Erlaubnis zur freiwilligen Chatkontrolle nochmals erneuert – doch möchte das Scannen auf Verdachtsfälle beschränken. Mit dieser Position geht das Parlament nun in Verhandlungen mit Rat und Kommission, die schon am Donnerstag beginnen. Von Markus Reuter –
Artikel lesen
Software kann Menschen per Mausklick nackt machen. Solche nicht-einvernehmlichen Deepfakes wollen EU-Rat und EU-Parlament verbieten. Über den KI-Omnibus soll das Verbot Teil der KI-Verordnung werden. Von Anna Ströbele Romero –
Artikel lesen
Bundesländer verabschieden reihenweise Polizeigesetze, die extrem invasive, KI-gestützte Überwachungsmaßnahmen erlauben. Bislang regt sich kaum Widerstand. Doch nun zimmern junge Jurist*innen aus Thüringen eine Kampagne gegen die dortigen Vorhaben. Ihre Erfolgsaussichten sind erstaunlich gut. Von Martin Schwarzbeck –
Artikel lesen
Jahrelang stand Helen Dixon in der Kritik, weil sie als irische Datenschutzbeauftragte zu nachsichtig mit Tech-Konzernen gewesen sei. Jetzt arbeitet sie für eine Anwaltskanzlei, die Meta in Verfahren gegen ihre Behörde vertreten hat. Für Datenschützende kommt das nur wenig überraschend. Von Timur Vorkul –
Artikel lesen
Die Linke könnte das neue Thüringer Polizeigesetz stoppen. Wir haben Ronald Hande von der Fraktion gefragt, was er von dem Entwurf hält. Im Fokus stehen die neuen KI-Überwachungsbefugnisse – Verhaltensscanner, Gesichtersuchmaschine, Datenanalyse nach Palantir-Art. Von Martin Schwarzbeck –
Artikel lesen
Die Debatte um ein Social-Media-Verbot beschäftigt die EU-Kommission auch beim Entwurf des Digital Fairness Acts. Es geht um mehr Schutz für alle statt darum, Minderjährige auszuschließen. Das erklärt eine der Architekt*innen des Gesetzes bei einer Podiumsdiskussion. Von Sebastian Meineck –
Artikel lesen
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Digital Fairness Act: EU-Kommission erwägt Ausschalt-Knopf für süchtig machende Designs
Die Debatte um ein Social-Media-Verbot beschäftigt die EU-Kommission auch beim Entwurf des Digital Fairness Acts. Es geht um mehr Schutz für alle statt darum, Minderjährige auszuschließen. Das erklärt eine der Architekt*innen des Gesetzes bei einer Podiumsdiskussion.
Ein Schalter gegen süchtig machende Designs? (Symbolbild) – Vereinfachte Pixabay Lizenz Pixabay; Bearbeitung: netzpolitik.orgWährend viele wichtige Politiker*innen auf ein Social-Media-Verbot für Minderjährige drängen, arbeitet die EU-Kommission gerade an einem Gesetz mit einem anderen Ansatz. Der Digital Fairness Act soll Lücken im Verbraucherschutz schließen und ein höheres Schutzlevel für alle bringen.
Bei ihrer Arbeit am Entwurf nehmen die Beamt*innen gleich mehrere der Gefahren ins Visier, die auch Minderjährige betreffen, etwa süchtig machende Funktionen. Sollten sich solche Gefahren durch Regulierung bannen lassen, könnte das Befürworter*innen eines Social-Media-Verbots den Wind aus den Segeln nehmen.
Von der Arbeit am Gesetzentwurf berichtete jüngst Maria-Myrto Kanellopoulou bei einer Podiumsdiskussion in Brüssel. Sie leitet das Referat für Verbraucherrecht in der Generaldirektion Justiz und Verbraucher. Für die gesamte Kommission kann sie deshalb nicht sprechen; ihre Ausführungen liefern vielmehr einen Blick in die Arbeit hinter den Kulissen.
Kanellopoulou zufolge erwäge man, Nutzer*innen die Möglichkeit zu geben, süchtig machende Funktionen an- und auszuschalten. Als Beispiel für solche Funktionen nannte sie etwa unendliches Scrolling, automatisch startende Videos oder Belohnungen, wenn Menschen besonders aktiv sind. Es geht also um jene psychologischen Tricks, die dazu führen, dass viele Menschen täglich stundenlang auf TikTok oder Instagram unterwegs sind.
Auch Videospiele im VisierWeiter ging Kanellopoulou auf manipulative Designs ein, sogenannte Dark Patterns. Hier geht es um Funktionen, die Menschen etwa dazu bringen können, mehr Geld auszugeben als sie eigentlich wollten. Zu Geschäftspraktiken, die unter allen Umständen unfair sind, werde man „sehr wahrscheinlich ausdrückliche Verbote“ einführen.
Bereits das Gesetz über digitale Dienste (DSA) enthält Vorschriften zum Schutz vor süchtig machenden und manipulativen Designs. Einige Online-Angebote fallen aber nicht unter den DSA, weil sie nicht als digitale Dienste gelten. Hier soll der Digital Fairness Act nachbessern. Es gehe um ein Mindestlevel an Schutz für alle Verbraucher*innen, so Kanellopoulou.
Als Beispiel nennt sie Videospiele mit glücksspielähnlichen Mechanismen. Das bekannteste Beispiel sind Lootboxen, also kostenpflichtige Überraschungskisten, die ähnlichen Nervenkitzel und Suchtgefahr bergen können wie klassisches Glücksspiel. Zu Lootboxen gibt es in der EU bisher nur nationale Regeln.
Beim Gesetz über digitale Dienste ist die Durchsetzung auf die Kommission und die einzelnen Mitgliedstaaten aufgeteilt; lediglich sehr große Plattformen und Suchmaschinen hat die EU-Kommission zentral im Blick. Beim Digital Fairness Act diskutieren die Architekt*innen des Gesetzes laut Kanellopoulou Möglichkeiten für eine „zentralisiertere“ Durchsetzung.
Minderjährige können Vorkehrungen umgehenDie international heiß gelaufene Debatte um ein mögliches Social-Media-Verbot für Minderjährige ist auch an Kanellopoulou nicht vorbeigegangen. Zwar sei der Digital Fairness Act kein ausschließliches Kinder- und Jugendschutzgesetz, stellt die Referatsleiterin klar. Dennoch erwäge man strengere Regeln für Minderjährige. „Wir prüfen daher, ob bestimmte Funktionen verboten werden sollten, wenn der betreffende Verbraucher minderjährig ist“, sagte sie auf Englisch.
Von einem Zugangsverbot zu bestimmen Social-Media-Plattformen sprach die Referatsleiterin allerdings nicht. Stattdessen betonte sie: „Wir wissen, dass das Risiko einer Umgehung für Minderjährige sehr hoch ist.“ Man könne alle möglichen Vorkehrungen für Minderjährige entwickeln – dennoch würden sich Kinder im Netz an Orten wiederfinden, die nicht für sie gemacht seien.
Die Erläuterungen der Referatsleiterin deuten auf einen breiten Fokus des Digital Fairness Acts hin. Es geht also nicht nur darum, wie angreifbar Minderjährige sind. Im Netz seien alle Verbraucher*innen vulnerabler als offline, wie Kanellopoulou erklärt. Im Lichte technologischer Entwicklungen prüfe man deshalb, ob es ein neues Verständnis dafür brauche, welche Verbraucher*innen als „vulnerabel“ gelten. „Wir möchten sicherstellen, dass Mindestanforderungen bereits ein hohes Maß an Verbraucherschutz garantieren.“
Die Pressestelle der EU-Kommission liefert auf Anfrage keine näheren Informationen zu den von Kanellopoulou beschriebenen Aspekten des geplanten Digital Fairness Acts. „Bei der Ausarbeitung der Initiative wird die Kommission besonderes Augenmerk auf den Schutz Minderjähriger im Internet legen“, teilt eine Sprecherin mit. Bis „Ende des Jahres“ will die Kommission den Entwurf vorlegen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Polizeigesetz in Thüringen: „Das kehrt die Unschuldsvermutung um“
Die Linke könnte das neue Thüringer Polizeigesetz stoppen. Wir haben Ronald Hande von der Fraktion gefragt, was er von dem Entwurf hält. Im Fokus stehen die neuen KI-Überwachungsbefugnisse – Verhaltensscanner, Gesichtersuchmaschine, Datenanalyse nach Palantir-Art.
Kein Fan von automatisierter Gesichtserkennung: Roland Hande von der Fraktion Die Linke im Thüringer Landtag. – CC-BY-SA 2.0 Fraktion Die LinkeWenn sie nicht mit der AfD stimmen will, kann Thüringens Brombeerkoalition ihr Polizeigesetz nur mit Hilfe der Linken verabschieden. Denn das Bündnis aus CDU, BSW und SPD hat keine eigene Mehrheit im Landtag. Heute wurde im Innenausschuss der Fahrplan für die Anhörungen zum Gesetz verhandelt. Ronald Hande, der innenpolitische Sprecher der Landtagsfraktion, erklärt, unter welchen Bedingungen die Abgeordneten seiner Partei dem Entwurf zustimmen könnten.
netzpolitik.org: Es sieht so aus, als sei ohne Ihre Partei das neue Thüringer Polizeigesetz nicht durchzubringen. Was sagen Sie als innenpolitischer Sprecher der Landtagsfraktion zu den KI-gestützten Überwachungstools, die der Entwurf beinhaltet: Verhaltensscanner, Gesichtersuchmaschine, Datenanalyse nach Palantir-Art.
Ronald Hande: Das sind keine harmlosen Werkzeuge, sondern Bausteine einer neuen Überwachungsarchitektur. Solche Systeme können Bewegungen, Kontakte und Verhaltensmuster tausender unbeteiligter Menschen analysieren und damit das Prinzip der Unschuldsvermutung untergraben. Sicherheit darf nicht bedeuten, dass ganze Bevölkerungsgruppen präventiv durchleuchtet werden. Deshalb sehen wir diese Technologien und den vorgelegten Gesetzentwurf sehr kritisch.
netzpolitik.org: Sollte die Polizei überhaupt sogenannte Künstliche Intelligenz nutzen dürfen?
Ronald Hande: Aus unserer Sicht braucht die Polizei moderne Werkzeuge, aber sie müssen verhältnismäßig sein: geeignet, angemessen und vor allem erforderlich. KI kann für die Polizei durchaus nützlich sein, etwa wenn Beamt:innen in Strafverfahren zu Kinderpornografie beschlagnahmte Datenträger schneller auswerten müssen. Aber hier bewegen wir uns im Strafrecht. Dafür braucht es keine neuen gefahrenabwehrrechtlichen Befugnisse. Wir müssen also klar trennen: Wo sind legitime Einsatzmöglichkeiten und wo liegen auch die Grenzen.
„Social-Media-Daten können Gegenstand der Analyse werden“netzpolitik.org: Die Palantir-artige Datenanalyse ist umso invasiver, je mehr Datenquellen eingebunden werden. Was wäre denn in Thüringen dem Gesetzentwurf nach alles möglich?
Ronald Hande: Die Regierung sagt zwar, sie wolle keine Audio-Dateien oder DNA-Identifizierungsmuster in solche Systeme einspeisen. Was sie aber nicht offen sagt: Anders als die Rohdaten können sehr wohl die Abschriften aufgezeichneter Abhöroperationen in solche Analysen einfließen, dazu Funkzellenabfragen, Observationsfotos, Berichte von V-Personen, Kennzeichenscanner-Daten. Hinzu kommen Daten aus Leitstellen, etwa wann Zeugen den Notruf gewählt haben, sowie Informationen über Menschen, die lediglich Geschädigte eines Unfalls waren oder Begleitpersonen bei einer Fahrzeugkontrolle.
Fraglich ist auch der Umgang mit Social-Media-Daten. Ausgeschlossen ist nur der unmittelbare automatisierte Abgleich direkt im Netz. Wenn solche Informationen bereits in Kriminalakten oder Fallbearbeitungssystemen stehen, könnten sie trotzdem Gegenstand der Analyse werden. Das ist eine hochgefährliche Machtverschiebung bei vergleichsweise niedrigen Eingriffsschwellen, etwa schon bei einfachen Gefahren für die Gesundheit oder für sogenannte Anlagen mit unmittelbarer Bedeutung für das Gemeinwesen.
netzpolitik.org: Das ist ein Haufen Daten. Und man muss nicht einmal verdächtig sein, um in dem System zu landen?
Ronald Hande: Diese Datenanalyse kehrt die Unschuldsvermutung praktisch um: Aus Bürgerinnen und Bürgern werden nicht nur gläserne Menschen, sondern Datenspuren in einer Maschine, die automatisiert neue Verdächtige berechnet und immer tiefer in das Leben auch gänzlich unbeteiligter Menschen eindringt.
„Einen AfD-Innenminister mitdenken“netzpolitik.org: Immerhin will der SPD-Innenminister keine Software von Palantir nutzen.
Ronald Hande: Dass der das im Plenum sagt, ist ja keine Garantie. Zum einen, weil der Minister vor einem Jahr bei der Regierungsbefragung verneint hat, dass in seinem Gesetzentwurf Videoüberwachung und V-Leute Einsatz ohne Richtervorbehalt drin sind. Genau das steht aber nun tatsächlich drin. Zum anderen kann dieser Minister schon morgen oder übermorgen ein anderer sein. Und gemessen an den Umfragen wäre es naiv, nicht einen möglichen AfD-Innenminister einer künftigen autoritären Regierung vor dem Hintergrund jeder neuen Befugnis mitzudenken.
netzpolitik.org: Es gibt Polizist*innen, die sagen würden, sie bräuchten diese modernen Werkzeuge, um effektiv arbeiten zu können.
Ronald Hande: Wir unterstützen eine Arbeitsentlastung mittels Digitalisierung im Polizeibereich. Wir haben da selbst viel auf den Weg gebracht. Aber die vorgeschlagenen Instrumente sind nicht nur eine Gefahr für Bürgerinnen und Bürger, sondern auch für Polizeibeamtinnen und Polizeibeamte. Auch sie geben ihre Grundrechte nicht ab, wenn sie morgens die Uniform anziehen. Auch ihre Daten können künftig in KI-gestützten Analysesystemen landen. Auch sie selbst werden künftig Betroffene der KI-Verhaltensüberwachung im öffentlichen Raum sein. Und ihre privaten Facebook- und Instagram-Bilder könnten biometrisch gerastert werden.
netzpolitik.org: Das heißt, so lange die KI-Tools im Gesetz stehen, werden Sie dem nicht zustimmen?
Ronald Hande: Systeme, die Menschen automatisiert zu Verdächtigen erklären oder Bewegungsprofile ganzer Gruppen erstellen können, sind mit einem Rechtsstaat schwer vereinbar. Deshalb lehnt unsere Fraktion den Gesetzentwurf in seiner jetzigen Form ab. Entscheidend wird nun die Anhörung im Innenausschuss sein. Die Linke hat dafür über 100 Sachverständige benannt. Im Ausschuss werden wir die vorgesehenen Befugnisse und Technologien im Detail prüfen. Erst danach wird sich zeigen, wie es mit dem Gesetz weitergeht.
„Weitreichende Befugnisse“netzpolitik.org: Nach 100-prozentiger Ablehnung klingt das nicht.
Ronald Hande: Im Entwurf sind viele weitere problematische und weitreichende Befugnisse versteckt. Das reicht von einer vagen elektronischen Fußfessel weit ab von Partnerschaftsgewalt bis zu nahezu uferlosen Meldeauflagen gegen Fußfallfans, Elektroschockwaffen und mehr. Da könnten wir gegenwärtig nur mit Nein stimmen. Für eine Modernisierung, die auf dem Boden der Verfassung steht, die Bürgerrechte stärkt und auch Befugnisse zurücknimmt, wären wir aber offen. Beim Polizeirecht braucht es klare Grenzen: keine massenhafte Analyse Unbeteiligter, volle Transparenz über eingesetzte Software, wirksame unabhängige Kontrolle und einen belegbaren Nutzen für die Gefahrenabwehr.
netzpolitik.org: Die automatisierte Verhaltensanalyse basiert auf Videoüberwachung. In Erfurt stehen bereits einige Kameras, die auch dafür geeignet sind. Sie haben sich als Abgeordneter damit beschäftigt. Was haben Sie herausgefunden?
Ronald Hande: Noch bevor der Landtag über die gesetzliche Grundlage beraten hat, wurde für rund 720.000 Euro für die nächsten fünf Jahre eine Überwachungsanlage auf dem Erfurter Anger installiert und damit wurden Fakten geschaffen. Aus unserer Sicht wurde dieses Projekt auch nicht ordentlich ausgeschrieben, weshalb wir den gesamten Beschaffungsvorgang beim Landesrechnungshof angezeigt haben. Für die gleichen Kosten hätten wir zwei Polizeikräfte und eine Sozialarbeiterin oder einen Sozialarbeiter fünf Jahre lang vor Ort einsetzen können, mit spürbarem präventiven Effekt statt dieser gefährlichen Sicherheitssimulation.
Richtig absurd ist, dass 23 Polizistinnen und Polizisten mit über 17.000 Arbeitsstunden die Überwachungstechnik mit vorbereitet haben. Insgesamt sind dadurch 1.416 Einsatzschichten à zwölf Stunden im Vollzugsdienst verloren gegangen. Mit diesen Kräften hätte man bürgernah bestreifen, Präsenz zeigen und kriminalpräventiv aufklären können.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Plötzlich Facebook-Lobbyistin: Irlands einst höchste Datenschützerin wechselt die Seite
Jahrelang stand Helen Dixon in der Kritik, weil sie als irische Datenschutzbeauftragte zu nachsichtig mit Tech-Konzernen gewesen sei. Jetzt arbeitet sie für eine Anwaltskanzlei, die Meta in Verfahren gegen ihre Behörde vertreten hat. Für Datenschützende kommt das nur wenig überraschend.
Die ehemalige irische Datenschutzbeauftragte Helen Dixon auf der Suche nach ihrem Glück: diesmal bei einer Meta-freundlichen Anwaltskanzlei. – CC-BY-NC-ND 2.0 Stuart IsettEin ganzes Jahrzehnt lang hat Helen Dixon eine der wichtigsten Regulierungsbehörden der Welt geleitet: als Chefin der irischen Datenschutzbehörde hatte sie die Chance, Tech-Giganten wie Meta, Apple und Google zur Einhaltung von Datenschutzregeln zu zwingen. Jetzt hat sie einen neuen Job: Die ehemalige Datenschutzbeauftragte arbeitet künftig für die Anwaltskanzlei Mason Hayes & Curran, die Meta in Gerichtsverfahren gegen eben diese Behörde vertreten hat. Das teilte Dixon in einem Post auf LinkedIn mit.
Die irische Data Protection Commission (DPC) ist federführend für viele grenzüberschreitende Verfahren gegen große Tech-Unternehmen. Denn Irland ist der Europasitz von Google, Meta, Microsoft und anderen Konzernen. Damit nimmt die Behörde eine Schlüsselposition bei der Durchsetzung der europäischen Datenschutzgrundverordnung (DSGVO) ein. Bis Februar 2024 war Dixon Chefin der DPC.
„Nach über 18 Jahren in leitenden Positionen im Regulierungsbereich und insbesondere in der globalen digitalen Regulierung habe ich beschlossen, dass es an der Zeit ist, die Fragen aus verschiedenen Blickwinkeln zu betrachten und hoffentlich bessere Antworten zu finden“, sagte Dixon gegenüber der Tageszeitung The Irish Times. Unmittelbar vor dem Wechsel in die Anwaltskanzlei hat die Juristin ein Jahr lang bei der irischen Telekommunikationsaufsicht gearbeitet.
Strafen gegen Big Tech nur unwillig verhängtNicht ganz so locker sieht der bekannte Jurist und Datenschützer Max Schrems Dixons Wechsel in die Big-Tech-freundliche Anwaltskanzlei. „Jeder einigermaßen professionelle Mitarbeiter im öffentlichen Dienst oder jede einigermaßen professionelle Anwaltskanzlei würde sich zutiefst schämen“, kommentiert er unter Dixons Post auf LinkedIn.
Das Problem sei nicht nur, dass „die Anwaltskanzlei von Meta die ehemalige Datenschutzbeauftragte ‚kauft'“. Solche Schritte zerstörten auch jegliches Vertrauen der Öffentlichkeit in Rechtsstaatlichkeit und die demokratische Ordnung. „Das ist ein großer Schaden für den Ruf der irischen Datenschutzbehörde, für Irland als ‚ordentliches‘ Land in der EU und für unsere europäische Rechtsordnung“, schreibt Schrems weiter.
Für Schrems und andere Datenschutzexpert*innen dürfte Dixons neuer Job nicht überraschend kommen. Denn schon als Leiterin der irischen Datenschutzbehörde stand sie in Kritik, im Interesse von Big Tech zu handeln. Der ehemalige deutsche Bundesdatenschutzbeauftragte Ulrich Kelber hat Dixon beispielsweise vorgeworfen, wichtige Verfahren gegen Tech-Konzerne absichtlich zu verzögern und ihr Zögern mit unwahren Behauptungen zu verschleiern.
Unter der Leitung von Dixon hat die irische Datenschutzbehörde zwar hohe Geldstrafen gegen Tech-Giganten verhängt. Allerdings kamen solche Vorstöße oft nur auf Druck von Gerichten und anderen Aufsichtsbehörden zustande. So beispielsweise die Entscheidung vom Mai 2023, Meta mit einer Rekordstrafe in Höhe von 1,2 Milliarden Euro zu belegen. Damals ging es um die unrechtmäßige Übermittlung europäischer Daten in die USA. Um zu diesem Ergebnis zu kommen, hatte Schrems die irische Datenschutzbehörde drei Mal verklagt und zehn Jahre lang Gerichtsverfahren geführt. Schließlich musste der Europäische Datenschutzausschuss die Behörde in Irland verpflichten, eine Strafe gegen Meta zu verhängen.
Dixons Nachfolgerin ist ehemalige Meta-LobbyistinNicht nur Dixons Personalie hat in den letzten Wochen für Aufsehen gesorgt. Erst Ende Februar haben mehrere NGOs die Abberufung von Aura Salla von ihrem Posten als Chef-Verhandlerin von europäischen Digitalgesetzen im EU-Parlament gefordert. Die konservative finnische Abgeordnete, die nun im Industrieausschuss die Verhandlungen zum Digitalen Omnibus führen soll, ist Metas ehemalige Chef-Lobbyistin. Bei dem Digitalen Omnibus handelt es sich um ein Gesetzespaket, das europäische Digitalregulierungen vereinfachen soll. Aktuell steht es in der Kritik wichtige datenschutzrechtliche Errungenschaften aufzuweichen.
Aus der Privatwirtschaft in ein wichtiges Amt kam auch Niamh Sweeney. Die ehemalige hochrangige Meta-Lobbyistin ist seit September 2025 eine der Leiter*innen der irischen Datenschutzbehörde und damit Dixons Nachfolgerin.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Gegen KI-Überwachungspläne: In Thüringen wächst ein zartes Pflänzchen Widerstand
Bundesländer verabschieden reihenweise Polizeigesetze, die extrem invasive, KI-gestützte Überwachungsmaßnahmen erlauben. Bislang regt sich kaum Widerstand. Doch nun zimmern junge Jurist*innen aus Thüringen eine Kampagne gegen die dortigen Vorhaben. Ihre Erfolgsaussichten sind erstaunlich gut.
Thüringer*innen versuchen KI-gestützte Überwachung zu verhindern. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Finger: Shoeib Abolhassani, Kamera: ᛟᛞᚨᛚᚹ , Collage: netzpolitik.orgDer Anger ist der zentrale Platz in Erfurt, Thüringens größter Stadt, wohl der meistfrequentierte Ort des Bundeslands. Zwölf Kameras sind auf das Geschehen gerichtet, acht davon hängen an einem Mast. Geht es nach der Landesregierung, werden ihre Bilder bald von einer KI untersucht, die erwünschtes von unerwünschtem Verhalten unterscheidet. Der Platz ist ein Verkehrsknotenpunkt, lässt sich entsprechend schwer umgehen. Alexis* kommt dort regelmäßig mit der Tram vorbei. „Dann habe ich immer den Impuls, die Mütze tieferzuziehen. Und der nächste Gedanke ist: Wenn jetzt die Verhaltensanalyse kommt, mache ich mich damit verdächtig“, sagt sie.
Alexis ist Gründungsmitglied einer Initiative, die sich gegen die Änderung des thüringischen Polizeigesetzes stellt. Sie hat diesen Kampf gemeinsam mit David* begonnen. Alexis und David, 28 und 26 Jahre alt, sind Nachwuchs-Jurist*innen und Antifaschist*innen. Junge Menschen, die ihr Bundesland nicht dem Rechtsruck überlassen wollen und deshalb absichtlich dort bleiben, um die Verhältnisse zu verbessern. Gewohnt, nicht aufzugeben, auch wenn die Gegner übermächtig, die Alliierten spärlich und die Kämpfe aussichtslos scheinen. In der Novelle des Thüringer Polizeigesetzes seien „haufenweise gruselige Überwachungsbefugnisse drin“, sagt David.
Alexis und David sind so etwas wie Deutschlands Speerspitze im Kampf gegen KI-basierte Überwachung, vielleicht auch nur: die letzten Partisanen. Um ihren Kampf zu verstehen, muss man etwas herauszoomen, auf das, was in Deutschland und dem Rest der Welt gerade passiert.
Ein Angriff auf die GrundrechteDer Boom der sogenannten „Künstlichen Intelligenz“ ist omnipräsent. Die Tools erlauben Überwachungsszenarien, die drastischer sind als die Dystopie aus dem Roman 1984. Sicherheitsbehörden trainieren Videobeobachtungs-Software, die zwischen gutem und bösem Verhalten unterscheiden soll. Mit Hilfe von biometrischen Daten, etwa zum Gesicht oder dem Gang, kann jede*r Abgebildete identifiziert werden. Daten-Tools wie die von Palantir liefern zum Namen intime Informationen – etwa wer wann wo ist – und lösen weitere Verfolgungsmaßnahmen aus, beispielsweise Observationen oder Festnahmen.
Das ist nicht das schlimmstmögliche Szenario eines computergesteuerten, allsehenden, totalitären Systems, sondern einfach nur das, was in Deutschland gerade Bundesland für Bundesland eingeführt wird. Es ist ein heftiger Angriff auf das Grundrecht auf informationelle Selbstbestimmung. Der Widerstand dagegen: völlig erlahmt. Die Volkszählung von 1987 führte noch zu breitem gesellschaftlichen Widerstand, die Idee einer Vorratsdatenspeicherung rund um 2010 zu Demonstrationen mit zehntausenden Teilnehmer*innen, auch die Welle an Polizeigesetz-Verschärfungen 2018/19 führte noch zu vielfältigen Protesten.
Zur Einführung der automatisierten Überwachung in Deutschland gab es bislang eine Demonstration. Und die richtete sich gegen einen bestimmten Überwachungssoftware-Hersteller, nicht gegen die KI-Analyse von Superdatenbanken an sich.
Anscheinend hat der stetige Ausbau von Überwachungsbefugnissen die Ausdauer der Zivilgesellschaft ausgehöhlt. Womöglich hat auch der gesellschaftliche Wert, den wir intimen Daten zuschreiben, abgenommen, weil diese über Social Media so freimütig verschenkt werden.
Alexis und David könnten tatsächlich gewinnenAuf jeden Fall sind da nun Alexis und David und bringen Hoffnung in die Welt der Bürgerrechtler*innen. Nicht nur, weil sie überhaupt den Kampf aufnehmen, der im Rest von Deutschland aufgegeben scheint, sondern auch, weil der in ihrem Fall durchaus aussichtsreich ist.
Die CDU-BSW-SPD-Koalition im Landtag hat genau die Hälfte der Sitze, also keine eigene Mehrheit. Um an der AfD, der stärksten Fraktion, vorbeizuregieren, ist sie auf Geschlossenheit angewiesen – und auf Stimmen aus der Linken.
Ronald Hande, innenpolitischer Sprecher der Links-Fraktion, sagt gegenüber netzpolitik.org: „Wir lehnen Technologien wie Verhaltensscanner, Gesichtersuchmaschinen und Datenanalyse nach Palantir-Art ab und können uns auch eine Zustimmung zu solchen Technologien nicht wirklich vorstellen.“
100 Fragen zum GesetzHeute wurde der Gesetzentwurf hinter verschlossenen Türen im Innenausschuss debattiert. Es ging darum, wie viel Zeit und wie viele Expert*innen die Anhörungen zum Gesetz benötigen. Die Linke hat bereits 100 Fragen zum Gesetz eingereicht und die Kontaktdaten von 100 zivilgesellschaftlichen Organisationen, die Expert*innen entsenden könnten.
Anders als in anderen Bundesländern ist es in Thüringen nicht automatisch gesetzt, dass die Regierungsfraktion mit ihrem Entwurf durchkommt. Hier geht es um jede Stimme und deswegen auch um das gesellschaftliche Klima und die Haltung der Zivilgesellschaft zu dem Entwurf. Hier setzen Alexis und David an. „Eventuell kann man mit einer großen Kampagne ja auch auf SPD und BSW einwirken“, sagt Alexis.
Das BSW ist gegenüber der Polizeigesetznovelle grundsätzlich aufgeschlossen, aber im Detail kritisch. Sven Küntzel, Innenpolitischer Sprecher der Thüringer Fraktion, sagt, bei den im Entwurf vorgesehenen Hightech-Überwachungsinstrumenten „handelt es sich um besonders eingriffsintensive Instrumente.“ Sie dürften nur unter klar definierten Voraussetzungen genutzt werden, etwa einer konkreten Gefahr, einer richterlichen Anordnung, einer wirksamen parlamentarischen Kontrolle. Außerdem müssten neue Befugnisse evaluiert und gegebenenfalls befristet werden. Der Gesetzentwurf werde nun gemeinsam mit Sachverständigen geprüft.
Voraussetzung für Videoüberwachung wird extrem locker ausgelegtDorothea Marx, innenpolitische Sprecherin der SPD-Fraktion, sieht in dem Entwurf hingegen bereits enge Grenzen für die High-Tech-Tools. Die Datenanalyse beispielsweise sei im Anwendungsbereich und den nutzbaren Daten beschränkt, unterliege zudem dem Richtervorbehalt. Der Einsatz von Verhaltensanalyse sei derweil auf wenige Orte beschränkt.
Letzteres ist allerdings nicht wahr. Tatsächlich wird der entsprechende Passus aus dem Polizeigesetz in Thüringen extrem locker ausgelegt. Darin heißt es, die Überwachung sei legal an Orten, an denen „Anhaltspunkte die Annahme rechtfertigen, dass dort Straftaten verabredet, vorbereitet oder verübt werden sollen“. Oft erklären Polizist*innen auch einfach spontan, dass derartige Anhaltspunkte an einem bestimmten Ort bestünden, um dort beispielsweise verdachtsunabhängige Kontrollen vornehmen zu können. Das belegen zahlreiche Kleine Anfragen der Linken.
Alexis und David haben ihren Kampf gegen das neue Polizeigesetz in mehrere Schritte strukturiert. Ihr erster Schritt: Die Öffentlichkeit aufklären über das, was da gerade passiert. „Das haben ja viele gar nicht auf dem Schirm“, sagt David. Deshalb haben sie bei einem offenen Antifa-Treffen in Erfurt einen Vortrag zum Polizeigesetz-Entwurf gehalten. „Da gab es echt viel Interesse und viele Leute, die das auch gruselig finden“, sagt er. In der Diskussion danach seien viele zu dem Schluss gekommen: Wir wollen etwas dagegen tun. Daraus sei auch die Idee eines Aktionsbündnisses entstanden.
Ein Anliegen, das viele unterstützenWebsite aufsetzen, Texte schreiben, Logo ausdenken, Social-Media-Accounts bespielen, Bündnispartner*innen organisieren, eine Petition einreichen, eine Demo vor dem Landtag organisieren: Der Widerstand hat viele To-dos, berichten die Aktivist. Demnächst halten sie einen weiteren Vortrag zum Polizeigesetz in Ilmenau, Veranstaltungen in Weimar und Jena sind in Planung. Der Kampf gegen das Polizeigesetz „ist ein Anliegen, das viele unterstützen“, sagt Alexis.
Neben den KI-Tools sehen die beiden Jurist*innen auch weitere Befugnisse aus dem Gesetzentwurf kritisch. Der Taser gelte demnach als milderes Mittel zum Schlagstock, „das macht die Tür zu dessen Einsatz ganz weit auf“, sagt Alexis. Und die elektronische Fußfessel ließe sich dem Gesetzentwurf nach auch gegen „Extremisten“ einsetzen oder zur Abwehr einer Gefahr für kritische Infrastruktur. „Vor der nächsten Straßenblockade können alle potenziellen Blockierer*innen dann Fußfesseln angelegt bekommen“, sagt Alexis. Zudem könnten künftig auch von Abschiebung bedrohte Menschen per Kennzeichenscanner gejagt werden. „Da sieht man doch den Geist dieses Gesetzes“, sagt sie.
Alexis und David machen sich „ernsthafte Sorgen“ darüber, was passiert, wenn die KI-Überwachungstools in den Händen der AfD landen. „Die Datenanalyse erlaubt, ein unglaublich umfangreiches Profil von Individuen zu erstellen, das genutzt werden kann, um politische Gegner zu identifizieren“, sagt David. Diese Möglichkeit mache Demokratien extrem verwundbar.
* Namen geändert
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Rat und Parlament einig: Verbot für sexualisierte Deepfakes rückt näher
Software kann Menschen per Mausklick nackt machen. Solche nicht-einvernehmlichen Deepfakes wollen EU-Rat und EU-Parlament verbieten. Über den KI-Omnibus soll das Verbot Teil der KI-Verordnung werden.
Sogenannte KI kann realistische Nacktbilder erzeugen (Symbolbild) – Gemeinfrei-ähnlich freigegeben durch unsplash.com Unsplash / Tamara Gak; Bearbeitung: netzpolitik.org/ Mosh„Voller Erfolg im Parlament“, schreibt Sergey Lagodinsky auf LinkedIn. Der grüne EU-Abgeordnete feiert die Entscheidung für ein Verbot von sexualisierten Deepfakes. Darauf haben sich die Fraktionen im EU-Parlament gestern geeinigt, als sie den sogenannten KI-Omnibus verhandelt haben. Das Gesetz soll die KI-Verordnung (AI Act) anpassen.
„Die Frage war klar: Wenn der Omnibus Änderungen am KI-Gesetz bringt, warum nicht genau hier ansetzen?“, schreibt Lagodinsky weiter. Mit seinen Fraktionskolleg:innen hat er sich seit Januar für ein Verbot von sexualisierten Deepfakes eingesetzt. Es geht um synthetische Nacktaufnahmen, erzeugt mit Software, die viele als „KI“ bezeichnen.
Die Grünen haben allerdings nicht ganz bekommen, was sie wollten. Sie hatten sich sogar dafür ausgesprochen, sexualisierte Deepfakes grundsätzlich zu verbieten – selbst wenn das Einverständnis der betroffenen Person vorliegt. So wie die Einigung bis jetzt aussieht, soll nur der nicht einvernehmliche oder missbräuchliche Einsatz der Technologie verboten werden. In dieser Form hatten sich Abgeordnete der Sozialdemokraten und der Fraktion Renew für ein Verbot eingesetzt.
Parlament, Rat und Kommission müssen noch verhandelnNoch sind nicht alle Details geklärt. Nächste Woche sollen die verantwortlichen Ausschüsse im Parlament – Justiz und Binnenmarkt – über den Kompromisstext abstimmen. Damit ist das Verbot allerdings noch nicht beschlossen. Was im KI-Omnibus am Ende steht, werden Parlament, Kommission und Rat im Trilog aushandeln. Besonders kontrovers dürften diese Gespräche jedoch nicht werden. Denn auch die Mitgliedstaaten haben sich in ihren parallelen Verhandlungen mittlerweile auf ein Deepfake-Verbot verständigt. Im vierten Kompromisstext der Ratspräsidentschaft tauchte das Verbot in dieser Woche auf, wie Mlex (Paywall) berichtete.
Im Rat hatte vor allem Spanien auf eine Regelung hingearbeitet. Ein breiteres Interesse an dem Problem gab es dort schon vor dem internationalen Skandal um nicht-einvernehmliche Deepfakes durch den Chatbot Grok. Im Herbst 2023 hatte ein Fall in der spanischen Stadt Almendralejo für Aufsehen gesorgt, als gefälschte Nacktbilder von mehr als 20 Mädchen zirkulierten. Seitdem bemüht sich die spanische Regierung um ein nationales Verbot.
Zu klären bleibt noch, wie das Verbot in die KI-Verordnung integriert werden soll. Das Parlament will die nicht-einvernehmliche Erstellung von sexualisierten Deepfakes in den Artikel 5 aufnehmen, der verbotene KI-Praktiken auflistet. Der Ratsentwurf dagegen sieht vor, zwei Dinge zu verbieten: KI-Systeme, die nicht-einvernehmliche sexualisierte Deepfakes erstellen können und KI-Systeme, die Kindesmissbrauchsmaterial erstellen können.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Nur auf Verdacht: EU-Parlament stimmt gegen Massenüberwachung bei freiwilliger Chatkontrolle
Das EU-Parlament hat die Erlaubnis zur freiwilligen Chatkontrolle nochmals erneuert – doch möchte das Scannen auf Verdachtsfälle beschränken. Mit dieser Position geht das Parlament nun in Verhandlungen mit Rat und Kommission, die schon am Donnerstag beginnen.
Unternehmen wie Meta oder Google dürfen weiter auf freiwilliger Basis Inhalte ihrer Nutzer:innen scannen. (Symbolbild) – Alle Rechte vorbehalten PixabayDas Europaparlament hat mit deutlicher Mehrheit für die Verlängerung der freiwilligen Chatkontrolle gestimmt – möchte diese aber deutlich einschränken. Nach einer überraschenden Ablehnung zuvor im Justiz-Ausschuss hatten sich die Fraktionen von EVP, S&D sowie Renew im Vorfeld auf gemeinsame Änderungsanträge geeinigt.
Bei der freiwilligen Chatkontrolle 1.0 handelt es sich um eine Ausnahmeregelung. Eigentlich verbietet die Datenschutzrichtlinie für elektronische Kommunikation das Überwachen von Nachrichten ohne Einwilligung der betroffenen Nutzer. Seit 2021 erlaubt aber eine vorübergehende Ausnahme Anbietern eine freiwillige Chatkontrolle. Kommission und Rat wollten sie ein zweites Mal verlängern – das Parlament hat dem nun zugestimmt. Die Ausnahmeregelung wäre sonst am 3. April ausgelaufen, nun ist sie bis 3. August 2027 verlängert.
Neu ist allerdings eine Einschränkung, die das Parlament fordert: In Änderungsantrag 5, der vom Parlament mit Mehrheit beschlossen wurde, heißt es, dass das Scannen nur „zielgerichtet, spezifisch und beschränkt“ auf einzelne Nutzer:innen oder eine bestimmte Gruppe von Nutzern stattfinden dürfe, wenn es einen „begründeten Verdacht“ auf eine Verbindung zu Material über sexuellen Kindesmissbrauch gibt und dieser von der zuständigen Justizbehörde identifiziert worden sei. Durch die Einschränkung wäre ein massenhaftes anlassloses Scannen wie bisher bei der freiwilligen Chatkontrolle nicht mehr möglich.
„Standhaft geblieben“Die freiwillige Chatkontrolle stand seit Anbeginn in der Kritik, weil es sich um eine Form der Massenüberwachung handelt – auch wenn verschlüsselte Kommunikationen davon ausgeschlossen sind. Zuletzt kritisierte der Europäische Datenschutzbeauftragte das „wahllose Scannen“. Die EU-Kommission selbst konnte in ihren Evaluationsberichten nie die Verhältnismäßigkeit der Maßnahme nachweisen. Nun hat sich das EU-Parlament entschieden, die freiwillige Überwachung auf Verdachtsfälle zu begrenzen.
Bei Digitalorganisationen und Datenschützern löste das Ergebnis Freude aus. Konstantin Macher von der Digitalen Gesellschaft kommentiert gegenüber netzpolitik.org: „Der lautstarke Protest der Zivilgesellschaft hat Wirkung gezeigt. Das Europäische Parlament ist standhaft geblieben und hat das Scannen auf konkrete Verdachtsfälle begrenzt. Das ist eine gute Nachricht.“
Ralf Bendrath, Fraktionsreferent für Grundrechte bei den Grünen im EU-Parlament, spricht auf Mastodon von einem „großen Sieg für den digitalen Datenschutz“. Das sei keine Massenüberwachung mehr. „Jetzt werden die Verhandlungen mit den Mitgliedstaaten interessant. Sie sollen bereits morgen früh beginnen“, so Bendrath weiter.
Die neue Position des Parlaments steht den Plänen der EU-Kommission und vermutlich auch des Ministerrats entgegen.
Wie geht es weiter mit der Chatkontrolle?
Trilog über Chatkontrolle 2.0 läuftGleichzeitig verhandeln die EU-Gesetzgeber im Trilog über die CSA-Verordnung. Dieses geplante Gesetz ist ungleich wichtiger: Es wird dauerhaft gelten, es könnte Anbieter auch gegen ihren Willen verpflichten, eine Chatkontrolle 2.0 durchzuführen, und es könnte auch verschlüsselte Kommunikation betreffen.
Über diese Form der verpflichtenden Chatkontrolle haben wir in den letzten vier Jahren sehr viel berichtet. Während die EU-Kommission eine verpflichtende Chatkontrolle auch für verschlüsselte Kommunikationen einführen will, haben sich sowohl das Europaparlament als auch der EU-Ministerrat in ihren Verhandlungen nicht darauf geeinigt. Die Trilog-Verhandlungen sind nun entscheidend dafür, ob diese umfassende und gefährliche Überwachungsmaßnahme abgewendet werden kann. Neben der Chatkontrolle 2.0 gibt es weitere mögliche Grundrechtseingriffe durch die CSA-Verordnung.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
