«Und während Sie über Ungarn mal dies hören und mal das, sollten Sie besser schleunigst nach Brüssel sehen, wo von der Leyen das Projekt der Zweckentfremdung der EU, der Vergewaltigung der europäischen Verträge und der finalen Entmachtung der Nationalstaaten vorantreibt, als gäb’s kein Morgen. Ein Projekt, das nie etwas anderes als Ihre eigene Entmachtung, werter Bürger, war, die unter dieser Kommissionspräsidentin natürlich verlässlich aufs Hässlichste verschleiert ist.» (– Martin Sonneborn)
netzpolitik.org
Dritter Versuch: Bundesregierung beschließt anlasslose Vorratsdatenspeicherung
Die Bundesregierung nimmt einen dritten Anlauf zur Vorratsdatenspeicherung. Internet-Zugangs-Anbieter sollen IP-Adressen aller Nutzer speichern – anlasslos und massenhaft. Internet-Dienste wie E-Mails und Messenger müssen auf Anordnung ebenfalls Daten speichern und herausgeben.
Verantworten die Vorratsdatenspeicherung: Justizministerin Hubig und Innenminister Dobrindt. – Alle Rechte vorbehalten IMAGO / Chris Emil JanßenDie Bundesregierung hat heute den Gesetzentwurf zur Vorratsdatenspeicherung beschlossen. Damit geht das Gesetz in den Bundestag.
Das Gesetz verpflichtet Internet-Zugangs-Anbieter, IP-Adressen und Port-Nummern sämtlicher Nutzer drei Monate lang zu speichern, ohne Anlass und ohne Verdacht auf eine Straftat.
Auf Anordnung müssen auch Internet-Dienste wie E-Mail-Anbieter und Messenger Verkehrsdaten speichern und herausgeben.
Das ist bereits das dritte Gesetz zur Vorratsdatenspeicherung in Deutschland. Sowohl das erste Gesetz von 2007 als auch das zweite Gesetz von 2015 wurden von höchsten Gerichten gekippt.
Die verfassungswidrigen Vorgänger-Gesetze wurden mit Terrorismus begründet. Die Bundesregierung begründet das neue Gesetz mit Fake-Shops und digitaler Gewalt.
Mehr Behörden, mehr FälleIm Dezember hatte SPD-Justizministerin Stefanie Hubig einen ersten Gesetzentwurf vorgestellt. In den Verhandlungen mit Innen- und Digitalministerium wurden noch ein paar Dinge verändert.
Ursprünglich sollten nur Strafverfolgungs- und Polizeibehörden die Vorratsdaten abfragen. Jetzt dürfen auch „andere berechtigte Stellen“ die Daten nutzen, darunter Geheimdienste wie Verfassungsschutz, Finanzbehörden und Zoll.
Die Behörden sollen Verkehrsdaten nicht mehr nur abfragen dürfen, wenn eine Ermittlung „auf andere Weise aussichtslos wäre“, sondern breits, wenn sie sonst „wesentlich erschwert wäre“.
Der neue Entwurf stellt klar, dass lokale WLANs nicht unter die Speicherpflicht fallen, neben Hotels auch Freifunk. Daten sollen nicht länger als drei Monate gespeichert werden, auch wenn eine Internet-Verbindung länger besteht. Das war im ersten Entwurf noch vorgesehen.
Berufsgeheimnisträger sollen nicht geschützt werden, das hatten unter anderem Medien-Vereinigungen vergeblich gefordert.
Hunderttausende AbfragenGrundrechtseingriffe müssen notwendig und verhältnismäßig sein. Andere Länder wie die USA haben keine Vorratsdatenspeicherung, dort ist sie nicht notwendig. Deutschland hatte schon mal eine Vorratsdatenspeicherung. Damals hat das Max-Planck-Institut für Strafrecht wissenschaftlich untersucht: Es gibt ohne Vorratsdatenspeicherung keine Schutzlücken in der Strafverfolgung.
Im Gesetzentwurf versucht die Bundesregierung abzuschätzen, wie oft die Polizei Vorratsdaten abfragen wird. Sie kommen auf 143.000 pro Jahr – 86.000 Abfragen durch das Bundeskriminalamt und 57.000 Abfragen durch die Länder.
Diese Schätzung widerspricht den Daten der Telekom. Ganz ohne Vorratsdatenspeicherung hat die Telekom in einem Jahr fast 290.000 Abfragen zu IP-Adressen bekommen – wegen mutmaßlicher Urheberrechtsverletzungen im Internet.
Tausende Anbieter betroffenDie Speicherpflicht betrifft „unterschiedslos alle Anbieter von Internetzugangsdiensten“, in Deutschland etwa 700. Verbände rechnen mit Kosten von ein bis zwei Millionen Euro für große und 80.000 Euro für kleine Internet-Anbieter.
Die Abfrage von Verkehrsdaten betrifft „alle Anbieter von Telekommunikationsdiensten“, also auch Anbieter für E-Mail und Messenger. Die Bundesnetzagentur rechnet mit „rund 3.000 Verpflichteten“. Nicht alle Anbieter sind auch kommerzielle Unternehmen, es gibt auch ehrenamtliche und gemeinnützige Anbieter.
Die Bundesregierung schafft also mehr Regulierung und Belastungen für Internet-Dienste, gegen deren Willen.
„Rechtswidrig, fehlgeleitet, gefährlich“Vor 20 Jahren haben zehntausende Menschen gegen die Vorratsdatenspeicherung demonstriert. Auch heute ist der Widerstand breit.
Der Deutsche Anwaltverein kritisierte bereits den Entwurf mit deutlichen Worten: Die Regierung „setzt sich über die europarechtlichen Maßgaben hinweg“ und steht „nicht mit den grundrechtsschützenden Intentionen des Gerichtshofs in Einklang“. Eine „wirksame Begrenzung der Verwendungszwecke“ fehlt, deshalb ist „die vorgeschlagene Vorratsdatenspeicherung europarechtswidrig“.
Die Digitale Gesellschaft kritisiert:
Die Vorratsdatenspeicherung ist immer noch ein fehlgeleiteter Ansatz. Es gibt keine Evidenz für die Verhältnismäßigkeit dieser radikalen Massenüberwachung. Tatsächlich wären in erheblichem Ausmaß unbescholtene Bürger*innen betroffen.
Das Zentrum für Digitalrechte und Demokratie fragt:
In einer Zeit, in der neue Technologien immer stärker in die Privatsphäre eindringen und zugleich autoritäre Kräfte an Macht und Einfluss gewinnen, stellt sich noch die Frage: Was passiert, wenn Regierungen ihre Polizeibehörden dazu anweisen oder ermuntern, ihre Zugriffsmöglichkeiten auf IP-Adressen und Portnummern zu nutzen, um gegen politische Gegner vorzugehen?
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Rotlichtviertel Frankfurt am Main: Hier analysiert die Polizei jedes Gesicht
Frankfurt am Main ist ein Freiluftlabor für automatisierte Gesichtserkennung. Die Bilder von Überwachungs-Kameras werden permanent nach bestimmten Personen durchsucht, bei Kontrollen nutzt die Polizei eine Foto-App, um Menschen zu identifizieren. Dabei bleiben hier viele lieber unerkannt: Die Videokameras zeigen auf die Eingänge von 16 Bordellen.
Menschen, die sich hier bewegen, müssen damit leben, dass die Polizei ihre Gesichter vermisst.Juanita Henning steht auf der Elbestraße in Frankfurt am Main und schaut in eine Videokamera. Die hängt etwa 50 Meter von ihr entfernt und hat acht Linsen, um von allen Straßenabschnitten gleichzeitig scharfe Bilder zu liefern. „Die vermisst jetzt gerade mein Gesicht und prüft, ob ich von der Polizei gesucht werde“, sagt Henning. Biometrische Fernidentifizierung in Echtzeit nennt das hessische Innenministerium die Technologie, die hier in einem Pilotprojekt getestet wird. Und wie fühlt es sich an, im Blickfeld der Kamera? „Absolut unangenehm. Du weißt ja auch nie, wozu diese Aufnahmen missbraucht werden“, sagt sie.
Juanita Henning befindet sich vor dem Büro von Doña Carmen, einer Beratungsstelle für Prostituierte. Links daneben ist eine Tabledance-Bar, rechts daneben ein Bordell. Gegenüber, auf der anderen Straßenseite, sind noch zwei weitere Bordelle. Auch ihre Eingänge liegen im Sichtbereich der Kamera. Insgesamt erfasst die Videoüberwachung des Frankfurter Bahnhofsviertels mindestens 16 Häuser, in denen Sexarbeit verrichtet wird.
Deren Türen und Fenster werden in der Videoüberwachung angeblich ausgeblendet, ansonsten wird der öffentliche Raum im Bahnhofsviertel von Frankfurt am Main „nahezu vollständig“ videoüberwacht, so die Polizei zu netzpolitik.org. 29 der 70 Kameras, die in Frankfurt öffentlichen Raum erfassen, stehen hier. 19 davon eignen sich für die automatisierte Gesichtserkennung.
„Ein ganz perverser Eingriff“Henning sagt: „Videoüberwachung und automatisierte Gesichtserkennung dort, wo Sexarbeiter*innen arbeiten – das ist ein ganz perverser Eingriff in die Intimsphäre von Menschen.“ Henning ist im Vorstand von Doña Carmen, hat den Verein einst mitgegründet und ist auf ihren Wegen zu und von der Beratungsstelle regelmäßig der automatisierten Gesichtserkennung ausgesetzt. Sie hat nun gemeinsam mit Gerhard Walentowitz, ebenfalls Doña-Carmen-Vorstandsmitglied, und unterstützt von der Gesellschaft für Freiheitsrechte (GFF) vor dem Verwaltungsgericht Frankfurt Klage dagegen eingereicht.
Davy Wang von der GFF sagt: „Besonders problematisch ist der Einsatz der biometrischen Videoüberwachung in sensiblen Kontexten, etwa im Umfeld sozialer Beratungsstellen. Institutionen wie Dona Carmen sind darauf angewiesen, ihren Klient*innen einen geschützten, vertraulichen und niedrigschwelligen Zugang zu gewährleisten.“
Henning arbeitet seit 1991 als Sozialarbeiterin hier im Viertel. Sie sagt: „Den Frauen gefällt das absolut nicht, dass sie überwacht werden. Die wollen anonym bleiben, um sich und ihre Familien vor Diskriminierung und Stigmatisierung zu schützen.“ Zudem würden durch die vielen Kameras die Umsätze sinken, weil auch die Kunden lieber unerkannt blieben.
Frankfurt ist wohl erst der AnfangDas Frankfurter Bahnhofsviertel ist Freiluftlabor für die Echtzeit-Fernidentifizierung. Zahlreiche Bundesländer haben bereits Interesse an der Technologie angemeldet, die hier deutschlandweit – nach einem Testlauf am Berliner Bahnhof Südkreuz – erstmals offen eingesetzt wird. In einem ersten Ausweitungsschritt wurde die automatisierte Gesichtserkennung auch an Kameras angeschlossen, die Haupt- und Konstablerwache überwachen, die Enden der zentralen Frankfurter Einkaufsstraße Zeil. Der hessische Innenminister Roman Poseck (CDU) hat noch vor Einführung der KI-Überwachung angekündigt, dass er diese hessenweit an Kriminalitätsschwerpunkten einführen will. Und Bundesinnenminister Alexander Dobrindt (CSU) möchte deutsche Bahnhöfe flächendeckend mit dieser Technologie – und zudem Verhaltensscannern – ausrüsten. Frankfurt ist also höchstwahrscheinlich erst der Anfang.
Aktuell darf in Frankfurt mit der Gesichtserkennung nach Terrorist*innen gesucht werden, nach vermissten Menschen und nach Opfern von Entführung, Menschenhandel oder sexueller Ausbeutung. Für jede Suche ist ein richterlicher Beschluss nötig. Das System läuft seit Juli 2025, seitdem wurde „eine niedrige zweistellige Anzahl an Personen“ damit gesucht. Erfolg gab es nur einmal, als eine vermisste 16-Jährige mit der Kamera-KI identifiziert wurde. Ab Juli 2026 soll eine Evaluationsphase folgen, aber es sieht bereits so aus, als solle das System auf jeden Fall verstetigt werden. Zuständig für die Gesichtserkennungstechnologie ist die Direktion 100 der Frankfurter Polizei, zu der auch das skandalumwitterte 1. Polizeirevier gehört.
Neben dem Probelauf mit der Fernidentifizierung ist Frankfurt am Main auch Experimentierfeld einer weiteren, bislang deutschlandweit einmaligen Form der automatisierten Gesichtserkennung. Polizist*innen nutzen hier seit Dezember 2025 eine App, mit der sie bei Personenkontrollen Verdächtige identifizieren, die sich nicht ausweisen wollen oder können. Die „Abfrage-App“ bietet eine mobile Schnittstelle zum Gesichtserkennungssystem des BKA. Dort wird das fotografierte Gesicht mit den Gesichtern der 5,36 Millionen Menschen verglichen, die in der polizeilichen Datenbank gespeichert sind. Gibt es einen Treffer, erscheinen Name, Geburtsdatum und Staatsangehörigkeit auf dem Smartphone-Display. Darauf folgt eine „menschliche Plausibilitätskontrolle“.
Die Kosten hält die Polizei geheimAuf 160 Geräten wurde die App bislang installiert. Nach Abschluss der Pilotphase wolle man sie für alle Polizist*innen des Landes freischalten, so die hessische Polizei. Andere Landes-Polizeien und Bundesbehörden sollen die App dann ebenfalls einsetzen dürfen. Die Kosten für die Entwicklung der App – wie auch die Kosten für die Echtzeit-Fernidentifizierung – hält die Frankfurter Polizei geheim.
Dimitrios Bakakis, Fraktionsvorsitzender der Grünen im Frankfurter Stadtparlament, sagt: „Was hier erprobt wird, ist der Einstieg in eine Überwachungspraxis, die wir aus den USA kennen und die dort zu massiven Diskriminierungen geführt hat.“ Der Landesdatenschutzbeauftragte Alexander Roßnagel arbeitet gerade an einer Stellungnahme zu der Gesichtserkennungs-App.
Frankfurt am Main ist die deutsche Frontstadt der automatisierten Gesichtserkennung. Hier beginnt die Zeitenwende hin zur automatisierten Erfassung und Identifikation von Menschen über physiologische Merkmale. Und das ausgerechnet in dem Bundesland, das 1970 das erste Datenschutzgesetz der Welt verabschiedete. „Pilotprojekte wie Biometrie-Apps auf Polizeihandys oder Gesichtserkennung mit Kameras sind keine harmlosen Tests an begrenzten Orten, sondern weiten Schritt für Schritt biometrische Überwachung für alle aus“, sagt Kilian Vieth-Ditlmann von AlgorithmWatch. „Das Ende jeder Anonymität im öffentlichen Raum ist aus unserer Sicht keine Übertreibung, sondern die logische Konsequenz, die sich aktuell andeutet.“
Bakakis von den Frankfurter Grünen fügt hinzu: „Freiheit im öffentlichen Raum bedeutet nicht nur, dass man sich physisch bewegen darf – sondern auch, dass man anonym sein kann, also nicht automatisch identifiziert und registriert wird, nur weil man irgendwo entlangläuft.“
„Wie 1984“Im Frankfurter Bahnhofsviertel kann man also schon jetzt erleben, was an vielen Orten droht: eine ständige potenzielle De-Anonymisierung aller Personen im öffentlichen Raum. Was macht das mit den Menschen vor Ort, wenn eine Software ständig versucht, sie zu identifizieren?
Milan, lange Haare, zerrissene Jeans, sitzt neben zwei Bekannten auf dem Bürgersteig, an der Wand eines Bordells. Er hält eine Metallpfeife in der Hand. Milan raucht damit Crack. Was sagt er zu der Kamera, die genau auf ihn zeigt? „Die ist mir egal“, sagt er. Die Polizei interessiere sich nicht für ihn. Die Kleinstmengen, die er und seine Bekannten bestenfalls einstecken hätten, seien den Aufwand nicht wert. Und was ist mit der Gesichtserkennungs-Software, die die Bilder analysiert? „Das ist ja wie in dem Buch ‚1984‘“, sagt er, eher interessiert als alarmiert.
Auch Lisa guckt frontal in eine achtlinsige Kamera. „Ganz schön gruselig“, sagt sie. Die Dreißigjährige wohnt hier im Bahnhofsviertel, die Kamera steht auf einem ihrer täglichen Wege. Lisas Alltag als Anwohnerin spielt sich zu einem guten Teil hier ab, unter Kameras. „Ich versuche das zu verdrängen, aber ein Unbehagen ist immer da“, sagt sie. Die offene Drogenszene empfindet sie hingegen als nicht bedrohlich. „Ich wohne hier ganz entspannt. Ich hatte kaum bedrohliche Situationen. Und wenn, könnten die Kameras mir nicht helfen“, sagt sie. Lisa nennt das Bahnhofsviertel „Projektionsfläche konservativer Politiker mit Ordnungsfantasien“.
„Man weiß nie, ob man gerade angestarrt wird“Die Kamera filmt Lisas Gesicht. Die Bilder laufen in eine Videoleitstelle und werden dort von Polizist*innen gesichtet. Die können einige der Kameras auch ferngesteuert schwenken, neigen, zoomen. „Das ist eigentlich schlimm genug, dass man nie weiß, ob man gerade angestarrt wird“, sagt Lisa. Zudem werden die Bilder für 14 Tage gespeichert, sollten sie für Ermittlungen benötigt werden, auch länger.
„Und jetzt kommt der gruseligste Teil“, sagt Lisa. Sie meint: Die Software, die im Datenstrom der Kameras in Echtzeit Menschen identifiziert. Denn wenn die Polizei mit der Videoüberwachung gerade nach Menschen fahndet, scannt eine Software alle Gesichter, also auch Lisas. Das Programm leitet aus Lisas Physiognomie eine Datenkolonne ab und vergleicht diese mit den Daten des Zielgesichts. Würde Lisa tatsächlich gesucht oder wäre ihr Gesicht einem gesuchten zumindest ähnlich genug, würde auf dem Bildschirm des zuständigen „Videosachbearbeiters“ ein Screenshot erscheinen, auf dem Lisa optisch markiert ist, dazu erklänge ein akustischer Hinweis. Die Person vor dem Bildschirm müsste dann einschätzen, ob Lisa tatsächlich die gesuchte Person ist und gegebenenfalls Einsatzkräfte informieren. Die würden dann mit einer Personenbeschreibung zum Ort der Sichtung geschickt. Sind auf dem Videostream Straftaten zu sehen, wird sogar ein Foto der tatverdächtigen Person per polizeiinternem Messenger an die Dienst-Handys der Beamt*innen vor Ort gesendet.
Der Landesdatenschutzbeauftragte schrieb schon 2024, dass die Live-Gesichtserkennung einen „tiefgreifenden Grundrechtseingriff“ darstelle und nur unter „engen Voraussetzungen“ legal sei. Davy Wang von der Gesellschaft für Freiheitsrechte, die Juanita Henning in ihrem Kampf gegen die KI-Überwachung unterstützt, sagt: „Die biometrische Echtzeit-Fernidentifizierung im öffentlichen Raum stellt einen besonders schwerwiegenden Eingriff in die Grundrechte dar, weil sie massenhaft auch unbeteiligte Personen erfasst.“ Die hessische Rechtsgrundlage dafür sei zu unbestimmt, die Eingriffsschwelle zu niedrig. Lösch- Transparenz- und Bachrichtigungspflichten gebe es nicht.
Gesichtsscans ermöglichen Einblicke in das PrivatlebenDie digitale Kennung, die die Software aus Lisas Gesicht errechnet, ließe sich auch mit Bildern aus dem Internet vergleichen. So fänden sich möglicherweise Demo-Fotos, auf denen sie in der Masse abgebildet ist, oder peinliche Jugendsünden auf Social Media. Die Bundesregierung will derartige Datenabgleiche zeitnah möglich machen, obwohl hohe grundrechtliche Hürden dagegenstehen.
In Frankfurt wird ein Gesichtsscan angeblich sofort verworfen, wenn er nicht zu einem Treffer führt. „Aber ob das wirklich passiert, weiß ich nicht“, sagt Lisa. „Man weiß auch nicht, ob die Bilder aus den Kameras nicht doch irgendwann mit der Palantir-Software Hessendata ausgewertet werden“, fügt sie hinzu.
Eine Ecke weiter, eine Stunde später: Ein Trupp von fünf Polizist*innen stürmt im Laufschritt durch das Viertel, zielstrebig zu zwei überraschten Männern. Die werden umstellt und aufgefordert, sich auszuweisen, anschließend folgt die Leibesvisitation. Kein Ergebnis. Die Polizist*innen ziehen wieder ab. Was war das jetzt? „Anlasslose Kontrolle“, sagt ein Polizist. Aufgrund der Waffenverbotszone, die hier gilt, dürfen die Polizist*innen das.
Viele repressive MaßnahmenDie Aktion ist eine von vielen repressiven Maßnahmen, mit denen Sicherheitsbehörden gegen Menschen im Bahnhofsviertel von Frankfurt am Main vorgehen. Die Polizei patrouilliert mit Fahrzeugen durchs Viertel, mit uniformierten Einheiten und mit Zivilfahnder*innen. Regelmäßig gibt es Groß-Razzien, dazwischen auch zahlreiche verdachtsunabhängige Kontrollen einzelner Menschen oder Gruppen. Polizist*innen können Aufenthaltsverbote für das Viertel aussprechen, die mit bis zu zwei Jahren Haft strafbewehrt sind. Am Stadtbild ändert sich dadurch nichts. Das ist, auch mit intelligenter Videoüberwachung, ganz offen von Crack geprägt.
Die Frankfurter Polizei lässt die Konsument*innen weitgehend in Ruhe, geht aber gegen Dealer vor, auch mit Hilfe der Videoüberwachung. Die Händler haben sich vermutlich deshalb außerhalb der videoüberwachten Zone eingerichtet. Dort, kurz vor dem Schild, das vor den Kameras warnt, nickt beispielsweise ein junger Mann herausfordernd Passant*innen zu. Wer seinem Blick standhält, dem wispert er „Brauchst du was?“ entgegen.
In Blickweite des mutmaßlichen Dealers, in der überwachten Zone, steht das Nika-Haus, ein selbstverwaltetes Wohnprojekt. Im Erdgeschoss residiert eine Beratungsstelle des „Förderverein Roma“. Timur Beygo leitet sie. Vor seiner Tür stehen und sitzen Menschen und konsumieren Crack. „Wir kommen im Allgemeinen sehr gut mit denen aus“, sagt er. Was ihn hingegen stört, das ist die Videoüberwachung. „Hier erscheinen etwa 15 Klienten am Tag, Roma und Sinti, meist Mütter mit Kindern, die werden dann einfach mitüberwacht. Das ist hochgradig überzogen.“ Kritik hat er auch an den Polizeieinsätzen. „Die Polizei tritt häufig sehr ruppig auf. Mein Eindruck ist zudem, dass Polizeieinsätze die Situation mitunter erst zuspitzen, obwohl vorher noch gar kein Konflikt bestand.“
„Das wird testhalber eingeführt und dann entgrenzt“Auf einer Bierbank vor einem Kiosk im Bahnhofsviertel sitzen Walter Schmidt und Uli Breuer. Die beiden gehören zur Bürgerrechtsgruppe dieDatenschützer Rhein Main. Gelegentlich bieten sie Führungen an, in denen sie die KI-gestützte Videoüberwachung des Areals zeigen und erklären. „Das wird immer alles testhalber eingeführt und dann entgrenzt“, sagt Breuer. „Jetzt haben wir noch eine relativ freie Gesellschaft, aber wenn solche Methoden in die falschen Hände geraten, dann kann das sehr schlimm werden.“ Schmidt fügt hinzu: „Ich empfinde das als Unverschämtheit, dass ich von allen möglichen Kamerabetreibern erfasst werde und wehre mich dagegen wo möglich.“
Die beiden positionieren sich auch gegen die verdachtsunabhängigen Kontrollen, die im Viertel möglich sind (Breuer: „Das ist Willkür!“), und gegen den hessischen Polizeigesetzpassus, der Videoüberwachung ermöglicht, wenn mutmaßlich das Sicherheitsgefühl von Bürger*innen beeinträchtigt ist (Schmidt: „Ganz üble Kiste“). „Wir können sie nicht stoppen, aber bremsen“, sagt Breuer zu den Überwachungsbestrebungen. Nachdem sich die beiden beschwert hatten, erhielten beispielsweise einige Kameras an der Alten Oper eine Abschirmung, sodass diese nur noch die zulässigen Flächen abfilmen können.
Hoffnung für die beiden Datenschützer liefern die Grünen im Hessischen Landtag. Die lassen mit einem Normenkontrollantrag beim Staatsgerichtshof klären, ob die der Echtzeit-Fernidentifizierung zugrunde liegende Polizeigesetzänderung rechtens war. Eine Überprüfung der Rechtsgrundlage streben auch Juanita Henning und die GFF an. Sie haben beim Verwaltungsgericht Frankfurt beantragt, dass es die Abschnitte aus dem Polizeigesetz, die die Fernidentifizierung erlauben, dem Bundesverfassungsgericht vorlegt.
DurchkärchernEtwa 150 Meter Luftlinie von Schmidt und Breuer auf ihrer Bierbank: Eine Frau mit löchriger Strumpfhose und rastlosen Beinen wälzt sich in einem Hauseingang. Zwei Männer hocken einander gegenüber zwischen parkenden Autos, während einer ein Glasröhrchen erhitzt. Eine Gruppe hat sich entlang einer Hauswand niedergelassen. Menschen liegen vollverhüllt in Schlafsäcken, einige reden, andere sitzen vornübergebeugt und präparieren anscheinend Drogen zwischen ihren ausgestreckten Beinen. Crackpfeifen er- und verglühen im erratischen Takt. Darüber wacht ein Kameraturm.
Auftritt Stadtpolizei Frankfurt am Main. Vier Beamt*innen sprechen die Menschen auf der Straße an und fordern sie auf, zu gehen. „Lagern und Verweilen zum Zweck des Konsums von Betäubungsmitteln“ ist hier verboten. Bis zu 100 Euro Bußgeld kann das kosten. Nach und nach lösen die Polizist*innen die Gruppe auf. Im Davonstolpern bereitet sich ein Mann, Kapuze auf dem Kopf, eine weitere Pfeife zu, hinter ihm gehen die Beamt*innen, dahinter bürstet eine Kehrmaschine der Stadtreinigung über den Bürgersteig. Als letzter in der Prozession folgt ein Mann mit einem Hochdruckreiniger. Er gibt dem Pflaster den letzten Schliff.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Fachleute fordern: Bundesregierung muss KI auf Klima-Kurs bringen
Der KI-Boom wird mehr und mehr zum Problem für Umwelt und Klima. Expert:innen haben jetzt für das Umweltministerium skizziert, wie eine nachhaltigere Alternative aussehen könnte. Ihr Gutachten vermeidet Kritik am aktuellen Kurs, die Empfehlungen laufen jedoch auf eine drastische Politikwende hinaus.
Digitalminister Karsten Wildberger (CDU) und NRW-Wirtschaftsministerin Mona Neubauer (Grüne) zusammen mit Lokalpolitiker:innen und Microsoft-Vertreter:innen beim Spatenstich für ein neues Rechenzentrum des Konzerns im Rheinischen Revier. – Alle Rechte vorbehalten IMAGO / Marc JohnWie kann Künstliche Intelligenz ökologisch nachhaltiger und gleichzeitig zum Wettbewerbsvorteil für Deutschland und Europa werden? Das Bundesumweltministerium hat zu dieser Frage in der vergangenen Woche ein Gutachten von fünf Expert:innen veröffentlicht. Ihre klare Botschaft: Beides ist möglich, aber nur mit einem deutlichen Umsteuern in der KI-Politik.
Während die Bundesregierung gerade die Regeln zu Umweltschutz und Energieeffizienz von Rechenzentren lockern will, weil sie sich als Konkurrentin in einem KI-Wettrennen mit den USA und China wähnt, warnt das Gutachten unter anderem: „Regulatorische Änderungen mit eng gefasstem Fokus und kurzfristiger Perspektive können zu langfristigen Problemen führen und dazu, dass die Ziele der Energiewende verfehlt werden.“
Der Energiehunger der Künstlichen IntelligenzDie Ausgangslage für nachhaltige KI ist aktuell gleich im doppelten Sinne düster: Zum einen ist klar, dass der Energieverbrauch durch Rechenzentren, die für die Entwicklung und den Betrieb sogenannter Künstlicher Intelligenz gebaucht werden, rasant steigt. Nach Schätzungen der Internationalen Energieagentur betrug er in 2024 bereits 415 Terawattstunden, was nur knapp unter dem Stromverbrauch von Frankreich liegt, also der siebtgrößten Volkswirtschaft der Welt (449 Terawattstunden in 2024). Um den Energiehunger der KI zu stillen, setzen die großen KI-Firmen neben erneuerbaren auch massiv auf fossile, umweltschädliche Formen der Energiegewinnung, insbesondere Gas.
Zum anderen ist aufgrund der großen Intransparenz der Branche weitgehend unbekannt, wie viel Strom und Wasser einzelne KI-Modelle oder Rechenzentren genau verbrauchen oder wie viele Treibhausgas-Emissionen sie verursachen. Auch die großen Versprechen, dass KI für nachhaltige Zwecke wie etwa intelligentes Energie-Management genutzt werden könne, warten überwiegend noch auf ihre Einlösung.
Die ausgewiesenen Expert:innen Udit Gupta, Philipp Hacker, Lynn Kaack, Emma Strubell und Aimee van Wynsberghe haben im Auftrag des Umweltministeriums deshalb zahlreiche Vorschläge gemacht, wie die Situation verbessert werden könnte. Sie sagen: KI und Nachhaltigkeit müssten nicht im Widerspruch stehen. Deutschland habe eine gute Ausgangslage, um bei nachhaltiger KI eine globale Führungsrolle einzunehmen.
Spezialisierte KI-Ansätze statt riesiger ModelleEine zentrale Empfehlung der interdisziplinären Expert:innen-Gruppe ist ein realistischerer Blick auf die Vor- und Nachteile unterschiedlicher KI-Ansätze.
Derzeit sei die Aufmerksamkeit auf die großen sogenannten General-Purpose-AI-Modelle (GPAI) konzentriert. Der englische Begriff lässt sich am besten als KI-Modelle mit allgemeinem Verwendungszweck übersetzen. Gemeint sind in der Regel generative Modelle wie GPT von OpenAI oder Claude von Anthropic. Diese Modelle sind gerade wegen ihres allgemeinen Problemlösungsanspruchs und der dahinterstehenden Technik des Reasonings, das logisches Schlussfolgern imitiert, besonders energieintensiv.
Daneben gebe es jedoch auch andere vielversprechende Ansätze wie etwa kleinere KI-Modelle, die speziell zur Erfüllung konkreter Aufgaben trainiert werden. Diese seien oft besser zur Erfüllung von Aufgaben in der Industrie geeignet, etwa für Predictive Maintenance oder Bilderkennung für Krebsforschung. Viele Aufgaben erforderten gar nicht die Fähigkeiten von Allzweckmodellen oder profitieren nicht einmal davon.
Je genauer man die Zielaufgabe für ein KI-Modell definieren könne, desto effizienter lasse es sich in der Regel gestalten. Die klare Empfehlung des Gutachtens: „Um den wirtschaftlichen Nutzen von KI zu maximieren und gleichzeitig ihren Ressourcenbedarf zu minimieren, ist es daher von entscheidender Bedeutung, Modelle entsprechend zu spezialisieren oder sie gezielt für bestimmte Aufgaben einzusetzen.“
Der Fokus auf kleinere und spezifische Modelle passe zum deutschen und europäischen KI-Ökosystem, das stärker von kleineren und mittleren Unternehmen als von Tech-Giganten geprägt sei. Solche Modelle müssten durch gezielte Investitionen, Förderungen und Public-Private-Partnerships vorangetrieben werden. Dann könnten sich Nachhaltigkeit und ökonomische Wettbewerbsfähigkeit gegenseitig verstärken.
„Die Zukunft ist offener, als wir denken“, so fasste Jurist Philipp Hacker von der Europa-Universität Viadrina die Hoffnung der Sachverständigen bei einer Vorstellung der Studie in Berlin zusammen. „Es ist nicht alternativlos, dass die GPAI-Modelle gewinnen.“ Die Anbieter der großen Modelle hätten bis heute kein tragfähiges Geschäftsmodell und ihre Modelle würden teilweise immer schlechter, Stichwort „Entshittification“, so Hacker.
Intransparenz als KernproblemEin großes Problem bei einer nachhaltigeren Gestaltung der KI-Ökonomie ist dem Gutachten zufolge die massive Intransparenz der Branche. Weil entsprechende Informationen fehlen, könnten Nutzer:innen heute gar nicht das „am wenigsten problematische Modell“ auswählen, so Computerlinguistin Emma Strubell von der Carnegie Mellon University.
Die Intransparenz sei nicht nur ein Problem für private, sondern auch für betriebliche Anwender:innen, die sich ein Bild von der Effizienz machen müssten. Auflagen für die Umweltberichterstattung müssten deshalb dringend um verpflichtende, standardisierte, unabhängig überprüfte und öffentlich zugängliche Informationen zu den Folgen von KI über den gesamten Lebenszyklus ergänzt werden.
Die KI-Verordnung der EU enthalte hierzu beispielsweise nur rudimentäre Anforderungen, die erweitert werden müssten. Dabei sollten nicht nur Daten zum Energieverbrauch beim Training, sondern auch beim Gebrauch von KI-Modellen einfließen. Ebenso CO₂-Emissionen, die bei der Produktion spezialisierter Hardware wie etwa hochleistungsfähigen Grafikprozessoren entstehen.
Bislang halten KI-Firmen solche Daten unter Verweis auf Geschäftsgeheimnisse unter Verschluss. Das öffentliche Informationsinteresse überwiege hier jedoch, so das Gutachten: „Der dringende Bedarf an Daten für ein wirksames Ressourcenmanagement und den Umweltschutz überwiegt die potenziellen Wettbewerbsnachteile, die mit der Offenlegung von Kennzahlen verbunden sind, die indirekt mit der Modellgröße zusammenhängen.“
Darüber hinaus könnten Anbieter verpflichtet werden, ein „grünes Modell“ ihrer KI-Anwendungen anzubieten, das beispielsweise ohne rechenintensives Reasoning daherkomme, um Energieverschwendung durch unnötige Rechenoperationen zu vermeiden. Auch das staatliche Beschaffungswesen sollte als Hebel genutzt werden, um KI- und Cloud-Anbieter zu fördern, die auf Energieeffizienz, nachhaltige Energiequellen und öffentliche Transparenz setzen.
Regeln für Rechenzentren müssen verschärft werdenAuch Rechenzentren als wichtige KI-Infrastruktur stehen im Fokus des Gutachtens. Bei keiner Industrie steige der Energiebedarf derzeit so rasant an wie bei Rechenzentren, so Udit Gupta von der New Yorker Universität Cornell Tech bei der Vorstellung des Papiers. In bestimmten Regionen führe der Bau-Boom bereits heute zu Problemen mit der Energieversorgung. In Frankfurt am Main etwa gingen bereits 2022 knapp 30 Prozent des Stromverbrauchs auf das Konto von Rechenzentren.
Auch hier gehen dem Gutachten zufolge die aktuellen Berichts- und Transparenzpflichten für Betreiber nicht weit genug. Statt tatsächlicher Verbrauchsmessungen würden sie häufig lediglich Schätzungen basierend auf dem Design ihrer Anlagen übermitteln. Ohne solche Angaben könne der tatsächliche Bedarf an Rechenkapazität nicht realistisch eingeschätzt und der Bau neuer Anlagen volkswirtschaftlich sinnvoll geplant werden. Zahlen aus den Niederlanden hätten erst kürzlich gezeigt, dass Rechenzentren dort vermutlich nur zu einem Drittel ausgelastet seien.
Problematisch seien auch die zentralen Maßeinheiten für die Effizienz von Rechenzentren, der PUE-Wert, kurz für Power Usage Effectiveness, und der WUE-Wert, kurz für Water Usage Effectiveness. Beide Werte, die auch in den Nachhaltigkeitsberichten großer Rechenzentrumsbetreiber wie Amazon, Google oder Microsoft angegeben werden, geben keine Auskunft über den absoluten Verbrauch. Stattdessen sind es relative Effizienzwerte, was dazu führe, dass PUE und WUE sich zwar verbessern würden, der absolute Verbrauch jedoch drastisch steige, weil Einsparungen in immer noch größere Modelle investiert würden. Der PUE-Wert messe zudem nur den Energieverbrauch der Gebäude-Infrastruktur, etwa Kühlsystem und Beleuchtung, nicht den Verbrauch der tatsächlichen Energieinfrastruktur.
Wo sich lokaler Widerstand gegen den KI-Hype formiert
Um hier für Verbesserungen zu sorgen, müssten den Expert:innen zufolge die Transparenz- und Berichtspflichten für Rechenzentren deutlich verschärft werden. Hierzu müsste der DIN-Standard für Rechenzentren ebenso angepasst werden wie die Europäische Energieeffizienz-Richtlinie und das deutsche Energieeffizienzgesetz. Wichtig seien unabhängig auditierte Verbrauchsmessungen, die zudem mindestens in aggregierter Form öffentlich zugänglich sein sollten. Auch bei Rechenzentren müsse der ganze Lebenszyklus ins Reporting einbezogen werden: von den Emissionen, die bei der Herstellung von Servern entstehen, bis zum Elektroschrott, nachdem Hardware aussortiert wird.
Darüber hinaus könnten auch beim Design von Rechenzentren und der Energieversorgung große Fortschritte erzielt werden. So sollten etwa KI-Unternehmen verpflichtet werden, selbst für den Ausbau Erneuerbarer Energien in dem Maße zu sorgen, wie sie Strom verbrauchen. Rechenzentren sollten zudem Teil des Systems der CO₂-Bepreisung sein, damit Betreiber Folgekosten für die Umwelt nicht externalisieren können.
Außerdem sollte der Staat die Entwicklung energieeffizienter Rechenzentren fördern, die auf die Bedürfnisse der deutschen Wirtschaft spezialisiert sind. Auch die Abwärme von Rechenzentren sollte weiterhin verpflichtend genutzt werden müssen, Ausnahmen davon reduziert werden.
Auf KollisionskursDie Liste der Vorschläge der Expert:innen ist noch deutlich länger und zeigt, wie groß die Möglichkeiten wären, KI und Rechenzentren nachhaltiger zu gestalten. Zum aktuellen Kurs der Bundesregierung passen sie jedoch gar nicht. Diese sieht Deutschland und Europa in einem KI-Wettrennen mit den USA und China und setzt deshalb auf den Ausbau von KI-Kapazitäten um jeden Preis.
Getrieben von Wirtschaftsverbänden wie BDI, Bitkom oder Eco hat Digitalminister Karsten Wildberger (CDU) eine neue Rechenzentrumsstrategie erarbeiten lassen, die im März vom Bundeskabinett beschlossen wurde. Sie sieht vor, die Rechenzentrumskapazitäten in Deutschland bis 2030 mindestens zu verdoppeln und die KI-Kapazitäten bis dahin sogar zu vervierfachen. Hierfür sollen Umweltstandards gesenkt, Berichtspflichten gelockert und Planungsverfahren beschleunigt werden.
Wirtschaftministerin Katharina Reiche (CDU) will zudem das deutsche Energieeffizienzgesetz so weit zurückfahren, dass es nur noch den Mindeststandards der entsprechenden EU-Richtlinie entspricht. Dabei haben Journalist:innen von Investigate Europe gerade erst aufgedeckt, wie erfolgreich große Tech-Konzerne gegen weitergehende Transparenzvorgaben in dieser Richtlinie lobbyiert hatten: Die EU-Kommission hat demzufolge bestimmte Abschnitte fast wortgleich von Microsoft kopiert, so dass die ohnehin schon schwammigen Kennzahlen zu Rechenzentren, die an Aufsichtsbehörden übermittelt werden müssen, nicht öffentlich gemacht werden dürfen.
Es ist nun also an Umweltminister Carsten Schneider (SPD), die Vorschläge der von ihm beauftragten Expert:innen in die Debatte mit seinen Kolleg:innen zu bringen. Ob er die KI-Politik auf Klima-Kurs bringen kann, wenn er argumentiert, dass Deutschland und Europa von nachhaltiger KI auch wirtschaftlich profitieren könnten?
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Amnesty Report: „Bundesregierung bedient sich bewährter Instrumente autoritärer Politik“
Die Bundesregierung geht gegen zivilgesellschaftliche Organisationen vor, streicht Gelder und lässt Akteure durch den Verfassungsschutz überprüfen. Diese und andere Freiheitseinschränkungen sowie den Ausbau der Überwachung in Deutschland kritisiert der weltweite Menschenrechtsbericht von Amnesty International.
Amnesty International kritisiert die Bundesregierung von Kanzler Merz deutlich für Einschränkungen der Menschenrechte in Deutschland. (Archivbild) – CC-BY-NC-SA 4.0 Steffen PrößdorfAmnesty hat heute seinen jährlichen Bericht zur weltweiten Menschenrechtslage 2025/26 (PDF) veröffentlicht. Darin beklagt die Organisation eine „tiefgreifende globale Menschenrechtskrise“. Maßgeblich verantwortlich dafür seien Regierungen weltweit, die zunehmend autoritär handeln und systematisch Menschenrechte und die internationale Rechtsordnung infrage stellen. Der Report gibt einen Überblick zur Menschenrechtssituation auf der ganzen Welt.
Auch in Deutschland sieht Amnesty zunehmend Defizite, in der deutschen Version des Berichts kritisiert die Menschenrechtsorganisation unter anderem, dass Staatsvertreter:innen mit stigmatisierenden Aussagen Angst vor Hassverbrechen schürten, dass die deutsche Polizei mit unverhältnismäßiger Gewalt gegen Palästina-Proteste vorgehe, dass rechtswidrig nach Afghanistan abgeschoben wurde und dass Deutschland das Erreichen der Klimaziele aufs Spiel setze.
Die Menschenrechtsorganisation beklagt zudem einen Anstieg rassistischer, antisemitischer und antimuslimischer Hassverbrechen sowie Hassverbrechen gegen Frauen und lesbische, schwule, bisexuelle, trans und intergeschlechtliche Menschen (LGBTI+) und andere marginalisierte Gruppen. Die Zahlen hätten sich im Vergleich zu Vor-Pandemie-Zeiten verdoppelt.
Bundesregierung in der KritikJulia Duchrow, Generalsekretärin von Amnesty International in Deutschland, kritisierte die Appeasement-Politik der Merz-Regierung gegenüber Menschrechtsverletzungen. Die Bundesregierung schweige zu oft, wo es Gegenwehr brauche.
Weiter sagte sie zur Menschenrechtssituation in Deutschland: „Auch die Meinungs- und Versammlungsfreiheit steht unter Druck, vor allem durch das Vorgehen gegen Palästina-solidarische Proteste.“ Hier listet Amnesty gleich eine ganze Reihe von polizeilichen Übergriffen auf sowie Einschränkungen von Pro-Palästina-Demonstrationen wie jene, dass Parolen nur auf Deutsch und Englisch skandiert werden durften. Die Verletzung dieser Demonstrationsauflage führte zu einer gewaltsamen Auflösung der Versammlung durch die Polizei.
Im Hinblick auf den Umgang der Bundesregierung mit zivilgesellschaftlichen Organisationen fand Duchrow deutliche Worte: „Die Bundesregierung bedient sich zudem bewährter Instrumente autoritärer Politik, um die kritische Zivilgesellschaft zum Schweigen zu bringen: Zu diesen Schikanen gehören die Streichung der staatlichen Förderung von Demokratieprojekten, die Regelüberprüfung durch den Verfassungsschutz und parlamentarische Anfragen wie die 551 Fragen der CDU zur Arbeit von NGOs in Deutschland.“
Überwachung in der KritikAuch die ausufernde Überwachung ist Thema des Kapitels über Deutschland. Amnesty führt hierbei auf, dass das Bundesland Hessen im Jahr 2025 im Frankfurter Bahnhofsviertel ein biometrisches Gesichtserkennungssystem eingeführt hat. Die Überwachungskameras seien in der Lage, alle Passant:innen in Echtzeit zu erfassen, um Personen ausfindig zu machen, für die ein Gerichtsbeschluss vorlag.
Auch das geplante „Sicherheitspaket“ von Bundesinnenminister Alexander Dobrindt (CSU) hat Amnesty auf dem Schirm. Neue Gesetzentwürfe auf Bundes- und teilweise auch auf Landesebene sähen vor, den Polizeibehörden weitreichende neue Befugnisse einzuräumen, um große Datenmengen automatisiert zu analysieren und alle öffentlich verfügbaren biometrischen Informationen aus dem Internet herauszuziehen, um gesuchte Personen zu identifizieren und zu orten.
Diese Projekte stehen in der Kritik. Nicht nur Amnesty International, sondern zivilgesellschaftliche Organisationen wie die GFF und AlgorithmWatch weisen daraufhin, dass die Gesetzespläne verfassungswidrig seien und eine neue Form der Massenüberwachung darstellen. Sie alle warnen vor massiven Grundrechtseingriffen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Nach Enthüllungen zur Überwachungsbrille: Meta kündigt Outsourcing-Firma, die entlässt daraufhin 1000 Menschen
Meta verletzte mit seinen „Smart Glasses“ die Privatsphäre der eigenen Nutzer:innen. Leidtragende des Vorfalls sind nun ausgerechnet Datenarbeiter:innen in Kenia, denen das intime Material zur Bewertung vorgesetzt wurde.
Metas Überwachungsbrille gefährdet die Privatsphäre – in Zukunft vermutlich auch mit Gesichtserkennung. – Alle Rechte vorbehalten IMAGO / ReportersNachdem im März schwedische Zeitungen berichtet hatten, dass intime Aufnahmen aus Metas Kamera-Brille in Nairobi auf dem Bildschirm von Datenarbeiter:innen landen, kündigte Meta seinem Outsourcing-Dienstleister Sama den Vertrag. Dieser entließ in der Folge nun 1000 Mitarbeiter:innen in Kenia, berichtet der Guardian. Die schwedische Recherche hatte sich auf Aussagen von etwa 30 Whistleblower:innen bei Sama gestützt.
Sama ist ein US-Unternehmen, das in Ländern wie Kenia, Uganda oder Costa Rica für viele westliche Unternehmen Aufgaben wie Inhalte-Moderation und Daten-Annotation übernimmt. Letztere Tätigkeit wird benötigt, um so genannte Künstliche Intelligenz zu verbessern. Dabei werden zum Beispiel Bilder und Gegenstände mit Metadaten versehen, also beschrieben und kategorisiert. Bei der Auswertung solcher Daten aus den Meta-Brillen hatten die Sama-Mitarbeiter:innen auch Videos gesehen von Nutzer:innen, die sich umzogen, auf der Toilette waren oder Sex hatten.
Intime Aufnahmen aus Metas Kamera-Brille landen in Nairobi
Ausbeutung als GeschäftsmodellMeta begründete laut dem Guardian das Ende des Vertrages mit Sama damit, dass das Unternehmen Standards nicht erfülle. Am vergangenen Donnerstag verkündete Sama dann, dass es mehr als 1000 Mitarbeiter:innen entlassen. Mit einer Kündigungsfrist von sechs Tagen, wie der Guardian berichtet.
Sama stand schon mehrfach in der Kritik durch ehemalige Angestellte, unter anderem wegen ausbeuterischer Arbeitsbedingungen bei der Daten-Annotation für das Training von ChatGPT. Außerdem haben mehr als 140 ehemalige Content-Moderator:innen, die bei Sama für Meta gearbeitet hatten, die beiden Firmen verklagt. Bei ihnen wurden schwerwiegende post-traumatische Belastungsstörungen diagnostiziert.
Kauna Malgwi, eine ehemalige Mitarbeiterin von Sama, sagte gegenüber dem britischen Medium: „Dieses Problem beschränkt sich nicht auf ein einzelnes Unternehmen oder einen Vertrag. Es zeigt, wie die globale KI-Branche gestaltet ist. Die Macht liegt bei den großen Technologieunternehmen. Das Risiko fließt nach unten und betrifft ausgelagerte Arbeitskräfte, oft im globalen Süden, die den geringsten Schutz und die höchste Gefährdung haben.“
Erst vergangene Woche berichteten Sachverständige bei einem Fachgespräch im Bundestag von den problematischen Bedingungen in der Branche. Sie machten zahlreiche Vorschläge zur Verbesserung, von fairer Bezahlung über die Obergrenzen für die Arbeitszeit an belastendem Material bis zur Etablierung von Content-Moderation als Ausbildungsberuf.
Smart Glasses: „Unethische Technologie“Metas Überwachungsbrille steht unterdessen auch aus anderen Gründen in der Kritik. Vermarktet wird das im September 2025 von Meta-Chef Mark Zuckerberg wie eine Sensation vorgestellte Gadget als stylischer Allround-Assistent, der den Alltag erleichtern soll. Dabei greift das Gerät nicht nur in die Privatsphäre der Nutzer:innen selbst, sondern auch in die von Unbeteiligten ein.
Die neuartigen Brillen von Meta sind ein großes Problem für die Privatsphäre und den Datenschutz. Wenn viele Menschen solche Brillen tragen, droht die kommerzielle Totalerfassung von privaten und öffentlichen Räumen; bald könnte Meta die Brille zusätzlich mit Gesichtserkennung aufrüsten.
Probleme gab es zuletzt schon, weil Menschen die Brillen vor Gericht trugen. Ein Bündnis von 75 US-Bürgerrechtsorganisationen wehrt sich gegen die Nutzung der Brillen im öffentlichen Raum. In einer Presseerklärung schreibt Cody Venzke, leitender Anwalt bei der Bürgerrechtsorganisation ACLU: „Es handelt sich um eine von Natur aus in die Privatsphäre eingreifende und unethische Technologie. Die Gefahren sind nicht hypothetisch – sie sind sehr real, wie wir am Einsatz der Gesichtserkennung in anderen Kontexten gesehen haben. Die Einbettung dieser Technologie in Brillen für Verbraucher würde das Risiko von Schäden für Einzelpersonen, Familien und unsere Demokratie selbst erheblich erhöhen.“
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Uneingelöstes Versprechen auf digitale Souveränität: Europäischer Bezahldienst Wero nutzt Amazon-Server
Wero verspricht mehr digitale Unabhängigkeit und will eine europäische Alternative zu US-Bezahldiensten sein. Doch der Dienst nutzt ausgerechnet Cloud-Infrastruktur der Amazon-Tochter AWS. Das ist auch ein Sicherheitsrisiko für die dort hinterlegten Daten.
Farbenfroh und digital souverän – so präsentiert sich Wero. – Alle Rechte vorbehalten Screenshot wero-wallet.euDirekt Geld an Freunde und Bekannte überweisen, jederzeit und in Sekundenschnelle. Das verspricht Wero. Der neue Bezahldienst startete im Juli 2024 und will sich als europäische Alternative zu US-Bezahldiensten wie Visa, Mastercard und PayPal etablieren.
Hinter dem Angebot steht die European Payments Initiative (EPI), ein Zusammenschluss europäischer Banken und Finanzdienstleistungsunternehmen. In Deutschland machen unter anderem die Deutsche Bank, die Postbank, die ING, die GLS, die Sparkassen sowie Volks- und Raiffeisenbanken mit.
Auf der Wero-Website präsentiert sich der Dienst farbenfroh als „DIE starke und unabhängige europäische Lösung beim digitalen Bezahlen“. Mehr als 50 Millionen Menschen nutzen Wero bereits. Auch im Online- und im Einzelhandel soll der Dienst eine Alternative zur US-Konkurrenz bieten.
Auf Anfrage von netzpolitik.org muss EPI allerdings einräumen, dass Wero seine Dienste teilweise über das US-Unternehmen Amazon Web Services abwickelt. Das aber widerspricht nicht nur dem selbst gestellten Anspruch der digitalen Unabhängigkeit, sondern die bei AWS hinterlegten Daten sind auch potenziell dem Zugriff von US-Behörden ausgesetzt.
Cloud „made in Europe“Nach eigenen Angaben greift EPI „auf eine Kombination aus europäischen und internationalen Technologieanbietern“ zurück, darunter auch „Managed-Infrastructure- und Software-Services von AWS“. Zugleich betont die Initiative, dass sie „die volle Kontrolle über deren Architektur, Sicherheitsmodell und Betrieb“ habe. Doch diese Kontrolle stößt an rechtliche Grenzen.
Mit Beginn von Trumps zweiter Amtszeit gewann in der EU die Debatte um die „digitale Souveränität“ an Fahrt. Einige US-Tech-Konzerne passten daraufhin ihre Angebote an.
So auch AWS. Das Unternehmen ist ein US-amerikanischer Cloud-Anbieter und Tochterunternehmen des Online-Versandhändlers Amazon.com. Zu Beginn dieses Jahres hat es die „AWS European Sovereign Cloud“ in Betrieb genommen. Das Versprechen steckt im Produktnamen: Die Daten der Kunden sollen hier nicht in Übersee, sondern innerhalb der EU gespeichert werden.
Nach eigenen Angaben will AWS seine Kunden so dabei unterstützen, „ihre sich wandelnden Souveränitätsanforderungen zu erfüllen“ – inklusive rechtlicher Schutzmaßnahmen, „die dem Bedarf von Behörden und Unternehmen in Europa gerecht werden“.
US-Behörden könnten Zugriff auf Daten erhaltenEPI hat unter anderem „aus Sicherheitsgründen“ nicht sagen wollen, welche Infrastruktur- und Plattformanbieter Wero im Detail nutzt. Doch selbst wenn der Dienst Daten in der „AWS European Sovereign Cloud“ speichert, bliebe das Souveränitätsversprechen uneingelöst. Vor allem aber wären die Daten dann wohl nicht vor dem Zugriff US-amerikanischer Behörden sicher.
Dafür sorgt der US-amerikanische Clarifying Lawful Overseas Use of Data Act, kurz CLOUD Act, aus dem Jahr 2018. Das Gesetz verpflichtet US-Tech-Anbieter unter bestimmten Bedingungen dazu, Daten gegenüber US-Behörden offenzulegen – auch wenn sich diese außerhalb der Vereinigten Staaten befinden. Schließt ein Unternehmen den Zugriff technisch aus, kann dies Geldbußen oder strafrechtliche Konsequenzen nach sich ziehen.
Zu diesem Schluss kommt ein Gutachten der Universität Köln aus dem März 2025, welches das Bundesinnenministerium (BMI) in Auftrag gegeben hatte. Es wurde im Rahmen einer Anfrage nach dem Informationsfreiheitsgesetz auf FragdenStaat veröffentlicht. Ein Sprecher des Ministeriums bestätigte nach der Veröffentlichung gegenüber Tagesspiegel Background, dass die Nutzung von US-Clouddiensten ein „erhebliches Risiko des Datenabflusses“ bedeute.
Das Risiko „extraterritorialer Zugriffsanfragen“AWS bestreitet, jemals außerhalb der USA gespeicherten Kundeninhalte gegenüber der US-Regierung offengelegt zu haben, wenn es Anfragen erhalten hat, die sich auf den CLOUD Act bezogen – zumindest für die vergangenen sechs Jahre, „seit wir 2020 mit der statistischen Erfassung begonnen haben“.
Das ist keine Gewähr dafür, dass es nicht doch noch dazu kommt. Zumal Jeff Bezos, Gründer von Amazon und heute geschäftsführender Vorsitzender des Verwaltungsrats, inzwischen als „Fanboy“ von Präsident Donald Trump gilt.
Dieses Risikos ist sich offenbar auch EPI bewusst.“Potenzielle extraterritoriale Zugriffsanfragen“ sehe die Initiative „als relevantes rechtliches und geopolitisches Risiko“. Sie verfüge „bereits über Notfall- und Ausstiegspläne für kritische Technologiedienstleistungen“.
Außerdem verfolgt die Initiative nach eigenen Angaben das Ziel, künftig mit mehr europäischen Anbietern zusammenarbeiten und „dabei die für eine kritische Zahlungsinfrastruktur erforderliche Sicherheit, Ausfallsicherheit und Skalierbarkeit zu gewährleisten“.
Welche europäischen Dienstleister das sind, verrät EPI nicht. Ebenso bleibt die Frage offen, wann Wero sein Versprechen nach digitaler Unabhängigkeit einlösen wird.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Weizenbaum Report 2026: Demokratie erfordert Trotz
Die Bevölkerung nimmt Gewalt gegen Politiker:innen zunehmend als Bedrohung für die Demokratie wahr. Zu dieser Einschätzung kommt der aktuelle Weizenbaum-Report zu politischer Partizipation. Auch Hass und Falschinformationen prägen den Alltag im Netz und beeinflussen die Bereitschaft zur Teilnahme an gesellschaftlichen Debatten.
Menschen, die Gewalt gegen Politiker:innen wahrnehmen, demonstrieren mehr. Aber Politiker:innen werden, tun sie deshalb nicht. – Gemeinfrei-ähnlich freigegeben durch unsplash.com TobiasGewalt gegen Politiker:innen richtet sich gegen die politische Gesinnung und soll vor allem eines bewirken: Menschen einschüchtern. Der aktuelle Weizenbaum Report 2026 greift die gesellschaftliche Wahrnehmung physischer wie verbaler Gewalt auf und fragt, wie sich diese auf die Menschen in einer Demokratie auswirkt.
In Zusammenarbeit mit der Freien Universität Berlin erforscht das Weizenbaum-Institut seit dem Jahr 2019 das gesellschaftliche Verhältnis zu politischer Partizipation. Als Grundlage des aktuellen Reports dienen Befragungen aus dem Jahr 2025. Für die repräsentative Datenerhebung wurden insgesamt 1740 Telefon-Interviews herangezogen. 73 Prozent der Befragten hatten zudem bereits im Vorjahr teilgenommen.
Das Ergebnis: Menschen, die Drohungen und Gewalt gegen Politiker:innen wahrnehmen und die Demokratie deshalb als bedroht sehen, demonstrieren mehr, bauen eher Kontakt zu Politiker:innen auf und beteiligen sich häufiger an Petitionen. Die Wahrnehmung von Gewalt scheint auf diese Weise zunächst nicht mit geringerer politischer Beteiligung der Bevölkerung im Zusammenhang zu stehen, so der Report.
Feld politischer Kandidat:innen dünnt ausStraftaten gegen Mandatsträger:innen finden laut dem Bericht regelmäßig mediale Aufmerksamkeit und auch die Zahl der gemeldeten Fälle sei 2025 im Vergleich zum Vorjahr um zwölf Prozent gestiegen. 81 Prozent der Befragten halten Gewalt gegen Politiker:innen für verbreitet. Über zwei Drittel der Befragten halten deshalb die Demokratie für bedroht. Dass dies möglicherweise mit höherer politischer Partizipation der teilnehmenden Befragten im Zusammenhang steht, scheint zunächst ein ermutigendes Ergebnis.
Dennoch ist laut Report zu klären, ob der Zusammenhang kausal ist – also ob diese Wahrnehmung der Gefahr tatsächlich mobilisierend wirkt. Eine Möglichkeit ist, dass diese Menschen schlicht politisch aktiver sind, vermutet Katharina Heger, Erstautorin des Weizenbaum-Reports: „Eventuell kommt diese Wahrnehmung also aus dem eigenen Erleben in der Fußgängerzone, auf der Demo oder am Wahlkampfstand, denn bei der vernetzten politischen Beteiligung sehen wir diesen Zusammenhang nicht“.
Zugleich zeigt der Report auch: Wer die Demokratie durch Gewalt bedroht sieht, kann sich eher nicht vorstellen, selbst ein politisches Amt auszuüben. Dies führe im kommunalen Bereich bereits dazu, dass Mandatsträger:innen ihre Ämter aufgeben oder sich zu wenige Kandidat:innen finden, sagt Prof. Dr. Martin Emmer von der FU Berlin: „Grundsätzlich sehen die Menschen die Übernahme eines politischen Amtes ohnehin nicht so sehr als Bürgerpflicht an wie andere Formen politischer Partizipation, deshalb schlagen die Folgen dieser Wahrnehmungen von Drohungen und Gewalt hier besonders deutlich durch. Drohungen und Gewalt gegen Politiker:innen sind also nicht allein deren Problem, sondern eine Bedrohung für die Demokratie insgesamt.“
Bedarf an zivilisiertem Umgang im NetzSeit 2019 messen die Forschenden die Vorstellung dessen, was gute Bürger:innen tun – etwa zur Wahl gehen oder Gesetze befolgen. Auch diskursive Bürgernormen im Netz werden seither untersucht.
Das Internet hat sich dabei laut Report zur etablierten Informationsquelle für Nachrichten und politische Inhalte entwickelt. Zwei Drittel der Bevölkerung informieren sich regelmäßig online. Auch das Wachstum sozialer Medien scheint nicht abzureißen. 2025 lag der Anteil bei 36 Prozent – fünf Prozentpunkte mehr als im Jahr 2021. Videoplattformen wie YouTube gewinnen laut der Studie an Bedeutung. Hier liegt der Anteil mit 47 Prozent um 6 Prozentpunkte höher als 2021.
Die Bedeutung der Diskurspflege ist dabei laut Studienlage gewachsen: 83 Prozent der Befragten finden es wichtig, sich für einen respektvollen Umgang in Online-Diskussionen einzusetzen. 75 Prozent der Befragten finden es zudem wichtig, gegen Hass und Hetze einzutreten, sowie 71 Prozent, auch auf Falschmeldungen hinzuweisen.
Zwölf Prozent der Befragten berichten zudem, in der Konfrontation mit Hasskommentaren Gegenrede geleistet zu haben. 15 Prozent meldeten diese an die Plattformen. Dabei verhalten sich Altersgruppen unterschiedlich. 53 Prozent der unter 30-Jährigen meldeten Hasskommentare, bei den über 50-Jährigen waren es lediglich 9 Prozent.
Auch bei Falschinformationen steige die Gegenwehr, so die Untersuchung. 32 Prozent der Befragten geben an, den Wahrheitsgehalt von Meldungen zu überprüfen, 25 Prozent warnen andere vor Falschnachrichten und zwölf Prozent geben an, diese an die Plattform zu melden. Analog zu den Hasskommentaren gibt es auch hier einen Kontrast: Unter 30-Jährige prüfen vermeintliche Falschnachrichten auf ihren Wahrheitsgehalt mit 60 Prozent am meisten, die über 50 Jährigen prüfen jedoch nur noch zu 26 Prozent.
Neues Bild bürgerlicher Normen„Jüngere, die auch im digitalen Raum sozialisiert wurden, haben einen anderen Zugang zu Plattformfunktionen“, sagt Heger. „[Ältere] übertragen vermutlich eher die offline erlernten Formen der Zivilcourage auf den digitalen Raum, etwa die soziale Intervention und direkte Konfrontation, wie sie auch auf der Straße dazwischen gehen würden.“
Der persönliche Einsatz gegen Hasskommentare und Falschinformationen werde also zunehmend als etablierte Form bürgerschaftlichen Engagements verstanden. Menschen treten demnach auch im Netz vermehrt für demokratische Grundwerte ein. Insgesamt zeige sich laut Report, dass die traditionellen Vorstellungen guter Bürger:innenschaft zunehmend mit den Erfahrungen aus dem Netz ergänzt werden.
Das Thema Künstliche Intelligenz könne dabei eine Rolle spielen: Die zunehmende Verbreitung KI-generierter Inhalte – darunter auch sogenannte Deepfakes – kann dazu beitragen, dass Menschen sensibler für Falschinformationen werden, mutmaßt die Studie. Dennoch wirke sich die zunehmende Verbreitung von Falschinformationen bei den audiovisuellen Inhalten besonders negativ aus, sagt Mitautor Christian Strippel, gerade deshalb, „weil wir gewohnt sind, zu glauben, wenn wir etwas ‚mit eigenen Augen‘ gesehen haben.“
Gräben, die bleibenWer eine höhere Schulbildung hat, kommentiert und teilt laut Report fast doppelt so häufig wie Menschen mit formal niedrigem Bildungsabschluss. Menschen mit höherer Bildung verfügen demnach über mehr politische Teilhabe im digitalen Raum – also genau dort, wo ein wachsender Teil der öffentlichen Debatte stattfindet. Laut Emmer spielen Bildungsunterschiede im Digitalen so eine deutlich höhere Rolle als bei traditionellen Partizipationsformen: „Besser Gebildete haben besseren Zugang zu relevanten Informationen und können damit online aber auch offline deutlich mehr Einfluss ausüben.“
Zudem zeigt sich ein Geschlechter-Unterschied: Frauen halten sich laut der Studie bei der sichtbaren Beteiligung im Netz zurück. Sie kommentieren und teilen deutlich seltener politische Inhalte, was ihre öffentliche Sichtbarkeit verringert. Beim Teilen von Petitionen sind sie dagegen aktiver.
„Wer selbst postet oder kommentiert, stellt den eigenen Standpunkt in den Mittelpunkt und macht ihn stärker sichtbar. Wir sehen immer wieder, dass Frauen eine geringere politische Selbstwirksamkeit berichten, also dass das Gefühl, sich mit Politik auszukennen und sich wirksam und sinnvoll einbringen zu können, bei Frauen im Durchschnitt geringer ausgeprägt ist als bei Männern“, sagt Heger. Zu diesem Ungleichgewicht trage auch die vorherrschende digitale Diskussionskultur bei: „Frauen, die sich politisch positionieren, insbesondere mit feministischen Standpunkten, werden immer wieder zur Zielscheibe von verbalen Attacken.“
Vertrauen in die MedienDas Vertrauen in die etablierten Medien fällt dabei geteilt aus: Nur knapp die Hälfte der Befragten gibt an, den etablierten Medien zu vertrauen, wenn es „um wirklich wichtige Dinge“ geht – beispielsweise Umweltprobleme, Gesundheitsgefahren, politische Skandale und Krisen. Etwa ein Fünftel habe dieses Vertrauen nicht, während 29 Prozent sich in dieser Frage ambivalent zeigen.
Ein zwingender Grund zur Beunruhigung sei dies jedoch nicht, denn für eine offene und vielfältige Gesellschaft sei Unzufriedenheit mit Medien normal, so Emmer: „‚Nordkoreanische‘ Zustimmungswerte von 90 Prozent oder mehr würden mich eher misstrauisch machen.“
Gleichzeitig sei indes zu beobachten, dass das Phänomen der Nachrichtenvermeidung zunimmt. „Es gibt eine noch kleine, aber langsam und stetig wachsende Gruppe von Menschen, die sich vollständig von Medien abwenden, was mittelfristig durchaus ein Problem werden kann“, sagt Emmer. „Denn diese Menschen sind dann deutlich leichter durch sogenannte ‚alternative Medien‘ oder Verschwörungserzählungen ansprechbar.“
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Automatisierte Datenanalyse in NRW: Palantir-Gesetz nicht verfassungskonform
Die Datenschutzbeauftragte von Nordrhein-Westfalen geht mit der im neuen Polizeigesetz geregelten automatisierten Datenanalyse hart ins Gericht. In ihrem Tätigkeitsbericht bezweifelt sie die Rechtmäßigkeit der Norm, die den Einsatz von Palantir-Software erlaubt. Der NRW-Innenminister Herbert Reul liebäugelt mit Palantir-Alternativen.
Innenminister Herbert Reul (73, CDU) am Redepult im Landtag Nordrhein-Westfalen. – Alle Rechte vorbehalten Landtag NRW, Bernd SchälteEinige Regelungen im neuen Polizeigesetz von Nordrhein-Westfalen durchbrechen den Grundsatz der Zweckbindung. Das schreibt die Datenschutzbeauftragte von Nordrhein-Westfalen, Bettina Gayk, in ihrem am Freitag veröffentlichten 31. Tätigkeitsbericht für 2025. Sie begründet darin ihre „Zweifel an der Verfassungsmäßigkeit“ des Gesetzes. „Trotz mehrfacher Intervention“ wurden ihre Einwände jedoch „im Gesetzgebungsverfahren nicht berücksichtigt“. Viel deutlicher hätte die Datenschutzbeauftragte zur Ignoranz ihrer Expertise durch die Landesregierung nicht werden können.
Nach mehreren Entscheidungen des Bundesverfassungsgerichts in den letzten Jahren musste Nordrhein-Westfalen sein Polizeigesetz anpassen. Auch für die darin geregelte automatisierte Datenanalyse machte Karlsruhe im Februar 2023 neue detaillierte Vorgaben.
Der etwas sperrige Rechtsbegriff „automatisierte Datenanalyse“ beschreibt die übergreifende Auswertung von polizeilichen Datensammlungen, die in NRW mit Hilfe des US-Konzerns Palantir vollzogen wird. Innenminister Herbert Reul (73, CDU) hatte in einem Interview mit dem Merkur im Sommer 2025 erklärt, bei dem Anbieter zunächst bleiben zu wollen. Der Fünf-Jahres-Vertrag mit Palantir wurde dann zwar verlängert, aber nur bis Oktober 2026.
Gayks Kritik bezieht sich auch auf den Konzern, vor allem aber richtet sie sich gegen die rechtlichen Regelungen: Die polizeilichen Befugnisse bei der Datenanalyse in NRW wurden nach dem Palantir-Urteil des Bundesverfassungsgerichts nicht etwa beschnitten, sondern beträchtlich ausgebaut und erlauben nun beispielsweise auch „KI“-Training. Diese erheblich erweiterten Analysebefugnisse im Polizeigesetz (§ 23 Abs. 6) wurden vom Landtag bereits beschlossen.
„Sogar noch einmal verschärft“Gayk kritisiert in der Pressemitteilung zu ihrem Tätigkeitsbericht, den sie NRW-Landtagspräsident André Kuper (CDU) übergab, den generellen Trend zu „ungezügelter Datennutzung“. Zudem würden Gesetze „teils im Eilverfahren verabschiedet“, so dass der Schutz der Grundrechte „nicht mit der notwendigen Sorgfalt berücksichtigt“ werde.
Beim Polizeigesetz wird Gayk in ihrem Tätigkeitsbericht besonders deutlich. Denn „schon beim ursprünglichen Text des PolG NRW“ wären „gesetzliche Ergänzungen“ notwendig gewesen. Das hätte sie auch in ihrer damaligen Stellungnahme deutlich gemacht. Die Verantwortlichen ignorierten die Expertise ihrer Datenschutzbeauftragten. Gayk schreibt:
Doch die Landesregierung ist darauf nicht nur nicht eingegangen – sie hat im überarbeiteten PolG NRW das Eingriffsgewicht möglicher polizeilicher Datenanalysen sogar noch einmal verschärft. Das hat zur Folge, dass das neue Gesetz erst recht nicht die Anforderungen an eine verfassungskonforme Norm erfüllen dürfte.
Denn nach den neuen Befugnissen dürfen nicht nur „Beziehungen oder Zusammenhänge zwischen Personen, Personengruppierungen, Institutionen, Organisationen, Objekten und Sachen hergestellt werden“, sondern auch „selbstständig arbeitende oder selbstlernende Systeme“ eingesetzt werden. Was der Amtsschimmel hier meint, sind kaum eingegrenzte Formen von Software-Auswertungen, auch mit sogenannter „Künstlicher Intelligenz“. Polizeiliche Daten aus Registern oder Fahndungssystemen können beispielsweise mit Telekommunikationsdaten und vielen weiteren Datenarten verknüpft und automatisiert ausgewertet werden.
All dies hatte Gayk auch „zusätzlich in einer an den Landtag NRW gerichteten Stellungnahme deutlich gemacht“. Doch auch im Landtag fruchteten ihre Argumente nicht: „Keiner dieser Hinweise wurde im Gesetzgebungsverfahren berücksichtigt.“
Palantir Wir berichten mehr über Palantir als uns lieb wäre. Unterstütze unsere Arbeit! Jetzt spendenDie Datenschutzbeauftragte ruft dabei ins Gedächtnis, dass bei der ersten Einführung der Datenanalyse in NRW noch besonders betont worden sei, „dass dieser Eingriff keine große Intensität aufweise – da KI gerade nicht zum Einsatz komme“. Jetzt hingegen sei nicht nur der Einsatz von „KI“ erlaubt, sondern sogar das „KI“-Training.
Im Jahr 2022 wurde im Polizeigesetz die Rechtsgrundlage für die Datenanalyse geschaffen, die in NRW den Namen DAR (Datenbankübergreifende Analyse- und Recherche) trägt und von Palantir schon seit 2019 für mindestens 39 Millionen Euro bereitgestellt wird. Seit dem Bohei um „KI“ wirbt der journalistenfeindliche Konzern mit bizarrer politischer Agenda damit, dass auch seine Software Künstliche Intelligenz beinhalte.
Software-TrainingDie neue Regelung zum „KI“-Training enthält die Erlaubnis zur „Entwicklung, Überprüfung, Änderung oder zum Trainieren von IT-Produkten“. Das werfe zusätzliche Probleme auf, wenn die Polizei NRW dazu gespeicherte echte Daten von Menschen verwenden darf. Denn die Norm sehe „so gut wie keine Einschränkungen oder Voraussetzungen vor“, so Gayk. Zwar sollen die in das Training einfließenden Daten grundsätzlich anonymisiert werden. Aber das wurde ausgehebelt durch den Zusatz, dass die Anonymisierung auch unterbleiben kann, wenn sie „voraussichtlich mit einem hohen Aufwand verbunden“ ist.
Die Datenschutzbeauftragte hatte im Gesetzgebungsprozess gefordert, dass keine identifizierenden Informationen in das Software-Training einfließen sollen. Schließlich sei „die KI darauf ausgelegt“, Zusammenhänge zwischen Daten zu erkennen. Die könnten auch dann hergestellt werden, wenn der Name weggelassen würde. „Eine Anonymisierung gestaltet sich damit generell schwierig“, so Gayk.
Doch sie blieb auch mit diesem Einwand ungehört. Die NRW-Datenschützerin senkt nun zum „KI“-Training klar den Daumen:
Insgesamt sind im Gesetz nicht ansatzweise ausreichende Maßnahmen geregelt, um den mit der Nutzung zu Trainingszwecken einhergehenden Risiken […] angemessen zu begegnen.
Umdenken bei Herbert ReulNeben diesen rechtlichen Bedenken beim „KI“-Training weisen Juristen schon länger auf das Problem, dass durch die Zusammenarbeit mit dem US-Konzern Palantir Polizeidaten in die Vereinigten Staaten abfließen könnten. Auch die NRW-Datenschutzbeauftragte betont in ihrem Bericht, dass sie die Landesregierung darauf hingewiesen hätte, „dass der Programmanbieter der US-amerikanischen Gesetzgebung unterliegt“. Gayk macht deutlich, dass zwei US-Gesetze hier einschlägig wären, nämlich der US CLOUD Act aus dem Jahr 2018 und der US Foreign Intelligence Surveillance Act. Diese böten US-Behörden „weitreichende Möglichkeiten, auf die Daten des Anbieters zuzugreifen“:
Da das Programm den Polizeidatenbestand nahezu vollständig einbezieht, würde dieser Datenbestand dann, wenn er im Zusammenhang mit KI-Training auch dem Programmanbieter zur Verfügung steht, nicht kontrollierbaren Zugriffen der US-Behörden unterliegen.
An dem seit 2017 amtierenden Innenminister Herbert Reul scheinen solche Hinweise nicht mehr gänzlich abzuprallen. Denn dass in NRW weiter mit Palantir zusammengearbeitet wird, ist nicht mehr ausgemacht. Der Widerstand gegen den US-Konzern ist zwischenzeitlich wohl zu deutlich gewachsen.
Reul sucht nun eine neue Analysesoftware für die Polizei, wie die dpa am Wochenende meldete. Denn Mitte Oktober läuft der Vertrag mit Palantir aus. Offenbar hat das vom US-Konzern und auch von deutschen Polizeianwendern gern besungene fast mythische Ansehen der Palantir-Software, der aktuell kein anderer Anbieter im Markt funktional das Wasser reichen kann, einige Kratzer bekommen.
An Gayks Einschätzungen zur Rechtmäßigkeit der gesetzlichen Regelungen zur automatisierten Datenanalyse in NRW ändert ein möglicher neuer Vertragspartner aber nichts. Denn ihre Kritik richtet sich gegen die außerordentlich weitgehenden Befugnisse, nicht nur gegen den Anbieter.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Polizeiliche Kriminalstatistik: Kriminalitätsrate sinkt um fast sechs Prozent
Die von der Polizei erfasste Kriminalität geht in vielen Feldern deutlich herunter. Dennoch will CSU-Innenminister Dobrindt mehr Überwachungmaßnahmen und schärfere Gesetze.
Bundesinnenminister Alexander Dobrindt (CSU) bei der Vorstellung der Statistik. – Alle Rechte vorbehalten IMAGO / dts NachrichtenagenturDie von der Polizei registrierte Kriminalität ist laut der heute veröffentlichten Polizeilichen Kriminalstatistik im Jahr 2025 gegenüber dem Vorjahr um 5,6 Prozent gesunken, bei Zuwanderern sogar um 7,2 Prozent. Dennoch versendete das Bundesinnenministerium eine Pressemitteilung, welche das Thema nicht-deutsche Straftaten in den Mittelpunkt stellt.
Die jährliche Statistik, hier die Zusammenfassung, steht wegen wegen ihrer Anfälligkeit zur Instrumentalisierung und auch rassistischen Stimmungsmache schon länger in der Kritik. Bei grober Betrachtung der polizeilichen Zahlen fallen sowohl demographische als auch soziale Faktoren unter den Tisch. Auch dass die Polizei einen verstärkten Fokus auf bestimmte Tätergruppen hat und die Bevölkerung je nach Tätergruppe unterschiedliches Anzeigeverhalten zeigt, bleibt dabei unbeachtet.
Daneben ist die Kriminalstatistik auch nur ein Ausschnitt der Kriminalitätsentwicklung, die nicht zeigt, wie viele Straftaten später tatsächlich zu einer Verurteilung durch ein Gericht führen. Sie ist deshalb immer mit Vorsicht zu genießen, wie wir im Vorfeld der Veröffentlichung beschrieben haben.
Das Bundesinnenministerium weist darauf hin, dass ein Teil des Rückgangs auf die Teillegalisierung von Cannabis zurückgeht, doch auch ohne diese ist die erfasste Kriminalität um 4,7 Prozent zurückgegangen. Auch der Anteil an Kindern (-6,4 Prozent) und Jugendlichen (-10,4 Prozent) an Tatverdächtigen ist zurückgegangen. Auch die Gewaltkriminalität ist laut Bundeskriminalamt (BKA) um 2,3 Prozent rückläufig. Die Aufklärungsquote aller Straftaten bleibt mit 57,9 Prozent stabil (Vorjahr 58 Prozent).
Angestiegen ist die Zahl der Sexualdelikte um etwa 2,8 Prozent. Hier erklärt das BKA den Anstieg mit veränderten Gesetzen, die den Schutz der sexuellen Selbstbestimmung verbessern, sowie mit einer steigenden Bereitschaft, Sexualdelikte auch zur Anzeige zu bringen. Sexualdelikte haben in der Regel ein hohes Dunkelfeld, die Steigerung der registrierten Fälle muss nicht heißen, dass es mehr Fälle insgesamt gibt.
Im Bereich der Internet- und Betrugskriminalität weist das BKA auf einen Rückgang von Taten aus Deutschland hin, aber eine Steigerung von solchen, die aus dem Ausland heraus in Deutschland begangen werden. Die Fallzahlen glichen sich mittlerweile an.
Dobrindt will es trotzdem härterBKA-Präsident Holger Münch spricht von einem „differenzierten Bild“, das die Statistik wiedergebe. „Die registrierte Kriminalität ist 2025 gesunken, wir sehen Rückgänge bei Gewaltkriminalität und bei der Zahl der Tatverdächtigen.“ Gleichzeitig verändere sich Kriminalität, sie würde digitaler, internationaler und in manchen Bereichen auch brutaler, so Münch weiter.
Der insgesamt starke Rückgang der polizeilich erfassten Kriminalität führt nicht dazu, dass sich Innenminister Alexander Dobrindt (CSU) zufrieden zeigt. In einem verbreiteten Statement verweist er stattdessen auf die „gefühlte Sicherheit“ und fordert weitere Maßnahmen wie einen „harten Aktionsplan gegen Organisierte Kriminalität“ sowie „konsequente Abschiebungen von Intensivtätern“ und „klare, unmissverständliche Gesetze zum Schutz unserer Polizistinnen und Polizisten“.
In der Pressekonferenz kündigte er laut Tagesschau an, die Ermittlungsbefugnisse der Polizei deutlich ausbauen zu wollen. Hierzu gehören sowohl die automatisierte Datenanalyse a la Palantir sowie die biometrische Fahndung im Internet.
Beide Projekte stehen in der Kritik. Zivilgesellschaftliche Organisationen wie Amnesty International, die GFF und AlgorithmWatch weisen daraufhin, dass die Gesetzespläne verfassungswidrig seien und eine neue Form der Massenüberwachung darstellen. Sie alle warnen vor massiven Grundrechtseingriffen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Deutschland-Stack und Zivilgesellschaft: Digitalministerium sendet widersprüchliche Signale
Das Digitalministerium hatte die Zivilgesellschaft aufgerufen, sich beim Deutschland-Stack einzubringen. Doch in beiden Konsultationsphasen wurde deren Expertise nicht gefragt. Dabei bringt die Zivilgesellschaft Fragen ein, die sonst untergehen. Das zeigt der Workshop zu „KI in der Verwaltung“ des Bündnisses F5.
In der Kommunikation mit dem Digitalministerium: Zivilgesellschaft steht vor Rätseln. (Symbolbild) – CC-BY-SA 2.0 Flickr/Captain of the Burning Ship; Bearbeitung: netzpolitik.orgDer Deutschland-Stack ist das Großprojekt des jungen Bundesministeriums für Digitales und Staatsmodernisierung schlechthin. Damit will Karsten Wildberger (CDU) ein „digitales Update“ (€) für Deutschland. Mit der „einheitlichen IT-Infrastruktur mit Basiskomponenten wie Cloud- und IT-Diensten und klar definierten Schnittstellen“ adressiert er die grundlegenden Versäumnisse der seit Jahren schleppenden Digitalisierung der öffentlichen Verwaltung.
Eigentlich könnte das Ministerium hier aus dem Vollen zivilgesellschaftlicher Expertise schöpfen. Viele zivilgesellschaftliche Akteure beobachten die scheiternde Verwaltungsdigitalisierung nicht nur seit Jahrzehnten, sondern bringen ihr Wissen und ihre Erfahrungen häufig ehrenamtlich in Digitalisierungsprojekte und nachhaltige Lösungswege ein.
Zum Start des Konsultationsprozesses im Herbst erhielt das Ministerium zunächst viel Lob. Öffentlich rief es Gruppen, Verbände, aber auch Einzelpersonen dazu auf, über die Plattform openCode ihr Feedback zum Stack einzubringen. Der Zugang dazu ist niedrigschwellig und die einzelnen Beiträge sind öffentlich einsehbar. Die volle Transparenz hebt hier die Konsultation stark von bisherigen Beteiligungsformaten ab.
Workshops ohne die ZivilgesellschaftDoch um Feedback zu bekommen, fährt das Ministerium von Anfang an zweigleisig. Denn zeitgleich zur offenen Konsultation plante es Workshops mit Verbänden aus den Bereichen Start-ups, Wissenschaft, IT- und Digitalwirtschaft sowie weiteren. Mit von der Partie waren vor allem Wirtschaftsverbände. Dabei erhielt die Zivilgesellschaft bislang keinen Zugang.
Was bei den Workshops herauskam, ist nicht bekannt. Die hätten „generell im Haus intern und auf Arbeitsebene stattgefunden – zu diesen gibt es keine öffentliche Berichterstattung“, erklärt ein Sprecher des BMDS gegenüber netzpolitik.org.
Wie aus der Antwort (PDF) der Bundesregierung auf eine Kleine Anfrage von Sonja Lemke (Die Linke) hervorgeht, gab es im November fünf Workshops – zu den Themen Markt und Integrationsplattform, Startups und Agentic AI. Sie wurden unter anderem ausgerichtet von eco, dem KI-Verband, Bitkom und Databund. Die Bundesregierung betonte, sie habe Expertise zum Thema „technische Standards und Technologien des Deutschland-Stacks“ angefragt, aber an den Workshops lediglich als „Impulsgeber“ teilgenommen.
Digitalministerium lässt sich bittenBei der Terminvergabe ging die Zivilgesellschaft leer aus, sowohl in der ersten Konsultationsphase vom 1. Oktober bis zum 30. November als auch in der zweiten vom 16. Januar bis zum 15. Februar. Dabei hatte das Bündnis F5 bereits im Herbst beim Ministerium nach einem Termin gefragt, so Kai Dittmann. Er leitet die Advocacy- und Policyarbeit bei der Gesellschaft für Freiheitsrechte (GFF) und koordiniert das Bündnis.
Zu diesem Bündnis haben sich die Organisationen Reporter ohne Grenzen, AlgorithmWatch, Wikimedia Deutschland, Open Knowledge Foundation Deutschland und GFF zusammengeschlossen, sie setzen sich für eine gemeinwohlorientierte Digitalpolitik ein.
„Wir hatten gehofft, dass das BMDS von sich aus einen Konsultationsworkshop zum Deutschland-Stack anbietet“, sagt Dittmann, „um zunächst ein paar grundlegende Informationen zu vermitteln, etwa was zum Stack gehört und was nicht. Es wäre sinnvoll gewesen, zu Beginn darüber zu diskutieren, bei welchen Fragestellungen die Zivilgesellschaft aktiv eingebunden sein sollte“, etwa bei der Frage nach dem Einsatz digitaler Identitäten und danach, wie der sich auf Grundrechte auswirkt und wie er eingeschränkt werden müsste. Auch zur Frage einer sinnvollen Datenhaltung, um diesen Deutschland-Stack zu befüllen, hätte das BMDS von der Expertise von Wikimedia profitieren können, so Dittmann.
F5-Workshop zu KI in der VerwaltungSchließlich fand Ende März ein Workshop mit F5 statt. Das Thema: „KI in der Verwaltung“. Doch wie das BMDS auf Anfrage erklärt, habe der Workshop „keinen speziellen Bezug zum Deutschland-Stack“. Das überrascht in doppelter Hinsicht. Denn laut Antwort der Bundesregierung vom Dezember sei ein Workshop mit der Zivilgesellschaft „in Klärung“ und als Organisation benannte sie das Bündnis F5. Das suggeriert, dass der F5-Workshop im Kontext des Deutschland-Stacks geplant war.
Zweitens waren bei diesem Workshop laut BMDS nicht nur Vertreter:innen aus der Zivilgesellschaft eingeladen, sondern auch aus der Wirtschaft. Überraschend ist die „Klarstellung“ des Ministeriums auch, weil KI im überarbeiteten „Gesamtbild“ ausdrücklich Teil des Deutschland-Stacks ist.
Agentische KI soll Verwaltungsaufgaben künftig erleichtern und teilweise übernehmen. Dazu hat das BMDS einen eigenen Hub gegründet und fördert eine Reihe an Pilotprojekten. Eines davon setzt agentische KI beim Antragsverfahren für Wohnberechtigungsscheine ein. Sie betrifft einen sensiblen Bereich, in dem es um die Existenz von Menschen geht. Fehler wären hier verheerend. Das veranschaulicht das Beispiel um die Kindergeldaffäre in den Niederlanden.
„Ins Machen kommen“ braucht klare Grenzen„Im Workshop haben wir viele Fragen erst angerissen“, so Dittmann. Wie gehen Verwaltungen und Mitarbeiter:innen etwa damit um, wenn was schief geht? Wer trägt die Verantwortung für den Fall, dass Fehler passieren, die unter Umständen gravierende Konsequenzen haben? Der Sachbearbeiter, die Software-Hersteller, der IT-Dienstleister, die Behörde, die das KI-System eingekauft hat, oder der Minister, der das Ganze vorangetrieben hat? Wer ist zuständig, wenn entsprechende KI-Systeme nicht die gewünschten Ergebnisse liefern?
Was passiert, wenn ein einzelner Sachbearbeiter mithilfe von KI-Agenten immer mehr Anträge bearbeitet und etwas übersieht? „Müssen wir mit einer Verantwortungsdiffusion in diesem System rechnen?“, fragt Dittmann. Denn klar sei, die Maschine kann keine Verantwortung tragen.
Das alles seien gesellschaftliche Fragen, über die wir sprechen und die wir klären müssten. Angesichts des Mottos „ins Machen kommen“ seien sie bislang untergegangen. Ins Machen zu kommen, heiße aber auch zu entscheiden, „was wir alles nicht machen“ und Grenzen abzustecken, so Dittmann.
Aufsuchende BeteiligungDass das BMDS im Rahmen des D-Stacks die Zivilgesellschaft auf Abstand hält, ist umso unverständlicher, als es laut Sprecher beim KI-Transformationsprozess ausdrücklich darum gehe, deren Perspektiven einzubeziehen.
Auch wenn die Kommunikation des Ministeriums bislang unstet war, den Workshop Ende März sieht Dittmann als Startschuss dafür, zivilgesellschaftliche Expertise nicht nur einzubeziehen, sondern auch als Ressource zu begreifen. Die könne das Ministerium noch mehr nutzen, wenn es sich um eine aufsuchende Beteiligung bemüht.
Das kann bedeuten, die Expertise engagierter Menschen über andere Wege einzuholen. Denn die arbeiten häufig ehrenamtlich und können Workshops nicht wahrnehmen, wenn die an einem Werktag zu normalen Geschäftszeiten stattfinden. Das betrifft zum Beispiel Ehrenamtliche von D64, dem Zentrum für digitalen Fortschritt, vom Chaos Computer Club oder InÖG, dem Innovationsverbund öffentliche Gesundheit.
Das Ministerium könnte Forschungsmittel bereitstellen oder bei Forschenden anfragen, welche Personen oder ehrenamtlichen Organisationen sich bei bestimmten Fragen besonders gut auskennen. Beispielsweise könne das BMDS auch nach Erfahrungen fragen, die ehrenamtliche Digitalisierungsprojekte in Berlin, auf Bundesebene, aber auch in Städten und kleineren Gemeinden eingeholt haben.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Transparenzbericht 1. Quartal 2026: Unsere Einnahmen und Ausgaben – und viele kleine Lagerfeuer
Wenn die eigenen Recherchen verfilmt werden, ist das schon ein ganz besonderes Ereignis. Wir haben uns vor ein emotionales Lagerfeuer gesetzt und spüren, wie sich nach Jahren der Recherchearbeit ein Kreis schließt. Und an dessen Anfang steht ihr, liebe Spender:innen.
Hier sollte niemand Funken schlagen. – CC public domain Isaac Levitan, Birkenhain (1860–1900)Das Fernsehen galt lange Zeit als das emotionale Lagerfeuer der Nation. Aus Sicht vieler glimmt es heute aber nur noch. Nicht so bei uns: Fast das ganze Team von netzpolitik.org saß an einem Nachmittag im Februar dicht an dicht im abgedunkelten Konferenzraum – und starrte gebannt auf den Fernseher.
Es war eine Sneak-Preview der besonderen Art. Sechs Wochen vor der offiziellen Ausstrahlung hatten wir vom Bayerischen Rundfunk die finale Schnittfassung der Dokumentation „Gefährliche Apps – Im Netz der Datenhändler“ erhalten. Die Doku ist so etwas wie der Film zu unseren Recherchen.
Seit mehr als zwei Jahren arbeiten Sebastian und Ingo zusammen mit einem Team des Bayerischen Rundfunks an den „Databroker Files“. Die Doku erzählt davon und den konkreten Gefahren, die von Tracking-Daten ausgehen.
Der Film macht das, was Filme nun einmal so gut können: den flächendeckenden Angriff auf die Privatsphäre von Handy-Nutzer:innen noch anschaulicher. Die Punkte auf der animierten Karten werden zu einzelnen Menschen, die in die Kamera blicken und zu uns sprechen. Eine ägyptische Journalistin, ein ukrainischer Soldat, eine bayerische Schülerin. Für Menschen wie sie ist der Datenhandel eine existenzielle Gefahr. Das versteht man nicht nur, das spürt man auch.
Als Ingo und Sebastian im Februar 2024 mit ihren Recherchen begannen, hatten sie wohl nicht geahnt, dass auch sie eines Tages zu Protagonisten einer Fernseh-Doku werden. Regelmäßig geben wir Interviews oder stehen auf Bühnen. So erreichen wir auch Menschen, die netzpolitik.org vielleicht noch nicht kennen. Wenn aber die eigene Recherchearbeit in ein neues Medium übersetzt wird, dann schafft dies was Neues, was verbindet: Redaktionen, die miteinander kooperieren. Medien, die ein Thema unterschiedlich erzählen. Ein Team, das jeden Tag für die Grund- und Freiheitsrechte aller kämpft.
Die Doku erreichte am 7. April eine Einschaltquote von rund elf Prozent. Laut den Kolleg:innen beim Bayerischen Rundfunk kann sich das sehen lassen. Und bei YouTube hat das Video bereits mehr als 280.000 Aufrufe. Das sind sehr viele kleine Lagerfeuer im ganzen Land. Und das macht uns schon ein wenig stolz.
Möglich ist das aber nur mit eurer Unterstützung. Der Öffentlich-Rechtliche hat seine Beitragszahler:innen, wir haben unsere Spender:innen. Dank euch konnten wir das Thema Datenhandel überhaupt erst groß machen, konnten wir über viele Monate in europaweit recherchieren und am Ende so viele Menschen erreichen.
Ihr seid der Anfang von alledem – der Funke, der das Feuer entzündet. Und das verbindet uns, liebe Spender:innen und Leser:innen. Vielen Dank dafür.
Die harten ZahlenUnd bevor wir emotional völlig dahinschmelzen, kommen wir zu den harten Zahlen des ersten Quartals 2026. Beim Jahresausklang 2025 habt ihr für uns Funken gesprüht. Das war toll. Das Erreichen des Spendenziels bei der Jahresendkampagne bedeutet für uns gute Aussichten für die Finanzierung von netzpolitik.org im Folgejahr. Denn die Einnahmen aus einer gut verlaufenden Jahresendkampagne kompensieren unsere deutlich geringeren, unterjährigen Spendeneinnahmen.
Zumal uns der Schwung vom Jahresende im ersten Quartal des neuen Jahres noch höhere Spendeneinnahmen als in den Folgemonaten beschert. So auch in diesem.
Unsere SpendeneinnahmenIm ersten Quartal haben wir 229.136 Euro an Spenden von euch erhalten. Das ist ein gutes Ergebnis, liegt aber etwa 34.400 Euro (13 Prozent) unter unseren Erwartungen, die wir vor allem aus den Erfahrungen der Vorjahre ableiten. Der Schwung zu Anfang dieses Jahr ist also schwächer ausgefallen.
window.addEventListener("message",function(a){if(void 0!==a.data["datawrapper-height"]){var e=document.querySelectorAll("iframe");for(var t in a.data["datawrapper-height"])for(var r,i=0;r=e[i];i++)if(r.contentWindow===a.source){var d=a.data["datawrapper-height"][t]+"px";r.style.height=d}}});
Unsere EinnahmenInsgesamt belaufen sich unsere Einnahmen im ersten Quartal auf 235.620 Euro. Im Verhältnis zu unseren Gesamteinnahmen beträgt der Anteil der Einnahmen aus Spenden über 97 Prozent. Aus dem Verkauf im Webshop erhielten wir etwas unter 1.200 Euro und aus der Verwertung im digitalen Pressespiegel etwas über 900 Euro. Der Zuschuss des Bundes für den Platz im Rahmen des Freiwilligendienstes liegt unverändert bei 300 Euro monatlich und somit bei 900 Euro im Quartal. Die sonstigen Erlöse setzen sich vor allem aus den Posten Erstattungen für Ausfallzeiten aufgrund von Krankheit (AAG) und Zinserträgen zusammen.
window.addEventListener("message",function(a){if(void 0!==a.data["datawrapper-height"]){var e=document.querySelectorAll("iframe");for(var t in a.data["datawrapper-height"])for(var r,i=0;r=e[i];i++)if(r.contentWindow===a.source){var d=a.data["datawrapper-height"][t]+"px";r.style.height=d}}});
Unsere AusgabenBei den Ausgaben liegen die Personalkosten bei 227.273 Euro und damit rund 5.000 Euro unter den veranschlagten Kosten laut unserem Stellenplan. In den Sachkosten haben wir für das erste Quartal 58.350 Euro und damit rund 20.900 Euro weniger ausgegeben als kalkuliert. Das ist vor allem der monatlichen Kalkulation von Ausgaben wie Beratung und Fortbildung geschuldet, die nicht monatlich, sondern punktuell im Jahr auftreten.
Insgesamt haben wir im ersten Quartal 2026 an Personal- und Sachkosten 285.624 Euro verausgabt.
window.addEventListener("message",function(a){if(void 0!==a.data["datawrapper-height"]){var e=document.querySelectorAll("iframe");for(var t in a.data["datawrapper-height"])for(var r,i=0;r=e[i];i++)if(r.contentWindow===a.source){var d=a.data["datawrapper-height"][t]+"px";r.style.height=d}}});
Unser Projekt Reichweite hatten wir in den letzten beiden Quartalsberichten 2025 vorgestellt. Die Projektlaufzeit beträgt drei Jahre bis Herbst 2027 und wird über den gesamten Zeitrahmen mit 200.000 Euro aus unseren Rücklagen finanziert. In 2025 haben wir davon 64.800 Euro für den Relaunch unserer Website und eine neue Stelle für die Verbreitung unserer Inhalte in den sozialen Medien ausgegeben. Im ersten Quartal 2026 haben wir für lediglich Personalkosten in Höhe von etwas unter 7.600 Euro verausgabt.
Das vorläufige ErgebnisWir schließen das 1. Quartal mit einem Ergebnis in Höhe von etwas unter -50.200 Euro ab. Laut Plan haben wir mit einem Ergebnis von -40.300 Euro gerechnet. Ein Minus in den ersten drei Quartalen beunruhigt uns nicht besonders, solange es im Rahmen unserer Erwartungen bleibt. Das bereinigen wir nach unseren bisherigen Erfahrungen im vierten Quartal mit der Jahresendkampagne. Bei dem aktuellen Quartalsergebnis kommen wir jedoch gedanklich etwas mehr in Bewegung und werden darauf mit einer Spendenaktion reagieren, damit wir nicht nicht mit zu schwerer Bürde in die Jahresendkampagne gehen.
Um das Spendenfeuer anzufachen, wird uns hoffentlich auch die Aufmerksamkeit helfen, die die Fernseh-Doku zu den „Databroker Files“ von euch erfährt. Wir freuen uns auf weiteren Funkenschlag.
Danke für eure bisherige und zukünftige Unterstützung!
Wenn ihr uns unterstützen wollt, findet ihr hier alle Möglichkeiten. Am besten ist ein Dauerauftrag. Er ermöglicht uns, langfristig zu planen:
Inhaber: netzpolitik.org e.V.
IBAN: DE62430609671149278400
BIC: GENODEM1GLS
Zweck: Spende netzpolitik.org
Wir freuen uns auch über Spenden via Paypal.
Wir sind glücklich, die besten Unterstützer:innen zu haben.
Unseren Transparenzbericht mit den Zahlen für das 4. Quartal und das Gesamtjahr 2025 findet ihr hier.
Vielen Dank an euch alle!
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
KW 16: Die Woche, in der wir fassungslos über Handydurchsuchungen waren
Die 16. Kalenderwoche geht zu Ende. Wir haben 13 neue Texte mit insgesamt 130.557 Zeichen veröffentlicht. Willkommen zum netzpolitischen Wochenrückblick.
– Fraktal, generiert mit MandelBrowser von Tomasz ŚmigielskiLiebe Leser:innen,
meine Kollegin Chris hat in dieser Woche die Geschichte eines Mannes aufgeschrieben, der abgeschoben werden soll und dessen Handy deswegen durchsucht wurde. Der Text über Idris hat mich ganz schön mitgenommen.
Von der Handydurchsuchung mitbekommen hat er erst mal nichts. Denn während sein Gerät bei der Durchleuchtung war, saß er in Haft.
Dass Ausländerbehörden auf Smartphones nach Hinweisen auf Identität und Herkunft einer Person suchen, ist nicht neu. Die Kritik an der invasiven Maßnahme auch nicht.
Die Geschichte von Idris hat mir aber die himmelschreiende Sinnlosigkeit dieses Kontrollmechanismus klar gemacht: Es ist unstrittig, wer Idris ist. Es ist auch klar, wo er herkommt. Aber als er vor mehr als vierzig Jahren nach Deutschland geflohen ist, gab es das Eritrea in seinen heutigen Grenzen noch nicht, in das er abgeschoben werden soll. Eritrea will ihn nicht haben. Was daran eine Handydurchsuchung ändert? Das kann wohl niemand erklären.
Also stecken Ämter eine Menge Energie in all das, was sie eben dürfen, wenn sie jemanden loswerden wollen. Egal, wie lange er schon da ist. Egal, ob es da nicht ganz andere Probleme gibt. Das ist sinnlos und diese Sinnlosigkeit macht mich fassungslos.
Idris‘ Geschichte ist sicherlich keine leichte. Und er ist vielleicht kein Vorzeige-Nachbar, denn er hat ein Suchtproblem und mehrfach geklaut, um sich das zu finanzieren. Aber ich frage mich: Die Behörden betreiben einen sehr großen Aufwand, um Idris loszuwerden. Warum helfen sie ihm stattdessen nicht mit dem gleichen Engagement?
Idris würde gern einen Entzug in einer Suchthilfeeinrichtung machen, aber er sitzt im Knast. Deutschland will Idris aus dem Land haben, kann ihn aber nicht abschieben. Am Ende hat keiner etwas erreicht. Wer kann das wollen?
„Was ist das für eine Verarscherei?“, hat Idris zu Chris gesagt. Und besser als er könnte ich das auch nicht zusammenfassen.
Ernüchterte Grüße
anna
Degitalisierung: Das ruhmreiche ZaunweißenKI-Unternehmen kreieren Mythen um sich und ihre Produkte. So entziehen sie sich der Verantwortung für Probleme, die sie selbst geschaffen haben. Und wir lassen es ihnen durchgehen. Mark Twain wäre das wohl nicht passiert. Von Bianca Kastl –
Artikel lesen
Die Pläne, im Internet mit Biometrie nach jedweder Person zu suchen, verstoßen laut AlgorithmWatch gegen Europarecht und die Verfassung. Sie seien so unverhältnismäßig, dass man sie nicht verbessern, sondern nur zurückziehen könne. Von Markus Reuter –
Artikel lesen
Soziale Netzwerke und ihre auf Überwachung und Personalisierung basierenden Geschäftsmodelle schaffen Anreize, die letztlich die Demokratie gefährden. Für die EU ist es höchste Zeit, dem etwas entgegenzusetzen, fordert eine umfassende Studie der Forschungsabteilung der EU-Kommission. Von Tomas Rudl –
Artikel lesen
Mit einer Handy-App für iOS und Android sollen Menschen in der EU künftig ihr Alter gegenüber Plattformen nachweisen. Doch der Nutzen zum Schutz von Kindern und Jugendlichen ist fraglich. Nutzende sollen zudem ihr Gesicht scannen lassen. Von Sebastian Meineck –
Artikel lesen
Der legendäre Urheberrechtsfall „Metall auf Metall“ geht in die letzte Runde. Der Europäische Gerichtshof hat gerade nach weitläufiger Auffassung das Recht auf Remix und Sampling gestärkt. Jetzt muss noch der Bundesgerichtshof final entscheiden. Von Denis Glismann –
Artikel lesen
Hinter dem Erfolg von Künstlicher Intelligenz und Sozialen Medien stecken ausgebeutete Arbeiter:innen. Bei einem Fachgespräch im Deutschen Bundestag wurde heute diskutiert, wie ihre Lage verbessert werden kann. Die Botschaft der Sachverständigen war klar: Deutschland muss mehr Verantwortung übernehmen. Von Ingo Dachwitz –
Artikel lesen
Idris lebt seit mehr als 40 Jahren in Deutschland und soll nach Eritrea abgeschoben werden. Das gilt als praktisch unmöglich. Trotzdem durchsucht das Ausländeramt Köln sein Smartphone, während er im Gefängnis sitzt. Eine Geschichte über einen Kontrollapparat, der sich verselbstständigt hat. Von Chris Köver –
Artikel lesen
Wenn die jährliche Statistik zur Kriminalität veröffentlicht wird, folgen oft rassistische Hetze und Rufe nach Strafrechtsverschärfungen. Dabei sagt die Statistik weniger darüber aus, wie die Sicherheitslage im Land wirklich ist, als viele vermuten. Von Markus Reuter –
Artikel lesen
Neigt sich die „unendliche Geschichte“ des Sampling-Streits zu „Metall auf Metall“ dem Ende zu? Der europäische Gerichtshof hat der Auseinandersetzung ein weiteres Kapitel hinzugefügt. Wir geben eine kurze Einschätzung zum Urteil, seiner Bedeutung für den Fall und für Sampling als Remix-Praxis allgemein. Von Leonhard Dobusch, Konstantin Hondros –
Artikel lesen
Der französische Präsident Emmanuel Macron schwört die EU auf Alterskontrollen ein. Dafür liegt er unter anderem Kommissionspräsidentin von der Leyen und Bundeskanzler Merz in den Ohren. Mit steigendem Tempo steuert die EU auf eine Ausweispflicht im Netz zu. Von Sebastian Meineck –
Artikel lesen
Der Bau von Rechenzentren boomt, in Deutschland und weltweit. Dadurch werden Strom und Wasser knapp, sagen Aktivist*innen und organisieren lokale Proteste. Auf der Konferenz „Cables of Resistance“ trafen sie sich zur Vernetzung. Von Timur Vorkul, Ingo Dachwitz –
Artikel lesen
Die Justizministerin hat das lange erwartete Gesetz zum Schutz vor digitaler Gewalt vorgelegt. Betroffene sollen mutmaßliche Täter*innen leichter verklagen können. Für sexualisierte Deepfakes drohen bis zu zwei Jahre Haft. Im Entwurf steckt aber auch die Neuauflage der Speicherung von IP-Adressen. Von Chris Köver –
Artikel lesen
Zur „ersten Bewegungskonferenz gegen Big Tech“ in Berlin kamen 750 Menschen zusammen. Bei „Cables of Resistance“ ging es um Protest, Betriebsräte und Widerstand gegen Rechenzentren. Die vielleicht radikalste Antwort der Aktivist:innen auf die Macht der Tech-Konzerne: Verweigerung. Von Ingo Dachwitz –
Artikel lesen
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Konferenz gegen Big Tech: Raus aus der Ohnmacht
Zur „ersten Bewegungskonferenz gegen Big Tech“ in Berlin kamen 750 Menschen zusammen. Bei „Cables of Resistance“ ging es um Protest, Betriebsräte und Widerstand gegen Rechenzentren. Die vielleicht radikalste Antwort der Aktivist:innen auf die Macht der Tech-Konzerne: Verweigerung.
Eine Ausstellung über den Protest gegen das Tesla-Werk in Grünheide – CC-BY-SA 4.0 Joschi WolfWas tun gegen Big Tech? Am vergangenen Wochenende kamen in Berlin deutsche und internationale Aktivist:innen, Gewerkschafter:innen, Forscher:innen und Künstler:innen zur Konferenz „Cables of Resistance“ zusammen, um über die Frage zu beraten, die derzeit so viele beschäftigt. Ihre Antwort: radikale Verweigerung, Protest und Widerstand.
Ins Leben gerufen wurde die „erste Bewegungskonferenz gegen Big Tech“ von den Gruppen Berlin vs. Amazon, Tesla den Hahn abdrehen und die Berlin Tech Workers Coalition. Mit ihrem tech- und kapitalismuskritischen Ansatz haben sie offenbar einen Nerv getroffen: Die Tickets waren schnell ausverkauft, mehr als 750 Menschen kamen nach Angaben der Veranstalter:innen in das Tagungshaus am Franz-Mehring-Platz.
Das überwiegend durch Einreichungen aus der Community bestückte Programm war geprägt durch kritische Analyse des Status Quo, internationale Vernetzung und Austausch über politische Strategien. In insgesamt neun Themen-Tracks ging es um Fragen von Stadtpolitik, Nachhaltigkeit, Militarisierung oder Arbeitskämpfe.
„Die Speerspitze der kapitalistischen Akkumulation“Die Ausgangslage beschreiben viele derzeit als düster. Angesichts der Übermacht der großen Tech-Konzerne kann man schon mal leicht verzweifeln. Ihre wirtschaftliche und politische Dominanz ist konkurrenzlos. Allein die fünf wertvollsten unter ihnen – Nvidia, Apple, Google, Microsoft und Amazon – strichen im letzten Jahr fast 500 Milliarden US-Dollar Gewinn ein. Ihr gemeinsamer Marktwert beträgt derzeit mehr als 18 Billionen US-Dollar – astronomische Zahlen.
Für die Veranstalter:innen steht fest: „Digitale Technologien sind die derzeitige Speerspitze der kapitalistischen Akkumulation und Zerstörung.“ Und: „Das digitale Kapital steht hinter dem Faschismus und ist sein bereitwilliger Handlanger.“ So heißt es im Entwurf für ein Manifest, das die Organisator:innen zu Beginn der Konferenz zur Debatte stellten und das sie im Nachgang weiterentwickeln wollen.
In den Diskussionsrunden war zwar hier und da Skepsis angesichts der vor Superlativen und historischen Referenzen strotzenden Wortwahl zu hören. Doch dass die Tech-Konzerne tief in die großen Krisen unserer Zeit verwickelt sind, das ist hier Konsens. Sie treiben den Klimawandel voran und lassen in kolonialer Manier Arbeitskräfte und Rohstoffe im Globalen Süden ausbeuten. Sie profitieren von Überwachung und Militarisierung. Mit ihren Lobby-Armeen nehmen sie Einfluss auf die Politik, mit ihren Milliarden gestalten sie unsere Städte um. Sie hofieren Donald Trump und normalisieren seine Politik.
Die vielleicht mächtigste Waffe der Tech-Konzerne: Sie bestimmen, wie die Zukunft aussehen soll – nicht nur technisch, sondern auch diskursiv. Dass mehr Innovation, mehr Technologie und allen voran mehr KI immer besser seien, sagen längst nicht mehr nur sie. Auch viele Politiker:innen wiederholen das Mantra vom vermeintlichen digitalen Fortschritt unhinterfragt. Big Tech hat nicht nur das Internet gekapert, sondern auch unsere Vorstellung davon, wie digitale Zukünfte überhaupt aussehen könnten.
Von Arbeitskämpfen bis Perma-Computing„Big Tech wird unseren Planeten mittel- bis langfristig zerstören“, so fasst Mitorganisatorin Aline Blankertz in einem Pressegespräch die Lage zusammen. Die Konferenz wolle deshalb Menschen zusammenbringen, „die für eine solidarische, selbstbestimmte, klimagerechte Zukunft kämpfen.“
Konkret ging es zum Beispiel um Arbeitskämpfe und die Rolle, die Angestellte von Tech-Konzernen spielen können, um diese zu verändern. Wie kann man solidarisch mit outgesourceten Datenarbeiter:innen hinter KI und Sozialen Medien sein? Wie können Kurierfahrer:innen Betriebsräte und faire Arbeitsbedingungen erkämpfen? Wie können sich Angestellte gegen die Beteiligung ihrer Arbeitgeber an militärischen Produkten wie dem Projekt Nimbus organisieren, mit dem Amazon und Google das israelische Militär und damit auch den Völkermord in Gaza unterstützen?
An anderer Stelle ging es um die globale Ausbeutung durch Tech-Konzerne und die sozial-ökologischen Kosten des KI-Hypes, um autoritäre und antifeministische Netzwerke. Es ging darum, wie man Protest gegen Palantir und Tesla organisiert, aber auch um Alternativen wie Perma-Computing mit Biomasse oder um Plattform-Kollektive im Besitz lateinamerikanischer Tech-Arbeiter:innen.
Rechenzentren als Symbole des KI-HypesEin zentrales, immer wiederkehrendes Thema waren Rechenzentren. Als physische Repräsentation der digitalen Welt und als Symbol für den KI-Hype sind sie in vielen Regionen der Welt bereits zum Kristallisationspunkt des Widerstands gegen Big Tech geworden. Der Protest gegen Rechenzentren dürfte bald auch in Deutschland stärker werden, denn sie nehmen viel Fläche ein, verbrauchen riesige Menge Strom und Wasser und werden gerne in ärmeren und marginalisierten Nachbarschaften gebaut, die dann unter der Lärm- und Umweltbelastung leiden.
In den vielen Vorträgen und Panel-Gesprächen zu dem Thema ging es um Aufklärung, Ansatzpunkte für Veränderungen an gesetzlichen Rahmenbedingungen wie dem Energieeffizienzgesetz, Aktionen des zivilen Ungehorsams und lokale Proteste, die die Ansiedlung von Rechenzentren verhindern.
Worum es nicht ging: Anschläge, Sabotage oder andere Formen eines vermeintlichen Ökoterrorismus.
Dass man das überhaupt klarstellen muss, liegt daran, dass das rechte Krawallmedium Nius die Konferenz offenbar zum Feind auserkoren hat, weil der Quantenphysiker Guido Arnold an einem Panel teilnahm. Im Januar hatten Nius und Spiegel Arnold und sein radikal Tech-kritisches Kollektiv „Capulcu“ mit dünner Begründung als Vordenker der „Vulkangruppe“ dargestellt. Der Vorwurf stützt sich vor allem darauf, dass die Vulkangruppe, die sich unter anderem zum Brandanschlag auf das Berliner Stromnetz Anfang des Jahres bekannte, ähnliche Begriffe nutzt, etwa den von Arnold geprägten Ausdruck des „technologischen Angriffs“.
Auch im Manifest der Konferenz findet sich der Begriff. Nius schickte einen Reporter, der Teilnehmende vor dem Gebäude abpasste und fragte, warum sie an einer Konferenz teilnehmen würden, die mit durchtrennten Kabeln werbe. Die ausbleibenden Antworten der genervten Besucher:innen schnitt Nius zu einem fünfeinhalbminütigen Video zusammen.
Nicht zum ersten Mal griff die Springer-Zeitung Welt die Vorlage von Rechtsaußen auf und titelte: „Wie linke Tech-Gegner in Berlin einen Angriff planen“. Eine Presseakkreditierung hatte Welt nach Angaben der Veranstalter:innen nicht beantragt.
Kann man Big Tech auf den eigenen Plattformen schlagen?Dabei gibt es durchaus Dinge, die man an der Konferenz kritisieren kann, ohne sich komplett lächerlich zu machen.
Zum Beispiel, dass kein einziger der neun Themenstränge Probleme der demokratischen Öffentlichkeit und von Sozialen Medien zum Thema machte. Die Frage, wie eine tech-kritische Bewegung, die von der Konferenz ausgehen soll, die narrative Hegemonie von Big Tech auf den Plattformen eben dieser Konzerne brechen soll, hätte man hier gut diskutieren können. Auch konkrete Alternativen wie das Fediverse mit seinen Stärken und Schwächen hätten gut auf die Konferenz gepasst. Einige Teilnehmende nahmen die Sache dann einfach selbst in die Hand und hingen Zettel aus, auf denen sie zumindest Mastodon-Handles austauschten.
Zudem waren die einzelnen Sessions teilweise so kurz, dass die ausgegebene Losung „Das ist keine Infoveranstaltung, sondern eine Kampfansage“, sich auf unfreiwillige Art und Weise bestätigte. Ein bisschen mehr Information wäre manchmal schon gut gewesen. Ebenso ein bisschen mehr Raum für Diskussionen über Widersprüchlichkeiten, die es notwendigerweise gibt, wenn unterschiedliche Bewegungen zusammenkommen.
Keine Zeit für ZukunftDoch wichtiger waren an diesem Wochenende Vernetzung, Inspiration und Motivation. „Wir werden Big Tech nicht weganalysieren“, gab Journalistin Nina Scholz bei ihrem Auftaktvortrag die Richtung vor. Es sollte ums Handeln gehen: Raus aus der Ohnmacht, rein in die Bewegung.
In diesem Sinne hätten es gerne auch noch mehr Programmpunkte zu konkreten Alternativen und positiven Zukunftsentwürfen sein dürfen. Lediglich eine Stunde stand für den Themenblock „Zukunft“ und Ideen wie die Vergesellschaftung von Plattformen, Digital Degrowth oder Hardwareproduktion außerhalb kapitalistischer Verwertungslogik zur Verfügung. Auch davon hätte es gerne noch mehr sein dürfen.
Aber womöglich ist das einfach der Moment, an dem wir gerade stehen: Für Zukunft ist hoffentlich später Zeit, jetzt geht es darum, das Schlimmste zu verhindern. Sich dem Hype zu verweigern, das Fortschrittsversprechen zu hinterfragen, bestimmte Entwicklungen auch ganz abzulehnen und Widerstand zu organisieren – das ist vielleicht nicht die visionärste Antwort auf Big Tech. Aber es könnte genau die Antwort sein, die es jetzt braucht.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Deepfakes, Doxing, Stalking: Mit Vorratsdatenspeicherung gegen digitale Gewalt
Die Justizministerin hat das lange erwartete Gesetz zum Schutz vor digitaler Gewalt vorgelegt. Betroffene sollen mutmaßliche Täter*innen leichter verklagen können. Für sexualisierte Deepfakes drohen bis zu zwei Jahre Haft. Im Entwurf steckt aber auch die Neuauflage der Speicherung von IP-Adressen.
Bundesjustizministerin Stefanie Hubig will schärfere Maßnahmen gegen digitale Gewalt – bis hin zur Speicherung von IP-Adressen. – Alle Rechte vorbehalten IMAGO / dts NachrichtenagenturBundesjustizministerin Stefanie Hubig (SPD) hat am heutigen Freitag einen Gesetzentwurf vorgestellt, der Betroffene digitaler Gewalt besser schützen soll. Digitale Gewalt sei ein „Massenphänomen“, sagte Hubig bei der Vorstellung der Pläne. „Im Zeitalter von KI, hochauflösenden Smartphone-Kameras und sozialen Netzwerken ist es einfacher als je zuvor, Menschen in aller Öffentlichkeit zu demütigen, zum Sexualobjekt herabzuwürdigen und in ihrer Intimsphäre zu verletzen.“ Millionen von Menschen seien betroffen, „besonders häufig Frauen“.
Der Referentenentwurf ist zu einem der meist beachteten Projekte des Ministeriums geworden, nachdem der Spiegel vor zwei Wochen erstmals die Vorwürfe der Schauspielerin Collien Fernandes gegen ihren Ex-Mann Christian Ulmen öffentlich gemacht hatte. Über seinen Anwalt geht er gegen die Berichterstattung vor; es gilt die Unschuldsvermutung. Die Staatsanwaltschaft Potsdam ermittelt.
Hubig hatte den Fall zum Anlass genommen, auf den bereits im Koalitionsvertrag beschlossenen, fast fertigen Gesetzentwurf hinzuweisen und angekündigt, ihn bald vorzustellen. Nun ist es soweit.
Zu „digitaler Gewalt“ zählt das Ministerium laut Entwurf ein breites Spektrum an Taten, unter anderem „Hate Speech“, also Beiträge, die andere bedrohen, abwerten oder zu Straftaten aufrufen. Ebenso zählt dazu das unerlaubte Veröffentlichen von Daten wie Adresse oder Telefonnummer („Doxing“), das unerwünschte Versenden pornografischer Bilder („Dickpics“), der gezielte Kontakt zu Kindern mit sexueller Absicht („Cybergrooming“), außerdem bildbasierte Gewalt, Cybermobbing, Cyberstalking und Identitätsmissbrauch, etwa wenn Fake-Profile einer anderen Person erstellt werden.
Heimliches Filmen und sexualisierte DeepfakesDer Entwurf basiert auf zwei Säulen. Die erste ist eine strafrechtliche Säule, die wir bereits Ende März veröffentlicht und analysiert haben. Darin vorgesehen sind drei neue Straftatbestände.
- Geplant ist demnach eine Überarbeitung des geltenden § 184k Strafgesetzbuch (StGB), der die Verletzung der Intimsphäre durch Bildaufnahmen regelt. Er soll künftig nicht nur das sogenannte Upskirting umfassen, sondern auch weitere Phänomene bildbasierter Gewalt, etwa das nicht-einvernehmliche Filmen in öffentlichen Saunen oder Umkleiden oder sexualisierte Deepfakes. Auch das Filmen bekleideter Körperteile wie Genitalien, Gesäß oder weiblicher Brust “in sexuell bestimmter Weise” soll verfolgt werden können. Strafmaß: bis zu zwei Jahre Haft.
- Mit einem neuen Paragrafen zur „Verletzung von Persönlichkeitsrechten durch täuschende Inhalte“ (§ 201b StGB) soll zudem das Erstellen und Verbreiten solcher Deepfakes unter Strafe gestellt werden, die “geeignet sind, dem Ansehen der dargestellten Person erheblich zu schaden”.
- Eine weitere neue Vorschrift soll außerdem das unbefugte digitale Tracken und Ausspionieren einer anderen Person unter Strafe stellen. Solches Verhalten war bislang schon im Rahmen von Nachstellung strafbar.
Neu und bislang unbekannt ist dagegen die zivilrechtliche Säule des Entwurfs. Die neuen Regeln sollen es für Betroffene von etwa beleidigenden und herabsetzenden Postings einfacher machen, selbst vor Gericht dagegen vorzugehen.
Betroffene sollen von Plattformen und Internetzugangsanbietern leichter als bisher Auskunft über die Identität einer Person hinter einem anonymen oder pseudonymen Account bekommen. Dazu sollen Anbieter künftig – sofern vorhanden – den Klarnamen und die Adresse herausgeben, wenn ein Gericht dies anordnet. Beides wird gebraucht, damit Betroffene etwa auf Unterlassung oder Schadensersatz klagen können.
Betroffene sollen eine solche Auskunft vor dem Landgericht beantragen können. Dazu müssen sie glaubhaft machen, dass eine unbekannte Person eine Rechtsverletzung begangen hat, und sie gegen diese Person zivilrechtliche Ansprüche geltend machen wollen. „Das Auskunftsverfahren ist insbesondere für Fälle gedacht, in denen die Rechtsverletzer ihre strafbaren Inhalte über einen anonymen Account in den sozialen Netzwerken verbreiten“, schreibt das Ministerium dazu.
Neu ist außerdem, dass sich Betroffene in einem Verfahren „durch zivilgesellschaftliche Organisationen als Bevollmächtigte vertreten lassen“ können, sofern das unentgeltlich – also kostenlos – geschieht. Auch das soll die Schwellen für Betroffene senken: Hilfsorganisationen könnten dann zumindest manchen Betroffenen die Kosten und Strapazen eines Gerichtsverfahrens abnehmen.
„Vorsorglich gespeicherte IP-Adressen“Der Entwurf soll auch die Vorratsdatenspeicherung zurückbringen. Das ist ein umstrittenes Verfahren zur Massenüberwachung im Netz, das in Deutschland seit 2017 ausgesetzt ist. Im Zuge des Auskunftsanspruchs für Betroffene richtet das Gesetz den Blick zu Plattformen und Zugangsanbieter wie Vodafone oder die Telekom. Sie sollen künftig durch eine beweissichernde Anordnung dazu verpflichtet werden können, “bereits bei ihnen vorhandene Daten” über mutmaßliche Rechtsverletzer*innen zu sichern. Dazu sollen sie auch „vorsorglich gespeicherte IP-Adressen” verwenden. Der aktuell diskutierte Entwurf für die Vorratsspeicherung sieht vor, dass IP-Adressen für voraussichtlich drei Monate gespeichert werden sollen.
Die Vorratsdatenspeicherung wurde in Deutschland erstmals 2007 eingeführt, nach einem Urteil des Bundesverfassungsgerichts jedoch wieder aufgehoben, weil sie gegen Grundrechte verstieß. Eine neue Regelung von 2015 wurde später durch Urteile des Europäischen Gerichtshofs faktisch gestoppt, weil eine anlasslose, flächendeckende Speicherung von Kommunikationsdaten gegen EU-Recht verstößt.
Auf die Frage, wie sich das Vorhaben für eine erneute Speicherung von IP-Adressen mit dem EU-Recht vereinbaren lasse, sagte Hubig, es gehe bei dem Entwurf, der kommende Woche im Kabinett vorgelegt werden soll, nicht um eine Vorratsdatenspeicherung, sondern lediglich darum, IP-Adressen und Portnummern für einen Zeitraum von drei Monaten zu speichern. Das sei in dieser reduzierten Form rechtskonform. Große Netzbetreiber und Verbände kamen in ihren Stellungnahmen zu anderen Einschätzungen.
In besonders schweren Fällen sollen Landgerichte darüber hinaus auch zeitweilige Account-Sperren verhängen können. So solle verhindert werden, das reichweitenstarke Accounts wiederholt schwere Persönlichkeitsrechtsverletzungen begehen können.
Kritik an hohen Kosten und massenhafter DatenspeicherungDie Organisation HateAid, die Betroffene von digitaler Gewalt berät, begrüßt die geplanten Reformen im Zivilrecht und auch, dass Plattformen und Zugangsanbieter nun IP-Adressen herausgeben sollen. Zugleich weist die Organisation darauf hin, dass die Auskunftsverfahren für die Betroffenen mit hohen Kosten verbunden seien. Sie müssten nicht nur ihre eigenen Kosten, sondern auch die Gerichtskosten und die Rechtsvertretung der Plattformen selbst zahlen.
Der Entwurf sieht hierfür eine Ausnahmeregelung vor, von der Gerichte nach Erfahrung der Organisation jedoch in der Regel keinen Gebrauch machten. HateAid hatte gefordert, Gerichtskosten pauschal zu regeln.
Sieben Köpfe gegen digitale Gewalt
Benjamin Lück, Rechtsanwalt bei der Gesellschaft für Freiheitsrechte, kommt zu einem kritischeren Urteil. Gut sei, dass das Ministerium mit Account-Sperren einen wirkungsvollen Mechanismus für Betroffene vorsehe.
Die in der Begründung des Entwurfs versteckte Verknüpfung der Auskunftsansprüche mit der geplanten IP-Vorratsdatenspeicherung lehnen wir dagegen ab. Solche anlasslosen, massenhaften Datenspeicherungen halten wir grundsätzlich für das falsche Mittel.
Im Vorfeld hatten sich bereits mehrere Fachleute für digitale Gewalt gegen Überwachungsmaßnahmen zum Schutz vor digitaler Gewalt ausgesprochen, darunter auch die Vorratsdatenspeicherung.
Bereits unter der Ampel angekündigtMit der Vorstellung des Entwurfs liefert Hubig nun etwas, das bereits ihr Vorgänger Marco Buschmann (FDP) zur Zeit der Ampel-Regierung vor fünf Jahren angekündigt hatte. Seine Pläne zum Schutz vor digitaler Gewalt umfassten allerdings nur das Zivilrecht und versandeten zum Ende der letzten Legislaturperiode.
Hubig betont nun, sie habe ein “Gesamtkonzept” vorlegen wollen, das sowohl das Zivilrecht als auch die Verschärfungen im Strafrecht umfasst.
Der Entwurf wird nun an Verbände und Bundesländer geschickt, die Gelegenheit zur Stellungnahme bekommen. Er muss noch im Kabinett abgestimmt werden und erreicht danach erst den Bundestag und Bundesrat.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
„Rechenzentren sind Vampire“: Wo sich lokaler Widerstand gegen den KI-Hype formiert
Der Bau von Rechenzentren boomt, in Deutschland und weltweit. Dadurch werden Strom und Wasser knapp, sagen Aktivist*innen und organisieren lokale Proteste. Auf der Konferenz „Cables of Resistance“ trafen sie sich zur Vernetzung.
Rechenzentrum der US-Firma CyrusOne in Frankfurt am Main. In der Stadt stehen die energiehungrigen Klötze dicht an dicht. – Alle Rechte vorbehalten IMAGO / Joko„Der Widerstand in Beringen lässt momentan noch zu wünschen übrig“, so beschreiben zwei Aktivist*innen die Stimmung in einem 5.000-Seelen-Dorf im nördlichsten Zipfel der Schweiz, in dem zwei riesige Rechenzentren entstehen sollen. Sie sind zur ersten Konferenz gegen Big Tech in Berlin, der „Cables of Resistance“-Konferenz angereist, um über den KI-Hype in der Schweiz zu berichten. Die Resignation der Bevölkerung werde weichen, wenn „Wasser und Strom vor der eigenen Haustür in einigen Jahren knapp werden“, prognostizieren sie.
Um das fast fertig gestellte Rechenzentrum in der Nähe von Zürich mit Wasser zu versorgen, müsse das Trinkwasser aus der Nachbargemeinde angezapft werden, berichten die beiden Aktiven von der Initiative „Aufstände der Allmende“. Allein dieses Rechenzentrum in Beringen habe einen Strombedarf von bis zu drei Viertel des Verbrauchs des gesamten Kantons Schaffhausen. In nur wenigen Kilometern Entfernung, in der Nachbargemeine Herblingen, soll nun mutmaßlich das dritte und noch größere Rechenzentrum des Kantons entstehen. Wie der Strombedarf dieser Anlagen gestillt werden soll, sei noch völlig unklar. „Eine Idee, die im Parlament diskutiert wird, ist der Bau neuer Atomkraftwerke“.
Im nahegelegenen Zürich ist die Dichte der Tech-Unternehmen höher als im Silicon Valley. Dass Rechenzentren in der Region aus dem Boden sprießen, liegt laut der Schaffhauser Nachrichten auch daran, dass der Kanton an der wichtigen Verkehrsachse Zürich – Stuttgart liegt. Auch Frankfurt am Main ist nicht weit weg, dort befindet sich einer der weltweit wichtigsten Internetknoten, mit dem sich Daten schnell übertragen lassen.
Kein Ende des Ausbaus in SichtIn der hessischen Metropole am Main sei das Stromnetz bereits am Limit, erklärt die Journalistin Indra Jungblut, die ebenfalls auf der Konferenz sprach. Bis 2030 sei kein größerer Anschluss an das Stromnetz mehr möglich. Die mehr als 100 Rechenzentren beanspruchen bis zu 40 Prozent des gesamten Strombedarfs der Stadt. In einigen Bezirken stehen die Serverfarmen dicht an dicht nebeneinander und haben massive Auswirkungen auf das Leben in der Stadt. Ihre Konzentration ist hier deutschlandweit am größten. Und trotzdem: „Ein Ende des Ausbaus ist nicht in Sicht“, sagt Jungblut.
Denn Rechenzentren-Entwickler*innen haben sich etwas einfallen lassen. Sie bauen eigene Anlagen zur Stromerzeugung, die sie mit fossilen Brennstoffen betreiben. Ein gut dokumentiertes Beispiel sei die US-amerikanische Firma CyrusOne: für den Betrieb des „FRA7“ Rechenzentrums in Frankfurt hat sie eine eigene Gasturbine gebaut. „Und das ist vermutlich kein Einzellfall“, sagt die Journalistin. Hersteller wie Siemens Energy jedenfalls kommen mit der Produktion neuer Gasturbinen, die vor kurzem noch als Auslaufmodell galten, nicht mehr hinterher.
„Strom wird zu einer knappen Ressource“Der Region Berlin-Brandenburg drohe ein ähnliches Schicksal wie Frankfurt, warnen die Stadtforscher*innen Niklas Steinke und Fabian Halfar in ihrem Vortrag. Hier sind Dutzende neue Rechenzentren geplant. In Berlin-Lichtenberg entsteht „Bluestar“ der Prea Group, das größte KI-Rechenzentrum der Stadt. Mit 100 Megawatt Anschlussleistung soll es mehr Strom verbrauchen als eine Stadt wie Potsdam. Schon bis 2024 seien in Berlin mehr Netzanschlüsse angefragt worden als das gesamte Berliner Stromnetz übertragen kann, vor allem für große Rechenzentren-Projekten.
Warum kommt Big Tech überhaupt nach Berlin? Großstädte wie Berlin und Frankfurt verfügen über eine Wasser- und Stromnetzinfrastruktur, die mit öffentlichen Geldern gebaut wurde. Die wollen die Tech-Firmen für sich nutzen, sagen die Forscher*innen und nennen das „Infrastukturextraktivismus“. Dieser sei neben dem bereits bekannten Abbau der Rohstoffe in ehemals kolonisierten Regionen und der Sammelwut großer Datenmengen eine neue Manifestation des KI-Hypes. „Im Rechenzentrum-Boom wird Strom zu einer knappen Ressource“, sagt Halfar. Bisher sei die Vergabe großer Netzanschlüsse nicht politisch aufgeladen. Das mache es den Rechenzentren-Betreiber*innen leichter, sich das Stromnetz innerhalb weniger Jahren anzueignen.
Hilfe bekämen sie dabei auch von klassischen Bodenspekulant*innen, die potenziell geeignete Flächen in der Stadt aufkaufen und darauf warten, dass Betreiber*innen von Rechenzentren auf sie zukommen. Denn eine Bewerbung für einen Anschluss zum Hochspannungsnetz setze eine Fläche voraus. „Wir müssen uns dringend darum kümmern, dass das Stromnetz aus der politischen Unsichtbarkeit austritt und eine demokratische Diskussion darüber stattfindet, wofür wir den Strom verwenden wollen“, schlussfolgert Halfar.
Bundesregierung knickt vor Big-Tech-Lobby einDie Bundesregierung sei dem globalen Wettrennen um KI-Kapazitäten im Glauben aufgesessen, dass sich mit Rechenzentren Wohlstand generieren lässt, sagte Julian Bothe, Experte für KI und Nachhaltigkeit bei AlogrithmWatch, in seinem Talk. Bis 2030 will sie die Rechenzentrumskapazitäten im Land mindestens verdoppeln und die Kapazitäten für Künstliche Intelligenz vervierfachen, wie es in der kürzlich vorgestellten Rechenzentrumsstrategie heißt. Dabei habe Deutschland schon jetzt die meisten Rechenzentren im europäischen Vergleich. Laut DataCenterMap sind es aktuell mehr als 500.
Die Pläne der Regierung bringen eine weitgehende Deregulierung zugunsten der Tech-Firmen und zulasten der Gesellschaft und der Umwelt mit sich, kritisiert Bothe. Ein starkes Beispiel hierfür sei die geplante Abschwächung des Energieeffizienzgesetzes. So sollen beispielsweise die bestehenden Transparenzstandards für Verbrauchswerte abgeschafft werden. Das würde den Betreiber*innen erlauben, den konkreten Energieverbrauch und die Energieeffizienz der Rechenzentren vor der Öffentlichkeit geheimzuhalten – mit dem Verweis auf Geschäftsgeheimnisse.
„Anstatt in Zeiten der Energiekrise endlich auf Energieeffizienz zu setzen, droht Wirtschaftsministerin Reiche erneut, vor den Lobby-Bemühungen der Tech-Giganten einzuknicken“, sagte Bothe anlässlich des Positionspapiers zur Gesetzesnovelle, das AlgorithmWatch mit anderen Organisationen vergangene Woche veröffentlicht hat. Die Forderung, Verbrauchswerte als Geschäftsgeheimnisse hinter Verschluss zu halten, komme von Microsoft. Das habe eine Recherche von LobbyControl und Campact ergeben.
Zugang zu sauberem Wasser steht auf dem SpielDas geplante Energieeffizienzgesetz müsse gestoppt werden, sagte Bothe. Denn Widerstand gegen schädigende Gesetzesvorhaben auf nationaler Ebene sei wichtig. Genauso notwendig sei aber auch lokaler Protest gegen geplante Rechenzentren vor Ort. Dass Protest wirksam sein kann, zeigt der Fall von Groß-Gerau. Die Stadtverordneten haben dort gegen den Bau des bislang größten Rechenzentrums in der Rhein-Main-Region gestimmt.
Dass Proteste bereits an vielen Orten auf der Welt stattfinden, haben zahlreiche Vorträge auf der Konferenz gezeigt. Immer wieder versuchen lokale Gruppen, die Ansiedlung neuer Rechenzentren zu verhindern. José Renato Laranjeira etwa berichtete vom Kampf der indigenen Anacé-Gemeinschaft in Brasilien. Durch den Bau von Rechenzentren sahen sie einen heiligen Fluss in Gefahr. Der Zugang zu sauberem Wasser stand für sie auf dem Spiel.
Neue Arbeitsplätze und Steuereinnahmen sind MythenWelche Erfahrungen Aktivist*innen im Kampf gegen Rechenzentren bereits gesammelt und welche Strategien sich als wirksam erwiesen haben, darum ging es in einem international besetzten Panel. Einerseits sei es wichtig, die lokale Bevölkerung zu involvieren und andererseits die Propaganda der Tech-Konzerne mit Fakten zu kontern, sagte Luis García Valverde von der spanischen Umweltschutz-NGO „Ecologistas en Acción“. Seine Organisation setzt sich gegen die Ansiedlung riesiger Amazon-Rechenzentren in der Region Aragon im Nordosten Spaniens ein, unter anderem mit einer Klage. García Valverde berichtete von Versuchen des Tech-Konzerns die Öffentlichkeit zu beeinflussen: etwa indem Amazon Anzeigen in lokalen Zeitungen schaltet, Fußballclubs in der Region sponsort oder die Namensrechte eines Stadiums kauft.
Auch Hacktivistin Eda von der französischen Organisation „La Quadrature du Net“ setzt auf Aufklärung. Im französischen Marseille habe die Ansiedlung von Rechenzentren etwa die geplante Elektrifizierung des Hafens verhindert. Von der Elektrifizierung würden die Menschen in der Stadt aber massiv profitieren. Wenn Kreuzfahrtschiffe im Hafen über Strom liefen, gäbe es weniger Luftverschmutzung. Genau solche Informationen müssten öffentlich gemacht werden, um die Menschen vor Ort aufzurütteln, sagte Eda.
Zudem müsse man Mythen über neue Arbeitsplätze und Steuereinnahmen entkräften, ergänzte Dylan Murphy von der irischen Gruppe „Not Here Not Anywhere“. Er berichete von der Überlastung des irischen Stromnetzes durch den gigantischen Ausbau der Rechenzentren im Land, der irgendwann sogar zu einem Moratorium, einem Baustopp, geführt habe. „Rechenzentren sind Vampire, die unseren Gemeinschaften Strom, Wasser, Land und Rohstoffe entziehen.“ Als physische Manifestation des KI-Hypes würden sie sich hervorragend für Mobilisierung eignen, pflichtete García Valverde aus Spanien bei. Plötzlich hätten Menschen das abstrakte Thema KI direkt vor der eigenen Haustür.
Ein großes Problem bei der Mobilisierung sei jedoch die Intransparenz der Betreiber*innen und teilweise auch der Gemeinden. Oft sei nicht einmal klar, wer wo genau baue und für wen. Teilweise bauen die großen Tech-Konzerne nicht mehr selbst, sondern mieten Kapazitäten bei Dritten, erzählte García Valverde.
Was tun gegen die KI-Blase?Um so ein Modell handelt es sich beim ersten Rechenzentrum im Schweizerischen Beringen. Seine Zukunft ist derzeit noch völlig offen. Es wird sich erst in einigen Jahren zeigen, welche Firmen die Fläche im Rechenzentrum mieten wollen und ob die Gemeinde Steuereinnahmen einnehmen wird. Außerdem ist die Frage nach der Abwärmenutzung noch ungelöst: das Rechenzentrum produziert deutlich mehr Abwärme, als ein kleines Dorf wie Beringen sinnvoll nutzen kann. Deshalb ist nun der Bau eines Erdbeckenspeichers – eines künstlichen Sees, der die Abwärme des Rechenzentrums im Sommer speichern soll – für rund 22 Millionen Euro im Gespräch. Platzt die KI-Blase, bleiben die Beringer*innen mit kostspieliger leerstehender Infrastruktur zurück.
Um auf die Situation einzuwirken und die öffentliche Diskussion über den Bau von Rechenzentren anzuregen, organisiert sich laut den Aktivist*innen von „Aufstände der Allmende“ derzeit ein Bündnis rund um die Kampagne „KI kurzschließen“. Vom 2. bis 9. Juli werde es in der Schweiz dazu ein Widerstandscamp geben.
Wie man sich hierzulande engagieren kann, erklärt die Bundestagsabgeordnete Sonja Lemke (die Linke). Sie empfiehlt Aktivist*innen und Bürger*inneninitiativen, auf der kommunalen Ebene anzusetzen, wo die Entscheidungen über den Bau von Rechenzentren getroffen werden: „Geht in die kommunalen Planungsausschüsse, schreibt Mails an eure Abgeordneten und stellt IFG-Anfragen.“
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Mit Merz und von der Leyen: Macron will Alterskontrollen für alle durchboxen
Der französische Präsident Emmanuel Macron schwört die EU auf Alterskontrollen ein. Dafür liegt er unter anderem Kommissionspräsidentin von der Leyen und Bundeskanzler Merz in den Ohren. Mit steigendem Tempo steuert die EU auf eine Ausweispflicht im Netz zu.
Emmanuel Macron leistet Überzeugungsarbeit – hier im März 2026. – Alle Rechte vorbehalten IMAGO / ABACAPRESSViele Spitzenpolitiker*innen wollen gerade Alterskontrollen und ein Social-Media-Verbot für Minderjährige. Der französische Präsident Emmanuel Macron will es ganz besonders. Medienwirksam treibt er das Vorhaben europaweit voran und versucht, andere Mitgliedstaaten auf Linie zu bringen.
Am gestrigen Donnerstag hat Macron zu einer Videokonferenz geladen. Dabei waren EU-Kommissionspräsidentin Ursula von der Leyen (CDU), Bundeskanzler Friedrich Merz (CDU), die italienische Ministerpräsidentin Giorgia Meloni und weitere hochrangige Vertreter*innen von EU-Mitgliedstaaten. Das Ziel: koordiniert vorgehen.
Auf Twitter-Nachfolger X sprach Macron von einer „Bewegung“. Ein von ihm veröffentlichter Videoclip zeigt eine Aufnahme des Bildschirms mit den zugeschalteten Gästen, darunter Bundeskanzler Merz. „Hier sind rund ein Dutzend Staaten vertreten“, so ein Schriftzug im Videoclip.
Über die Teilnahme des Kanzlers ist die französische Regierung offenbar besonders stolz. Im Vorfeld sagte ein Élysée-Sprecher, das sende ein „Signal“. Im Vergleich zu Frankreich ist die Position der Bundesregierung in Sachen Social-Media-Verbot nämlich noch verhalten.
Den Stein ins Rollen gebracht hatte im Dezember 2025 das Social-Media-Verbot für unter 16-Jährige in Australien. Dort dürfen große Plattformen wie TikTok, Instagram oder YouTube jungen Menschen keine Accounts mehr erlauben. Dafür sollen sie das Alter von Nutzer*innen prüfen. Nun drängen mehrere EU-Mitgliedstaaten auf ein ähnliches Modell.
Rechtssicher möglich wäre das jedoch nur mit einer EU-weiten Regelung. Deshalb erhöhen die Befürworter*innen Woche für Woche den Druck auf die EU-Kommission. Staats- und Regierungsschef*innen, etwa aus Spanien und Deutschland, stellen Forderungen auf oder schreiben der Kommissionspräsidentin dringliche Briefe. Mitgliedstaaten wie Frankreich und Griechenland bringen bereits nationale Gesetze auf den Weg. EU-Parlament und Rat beziehen Position.
Die gestrige Videokonferenz ist also nur der (bisherige) Gipfel der Bemühungen.
Ausweispflicht im Netz? Das droht konkretDer an den Tag gelegte Eifer könnte den Eindruck erwecken, Europa müsse auf eine plötzliche Katastrophe reagieren. Das ist aber nicht der Fall: Es gibt keine Hinweise, dass soziale Medien aktuell schädlicher wären als beispielsweise vor fünf Jahren. Die Forschungslage über gesundheitliche Gefahren sozialer Medien für Minderjährige ist nach wie vor unklar; Warnungen aus der Wissenschaft sind in der Gesamtschau eher vorsichtig.
Anders sieht jedoch das Bild aus, dass Spitzenpolitiker*innen zeichnen. Ursula von der Leyen hatte diese Woche die neue EU-Alterskontroll-App in ihrer Rede sogar mit der Einführung der Covid-App verglichen. Als wären soziale Medien eine Pandemie, die Europa überrollt und dabei vor allem Kinder und Jugendliche infiziert. Worauf genau steuert Europa da gerade zu?
Das in eine künstliche Drohkulisse gerahmte Vorhaben lässt sich auf vier Module herunterbrechen.
- Erstens geht es um ein EU-weites einheitliches Mindestalter für soziale Medien – ähnlich wie für einen Auto-Führerschein. Es könnte irgendwo zwischen 12 und 16 Jahren liegen. Frankreich will es bei 15 Jahren ansetzen. Schon jetzt geben Plattformen in ihren Nutzungsbedingungen ein Mindestalter vor: etwa 13 Jahre bei TikTok oder 16 Jahre bei YouTube. Für ein EU-weites Mindestalter allein wären die rechtlichen Hürden eher gering.
- Zweitens geht es um die Verpflichtung, dass Plattformen dieses Mindestalter mit strengen Alterskontrollen sichern müssen, etwa auf Basis von Ausweisdokumenten. Eine solche Pflicht gibt es bereits für Pornoseiten, die nur ab 18 Jahren erlaubt sind. Für soziale Medien dagegen gilt das Gesetz über Digitale Dienste (DSA), das strenge Alterskontrollen nur als eine von mehreren Optionen vorsieht. Möchte die EU also soziale Medien zu solchen Alterskontrollen verpflichten, müsste der DSA angepasst werden.
- Drittens geht es um die wirksame Durchsetzung einer möglichen Pflicht zu strengen Alterskontrollen. Das Beispiel von Pornoseiten zeigt: Nur weil eine strenge Ausweispflicht de jure gilt, heißt es noch lange nicht, dass Websites sich auch de facto daran halten. Eigentlich dürfte es in der EU keine frei zugänglichen Pornoseiten geben. Seit Jahren laufen dazu Rechtsstreitigkeiten. Social-Media-Seiten sind jedoch weniger rebellisch als Pornoseiten. Sie könnten sich entsprechenden Gesetzen beugen – in Australien tun sie es auch, zumindest widerwillig.
- Viertens geht es um einheitliche Methoden für strenge Alterskontrollen. Die EU hat hierfür jüngst eine Alterskontroll-App vorgestellt, die EU-weit ausgerollt werden soll. Später soll sie in der neuen digitalen Brieftasche (EUDI-Wallet) aufgehen. Nutzer*innen sollen in der App ein Ausweisdokument hinterlegen, das ihr Alter verrät. Die App soll dann lediglich weitergeben, ob eine Person eine bestimmte Altersschwelle überschritten hat. Rund um die App gibt es jedoch mehrere technische Unklarheiten und falsche Versprechungen.
Sobald alle vier Module wie Zahnräder ineinandergreifen, könnte ein mächtiger Kontrollapparat entstehen, der das Internet, wie wir es bisher kennen, umkrempelt. In diesem Szenario wäre es zwar weiterhin möglich, Alterskontrollen mit Tricks zu umgehen – etwa mit einem VPN-Dienst. Dennoch ist davon auszugehen, dass ein Großteil der Nutzer*innen lieber den offiziell gewünschten Weg geht und sich künftig mit einer Ausweis-App durchs Netz bewegt.
Zwei Updates könnten den Überwachungs-Apparat scharfstellenFür Anonymität im Netz ist das eine Gefahr. Aktuell setzt die Alterskontroll-App der EU auf Pseudonyme, auch wenn die EU-Kommission versucht, die Kontrollen als „komplett anonym“ zu verkaufen. Technische Systeme lassen sich allerdings mühelos verändern. Vom Kontrollapparat zum Apparat für Massenüberwachung wäre es – theoretisch – kein allzu großer Schritt mehr. Dafür bräuchte es nur zwei Updates:
- Ein technisches Update könnte die App von Pseudonymen auf Klarnamen umstellen.
- Ein juristisches Update müsste dafür die entsprechende Rechtsgrundlage schaffen.
Mit der Begründung, Kinder und Jugendliche zu schützen, erschaffen Emmanuel Macron, Ursula von der Leyen und weitere Befürworter*innen von Alterskontrollen also gerade eine neue Infrastruktur, um alle Menschen im Netz umfassend zu kontrollieren. Und diese Infrastruktur wäre nur zwei Updates davon entfernt, Anonymität im Netz weitgehend abzuschaffen.
Weiter wäre es mit diesem Kontrollapparat möglich, bestimmte Personengruppen systematisch aus digitalen Räumen auszuschließen, etwa weil sie eine bestimmte Altersgrenze nicht überschreiten oder weil sie keine erforderlichen Papiere besitzen. – Wie weit ist dieses Szenario entfernt?
Erste Hürde: Die Alterskontroll-App ist nicht fertigRund um Alterskontrollen gibt es eine auffällige Diskrepanz zwischen dem, was Befürworter*innen sagen, und dem, was der Fall ist. So hat Kommissionspräsidentin von der Leyen die Alterskontroll-App diese Woche für „technisch fertig“ erklärt. In einem nachgelagerten Pressebriefing betonte ein Pressesprecher mit gepresster Stimme, die App sei „fertig!“. Ein hochrangiger EU-Beamter sprach im selben Pressebriefing von einem „Goldstandard“.
Der Blick in den Code und die Spezifikationen zeigt jedoch: Die App ist nicht fertig. Einiges ist noch nicht abschließend geklärt. So braucht es je nach Nationalstaat und unterstützten Altersnachweisen eigene Umsetzungen der App. Dabei gibt es viele Spielräume, die am Ende mehr oder weniger Privatsphäre versprechen. IT-Sicherheitsexperten warnen bereits vor Lücken.
Deutschland wiederum will die Alterskontroll-App gar nicht erst einführen, wie jüngst ein Sprecher des Digitalministeriums gegenüber der Süddeutschen Zeitung (SZ) erklärte. Offenbar liegt der Fokus in Deutschland auf der digitalen Brieftasche.
Aus der Bundesagentur für Sprunginnovationen heißt es laut SZ: Die technischen Standards der Alterskontroll-App würden von jenen aus der Verordnung für die digitale Brieftasche abweichen, „ohne, dass dadurch ein Mehrwert entsteht“. Das deutet darauf hin: Der angebliche „Goldstandard“ könnte zum Rohrkrepierer werden.
Zweite Hürde: Der DSA steht im WegWeiter ist noch nicht entschieden, ob und inwiefern die EU-Kommission bereit wäre, Social-Media-Plattformen zu strengen Alterskontrollen zu verpflichten. Dafür müsste sie nämlich den DSA anfassen. Gibt es dafür einen politischen Willen? In ihren Äußerungen zur Videokonferenz mit Macron, von der Leyen und weiteren Spitzenpolitiker*innen hielt sich die EU-Kommission offenbar bewusst alle Türen auf.
Ursula von der Leyen schrieb auf Twitter-Nachfolger X: „Mit dem DSA haben wir EU-weite Regeln.“ Eltern sollten sich keine Sorgen machen. Das deutet darauf hin: Nein, es kommen keine neuen Gesetze, die über den DSA hinausgehen.
Am selben Tag allerdings sagte ein Kommissionssprecher dem Fachmedium Mlex: „Natürlich erwarten wir von Online-Plattformen, einschließlich sozialer Medien, dass sie angemessene Verfahren zur Altersverifikation haben, wenn für ihre Dienste Altersbeschränkungen gelten.“ Das wiederum deutet in eine andere Richtung: Die EU-Kommission könnte versuchen, bei der Durchsetzung des DSA auf strenge Altersverifikation zu pochen. Plattformen allerdings könnten sich dann rechtlich dagegen wehren und auf den Spielräumen beharren, die ihnen laut DSA zustehen.
Aktuell muss die EU-Kommission über das französische Social-Media-Verbot bis 15 Jahre entscheiden, und zwar im sogenannten Notifizierungsverfahren. Hier soll sich klären, ob das geplante nationale Gesetz mit EU-Recht vereinbar ist. Das könnte eng werden: In zwei Gutachten hatten die Wissenschaftlichen Dienste des Bundestags keine Spielräume für nationale Alleingänge bei diesem Thema gesehen.
Die Wissenschaftlichen Dienste arbeiten laut Selbstbeschreibung parteipolitisch neutral und sachlich objektiv. Als die französische Regierung jüngst in einem Pressebriefing auf deren juristisch fundierte Einschätzung angesprochen wurde, wollte sie davon nichts wissen. Ein Sprecher weigerte sich, zu kommentieren, was „irgendein“ deutsches Gremium sage.
Wissenschaft und Zivilgesellschaft im AbseitsÄhnlich wie die EU-Kommission hält sich Deutschland noch alle Türen auf. Zwar haben bereits Kanzler, Vizekanzler, die CDU und wichtige SPD-Politiker*innen Position bezogen – für ein Social-Media-Verbot für Minderjährige plus Alterskontrollen. Die CSU dagegen ist skeptisch. Und die Bundesregierung teilte jüngst mit, sie habe sich noch nicht festgelegt.
Mit zunehmender Ungeduld schielen die Befürworter*innen des Modells auf zwei Expert*innen-Kommissionen; eine auf Deutschland- und eine auf EU-Ebene. Dort sollen Fachleute bis spätestens Sommer Handlungsempfehlungen für Jugendschutz im Netz vorlegen. Ihnen dürfte allerdings bewusst sein, dass Politiker*innen auf höchster Ebene gerade Entscheidungen vorwegnehmen. Wie groß ist wohl das Interesse der Forschenden, den Staats- und Regierungschef*innen mit möglicherweise abweichenden Positionen in die Parade zu fahren?
Keinerlei politisches Gehör findet derweil eine breite interdisziplinäre Palette an Kritiker*innen aus den Bereichen Kinderschutz, Pädagogik und Wohlfahrt, aus Elternverbänden, aus Datenschutz und IT-Sicherheit bis hin zur Kirchen-Organisationen. Viele lehnen sowohl ein pauschales Social-Media-Verbot für Minderjährige ab als auch strenge Alterskontrollen für alle. Kinder und Jugendliche mit ihren Interessen und Bedürfnissen kommen in der politischen Debatte – wenn überhaupt – nur am Rande vor.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Sampling vor dem EuGH: Was ist eigentlich „Pastiche“?
Neigt sich die „unendliche Geschichte“ des Sampling-Streits zu „Metall auf Metall“ dem Ende zu? Der europäische Gerichtshof hat der Auseinandersetzung ein weiteres Kapitel hinzugefügt. Wir geben eine kurze Einschätzung zum Urteil, seiner Bedeutung für den Fall und für Sampling als Remix-Praxis allgemein.
Das Urteil zu „Metall auf Metall“ wird auch für die Zukunft der Remix-Kunst relevant sein. – Alle Rechte vorbehalten IMAGO / Sven GleisbergDer Gerichtsstreit „Metall auf Metall“ verhandelt weiterhin die Nutzung eines zwei Sekunden langen Musiksamples, das Moses Pelham dem Track „Metall auf Metall“ von Kraftwerk entnommen und bei der Produktion von Sabrina Setlurs Hiphop Song „Nur mir“ verwendet hat. Nach vielen Wendungen hatte das Oberlandesgericht Hamburg im Jahr 2022 drei rechtlich-historische Phasen zur urheberrechtlichen Bewertung dieser Nutzung unterschieden, von der die letzte Phase weiterhin in Streit steht. Mittlerweile geht es darum, ob Sampling in „Nur mir“ unter die urheberrechtliche Ausnahme („Schranke“) des Pastiche fällt.
Schranken im Urheberecht wie das Zitatrecht oder die Privatkopie erlauben unter bestimmten, eng abgegrenzten Voraussetzungen, ein Werk auch ohne Zustimmung des Rechteinhabers zu nutzen. Die Schranke des „Pastiche“ fand erst 2021 im Zuge der Umsetzung der EU-Urheberrechtsrichtlinie Eingang in das deutsche Urheberrecht, konkret in § 51a UrhG. Für „Nur mir“ stellt sich seither die Frage: Stellt die Nutzung des Samples ein Pastiche dar? Damit wäre zumindest seit 2021 die Verbreitung des Songs wegen dieser Ausnahme zulässig.
Nachdem das Oberlandesgericht Hamburg diese Bewertung in seiner Entscheidung von 2022 weitgehend gerechtfertigt hatte, legte der deutsche Bundesgerichtshof dem europäischen Gerichtshof Fragen vor, um die Schranke des Pastiche genauer auszulegen. Im Detail fragt der Bundesgerichtshof, ob Pastiche einerseits einen Auffangtatbestand für die künstlerische Auseinandersetzung mit einem vorbestehenden Werk darstellt und ob andererseits Pastiche die Intention zur Schaffung eines Pastiche in der Nutzerin voraussetzt, oder es ausreicht, dass es von informierten Personen als Pastiche erkannt wird.
Kein Auffangtatbestand: der „künstlerische oder kreative Dialog“Der europäische Gerichtshof sieht davon ab, mit dem Pastiche eine allgemeine Ausnahme für die künstlerische Auseinandersetzung mit einem vorbestehenden Werk zu schaffen. Entscheidend für ein Pastiche ist in erster Linie die offen erkennbare Nutzung von urheberrechtlich geschützten Werken. „Versteckte Imitationen“ oder auch die in der ersten Entscheidung des europäischen Gerichtshof von 2019 ausgeführte Nutzung in „nicht wiedererkennbarer Form“ werden nicht vom Pastiche umfasst. So schreibt Gerichtshof, dass Pastiche…
…Schöpfungen erfasst, die an ein oder mehrere bestehende Werke erinnern, gleichzeitig aber wahrnehmbare Unterschiede diesen gegenüber aufweisen, um mit diesen Werken eine als solche erkennbare Form des künstlerischen oder kreativen Dialogs aufzunehmen.
Dieser Dialog könne „verschiedene Formen annehmen“, das Gericht unterscheidet die Form einer „offenen Nachahmung des Stils dieser Werke, einer Hommage an sie oder einer humoristischen oder kritischen Auseinandersetzung mit ihnen“. Damit formuliert der europäische Gerichtshof eine nicht-abgeschlossene Liste konkreter Zwecke, die einen künstlerischen oder kreativen Dialog auszeichnen und erweitert die Taxonomie von „Karikatur, Parodie und Pastiche“. Mit dieser Auflistung bleibt der europäische Gerichtshof hinter dem Vorschlag des Generalanwalts von 2025 zurück. Dieser hatte formuliert, dass „der mit dieser offenen stilistischen Nachahmung verfolgte Zweck hingegen unerheblich [ist]“. Allerdings scheint die Auflistung offen für Erweiterungen aus der künstlerischen Praxis zu sein.
Intention zum Pastiche?Hinsichtlich der Frage nach der Intention der Nutzerin folgt der europäische Gerichtshof hingegen weitestgehend den Vorschlägen des Generalanwalts. Zur Gewährleistung der Rechtssicherheit, so das Gericht, müssten objektive Kriterien zur Prüfung der Absicht einer Nutzerin herangezogen werden. Insofern genügt…
… für eine Nutzung ‚zum Zwecke von‘ Pastiches im Sinne dieser Bestimmung, dass der Charakter als ‚Pastiche’ für denjenigen erkennbar ist, dem das bestehende Werk bekannt ist, dem diese Elemente entnommen sind.
Damit müssen Nutzerinnen nicht nachweisen, die Absicht gehabt zu haben, mit einem anderen Werk in einen Dialog zu treten. Es genügt, wenn eine mit dem genutzten Werk vertraute und über die Bedeutung von Pastiche informierte Person ein solches in dem neu geschaffenen Werk erkennt. Das könnte beispielsweise eine Musikgutachterin sein.
Was bedeutet das für den Fall „Metall auf Metall“?„Metall auf Metall“ verlässt nach der Entscheidung des EuGH nun wieder die europäische Bühne und wird weiter vor dem deutschen Bundesgerichtshof verhandelt. Zu klären dürfte noch sein, ob „Nur mir“ in einen künstlerischen oder kreativen Dialog mit „Metall auf Metall“ tritt. Das ist – zumindest vor dem Hintergrund der jetzt durch den europäischen Gerichtshof eingeführten Begrifflichkeiten – noch nicht in ausreichendem Maß geschehen.
Ausgeschlossen werden kann wohl die Einordnung als „humoristische Auseinandersetzung“, da ja bereits mehrfach Karikatur und Parodie als Schranken für Sampling in „Nur mir“ abgelehnt wurden. Auch die Einordnung als „offene Nachahmung des Stils“ für einen HipHop-Song wie „Nur mir“ muss wohl als unwahrscheinlich angesehen werden.
Weniger eindeutig ist das bei Punkten wie „kritischer Auseinandersetzung“ oder „Hommage“. Womit wir beim Kern der Frage angekommen sind: Ist Sampling im Fall von „Nur mir“ eine „erkennbare Form des künstlerischen oder kreativen Dialogs“ im Sinne des EuGH-Urteils? Und angesichts dessen, dass das Oberlandesgericht Hamburg in seiner Entscheidung von 2022 bereits eine „künstlerische Auseinandersetzung“ festgestellt hat, ist das in diesem konkreten Fall mit dem überaus bekannten Sample wohl zu bejahen.
Ist Remix-Kunst jetzt Pastiche?Pastiche als Auffangtatbestand für die Auseinandersetzung mit einem vorbestehenden Werk wäre hingegen einer noch weitreichenderen Legalisierung Remix-basierter Kunstformen gleichgekommen. Der europäische Gerichtshof hat sich gegen eine solche allgemeine Ausnahmeregelung entschieden.
Dennoch: Die weitreichenden Verschiebungen in diesem Urteil des europäischen Gerichtshofs sind bemerkenswert. Im Jahr 2019 urteilte der europäische Gerichtshof noch, dass allein die nicht-wiederkennbare Nutzung eines Samples ohne Zustimmung rechtlich erlaubt sei. Eine Einschätzung, die den Praktiken und Diskursen in der Remix-Kunst widersprechen.
Im neuen Urteil wird hingegen die Bedeutung der wahrnehmbaren Unterschiede und des Dialogs zwischen urheberrechtlich geschützten Werken für die Freiheit künstlerischen Schaffens in den Vordergrund gerückt. Das ist ein deutliches Signal für Remix-Kunst als Pastiche und für die Legalisierung von Remix-Kunst allgemein.
Abzuwarten bleibt allerdings, wie sich diese inklusive Auslegung des Pastiche-Begriffs in die digitale Praxis überführen lassen wird und welche Fallstricke die Konkretisierung der Dialogformen für Remix-Kunst und Sampling bereithält. So könnte die Verwendung besonders obskurer oder unbekannter Samples größeren Rechtfertigungsdruck erzeugen als die Nutzung weit verbreiteter Werke. Auch das graduelle Kriterium der „wahrnehmbaren Unterschiede“ bleibt noch unterspezifiziert und könnte zu Abgrenzungsschwierigkeiten führen, die auch zukünftig einer Einzelfallbewertung unterliegen.
Was passiert als nächstes?Mit dem vorliegenden Urteil des europäischen Gerichtshofs ist die unendliche Geschichte von „Metall auf Metall“ ein gutes Stück weitergekommen. Das nächste Kapitel spielt erneut am deutschen Bundesgerichtshof. Es liegt an ihm, ob Sampling in „Nur mir“ nach den Vorgaben des europäischen Gerichtshofs als Pastiche bewertet werden kann.
Die Geschichte könnte also bald zu Ende gehen. Denkbar ist allerdings auch, dass der Bundesgerichtshof für seine Entscheidung eine weitere Konkretisierung des Dialog-Charakters der in Streit stehenden Sample-Nutzung benötigt. Dann könnte sogar eine erneute Schleife über das Oberlandesgericht Hamburg eingeschoben werden.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Polizeiliche Kriminalstatistik: Mit Vorsicht zu genießen
Wenn die jährliche Statistik zur Kriminalität veröffentlicht wird, folgen oft rassistische Hetze und Rufe nach Strafrechtsverschärfungen. Dabei sagt die Statistik weniger darüber aus, wie die Sicherheitslage im Land wirklich ist, als viele vermuten.
Die Kriminalstatistik wird jährlich unter großem Interesse veröffentlicht. – Alle Rechte vorbehalten IMAGO / IPONJedes Jahr im Frühling veröffentlicht das Bundeskriminalamt die Polizeiliche Kriminalstatistik. Sie wird von Vielen wahrgenommen als genaues Abbild von Kriminalität im Land und dementsprechend oft auch politisch instrumentalisiert. Dabei ist die Polizeiliche Kriminalstatistik (PKS) zuallererst eine Art Arbeitsbericht der Polizei. Sie ist mit Vorsicht zu genießen.
In der PKS werden mutmaßliche Straftaten erfasst, welche die Polizei an die Staatsanwaltschaften weitergibt. Ob diese dann die Verfahren einstellen und ob jemand verurteilt wird, erfahren wir aus dieser Statistik nicht. Wir erfahren auch nicht, ob die Steigerung einer Kriminalitätsart darauf beruht, dass die Polizei ihren Schwerpunkt verlagert hat, die Ermittlungsmethoden besser wurden, das Dunkelfeld sich aufhellt oder Menschen bereitwilliger Straftaten anzeigen.
Zudem gibt es rassistische Einstellungen, die dazu führen, dass bestimmte Bevölkerungsgruppen von der Polizei stärker kontrolliert oder von der Mehrheitsbevölkerung öfter angezeigt werden, was deren Präsenz in der Statistik erhöht. Das alles verzerrt die Polizeiliche Kriminalstatistik.
Polarisierung und StigmatisierungDie Statistik steht wegen wegen ihrer Anfälligkeit zur Instrumentalisierung und auch rassistischen Stimmungsmache in der Kritik. „Die polizeiliche Kriminalstatistik ist als Instrument zur Bewertung der Sicherheitslage ungeeignet“, hieß es in einem offenen Brief (PDF), den zahlreiche Menschenrechtsorganisationen und Kriminolog:innen vergangenes Jahr unterzeichnet haben. Vielmehr trage die Statistik zur Polarisierung der Gesellschaft und Stigmatisierung bestimmter Bevölkerungsgruppen bei, so die Unterzeichnenden.
Das Medienhaus Correctiv hat nun beliebte Mythen und Instrumentalisierungen rund um die Kriminalstatistik einem Faktencheck unterzogen. Der Artikel weist zum Beispiel darauf hin, dass eine Verbindung von polizeilicher Statistik und Justizstatistiken überfällig wäre. Dann könnte man nachvollziehen, wie häufig aus der polizeilichen Erfassung als Straftat am Ende auch eine Verurteilung vor Gericht wird. Den wie Correctiv schreibt, wurden laut statistischem Bundesamt 60 Prozent der Ermittlungsverfahren eingestellt.
Der Faktencheck zeigt auch, dass die Zahl der Fälle mit dem Bevölkerungswachstum zu tun hat. Mehr Tatverdächtige heiße nicht notwendigerweise, dass auch prozentual mehr Menschen kriminell geworden seien. Der prozentuale Wert wird mittels der „Tatverdächtigenbelastungszahl“ statistisch erfasst. Correctiv hat nun diesen Wert angeschaut und kommt zum Schluss:
[..] obwohl die absolute Zahl der Tatverdächtigen in den vergangenen Jahren zwischendurch gestiegen ist (etwa zwischen 2013 und 2015 oder zwischen 2021 und 2023): Der Anteil der Menschen in der Gesellschaft, die von der Polizei eines Verbrechens verdächtigt wurden, ist seit 2009 insgesamt gesunken.
Ein anderes Feld im Bericht von Correctiv sind Straftaten gegen die sexuelle Selbstbestimmung. Diese sind in den vergangenen Jahrzehnten laut der PKS dramatisch angestiegen. Die Hintergründe sind dabei vor allem auch ein besserer gesetzlicher Schutz vor solchen Straftaten durch eine Erweiterung dessen, was überhaupt strafbar ist, sowie eine gestiegene Sensibilität, so dass mehr Menschen und vor allem Frauen sich trauen, solche Straftaten auch anzeigen. Dennoch ist das Dunkelfeld in diesem Gebiet immer noch groß, so kam kürzlich heraus, dass bei digitaler Gewalt etwa 97 Prozent aller Fälle nicht zur Anzeige kommen.
Demografische und soziale Aspekte ignoriertBeliebt in rassistischer Stimmungsmache, die ja derzeit von AfD bis zum Bundeskanzler Konjunktur hat, ist das Narrativ von kriminellen Migrant:innen. Die PKS erfasst keinen Migrationshintergrund, wer einen deutschen Pass hat, ist deutsch – egal, wo die Person geboren ist oder welche Nationalität die Eltern hatten. Die in der PKS erfassten Nicht-Deutschen hingegen sind nicht nur Geflüchtete oder hier lebende Menschen ohne deutschen Pass, sondern auch Tourist:innen. Wer also mit Fallzahlen aus der PKS hantiert, um rechte Stimmung zu machen, ignoriert nicht nur das, sondern auch, dass bei den Nicht-Deutschen die Altersstruktur jünger ist und jüngere Menschen, egal von wo sie kommen, in der Regel mehr Straftaten begehen. In Lagebildern erfasst das Bundeskriminalamt hingegen erst seit 2015 die Kriminalität von „Zuwanderern“, laut dem BKA Menschen, die ein Asylverfahren durchlaufen, einen Aufenthaltstitel oder eine Duldung haben oder abgeschoben werden sollen.
Rechtsradikale hantieren gerne mit der sogenannten „Messerkriminalität“, die angeblich seit dem Jahr 2015 explodiert sei. Das ist unseriös, wie Correctiv darlegt: Denn „Tathandlungen, bei denen der Angriff mit einem Messer unmittelbar gegen eine Person angedroht oder ausgeführt wird“ werden erst seit dem 1. Januar 2024 vollständig erfasst. 90 Prozent der erfassten „Messerkriminalität“ wird von Männern über 21 Jahren verübt. Tatsächlich sind dabei in der Statistik nicht-deutsche Täter überrepräsentiert. Neben demografischen und sozialen Aspekten gibt es zahlreiche weitere Faktoren, die dieses Ungleichgewicht begünstigen, wie die Kriminologin Gina Wollinger darlegt.
Verzerrte Wahrnehmung von KriminalitätDie Gefahr einer Verfälschung des Kriminalitätsbildes durch die polizeiliche Statistik wird verstärkt dadurch, dass sehr viele Menschen eine völlig von der Realität abgekoppelte Wahrnehmung der Kriminalität haben. In einer Befragung der Konrad-Adenauer-Stiftung (KAS) aus dem Jahr 2021 gingen fast zwei Drittel von einer starken bis sehr starken Zunahme der Kriminalität in den letzten fünf Jahren aus, während nur sechs Prozent der Befragten die Kriminalitätsentwicklung realistisch einschätzten.
Woher diese Fehlwahrnehmung kommt, ist nicht abschließend untersucht. Die Studie der KAS zeigte sich hier einigermaßen ratlos: Die Sorge vor einer Zunahme der Kriminalität lasse sich nicht mit sinkender tatsächlicher Kriminalität aus der Welt schaffen, stellten die Autor:innen damals fest.
Einen Anteil an diesem Phänomen haben vermutlich die Nachrichtenwertfaktoren Negativität und Nähe, die Medien dazu bringen, Berichte mit Schaden und Kriminalität in unserer Nähe als relevanter zu bewerten. So entsteht medial eine Schieflage, die nicht der realen Entwicklung entspricht. Diese Schieflage wird befeuert von einer Innenpolitik, die auf diese Fehlwahrnehmungen eingeht, was die Berichterstattung zum Thema Sicherheit weiter verstärkt. Hinzu kommt auch ein Altersfaktor, den die Studien bestätigen: Je älter die Befragten, desto mehr Angst haben sie vor Kriminalitätszunahme. In einer alternden Gesellschaft steigt also die Furcht und damit auch der politische Druck auf das Thema.
Eng gefasster SicherheitsbegriffDer Fokus des Sicherheitsbegriffs auf Delinquenz und Kriminalität trägt zudem zu einer weiteren Verzerrung und damit verschobenen politischen Prioritäten bei. Ein erweiterter Sicherheitsbegriff würde soziale Sicherheit hervorheben, dazu gehören Wohnraum, eine gerechte Vermögensverteilung, ein gutes Gesundheitssystem, einfache Mobilität sowie die Absicherung von Arbeitsplätzen. Ein noch weiter in die Zukunft gerichteter Sicherheitsbegriff würde auch die Gefahr von Kriegen, Umweltkatastrophen und Klimakollaps in den Fokus nehmen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Abschiebepolitik: Das Handy eines Mannes, der nirgendwo hinkann
Idris lebt seit mehr als 40 Jahren in Deutschland und soll nach Eritrea abgeschoben werden. Das gilt als praktisch unmöglich. Trotzdem durchsucht das Ausländeramt Köln sein Smartphone, während er im Gefängnis sitzt. Eine Geschichte über einen Kontrollapparat, der sich verselbstständigt hat.
Der Wachturm der JVA Köln Ossendorf: Hier saß Idris in Untersuchungshaft. – Alle Rechte vorbehalten IMAGO / Funke Foto Services / Andreas BuckWinter 2024. Idris ist gerade in der JVA Siegburg angekommen. Um seine Cracksucht zu finanzieren, war er in einen Kiosk und mehrere Gaststätten eingestiegen, hatte Parfum in einer Drogerie geklaut, war immer wieder erwischt worden. Weil er die Taten während laufender Bewährungszeiten begangen hatte, muss er jetzt für insgesamt fünf Jahre ins Gefängnis.
Ein Beamter reicht ihm die Gefängniskleidung und einem Umschlag mit seinen Wertsachen. Die Sachen sind aus der Untersuchungshaft überstellt worden, in der er vorher gewesen ist. Idris soll den Inhalt prüfen, bevor der Umschlag wieder verplombt und eingeschlossen wird. Im Umschlag liegt seine Halskette. Aber das Handy, das er beim Antritt der U-Haft Anfang des Jahres ebenfalls abgegeben hatte, fehlt.
Was damit passiert ist, erfährt er erst zwei Monate später, durch einen Brief der für ihn zuständigen Ausländerbehörde Köln. „Anbei übersende ich Ihnen den Datenträger des oben genannten Inhaftierten zurück“, heißt es darin und weiter in bestem redundanten Amtsdeutsch. „Der Datenträger wurde im Zuge einer Datenträgerauswertung ausgewertet“, er könne nun zurück in die Verwahrung.
Seit 40 Jahren geduldetIdris, der eigentlich anders heißt, lebt seit mehr als 40 Jahren in Deutschland. Er kam als Kind, hat hier die Schule besucht, einen Hauptschulabschluss gemacht, eine Schlosserlehre begonnen. Er hat auch früh eine Karriere als Kleinkrimineller begonnen, wie er selbst sagt. All das erzählt er vom Festnetztelefon des Gefängnisses aus, das er zu vorgeschriebenen Zeiten benutzen darf.
Eine Aufenthaltserlaubnis hat er nicht, sein Antrag auf Asyl wurde bereits 1987 abgelehnt. Seit Jahrzehnten lebt er mit einer Duldung im Land, doch damit ist jetzt Schluss. Nach seiner Entlassung soll er Deutschland verlassen, das hat ihm das Ausländeramt im Herbst mitgeteilt.
Das Problem: Das Land, aus dem er mit seiner Tante einst geflohen ist, der heutige Staat Eritrea, will ihn nicht. Eine Abschiebung dorthin ist ohnehin so gut wie unmöglich. Das Land gilt als eine der brutalsten Diktaturen der Welt, Abgeschobenen drohen Folter und willkürliche Haft. Als Geflüchteter aus der ehemaligen äthiopischen Provinz besaß Idris zudem nie eritreische Papiere, Eritrea erkennt ihn nicht als Staatsbürger an. „Ich bin faktisch staatenlos, seit über vierzig Jahren“, sagt Idris zu seinem Fall.
Den deutschen Verwaltungsapparat interessiert das nicht. Für das Ausländeramt Köln ist Idris ein ausreisepflichtiger Straftäter, in so einem Fall gilt ein besonders schwerwiegendes „Ausweisungsinteresse“. Das Amt muss alles dafür vorbereiten, dass er nach seiner verbüßten Haftstrafe abgeschoben werden kann. Dazu darf es laut Aufenthaltsgesetz auch seine Datenträger durchsuchen.
Vom Gefängnis in die IT-ForensikWährend Idris in einer Zelle sitzt, geht sein Handy deswegen auf Reisen. Aus dem Umschlag mit seinen persönlichen Dingen in der Gefängnisverwahrung gelangt es an das Ausländeramt in Köln, dieses schickt es mit einem Prüfauftrag weiter an die Zentrale Ausländerbehörde in Essen.
Die Behörde ist dafür zuständig, die Ämter in Köln und Düsseldorf bei Abschiebungen zu unterstützen. Dort arbeitet seit Herbst 2023 auch die „Stabsstelle Datenforensik“. Ihre Aufgabe: Die Datenträger von Menschen durchsuchen, die „ausreisepflichtig“ sind, um darauf nach Hinweisen für ihre Herkunft oder Identität zu suchen.
Diese Abteilung eingerichtet hat das von den Grünen geführte Fluchtministerium in Nordrhein-Westfalen. In einem Erlass, der damals an alle Ausländerbehörden im Land ging, heißt es dazu: „Demnach ist ein Ausländer, der keinen Pass oder Passersatz besitzt, verpflichtet, an der Beschaffung eines Identitätspapieres mitzuwirken und alle Dokumente oder Datenträger auf Verlangen der Ausländerbehörde vorzulegen, die für die Feststellung und Geltendmachung einer Rückführungsmöglichkeit in einen anderen Staat von Bedeutung sein können.“ Komme die betroffene Person dieser Mitwirkungspflicht nicht nach, könne die Behörde die Durchsuchung anordnen.
Die Ausländerbehörden werden in dem Schreiben gebeten, „sich bei Bedarf an einer Datenträgerauswertung“ mit der jeweils für ihren Regierungsbezirk zuständigen Zentralen Ausländerbehörde in Verbindung zu setzen. Weitere Informationen dazu finde man unter dem Reiter „Auswertung Datenträger“ im System.
Was ein Handy über Herkunft verraten sollWas in Essen mit seinem Handy geschieht, erfährt Idris nicht. Die Stadt Köln will dazu keine Auskunft erteilen. Ausgehend von dem, was ein Sprecher der Stadt mitteilt und was aus bisherigen Recherchen von netzpolitik.org bekannt ist, würde die Durchsuchung aber so ablaufen:
Die Abteilung soll auf Idris’ Handy nach Indizien suchen, die auf eine Staatsangehörigkeit hindeuten können. Im besten Fall – aus Sicht der Behörde – wären das Fotos von Papieren oder Passnummern. Im weniger guten Fall geht es um „sachdienliche Hinweise“: Anrufe in ein bestimmtes Land etwa, gespeicherte Kontakte oder Sprachen, die er in Chatnachrichten verwendet hat.
Um die Handys zu durchsuchen, schließen die Forensik-Fachleute die Geräte an einen Computer an, der alle Daten aus dem Gerät ausliest. Idris‘ Fotos, seine Nachrichten, wen er angerufen hat, was er auf Social Media postete – all das liegt nun bei der Behörde offen. Aus den relevanten Hinweisen, die sie in den Daten finden, erstellen Mitarbeiter*innen einen Bericht und schicken ihn zusammen mit dem Handy zurück an die Ausländerbehörde.
Dieser letzte Schritt, die Auswertung und der Bericht, werde von einer Person mit Befähigung zum Richteramt gemacht, schreibt ein Sprecher der Stadt. Letzteres schreibt das Aufenthaltsgesetz vor. Damit soll sichergestellt sein, dass keine Informationen aus dem sogenannten „Kernbereich“ der privaten Lebensgestaltung in den Akten landen.
„Was ist das für eine Verarscherei?“Formal ist das alles korrekt, rechtlich abgesichert. Ein Paragraf im Aufenthaltsgesetz erlaubt die Handydurchsuchung bereits seit mehr als zehn Jahren, wenn die Identität nicht mit anderen „milderen Mitteln“ geklärt werden kann, etwa durch die Vorlage einer Geburtsurkunde. Die Behörde darf in so einem Fall Datenträger einziehen, auch gegen den Willen der Betroffenen. In vielen Bundesländern ist das inzwischen Standard.
Nur: Was soll das im Fall von Idris bringen? Seine Abschiebung scheitert ja nicht daran, dass seine Identität oder Staatsbürgerschaft nicht bekannt wären. Die deutschen Behörden kennen seinen Namen, sein Geburtsdatum.
Idris kann nicht abgeschoben werden, weil die eritreische Botschaft ihm keine Papiere ausstellt. Das weiß auch die Ausländerbehörde. Was erhofft sie sich von der Durchsuchung? Und warum sammelt ein Staat überhaupt digitale Daten für eine Abschiebung, die diplomatisch unmöglich ist? Einfach, weil er es kann?
„Auf meinem Handy werden sie sicher nichts finden“, sagt Idris. Darauf seien Fotos seiner drei Kinder in Deutschland. Der älteste studiert, der jüngste ist gerade zwölf Jahre alt. Von der Mutter der beiden jüngeren lebt er schon seit Jahren getrennt. „In Eritrea kenne ich niemanden, habe da niemanden.“
Die Abschiebeanordnung im Herbst 2025 kommt trotzdem. „Was ist das für eine Verarscherei?“
Zugriff aus der HaftNordrhein-Westfalen wird seit 2022 von einer schwarz-grünen Koalition regiert. Ministerpräsident Hendrik Wüst (CDU) setzt auf eine harte Abschiebepolitik. Seit dem Anschlag von Solingen wurde die Linie noch weiter verschärft. Straftäter*innen sollen noch konsequenter abgeschoben werden. Nur wohin, wenn es keinen Zielstaat gibt? Für die Politik ist Idris ein Problem ohne Lösung.
Liegt es daran, dass die Ausländerbehörden im Land derzeit besonders viele Handys einziehen? Allein in Köln hat das Ausländeramt im vergangenen Jahr mehr als 130 Datenträger eingezogen und durchsuchen lassen, teilt ein Sprecher der Stadt mit.
„Sobald andere Maßnahmen zur Identitätsfeststellung ausgeschöpft oder nicht erfolgversprechend sind, wird der Person bei ihrer Vorsprache angeboten, den Datenträger freiwillig zur Durchsicht vorzulegen“, schreibt er. Weigert sie sich, darf sie auch durchsucht werden.
Bei Ausreisepflichtigen, die wie Idris in Haft sitzen, werde jeweils die zuständige Justizvollzugsanstalt angefragt. Seien dort Handys oder andere Datenträger in der Verwahrung, würden diese eingezogen.
Eigentlich hätte Idris über den Einzug seines Handys informiert werden müssen, die Ausländerbehörde stellt dafür eine Bescheinigung aus. Diese gehe in solchen Fällen an das Gefängnis, schreibt der Sprecher, mit der Bitte, den Gefangenen zu informieren. Ob das jedoch im Einzelfall geschieht, das „entzieht sich des Einflussbereichs der Ausländerbehörde“.
Öffentliche Zahlen, geheime WerkzeugeUm Smartphones wie das von Idris durchsuchen zu können, hat NRW einigen Aufwand betrieben. Die meisten Geräte sind heute mit Zugangscodes oder per Gesichtserkennung gesichert, nicht alle Betroffenen geben die Daten heraus, auch wenn das Aufenthaltsgesetz das vorschreibt. Die Behörde braucht dann ein Werkzeug, mit dem sie die Sicherungen überwinden und sich Zugang verschaffen kann.
Die „Stabsstelle Datenforensik“, die in Essen auch Idris‘ Handy durchsucht hat, arbeitet deswegen mit einer IT-forensischen Ausstattung, die die Zentrale Ausländerbehörde eigens dafür angeschafft hat. Solche Werkzeuge funktionieren wie ein Dietrich, mit dem sich die meisten Smartphones öffnen lassen, auch ohne Zugangsdaten.
Im Jahr 2024 hat die Stabsstelle auf diesem Weg die Datenträger von 114 Personen durchsucht und 93 Auswertungsberichte erstellt. Nur in zwei Prozent der Fälle scheiterten die Durchsuchungen. Das schreibt die Stadt Essen in ihrem Jahresbericht zur Arbeit der Zentralen Ausländerbehörde. Im Jahr darauf waren es bereits 254 durchsuchte Datenträger und 176 Berichte, teilt das zuständige Fluchtministerium auf Anfrage von netzpolitik.org mit.
Eine weitere solche Stelle arbeitet in der Zentralen Ausländerbehörde Bielefeld. Zusammengenommen hätten beide Stellen im Jahr 2024 205 Datenträger durchsucht. Im Jahr darauf waren es 402.
Die Kosten dafür trägt das Land NRW. Wie viel das kostet und von welchem Hersteller die Ausstattung stammt, das hält die schwarz-grüne Landesregierung allerdings geheim. „Aus Gründen des Datenschutzes“ will das zuständige Familienministerium auf Nachfrage keine Angaben machen.
In anderen Bundesländern, die vergleichbare Software für die Durchsuchungen nach dem Aufenthaltsgesetz einsetzen, ist hingegen dokumentiert, woher die Produkte stammen: vom Unternehmen Cellebrite. Es verkauft seine IT-forensischen Produkte unter anderem an Polizeibehörden, die damit in den Handys mutmaßlicher Straftäter nach Beweisen suchen, aber auch an Geheimdienste oder das Militär. Seit einigen Jahren gehören auch Ausländerbehörden in Deutschland zum Kundenkreis. (Hier ist eine Karte, die zeigt, wo Cellebrite bereits für die Durchsuchung der Handys von Ausreisepflichtigen eingesetzt wird.)
Stellt Cellebrite auch das Produkt, mit dem die Abteilung in Essen Handys durchsucht? Dafür gibt es keinen Beleg. Im bislang aktuellsten Jahresbericht der Stadt werden jedoch die Namen von zwei weiteren Cellebrite-Produkten genannt, die 2025 eingeführt werden sollten: Sie heißen Collector und Inspector und dienen dazu, die Festplatten von Computern zu durchsuchen. Auch das sind Datenträger und sie dürfen von den Ausländerbehörden ebenfalls eingezogen werden.
Auf die Nachfrage, ob diese Werkzeuge inzwischen im Einsatz sind, antworteten die Zentrale Ausländerbehörde Essen und das Ministerium nicht.
„Strafrechtlich relevante Zufallsfunde“Das Ministerium sieht in der Geheimhaltung offenbar auch eine Art ermittlungstaktischen Vorteil. „Konkrete Information über die verwendete Soft- und Hardware, die über Presseberichte an eine breite Öffentlichkeit gelangen, könnten den Erfolg zukünftiger digital-forensischer Maßnahmen gefährden“, schreibt es im Ablehnungsbescheid zu einer Anfrage nach dem Informationsfreiheitsgesetz.
Nur: Es handelt sich streng genommen ja um gar keine Ermittlungen. Die Betroffenen sind keiner Straftat verdächtig, die Zentrale Ausländerbehörde ist auch keine Strafverfolgungsbehörde. Sie soll lediglich nach Hinweisen auf eine Nationalität suchen.
Dass die Grenzen zwischen den Aufgaben von Ausländerbehörden und der Strafverfolgung hier zunehmend aufweichen, darauf deutet auch ein weiterer Satz aus dem Jahresbericht der Stadt Essen hin. In einem Abschnitt zu den „hervorragenden Ergebnissen“, die mit der Auswertung der Datenträger hätten erzielt werden können („In 87 Prozent der Fälle zumindest identitätsklärende Hinweise“), heißt es dort auch, „entdeckte und möglicherweise strafrechtlich relevante Zufallsfunde“ seien „an die zuständige Ausländerbehörde bzw. Strafermittlungsbehörde“ gemeldet worden.
Auf Nachfrage, wie häufig es in den vergangenen Jahren zu solchen Zufallsfunden mit entsprechender Meldung kam und auf welcher Rechtsgrundlage das geschieht, antwortet die Behörde nicht.
Eine Maßnahme ohne ZielDer Berliner Jurist Davy Wang koordiniert bei der Gesellschaft für Freiheitsrechte Fälle zu eingezogenen Handys von Geflüchteten. Er hält eine solche Weitergabe für rechtswidrig. Das Aufenthaltsgesetz erlaube den Zugriff auf Datenträger ausschließlich, um Identität und Staatsangehörigkeit festzustellen sowie eine Rückführung zu ermöglichen. „Eine Befugnis, dabei gefundenen Daten zu anderen Zwecken – etwa zur Strafverfolgung – an andere Behörden weiterzuleiten, enthält das Gesetz nicht. Eine solche Weitergabe ist damit unzulässig.“
Rechtswidrig sei auch das Vorgehen der Ausländerbehörde im Fall von Idris, sagt Wang. „Der Zugriff auf den gesamten Datenbestand des Handys stellt einen schwerwiegenden Eingriff in die Privatsphäre dar und darf nicht erfolgen, wenn damit der verfolgte Zweck überhaupt nicht erreicht werden kann.“
Das Aufenthaltsgesetz erlaube diesen Eingriff nur unter engen Voraussetzungen. Im Falle von Idris sei klar, dass der Zweck – das Ermöglichen einer Rückführung – nicht erreichbar sei: „Seine Rückführung scheitert an faktischen Hindernissen, die im Verantwortungsbereich der eritreischen Botschaft liegen.“ Durch das Auswerten der Handydaten könnten diese weder beseitigt noch beeinflusst werden.
„Solche Fälle zeigen, dass der Datenzugriff in der Praxis nicht als enges Ausnahmeinstrument gehandhabt wird, sondern als Routinemaßnahme“, sagt Wang, „auch dort, wo sie von vornherein nichts bewirken kann.“ Damit werde die Privatsphäre der betroffenen Personen jedoch strukturell ausgehöhlt. „Die Durchsuchung wird als Druckmittel zur Durchsetzung migrationspolitischer Ziele missbraucht.“
Clara Bünger ist fluchtpolitische Sprecherin der Linken im Bundestag. „Die Regierungen der letzten Jahre haben unter Beweis gestellt, dass sie in der Lage sind, sich immer wieder neue grenzwertige oder sogar offen rechtswidrige Maßnahmen auszudenken, die den alleinigen Zweck haben, ausreisepflichtige Personen unter Druck zu setzen und sie zur Ausreise zu drängen“, sagt sie. Das ändere aber nichts daran, dass manche Menschen nicht abgeschoben werden könnten, weil sie zum Beispiel staatenlos sind.
Auch wenn es am Ende nicht zur Abschiebung komme, hätten die Maßnahmen schwere Konsequenzen. „Häufig werden solche Grundrechtseingriffe zuerst an Geflüchteten oder anderen Gruppen mit geringer Beschwerdemacht getestet“, sagt sie. „Wenn Protest ausbleibt, werden sie später ausgeweitet.“
„Bundesgebiet unverzüglich verlassen“Idris sitzt weiterhin in Haft, inzwischen in der JVA Aachen. Er hofft darauf, dass er vorzeitig entlassen wird und einen Entzug machen kann, in einer christlichen Einrichtung für Suchthilfe. Dort war er schon einmal, bevor er rückfällig wurde.
Für ihn gilt allerdings weiterhin die Abschiebeanordnung aus Köln: „Sollten Sie aus irgendeinem Grund vorzeitig aus der Haft entlassen werden, haben Sie das Bundesgebiet unverzüglich, spätestens jedoch 14 Tage nach einer eventuellen Haftentlassung zu verlassen“, steht darin. Dass er das ohne Papiere nicht tun kann, ist klar.
Idris hat vor dem Verwaltungsgericht Köln Klage gegen seine Abschiebeanordnung eingereicht und bittet um eine Aufenthaltserlaubnis. Nur damit kann er eine von der Krankenkasse finanzierte Therapie machen. „Nach einer erfolgreichen Drogentherapie würde die Abkehr von meinen kleinkriminellen Aktivitäten wirklich näher rücken, die mir bislang nicht gelungen ist“, schreibt er. „Genau darin setze ich meine Hoffnungen. Diesen Weg möchte ich endlich gehen. Ich bin krank. Und ich möchte meine Krankheit überwinden.“
Das Schreiben hat er selbst mit Unterstützung verfasst, einen Rechtsbeistand hat er derzeit nicht.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Outsourcing und Ausbeutung: „Es gibt keine KI ohne Datenarbeit“
Hinter dem Erfolg von Künstlicher Intelligenz und Sozialen Medien stecken ausgebeutete Arbeiter:innen. Bei einem Fachgespräch im Deutschen Bundestag wurde heute diskutiert, wie ihre Lage verbesser werden kann. Die Botschaft der Sachverständigen war klar: Deutschland muss mehr Verantwortung übernehmen.
Die Welt durch die Brille der Daten-Annotation – CC-BY 4.0 Elise Racine / betterimagesofai.orgIm Bundestag wurde heute erstmals über die Arbeitsbedingungen von Datenarbeiter:innen hinter Künstlicher Intelligenz und Sozialen Medien diskutiert. Die Ausschüsse für Digitales und Arbeit hatten zu einem Fachgespräch zum Thema Data Labeling geladen. Die klare Botschaft der drei Sachverständigen: Wenn Deutschland auf KI setzt, dann muss es mehr Verantwortung für die Menschen im Maschinenraum der Technologie übernehmen.
Als Data Labeling oder auch Daten-Annotation bezeichnet man eine Tätigkeit, bei der Menschen zum Beispiel Bildmaterial mit Metadaten versehen, also mit Labels, die den Inhalt beschreiben. Das ist unter anderem für Machine-Learning-Systeme erforderlich, die hinter fast allem stehen, auf dem heute das Label „KI“ klebt. Die Arbeiter:innen sind selten bei den Tech-Konzernen selbst beschäftigt, sondern werden häufig unter ausbeuterischen Bedingungen bei Outsourcing-Firmen oder -Plattformen angestellt.
Seit Jahren bringen Whistleblower:innen, Aktivist:inen, Forscher:innen und Journalist:innen die unsichtbar gemachten Arbeitskräfte in die Öffentlichkeit. Auch wir auf netzpolitik.org berichten kontinuierlich darüber. Die Arbeitsbedingungen in der Branche haben sich aber kaum verbessert, weshalb Erwartungen an die Politik groß sind. Das heutige Fachgespräch, an dem sich Abgeordnete von Union, SPD, Grünen und Linkspartei beteiligten, könnte ein Anfang sein. An konkreten Ideen, wie sich die Lage der Arbeiter:innen verbessern lässt, mangelt es jedenfalls nicht.
„Sie sehen die KI, aber uns sehen Sie nicht“Die ehemalige Datenarbeiterin Joan Kinyua war virtuell aus der kenianischen Hauptstadt Nairobi zugeschaltet. Sie habe mehr als acht Jahre in der Branche gearbeitet hat, die „Künstlicher Intelligenz dabei hilft, die Welt zu verstehen“. Für unterschiedliche Anbieter habe sie unter anderem Bilder von Straßen mit Metadaten versehen, damit selbstfahrende Autos keine Unfälle bauen. Auch mit Straßenszenen aus Berlin habe sie arbeiten müssen (lest dazu mehr in unserem kürzlich veröffentlichten Interview mit Joan).
Später habe sie auch Bilder mit Gewaltdarstellungen klassifizieren müssen, sogar solche, die Gewalt an Kindern zeigten. Gleichzeitig habe sie selbst Daten für das KI-Training erzeugen sollen, indem sie Bilder ihrer Tochter zur Verfügung stellt.
Ausgeübt habe sie die Tätigkeit meist vom eigenen Computer zuhause, über sogenannte Microwork-Plattformen – „ohne Arbeitsvertrag, Sozialversicherung oder Gesundheitsversorgung“. Oft habe sie stundenlang auf neue Aufträge warten müssen, teilweise bis zu 20 Stunden am Tag auf Stand-By. Immer wieder hätten Auftraggeber:innen ihre Ergebnisse abgelehnt. Den Input hätten sie trotzdem behalten, sie selbst sei leer ausgegangen. So habe es Tage gegeben, an denen sie in fünf Stunden nur zwei Cent verdient habe. Im Schnitt würden Datenarbeiter:innen in Kenia 250 US-Dollar im Monat verdienen, was kaum zum Überleben reiche.
Von ihrer Arbeit habe sie außerdem Panik-Attacken und Angstzustände erhalten. Wie ihr gehe es vielen in der Branche, schildert Kinyua. Als Präsidentin der kenianischen Data Labelers Association vertrete sie inzwischen die Interessen von mehr als tausend Datenarbeiter:innen. Viele von ihnen litten unter posttraumatischen Belastungsstörungen.
„Sie sehen die KI, aber uns sehen Sie nicht“, so beschrieb Joan Kinyua den Abgeordneten ihre Lage. Es sei auch in der Verantwortung des Deutschen Bundestages, das zu ändern und für bessere Bedingungen zu sorgen. Unter anderem schlug die Kenianerin Mindeststandards für Datenarbeiter:innen in Deutschland und weltweit vor. Dazu zählt auch eine Obergrenze für die Arbeit an belastenden Inhalten. Zudem brauche es unabhängige Audits der Anbieter, sowie Register für KI-Arbeiter:innen und ganz grundsätzlich mehr Transparenz über Outsourcing und Lieferketten von Tech-Konzernen.
Milliarden-Profite dank PrekarisierungDr. Milagros Miceli von der TU Berlin berichtete von ihren Erkenntnissen aus fast einem Jahrzehnt Forschung zu Datenarbeit. Die von Joan Kinyua geschilderten Arbeitsbedingungen seien „kein Einzelfall, sondern ein konstantes Muster“. Oder genauer gesagt: das Geschäftsmodell einer milliardenschweren Branche.
Der von ihr geprägte Begriff der Datenarbeit umfasse mehr als das Labeling von Daten im engeren Sinne: Auch das Generieren und Sammeln von Daten zähle dazu, in zunehmendem Maße außerdem die Validierung des algorithmischen Outputs und das Korrigieren von Fehlern. Zudem müssten Arbeiter:innen immer wieder so tun, als seien sie eine KI.
Miceli ist eine der Initiator:innen des „Data Workers Inquiry“, in dem Datenarbeiter:innen von ihrer Wirklichkeit berichten. Kürzlich hat das Projekt die Geschichte einer Person veröffentlicht, die sich als AI Girlfriend ausgeben musste, also als Chatbot, der eine Liebesbeziehung mit seinen Nutzer:innen simuliert.
Die unterschiedlichen Formen der Datenarbeit seien essenzieller Bestandteil von KI-Produkten, einer Studie zufolge würde sie 80 Prozent der Entwicklungsarbeit von Künstlicher Intelligenz ausmachen. Miceli ist in ihrer Botschaft deshalb klar: „Ohne Datenarbeit und ohne Menschen wie Joan Kinyua gibt es keine KI“. Tech-Konzerne würden Milliarden damit verdienen „dass sie Arbeiter:innen durch Outsourcing und Plattformisierung prekarisieren und austauschbar machen“. Wenn Deutschland KI fördern wolle, müsse deshalb unbedingt für bessere Arbeitsbedingungen sorgen.
Viele der Arbeiter:inen seien hochqualifiziert, hätten Bachelor-Abschlüsse oder sogar promoviert, berichtet die Forscherin. Dabei sei wichtig, dass die Tätigkeit nicht auf Länder wie Kenia beschränkt ist, sondern auch in Deutschland und Europa viele Menschen in der Branche tätig seien. Wie viele genau, das könne man aufgrund der Intransparenz der Unternehmen nicht sagen.
Probleme bei Gesundheits- und DatenschutzBekannt ist, dass mehrere Tech-Konzerne und Outsourcing-Unternehmen in Deutschland große Zentren für die Moderation von Inhalten auf Social-Media-Plattformen unterhalten. Eine Tätigkeit, die die Sachverständigen ebenfalls zum Feld der Datenarbeit zählt und die bereits vor drei Jahren bei einem Fachgespräch im Bundestag Thema war. Julia Kloiber vom Superrr Lab war damals bereits dabei und wies heute erneut darauf hin, dass dabei oft Menschen in vulnerablen Lebenssituationen ausgenutzt würden.
Kloiber empfahl unter anderem besseren Schutz für Menschen, die mit schädlichen Inhalten arbeiten müssen. Bei der Polizei etwa, wo ebenfalls Menschen mit Darstellungen von Kindesmissbrauch arbeiten müssten, gebe es klare Expositionsbegrenzungen. Auch für Datenarbeiter:innen brauche es eine Obergrenze, die die Arbeit mit belastendem Material festlegt. Außerdem brauche es Trauma-Prävention und Zugang zu professioneller psychologischer Unterstützung.
Der fehlende Schutz habe nicht nur schwerwiegende Folgen für die Betroffenen, sondern auch für das Gesundheitssystem, schließlich könnten Menschen ein ganz Leben lang unter posttraumatischen Belastungsstörungen leiden. Manchmal könnten sie deshalb nicht mehr arbeiten. Die dadurch entstehenden Kosten würden von den Tech-Konzernen externalisiert und von der Allgemeinheit aufgefangen.
Kloiber wies zudem auf Datenschutzprobleme beim Outsourcing hin: Nicht nur würden die Datenarbeiter:innen selbst stark überwacht, bei ihnen landeten auch große Mengen personenbezogener Daten und sensibler Inhalte. Erst kürzlich hatten Datenarbeiter:innen als Whistleblower:innen darüber berichtet, dass sie Aufnahmen aus Meta-Brillen bearbeiten müssten und dabei auch Nacktaufnahmen und andere intime Szenen von Nutzer:innen zu Gesicht bekämen.
„Unsere digitale Zukunft darf nicht auf Ausbeutung fußen“Deutlich wurde bei dem Fachgespräch, dass auch deutsche Firmen davon profitieren, dass sie prekäre Arbeit an Menschen wie Joan Kinyua auslagern. Auch die Auto-Industrie, die Pharma-Branche oder Tech-Unternehmen wie Siemens gehörten zu den Kunden von Outsourcing-Unternehmen im Datenbereich, berichtete etwa Milagros Miceli.
Für Julia Kloiber ist klar, dass Deutschland deshalb auch Verantwortung übernehmen müsse. Eine Untersuchung des Fairwork-Projekt der Universität Oxford und Wissenschaftszentrums Berlin habe die Löhne von vier Outsourcing-Unternehmen untersucht. Nur zwei von ihnen hätten Mindestlohn gezahlt, keines den sogenannten Existenzlohn („Living Wage“), der nicht nur das bloße physische Überleben, sondern auch soziale und kulturelle Teilhabe ermöglicht.
Einen wichtigen Ansatzpunkt sieht die Geschäftsführerin des Superrr Lab deshalb in der Regulierung von Lieferketten. Hier drohe der hohe Standard des erst kürzlich eingeführten und dann schon wieder halb gecancelten deutschen Lieferkettengesetzes abgesenkt zu werden. Die Schwarz-Rote Koalition hatte sich darauf geeinigt, nicht über die – ebenfalls gerade ausgehöhlte – EU-Lieferkettenrichtlinie hinauszugehen.
Bei der Umsetzung der Richtlinie müsse Deutschland sicherzustellen, dass der Geltungsbereich nicht eingeschränkt werde. Die EU-Regeln sollen nur Unternehmen ab 5000 Beschäftigten und einem Umsatz von 1,5 Milliarden Euro gelten. In Deutschland würden dann 95 Prozent der Unternehmen von den Sorgfaltspflichten für ihre Lieferketten entbunden, so Kloiber.
Die Expertin brachte zudem ein Direktanstellungsgebot ins Spiel, wie es erst kürzlich gefeuerte und streikende TikTok-Angestellte in Deutschland gefordert hatten. Ganz grundsätzlich Kloiber eine realistischere Kosten-Nutzen-Rechnung, wenn in Deutschland KI ausgebaut und etwa in der Verwaltung eingesetzt werde. Soziale und auch ökologische Kosten dürften nicht länger ausgeblendet werden: „Unsere digitale Zukunft darf nicht auf Ausbeutung fußen.“
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
