netzpolitik.org

netzpolitik.org Feed abonnieren netzpolitik.org
Aktualisiert: vor 30 Minuten 33 Sekunden

Fahrplan für Interoperabilität: EU erweitert ihre Datenbanken mit Gesichtserkennung

4. März 2026 - 14:10

Die EU-Behörde eu-LISA arbeitet weiter daran, Fingerabdrücke und Gesichtsbilder zu vernetzen. Nach Einrichtung einer Superdatenbank werden jetzt noch mehr Systeme angeschlossen. Dazu gibt es einen neuen Fahrplan bis 2030.

Gesichtserkennung in EU-Datenbanken soll erweitert werden (Symbolbild) – Gemeinfrei-ähnlich freigegeben durch unsplash.com Christelle Hayek

Im „Projekt Interoperabilität“ werden die großen europäischen Datenbanken miteinander verschmolzen, zuständig dafür ist die europäische Agentur für das Management groß angelegter IT-Systeme (eu-LISA) mit Sitz im estnischen Tallinn, die meisten entsprechenden Vorhaben sollen 2026 abgeschlossen sein. Das Projekt betrifft das für Fahndungen genutzte Schengener Informationssystem (SIS II); Eurodac, das bislang vor allem Fingerabdrücke von Asylsuchenden speichert; das Visainformationssystem (VIS) sowie das bald startende Strafregisterinformationssystem für Nicht-EU-Angehörige (ECRIS-TCN).

Ebenfalls angeschlossen wird das neue Einreise-/Ausreisesystem (EES), das ab dem 10. April im gesamten Schengen-Raum vollumfänglich installiert sein soll. Alle Reisenden mit Kurzzeitvisa, den sogenannten Schengen-Visa, werden dann beim Übertritt einer EU-Außengrenze mit Fingerabdrücken und Gesichtsbild sowie Personendaten für drei Jahre gespeichert. Im Herbst folgt die Inbetriebnahme des Reiseinformations- und -genehmigungssystems (ETIAS). Darüber müssen auch visumsfrei Einreisende ihren Grenzübertritt im Voraus anmelden und dazu online mehrere Fragen beantworten.

Die Vernetzung der existierenden Systeme erfolgt schrittweise über eine sogenannte Interoperabilitätsarchitektur. Kernstück ist ein gemeinsamer biometrischer Abgleichdienst (sBMS), der eine übergreifende Suche mit Biometriedaten ermöglicht. Er ist bereits in Betrieb und nutzt nach Angaben von eu-LISA Künstliche Intelligenz, um die Geschwindigkeit und Genauigkeit des Abgleichs zu erhöhen.

Zum Projekt Interoperabilität gehört außerdem ein gemeinsamer Identitätsspeicher (CIR), ein europäisches Suchportal (ESP) sowie ein Detektor für Mehrfachidentitäten (MID). Dadurch entsteht im Schengen-Raum eine biometrische Superdatenbank, die zu den größten der Welt gehört: Allein im EES werden jährlich mehrere hundert Millionen Reisende mit Fingerabdrücken und Fotos gespeichert.

„Interoperabilitäts-Roadmap“ für die nächsten Jahre

Auf EU-Ebene wird derzeit ein Fahrplan für die kommenden Jahre diskutiert, zuständig bei den Mitgliedstaaten ist dafür die Ratsarbeitsgruppe „Informationsaustausch im JI-Bereich“ (IXIM). Details dazu hat eu-LISA im Februar in einem Strategiepapier für die Jahre 2026 bis 2028 beschrieben. Auch die EU-Minister:innen diskutieren darüber bei ihrer Tagung im Rat für Justiz und Inneres (JI-Rat) in dieser Woche.

Im November 2025 hat der Verwaltungsrat von eu-LISA eine „Interoperabilitäts-Roadmap“ beschlossen. Dazu gehört der Ausbau von SIS II und Eurodac mit Gesichtserkennung. Die Verordnung für das Fingerabdrucksystem Eurodac war bereits im Mai 2024 im Rahmen des neuen Migrations- und Asylpakets der EU verabschiedet worden, geplant ist die Inbetriebnahme für Juni 2026. Die Behörde verspricht sich davon, besser verfolgen können, wenn Schutzsuchende unerlaubt innerhalb des Schengen-Raums das Land wechseln.

Zeitplan von eu-LISA - Alle Rechte vorbehalten eu-LISA

Auch im Schengener Informationssystem sind vor allem Migrant:innen gespeichert: Der größte Teil der zur Fahndung ausgeschriebenen Personen sind Ausreisepflichtige, etwa nachdem ihr Asylantrag abgelehnt wurde. Anders als etwa beim EES liegen diese Daten nicht in Tallinn, sondern in einem von eu-LISA betriebenen technischem Zentrum in Straßburg. Einen Zeitplan zur Freischaltung der Gesichtserkennungsfunktion gibt es aber noch nicht: eu-LISA kündigt für das laufende Jahr an, eine entsprechende Roadmap zu erstellen.

Komplett erneuerte Visa-Plattform

Bis zum 1. Quartal 2030 müssen auch alle EU-Staaten das überarbeitete Visa-Informationssystem (R-VIS) schrittweise in Betrieb nehmen. So steht es in einem „Fahrplan“, der im JI-Rat im Dezember 2025 genehmigt wurde. Zusätzlich zu Kurzaufenthaltsvisa sollen dann auch Langzeitvisa und Aufenthaltsgenehmigungen integriert werden. eu-LISA entwickelt außerdem eine digitale Plattform, über die künftig online Visa-Anträge gestellt werden können. Dieses als EU-VAP bezeichnete System soll automatisch bestimmen, welcher Mitgliedstaat für die Prüfung zuständig ist – auch bei Reisen in mehrere Länder.

Zu den Kernelementen des neuen R-VIS gehört ein automatisiertes Verfahren bei der Antragstellung. Der Datensatz wird beim Eintrag mit allen anderen anderen Systemen der Interoperabilitäts-Architektur abgeglichen – dem EES, dem ETIAS, dem SIS, Eurodac, dem ECRIS-TCN sowie dem VIS selbst – und weiteren Datenbanken wie dem Europol-Informationssystem (EIS). Bei Treffern ist der Staat für eine manuelle Prüfung zuständig, der das Visum ausstellt. Dort wird auch über Erteilung oder Verweigerung entschieden.

Europaweite Abfrage von Gesichtern mit Prüm II

Die Kosten für die neue Überwachungsinfrastruktur sind hoch. Allein das Gesichtserkennungssystem im Projekt Interoperabilität war mit 300 Millionen Euro veranschlagt. Für die Weiterentwicklung von Eurodac sind für das laufende Jahr knapp 10,3 Millionen Euro reserviert, für 2027 knapp 6,8 Millionen und für 2028 rund 20,6 Millionen Euro. Die Interoperabilitätskomponenten, zu denen der biometrische Abgleichsdienst gehört, schlagen im selben Zeitraum mit insgesamt mehr als 168 Millionen Euro zu Buche.

Hinzu kommt, dass nicht nur die gemeinsam geführten Biometriesysteme ausgebaut werden. Auch die nationalen Polizeidatenbanken mit Gesichtsbildern werden im Rahmen der „Prüm II“-Verordnung schengenweit vernetzt. Abfragen sind dann über ein sogenanntes „Treffer-/Kein Treffer-Prinzip“ möglich. Das heißt, Behörden erfahren zunächst lediglich, ob ein Datensatz existiert. Dann können sie diesen über die europäische Rechtshilfe herausverlangen.

Die Vernetzung erfolgt über einen neuen Prüm-II-Zentralrouter, der den Austausch biometrischer Daten zwischen europäischen Polizeibehörden bündeln soll. Ab Mitte 2027 soll in Prüm II die Abfrage von Gesichtern freigeschaltet werden, dazu wird das System ebenfalls an den gemeinsamen biometrischen Abgleichsdienst angeschlossen.

Zugriff für US-Behörden

Über „Prüm International“ können auch Drittstaaten an das europaweite Abfragesystem angeschlossen werden. Erster Nutzer dieser Möglichkeit war nach dem Brexit Großbritannien, nun könnten weitere Partnerländer folgen. Vermutlich wird dies zuerst EU-Beitrittskandidaten angeboten, darunter Balkan-Staaten oder die Ukraine. Die Regierung in Kyjiw soll laut „Politico“ bereits eine Liste mit 200.000 aktiven oder ehemaligen russischen „Kombattanten“ an Europol geschickt haben, damit einzelne Unionsmitglieder die Personen zur Einreiseverweigerung ins SIS II eintragen.

Eine Kröte sollen die Schengen-Staaten mit der „Enhanced Border Security Partnership“ (EBSP) schlucken, einem von den USA geforderten Abkommen, das alle Teilnehmerstaaten des Visa-Waiver-Programms abschließen müssen, um ihren Bürger:innen weiterhin die visafreie Einreise in die USA zu ermöglichen. Es sieht vor, dass US-Behörden automatisierten, direkten Zugriff auf nationale Polizeidatenbanken der „Partner“ erhalten – konkret auf Fingerabdrücke und Gesichtsbilder.

Betroffen wären nicht nur Reisende in die USA, sondern möglicherweise alle Personen, deren Daten von den jeweiligen nationalen Behörden für den Zugriff freigegeben sind. In Deutschland beträfe dies wohl die vom Bundeskriminalamt geführte INPOL-Datei, in der 5,4 Millionen Menschen mit fast 8 Millionen Lichtbildern, die meisten davon Asylsuchende oder Ausreisepflichtige. Auch die brutale US-Abschiebemiliz ICE könnte diese Daten nutzen. Wer das EBSP nicht unterzeichnet, soll aus dem Visa-Waiver-Programm ausgeschlossen werden. Die Frist läuft bis zum 31. Dezember 2026, derzeit verhandelt die EU-Kommission dazu geheim über ein Rahmenabkommen mit den USA.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Neue Strategie: EU setzt auf Künstliche Intelligenz gegen Terror

4. März 2026 - 10:05

In ihrer neuen Anti-Terror-Strategie setzt die EU-Kommission stark auf KI-gestützte Datenanalysen und Vorhersagen. Neben dem Blick in die digitale Glaskugel will sie unter anderem auch mehr Uploadfilter einsetzen – und Online-Gaming stärker ins Visier nehmen.

Online-Gaming-Dienste sollen stärker ins Visier von Strafverfolgungsbehörden geraten, schlägt die EU-Kommission vor. (Symbolbild) – Alle Rechte vorbehalten IMAGO / Dreamstime

Die EU-Kommission sieht Europa mit einer Vielzahl terroristischer Bedrohungen konfrontiert. So nutzten Terrorist:innen und gewalttätige Extremist:innen das Internet-Ökosystem aus, darunter soziale Medien und Online-Gaming, um ihre Inhalte zu verbreiten und Nutzer:innen zu rekrutieren. Sie würden ihre Anschläge über Ende-zu-Ende-verschlüsselte Kanäle planen, zur Finanzierung Krypto-Währungen oder NFTs heranziehen und mit generativen KI-Chatbots Bombenbau-Anleitungen erstellen. Leicht verfügbare 3D-Drucker und Drohnen würden die Gefahr nur verstärken, warnt die Brüsseler Behörde.

Gegen solche Bedrohungen will die EU-Kommission mit einem neuen Anti-Terror-Ansatz vorgehen, den die Kommissar:innen Henna Virkkunen und Magnus Brunner am vergangenen Donnerstag in Brüssel vorgestellt haben. Er ist ein Kernstück ihrer „ProtectEU“-Strategie aus dem Vorjahr. Ein guter Teil der vorgeschlagenen Maßnahmen konzentriert sich dabei auf die Online-Welt.

Zwar sei die Anzahl großer koordinierter Terroranschläge zurückgegangen, aber die Gefahrenlage bleibe weiterhin hoch, begründet die Kommission ihre Strategie. Seit dem Jahr 2019 seien überwiegend Einzeltäter:innen und kleine Terrorzellen für Anschläge verantwortlich gewesen, und nicht alle davon waren Dschihadisten: Hinzu kämen vermehrt Täter:innen, die Demokratie ablehnten oder von Hass gegen Jüd:innen, Muslim:innen und andere gesellschaftliche Minderheiten getrieben seien. Am anderen Ende des Spektrums stünden hybride Angriffe von Nationalstaaten wie Russland auf EU-Länder, heißt es im Strategiepapier.

Verknüpft ist die Strategie mit bereits bestehenden Gesetzen, vor allem mit dem Digital Services Act (DSA) und der Verordnung zu terroristischen Inhalten im Netz (Terrorist Content Online, TCO). Beide Gesetze haben die Verbreitung und Eindämmung illegaler Inhalte im Netz im Blick.

Anti-Terror-Verordnung soll überarbeitet werden

Während es die Kommission beim DSA vorrangig bei einer verbesserten Durchsetzung belassen will, stellt sie eine etwaige Überarbeitung der TCO-Verordnung in den Raum. Dies wird maßgeblich von der Evaluation des Gesetzes abhängen, die sie bis zum Jahresende abschließen will. Stärker in den Anti-Terror-Kampf einbezogen werden soll zudem das Europäische Gremium für digitale Dienste, in dem sich die DSA-Koordinator:innen für digitale Dienste der Mitgliedstaaten beraten.

Eigentlich wäre die TCO-Evaluation bereits im Sommer 2024 fällig gewesen. Teile davon hat die Kommission jedoch an die Agentur der Europäischen Union für Grundrechte (FRA) abgegeben. Ihren Bericht hat die Agentur erst Ende Januar vorgelegt. Dieser könnte der Kommission durchaus Kopfschmerzen bereiten: So weist der Bericht etwa auf unklare Interpretationen der Regeln hin und warnt vor sogenanntem Overblocking, also wenn Online-Dienste im Zweifel eher mehr löschen als zu wenig.

Davon seien nicht alle gleich betroffen, schreiben die Autor:innen: „Die Studie kommt zu dem Schluss, dass die Moderationspraktiken von Behörden und Plattformen bestimmte Gruppen, beispielsweise Muslime und arabischsprachige Menschen, unverhältnismäßig stark betreffen können, während rechtsextreme Inhalte oft weniger streng kontrolliert werden.“

Filtern mit Hash-Datenbanken

Indes bleibt der Kommission ein gewisser Handlungsspielraum, sie ist nicht vollständig auf mühselige Gesetzesänderungen angewiesen. So soll etwa Europol eine Datenbank mit sogenannten „Hashes“, also digitalen Fingerabdrücken mutmaßlich illegaler Dateien, selbst aufbauen. Einmal darin abgelegt, ist das Hochladen identischer Kopien bei teilnehmenden Online-Diensten nicht mehr möglich. Die Kooperation mit dem Global Internet Forum to Counter Terrorism (GIFCT), welches eine solche Datenbank seit Jahren betreibt, soll dabei weiter bestehen bleiben.

Neben der Zusammenarbeit mit dem GIFCT, das von Unternehmen wie Meta, Microsoft und Alphabet gegründet wurde, will die Kommission die Partnerschaft mit der Industrie im Rahmen des EU-Internetforums verstärken. In dem informellen Gremium tauscht sich die Kommission mit EU-Ländern, Polizeien und vor allem mit den Anbietern von Online-Diensten aus. Ziel ist es, auf freiwilliger Basis mutmaßlich terroristische Inhalte aus dem Netz zu fegen. Inzwischen hat sich das Aufgabengebiet des Gremiums deutlich vergrößert, behandelt werden unter anderem auch Kindesmissbrauch und Drogenhandel.

Davon verspricht sich die Kommission viel, wie sich an einer Passage des Strategiepapiers beispielhaft ablesen lässt: „Die Kommission wird mit Europol zusammenarbeiten, um die KI-gestützte Erkennung extremistischer Inhalte, gemeinsame Bedrohungsindikatoren und eine schnellere Zusammenarbeit zwischen Plattformen, Strafverfolgungsbehörden und Forschern zur Identifizierung KI-generierter Propaganda und koordinierter Radikalisierungskampagnen zu verbessern.“

Strategie zielt auf Online-Gaming

Stärker ins Visier sollen künftig Online-Gaming-Dienste geraten. Zum einen sollen im Rahmen des EU-Internetforums die Hersteller:innen von Spielen enger mit Strafverfolgungsbehörden kooperieren, um die Rekrutierung von Minderjährigen zu verhindern. Zum anderen soll Europol auf solchen Diensten Terror-Propaganda oder Anwerbungsversuche entdecken, monitoren und analysieren können.

Gerade im Gaming-Bereich könnte dies schnell zu Problemen führen, sagt Chloé Berthélémy von der Digital-NGO European Digital Rights (EDRi). „Wenn die Kommission den Einsatz von Hash-Datenbanken und automatisierter Inhaltserkennung und Uploadfiltern vorantreiben will, könnte sie das Risiko einer höheren Rate an Fehlalarmen erheblich unterschätzen“, so die Digitalexpertin.

Viele Online-Spiele würden Gewaltdarstellungen wie Schießereien enthalten, sagt Berthélémy. Es wäre sehr schwierig zu unterscheiden zwischen Spieler:innen, die einfach nur Spaß haben, und solchen, die andere für tatsächliche Gewalttaten zu rekrutieren versuchen. Automatisierte Filter seien jedoch dafür bekannt, den Kontext nur unzureichend zu berücksichtigen, der für diese Unterscheidung entscheidend ist.

Vor dem automatisierten Overblocking-Phänomen warnt auch die Grundrechte-Agentur in ihrem Bericht. Demnach könne Overblocking nicht zwangsläufig durch eine „ausreichend robuste menschliche Aufsicht“ kompensiert werden, da die menschliche Überprüfung von Inhalten, die von automatisierten Tools gemeldet wurden, aufgrund von „Faktoren wie Zeitmangel, fehlenden Sprachkenntnissen und unzureichenden Arbeitsbedingungen der Inhaltsmoderatoren eingeschränkt sein kann“.

Insgesamt würde dies viele Rechte von Online-Nutzer:innen beeinträchtigen. Zudem könnten sich vor allem Menschen betroffener Gruppen aus bestimmten gesellschaftlichen Auseinandersetzungen zurückziehen, heißt es im FRA-Bericht. „Ein solcher abschreckender Effekt (‚chilling effect‘) kann sehr große Menschengruppen betreffen und sich von der Meinungs- und Informationsfreiheit auf andere Rechte wie die Versammlungs- und Vereinigungsfreiheit ausdehnen“, mahnt die Grundrechte-Agentur.

Polizeibehörden reisen mit

Verschärfen will die Kommission zudem eine Reihe an Reisebestimmungen. So will sie verstärkt mit vertrauenswürdigen Drittländern zusammenarbeiten, um an biografische und biometrische Daten potenzieller Terrorist:innen zu gelangen. Diese Daten sollen in das Schengen Information System (SIS) einfließen – ungeachtet immer wieder auftretender Probleme mit dem System.

Auch innereuropäische Reisen sollen künftig besser nachvollzogen werden können. Schon heute werden Flüge und Fluggäste in der EU detailliert überwacht, der Kommission zufolge könnte dies auf andere Reisearten ausgeweitet werden. Um Schlupflöcher zu schließen, untersuche die Kommission derzeit, wie sich das bestehende Fluggastdaten-Modell auf See- und Landverkehr sowie auf Privatflüge erweitern lässt. Sollte eine derartige Regelung kommen, dürfte die Zahl der Fehlalarme drastisch ansteigen: Einer Studie zufolge werden jährlich mindestens 500.000 Personen zu Unrecht verdächtigt.

Lücken macht die Kommission auch bei der Nachvollziehbarkeit von Finanzströmen aus. Hierbei soll zunächst eine Studie „die notwendigen Maßnahmen zur Einrichtung eines künftigen EU-weiten Systems zur Erfassung von Finanzdaten für die Verfolgung von Terrorismusfinanzierung und Erträgen aus organisierter Kriminalität bewerten und festlegen“. Das System soll bis 2030 eingerichtet sein und Transaktionen innerhalb der EU und des einheitlichen europäischen Zahlungsverkehrsraums (SEPA), Kryptotransfers sowie Online-Überweisungen abdecken.

Einen besonders heiklen Punkt berührt das Strategiepapier nur kurz: den „rechtmäßigen Zugang zu Daten für Strafverfolgung“. Üblicherweise meint die Kommission damit den Zugriff auf verschlüsselte Inhalte, denn das Verschlüsseln digitaler Kommunikation führe zu einem „Going-Dark“-Problem. Wie es damit weitergehen soll, geht aus dem Papier nicht hervor. Allerdings betont die Kommission, ihren bereits feststehenden Fahrplan umsetzen zu wollen. Demnach soll es mehr Datenaustausch zwischen Ermittlungsbehörden geben, Europol soll mehr Daten entschüsseln, und KI-Tools sollen auf die Datenberge losgelassen werden, die bei Ermittlungen anfallen oder anderweitig in Polizei-Datenbanken landen.

Starren in die digitale Glaskugel

Auf diesen Trend, der auch hierzulande die Polizei erfasst hat, will die Kommission jedenfalls weiter setzen. Das Sammeln und KI-gestützte Analysieren von Daten durchzieht die gesamte Strategie, zudem sollen sich etwa vom EU-Projekt „Horizon Europe“ finanzierte Forschungsprojekte vermehrt mit Sicherheitsthemen beschäftigen. Die Richtung gibt die Strategie vor: „Zu den Forschungsschwerpunkten gehören Früherkennungsmethoden und Innovationen in Technologien wie KI.“

Allzu lange warten will die Kommission hierbei nicht. Sie kündigt an, konkrete Leitlinien zu verabschieden, um „Strafverfolgungsbehörden und Justiz bei der Verbesserung ihrer Fähigkeit zur Erkennung und Abwehr von Bedrohungen mithilfe zertifizierter, vertrauenswürdiger KI-Systeme für risikoreiche Anwendungen zu unterstützen und dabei die Grundrechte zu wahren. Die Strategie zur Anwendung von KI wird die Entwicklung und den Einsatz von KI-Lösungen für die innere Sicherheit weiter fördern“, heißt es in der Mitteilung.

Besonders der Fokus auf „Früherkennung“ bereitet der Digital-Aktivistin Berthélémy Sorgen. Üblicherweise laufen solche Ansätze auf „algorithmische Profilerstellung und vorhersagende Polizeisysteme“ hinaus, sagt sie. „Sie sind verheerend für Grundrechte, insbesondere für das Recht auf Privatsphäre, das Recht auf Nichtdiskriminierung und die Unschuldsvermutung.“ Darüber hinaus lenke die massive Investition öffentlicher Gelder in Sicherheitstechnologien wichtige Ressourcen von alternativen Maßnahmen ab, die sich als wirksamer erweisen könnten und gleichzeitig die Grundrechte achten würden.

„Die neue Strategie zur Terrorismusbekämpfung basiert auf der Annahme, dass KI-gestützte Tools zur Inhaltserkennung präzise und effektiv sind – was wissenschaftlich keineswegs belegt ist“, sagt Berthélémy. „Im Gegenteil, sie greifen massiv in Grundrechte ein, da sie häufig legitime Online-Inhalte fälschlicherweise als solche kennzeichnen, selbst wenn die Beurteilung auf Hashwerten beruht.“

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Berlin: Bodycams an Rettungskräften sind überflüssig

4. März 2026 - 7:48

Berlins Feuerwehrleute fürchten, dass Bodycams bei Rettungseinsätzen das Vertrauensverhältnis zu den Patient*innen zerstören. Dennoch müssen sie welche tragen. Jetzt kam heraus: Die Aufnahmen sind nutzlos.

Bodycams können das Vertrauensverhältnis zwischen Feuerwehrleuten und Patient*innen zerstören. – Alle Rechte vorbehalten IMAGO / Berlinfoto

Die Berliner Feuerwehr wird gerade zunehmend mit Bodycams ausgerüstet. Dabei halten die meisten der Einsatzkräfte das für eine richtig lausige Idee. Im Oktober 2024 erschien eine Auswertung zum Einsatz der am Körper getragenen Kameras in Berlin. Darin heißt es: „Die befragten Feuerwehrleute äußerten sich ganz überwiegend besorgt darüber, welchen Einfluss die Bodycam auf die Beziehung zu ihren Patient:innen hat, und stuften das neue Einsatzmittel deshalb mehrheitlich als kontraproduktiv ein.“

Menschen rufen den Notdienst in Extremsituationen, die oft mit Scham behaftet sind. Feuerwehrleute erhalten Einblick in körperliche und psychische Leiden und auch in die Lebensumstände derer, die sie gerufen haben. Sie haben ein Vertrauensverhältnis zu den Menschen, denen sie helfen. Wenn dann plötzlich eine Kamera dabei ist, kann das Angst und Ablehnung auslösen und die Hilfe erschweren, so die Argumentation der Feuerwehrleute.

Dennoch wurden 2025 für die Berliner Feuerwehr 700 Bodycams beschafft, 256 sind bereits im Einsatz. Für ihre Nutzung geschult wurden bereits 2.160 Mitarbeitende. Es ist zu erwarten, dass das Instrument weiter ausgerollt wird.

Keine Aufnahme relevant

Nun kam aber heraus: Das Tragen der Bodycams tut nicht das, was es soll. Mit den Geräten sollen Angriffe auf Einsatzkräfte dokumentiert werden. In 307 Fällen zeichneten Feuerwehrleute Situationen auf, keine einzige dieser Aufnahmen wurde in einer rechtlichen Auseinandersetzung relevant. Ein möglicher abschreckender Effekt auf potenzielle Gewalttäter*innen ist nicht belegt.

Das ergab eine Kleine Anfrage von Vasili Franco, innenpolitischer Sprecher der Grünen im Abgeordnetenhaus, die netzpolitik.org vorab vorliegt. Er sagt: „Obwohl die Berliner Bodycamstudie den Einsatz im Rettungsdienst eindeutig als kontraproduktiv bewertet hat, hält der Senat aus ideologischen Gründen daran fest.“

Auch die Berliner Polizei setzt Bodycams ein. 2025 hat das Land für Feuerwehr und Polizei zusammen 3.000 Bodycams für rund zwei Millionen Euro angeschafft.

Bodycams könnten theoretisch auch ein Werkzeug sein, um die Rechtmäßigkeit von Polizeieinsätzen zu überprüfen. Bislang liegt die Frage, ob die Bodycam aufzeichnet, allerdings im relativ freien Ermessen der Beamt*innen. Es wäre möglich, die Bodycam mit Sensoren zu verbinden, so dass sie automatisch anspringt, wenn Dienstpistole oder Taser gezückt werden, doch darauf verzichtet Berlin. Zu hoch seien die Kosten dafür.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Überraschung: Ausschuss stimmt gegen freiwillige Chatkontrolle

3. März 2026 - 17:35

Der Justiz-Ausschuss des EU-Parlaments hat die Verlängerung der freiwilligen Chatkontrolle abgelehnt. Einigen Abgeordneten geht das Gesetz zu weit, anderen nicht weit genug. Nächste Woche stimmt das Parlament im Plenum darüber ab.

Berichterstatterin: SPD-Abgeordnete Birgit Sippel. – Alle Rechte vorbehalten Europäisches Parlament

Die Ausnahmeregel, die Internet-Diensten eine freiwillige Chatkontrolle erlaubt, hat gestern einen Dämpfer bekommen. Die EU-Abgeordneten im Ausschuss für bürgerliche Freiheiten, Justiz und Inneres haben eine Verlängerung der Ausnahme-Verordnung gestern überraschend abgelehnt.

Eigentlich verbietet die Datenschutzrichtlinie für elektronische Kommunikation das Überwachen von Nachrichten ohne Einwilligung der betroffenen Nutzer. Seit 2021 erlaubt eine vorübergehende Ausnahme Anbietern eine freiwillige Chatkontrolle. Kommission und Rat wollen diese Ausnahme ein zweites Mal verlängern. Das Parlament verhandelt gerade seine Position.

Gleichzeitig verhandeln die EU-Gesetzgeber über die CSA-Verordnung. Dieses Gesetz ist ungleich wichtiger: Es wird dauerhaft gelten, es könnte Anbieter auch gegen ihren Willen verpflichten, eine Chatkontrolle durchzuführen, und es könnte auch verschlüsselte Kommunikation betreffen.

Den einen zu viel, den anderen zu wenig

Die Verhandlungen zur vorübergehenden freiwilligen Chatkontrolle finden vor diesem Hintergrund statt. Kommission, Rat und Konservative wollen die freiwillige Chatkontrolle wie bisher ohne inhaltliche Änderungen verlängern, bis das dauerhafte Gesetz in Kraft tritt.

Sozialdemokraten wollen die Dauer der freiwilligen Chatkontrolle begrenzen. Liberale und Grüne wollen die freiwillige Chatkontrolle auf Verdächtige begrenzen. Linke wollen sie ganz abschaffen.

Die gestrige Abstimmung war dementsprechend kompliziert. Von vielen eingereichten Änderungsanträgen wurden einige angenommen, andere nicht.

Mit diesen Änderungen war niemand vollständig glücklich. Den Rechten geht die Chatkontrolle nicht weit genug. Den Linken geht die Chatkontrolle zu weit.

Am Ende stimmten 38 Abgeordnete gegen den Kompromissvorschlag, 28 dafür, drei enthielten sich.

Vom Ausschuss ins Plenum

Dieses Ergebnis hat viele überrascht, auch im Parlament. Wir haben einige Abgeordneten-Büros und das Ausschuss-Sekretariat angefragt. Viele haben so eine Situation noch nicht erlebt. Wie der Prozess weitergeht, ist nicht ganz sicher.

Nach der Abstimmung im Ausschuss geht der Gesetzentwurf nächste Woche ins Plenum des Parlaments. Dort können alle Abgeordneten darüber abstimmen. Da der Entwurf jedoch im Ausschuss durchgefallen ist, wird der Ausschuss dem Plenum empfehlen, ebenfalls dagegen zu stimmen.

Einige zivilgesellschaftliche Akteure wünschen sich eine Ablehnung. Das ist jedoch nicht sehr wahrscheinlich. Immerhin argumentieren Befürworter wie Kommission, Rat und Tech-Unternehmen damit, dass die Chatkontrolle Kindesmissbrauch bekämpft – auch wenn die offiziellen Zahlen das nicht belegen können.

Die vorübergehende Ausnahme gilt bis zum 3. April. Gibt es bis dahin keine Einigung, ist die freiwillige Chatkontrolle wieder verboten. Das entspricht zwar dem Gesetz. Aber das wollen viele Akteure verhindern.

Konservative wollen Chatkontrolle

Viele Abgeordnete und Fraktionen werden ihre Strategie überdenken und anpassen. Vor allem die Konservativen wollen die Chatkontrolle, auch wenn sie im Ausschuss gegen den Kompromiss gestimmt haben.

Die Berichterstatterin für das Gesetz ist die deutsche Sozialdemokratin Birgit Sippel. Ihr Team arbeitet jetzt daran, doch noch eine Einigung für die vorübergehende freiwillige Chatkontrolle zu finden.

Nach dem Beschluss des Parlaments folgt der Trilog mit Kommission und Rat. Parallel dazu verhandeln die Institutionen über die dauerhafte und verpflichtende Chatkontrolle.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Forschende schlagen Alarm: Staaten sollen Social-Media-Verbote stoppen

3. März 2026 - 15:33

Regierungen und Parlamente weltweit sollen ihre Pläne für Social-Media-Verbote nicht weiter verfolgen. Das fordern mehr als 400 Forscher*innen aus 29 Ländern in einem offenen Brief. Sie wollen zuerst prüfen, ob Alterskontrollen überhaupt wirksam und sicher sind.

Ein Social-Media-Verbot für Minderjährige heißt: Urlaubsfotos machen erlaubt, Urlaubsfotos auf Instagram posten verboten (Symbolbild) – Gemeinfrei-ähnlich freigegeben durch unsplash.com Unsplash / Priscilla Du Preez

Nachdem Australien im Dezember ein Social-Media-Verbot für unter 16-Jährige eingeführt hat, wollen zahlreiche Staaten das auch. In Deutschland läuft die Debatte ebenso heiß. Jetzt wollen Hunderte Forscher*innen aus den Bereichen Technologie, IT-Sicherheit und Privatsphäre die Notbremse ziehen.

In einem offenen Brief warnen sie eindringlich vor den negativen Folgen eines Social-Media-Verbots und den damit verbundenen flächendeckenden Alterskontrollen im Netz. Es fehle ein klares Verständnis dafür, was diese Kontrollen anrichten können – für „Sicherheit, Privatsphäre, Gleichberechtigung“ und die „Autonomie“ aller Menschen.

Die Einführung von Alterskontrollen ohne weitere Forschung sei „gefährlich und gesellschaftlich nicht hinnehmbar“, schreiben die Forscher*innen auf Englisch. Sie fordern deshalb ein Moratorium für Social-Media-Verbote. Das heißt: Regierungen und Parlamente sollen ihre laufenden Vorhaben stoppen und vorerst keine Verbote erlassen.

Unterschrieben haben das Wissenschaftler*innen aus 29 Ländern, darunter sind viele EU-Staaten, die USA, UK, Kanada, Südkorea und die Türkei. Aus Deutschland haben sich rund 70 Fachleute dem Aufruf angeschlossen. Der offene Brief passt zu einem fachübergreifenden Chor aus Warnungen: Auch Expert*innen aus unter anderem den Bereichen Kinderschutz, Pädagogik und Menschenrechten haben Bedenken gegenüber einem Social-Media-Verbot oder lehnen es ab.

Nachteile von Alterskontrollen gewiss, Vorteile ungewiss

Gleich zu Beginn des Offenen Briefs stellen die Forscher*innen klar: „Wir teilen die Sorgen über die negativen Auswirkungen, die schädliche Online-Inhalte auf Kinder haben.“ Aber sie befürchten, dass Regulierung ohne sorgfältige Abwägung der Risiken „mehr Schaden als Nutzen“ bringen könnte.

Ihre Gründe führen die Forschenden auf fünfeinhalb Seiten aus. Dabei sind drei Argumente zentral.

  • Erstens: Es ist nicht sicher, ob ein Social-Media-Verbot die erhofften Vorteile bringt. Die Forschenden mahnen, es gebe keine wissenschaftlichen Belege dafür, dass ein Verbot positive Auswirkungen auf die psychische Gesundheit von Minderjährigen hätte. Umgekehrt brächten soziale Medien positive Effekte: mehr soziale Kontakte, weniger Einsamkeit, sichere Räume für marginalisierte Gruppen. Alterskontrollen seien „keine Garantie dafür, dass Minderjährige keine schädlichen Online-Inhalte abrufen“. Stattdessen würden Betroffene die Kontrollen umgehen oder zu unregulierten Alternativen abwandern.
  • Zweitens: Es ist sicher, dass Alterskontrollen Nachteile bringen. So musste die Team-Software Discord kurz nach Einführung von Alterskontrollen ein Datenleck eingestehen: Demnach hatten Kriminelle wohl Zugriff auf 70.000 Ausweisdaten von Menschen, die Discord ihr Alter nachgewiesen haben. Solche Nachweise mit amtlichen Dokumenten würden außerdem Menschen ausschließen, warnen die Forschenden, etwa undokumentierte Einwandernde, Asylsuchende, Reisende aus dem Ausland – oder Nutzer*innen, die Aufgrund einer Leseschwäche die neuen Hürden nicht überwinden können. Alternative Verfahren, in denen Software das Alter von Nutzer*innen einschätzt, sogenannte KI, seien „bekanntlich fehleranfällig“.
  • Drittens: Alterskontrollen schaffen eine gefährliche, zentralisierte Infrastruktur. „Wer festlegt, welche Altersschranken gelten sollen, und wer sie durchsetzt, erhält einen enormen Einfluss darauf, welche Inhalte im Internet für wen zugänglich sind“, warnen die Forschenden. In den falschen Händen könnte diese Infrastruktur auch für Zensur genutzt werden, etwa für queere Inhalte. Gerade bei technologisch komplexen Lösungen könnten Abhängigkeiten zu wenigen Tech-Konzernen wie Google oder Apple entstehen.
Appell für Regulierung statt Verbote

Mit Blick auf Alterskontrollen kommen die Forscher*innen deshalb zum Fazit: „Der Einsatz ist nur dann gerechtfertigt, wenn nachgewiesen wird, dass der Nutzen die möglichen Schäden deutlich überwiegt.“ Es brauche vertiefende Forschung, bevor Staaten entsprechende Regeln flächendeckend ausrollen.

Fürs Erste regen die Forschenden an, sich lieber den Ursachen zu widmen. Konkret nennen sie algorithmisch optimierte Feeds sozialer Medien. Durch ihre enorme Sogwirkung fällt es vielen Menschen schwer, das Handy lange aus der Hand zu legen. Die Regulierung von Feeds wäre den Forschenden zufolge unmittelbarer wirksam und würde Plattformen für Kinder und Erwachsene gleichermaßen sicherer machen.

Solche suchtfördernden Mechanismen bei TikTok hat etwa die EU-Kommission bereits festgestellt, zumindest vorläufig. Grundlage ist das Gesetz über digitale Dienste (DSA). Das laufende Verfahren kann sich allerdings in die Länge ziehen, und TikTok dürfte sich juristisch wehren. Zugleich hat die EU-Kommission ein Expert*innen-Gremium rund um Alterskontrollen einberufen, das bis Sommer Ergebnisse vorlegen soll.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Nackt per Mausklick: EU-Abgeordnete wollen sexualisierte Deepfakes verbieten

3. März 2026 - 13:26

In Brüssel wird momentan diskutiert, ob sexualisierte Deepfakes verboten werden sollen – und wie. Nach dem Skandal um Grok im Januar gibt es dafür gerade viel politischen Willen und mit dem KI-Omnibus eine rechtliche Möglichkeit.

Gefälschte Nacktbilder betreffen fast ausschließlich Frauen und Kinder. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Egor Komarov

Der Skandal um Elon Musks Chatbot Grok im Januar hat gezeigt, wie groß das Problem von sexualisierten Deepfakes ist. Mit nur einem Klick erstellten Nutzer:innen hunderttausendfach unfreiwillige Nacktbilder von Frauen und Minderjährigen, die oft täuschend echt wirken. Fachleute bezeichnen das als digitale Gewalt.

Jetzt nutzen Abgeordnete im Europäischen Parlament den Moment, um eine rechtliche Lösung zu finden. Denn sie verhandeln aktuell den KI-Omnibus, ein Gesetz, das die KI-Verordnung der EU verändert. Das Parlament und die Mitgliedstaaten diskutieren dabei den Vorschlag der Kommission, können aber auch eigene neue Punkte einbringen.

KI-Systeme zur Erstellung von Nacktbildern seien in der aktuellen Liste der verbotenen Praktiken der KI-Verordnung nicht ausdrücklich aufgeführt – das sollte sich ändern, findet der Berichterstatter für den KI-Omnibus, Michael McNamara (Renew). Der liberale Abgeordnete äußerte den Vorschlag schon im Januar gegenüber Politico.

„Fahrlässig“ es nicht zu versuchen

Von Seiten des Parlaments als Gesetzgeber wäre es nach Ansicht von McNamara „fahrlässig“, nicht wenigstens die Möglichkeit zu prüfen, diese Deepfakes zu verbieten.

Gemeinsam mit anderen Abgeordneten seiner Fraktion setzt er sich für ein Verbot der erstellenden KI-Systeme ein, wie in den öffentlich einsehbaren Änderungsanträgen zum KI-Omnibus deutlich wird. Dort heißt es: Der wirksame Schutz von Frauen und Minderjährigen, die unverhältnismäßig stark betroffen seien, erfordere ein ausdrückliches Verbot solcher KI-Systeme.

„Der Grok-Skandal zeigt, wie leicht generative KI dazu missbraucht werden kann, um nicht einvernehmliche intime Bilder und sogar kindesmissbräuchliche Darstellungen zu erstellen“, sagt auch Brando Benifei (S&D), der als Schattenberichterstatter den KI-Omnibus verhandelt.

Die KI-Verordnung enthält zwar eine Pflicht zur Kennzeichnung von Deepfakes, die eigentlich ab August dieses Jahres gelten sollte, die Kommission will sie um sechs Monate verschieben. „Aber Transparenz verhindert nicht den Schaden“, meint Benifei.

Zwei mögliche Wege

Gemeinsam mit seinen Fraktionskolleg:innen schlägt er in den Änderungsanträgen zwei Optionen vor: Entweder könnten die Deepfakes im Artikel 5 der KI-Verordnung zu verbotenen KI-Anwendungen aufgenommen werden oder im Artikel 50, welcher die Transparenzpflichten für Anbieter beschreibt.

Bei der zweiten Option müssten Anbieter generativer KI-Systeme Schutzmaßnahmen implementieren, um die Erstellung sexualisierter Deepfakes („nicht einvernehmliche Nacktheit oder sexuell eindeutiges Verhalten“) ohne Zustimmung der Betroffenen zu verhindern.

Wichtig ist dem Italiener dabei, die erneute Öffnung des Gesetzes „so begrenzt wie möglich“ zu halten. Benifei war bei den Verhandlungen zur KI-Verordnung 2023 federführend gewesen.

Abgeordnete von Renew, der Linken und den Grünen befürworten ebenfalls, die Deepfakes in die Liste verbotener Praktiken aufzunehmen. Die Formulierungen variieren leicht je nach Fraktion. Der größte Unterschied ist der Aspekt der Zustimmung: Renew, S&D und die Linken wollen die Erstellung von Deepfakes ohne Zustimmung der Betroffenen verbieten.

Grüne wollen grundsätzliches Verbot

Die Grünen, die schon seit Januar ein Verbot von KI-gestützten „Entkleidungs-Apps“ fordern, wollen hingegen einen Schritt weiter gehen und die Erstellung von sexualisierten Deepfakes grundsätzlich verbieten. Damit wollen sie rechtliche Klarheit schaffen. Denn wie sollte ein Tool wissen, ob die Zustimmung einer betroffenen Person vorliegt?

Alle Vorschläge haben gemeinsam, dass sie die Unternehmen statt die Nutzer:innen in die Pflicht nehmen wollen.

In der konservativen EVP ist man noch etwas zurückhaltend. Axel Voss ist ebenfalls Schattenberichterstatter für den KI-Omnibus. Er erklärt gegenüber netzpolitik.org: „Für uns ist klar: moralisch und ethisch sind solche Anwendungen höchst problematisch, insbesondere wenn Persönlichkeitsrechte verletzt werden.“

Ein Verbot könne richtig sein, entscheidend sei jedoch, ob es rechtlich wirksam, klar abgrenzbar und in allen Ländern der Europäischen Union einheitlich durchsetzbar ist. „Wenn ein Verbot ein effektives und rechtssicheres Mittel zur Unterbindung solcher Praktiken darstellt, unterstützen wir das“, meint Voss.

Darüber hinaus spricht sich die EVP-Abgeordnete Regina Doherty in den Änderungsanträgen dafür aus, die Nutzung von KI-Systemen zur Erstellung von kindesmissbräuchlichem Material zu verbieten.

Auch EU-Länder diskutieren Deepfakes

Im Parlament starten nun die Verhandlungen zwischen den verantwortlichen Abgeordneten. Wenn alles gut läuft, sollen die beiden verantwortlichen Ausschüsse für Verbraucher und für Justiz voraussichtlich am 18. März über einen Kompromisstext abstimmen. Parallel dazu arbeiten die Mitgliedstaaten an ihrer Position.

Wie Mlex berichtet, kommt das Thema in den bisherigen zwei Kompromisstexten der Ratspräsidentschaft zum KI-Omnibus nicht vor. Bei den Treffen der Arbeitsgruppe der Mitgliedstaaten sei es aber schon diskutiert worden. Spanien will ein Verbot erreichen, wie auch schon national, und wird laut Mlex von mehreren Mitgliedstaaten unterstützt, darunter Frankreich, Irland und Slowenien.

Bislang ist es in der EU strafbar, nicht-einvernehmliche, sexuelle Deepfakes zu verbreiten, nicht aber, sie zu erstellen. So sieht es die neue Richtlinie zur Bekämpfung von Gewalt gegen Frauen vor. Die Mitgliedstaaten haben noch bis Juni 2027 Zeit, sie national umzusetzen.

Die Digitalkommissarin Henna Virkkunen wies auf Nachfrage eines Journalisten vor einem Monat ebenfalls auf diese Richtlinie und die derzeitigen Diskussionen in den anderen EU-Institutionen hin. Außerdem sagte sie: „Wir prüfen derzeit, ob unsere Gesetzgebung klar genug ist oder wir etwas hinzufügen müssen.“

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Polizei Berlin: Zahlreiche Verletzte durch Taser-Einsatz

3. März 2026 - 11:26

2025 hat die Berliner Polizei 62 Mal mit Tasern auf Menschen geschossen. Dabei wurden 58 Menschen verletzt. Die extrem schmerzhafte Waffe wurde oft gegen suizidale Personen eingesetzt.

Sieht aus wie ein Spielzeug, kann aber tödlich wirken: Distanzelektroimpulsgerät. – Alle Rechte vorbehalten IMAGO / Reiner Zensen

Seit Mai 2024 sind in Berlin Distanzelektroimpulsgeräte, auch Taser genannt, im flächendeckenden Einsatz. 255 der Waffen nutzen die Polizist*innen, dazu kommt eine geheime Zahl von Tasern beim Berliner SEK. Der Taser wurde als polizeiliche Waffe neben Schlagstock, Pfefferspray und Pistole eingeführt.

Im Jahr 2025 haben Berliner Polizist*innen 62 Mal mit Tasern auf Menschen geschossen. Das sind deutlich mehr Fälle als noch im Jahr zuvor (49). Dabei wurden 58 Personen verletzt. Das sind fast doppelt so viele wie im Jahr zuvor (32). Das ergab eine Kleine Anfrage von Vasili Franco, dem innenpolitischen Sprecher der Grünen im Abgeordnetenhaus, die netzpolitik.org exklusiv vorliegt.

Franco sagt: „Dass mehr Tasereinsätze zu mehr Verletzten führen, scheint für die Innenverwaltung völlig irrelevant zu sein.“

Extreme Schmerzen

Bei der Nutzung eines Tasers werden zwei Elektroden abgeschossen, sie sollen sich in die Haut des Gegenübers bohren, woraufhin über Drähte, die daran hängen, Strom mit sehr hoher Spannung in das Opfer geleitet wird. Für gewöhnlich bricht es dadurch zusammen. Betroffene berichten von extremen Schmerzen.

Immer wieder sterben Menschen, nachdem sie getasert wurden. Besonders für Menschen mit Vorerkrankungen kann der Taser eine tödliche Waffe sein. In den USA sind allein zwischen 2000 und 2017 mehr als 1.000 Menschen bei Polizeimaßnahmen gestorben, in denen Taser eingesetzt wurden. Die Menschenrechtsorganisation Amnesty International kritisiert zudem den weltweiten Missbrauch der Elektro-Waffen (PDF).

Dennoch gilt der Taser im Vergleich zur Schusswaffe als milderes Mittel. Das zeigt sich auch daran, dass die Polizist*innen deutlich freizügiger damit umgehen. Die Hemmschwelle zum Taser-Einsatz ist vergleichsweise gering, was ein Missbrauchspotenzial mit sich bringt. Oft reicht angeblich auch schon die Drohung mit dem Taser, um eine Situation zu befrieden, allerdings drückten die Berliner Polizist*innen im vergangenen Jahr, wenn sie den Taser einmal gezogen hatten, in 42 Prozent der Fälle auch ab.

Normalisierung „erheblicher Gewaltanwendung“ befürchtet

Oft wird der Taser gegen Menschen in psychischen Ausnahmesituationen eingesetzt. Allein acht Menschen wurden 2025 in Berlin getasert, weil sie Suizid verüben wollten. In einem Fall wurde ein Mensch per Elektroschock niedergestreckt, weil er mit einer Krücke um sich schlug. In anderen Fällen reichte „wirkte bedrohlich“ oder „nahm nicht die Hände aus der Tasche, näherte sich“ oder „Versteifen des Körpers“ als Grund für den Taser-Einsatz.

Neben den gesundheitlichen Risiken sehen Experten wie der Strafrechtsprofessor Andreas Ruch, die Ausweitung des Einsatzes von Tasern als die große Gefahr. Er schreibt in einem Artikel im Verfassungsblog: „Weil bekannt ist, dass der Taser in einer Vielzahl von Fällen als Elektroschocker unmittelbar gegen den Körper von Personen gerichtet wird, um deren Willen zu beugen, ist außerdem zu befürchten, dass Beamte die Geräte künftig extensiv nutzen und sich damit eine Form erheblicher polizeilicher Gewaltanwendung schleichend normalisiert.“

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Deepfakes, Stalking, Drohungen: Wie verbreitet digitale Gewalt wirklich ist

2. März 2026 - 16:38

Erstmals zeigt eine große Studie, in welchem Ausmaß Menschen in Deutschland Gewalt im digitalen Raum erleben. Erfasst werden dabei auch Taten, die bislang in keiner Statistik auftauchen. Frauen und queere Menschen trifft es besonders häufig.

Von beleidigenden Nachrichten bis zu versteckten Trackern: Digitale Gewalt hat viele Formen. – CC-BY 4.0 Pauline Wee & DAIR / https://betterimagesofai.org

Nacktaufnahmen, die ohne Zustimmung im Internet landen. Beleidigungen per Direktnachricht. Ex-Partner*innen, die das Handy verwanzen oder AirTags in der Tasche verstecken. All das bezeichnen Fachleute als digitale Gewalt. Es sind Taten, die im Internet oder mit Hilfe von technischen Hilfsmitteln passieren.

Wie häufig solche Taten in Deutschland vorkommen, dazu konnte man bislang nur rätseln. Eine repräsentative Studie, die belastbar hätte zeigen können, wie viele Menschen betroffen sind oder welche Taten sich besonders häufen, gab es nicht. Die letzte große Befragung zu Gewalterfahrungen stammt aus dem Jahr 2004, da war Facebook gerade neu und YouTube, Twitter oder Reddit waren noch nicht im Netz.

Auf die fehlenden Zahlen hatten Fachleute immer wieder hingewiesen, auch weil Deutschland eigentlich verpflichtet ist, die Daten zu erheben und sich nichts aufs Rätselraten zu beschränken. Seit 2018 gilt die Istanbul-Konvention, ein Abkommen des Europarats, das Frauen vor Gewalt schützen soll. Sie sieht auch vor, in regelmäßigen Abständen abzufragen, wie verbreitet Gewalt gegen Frauen ist.

Was die Kriminalstatistik nicht zeigt

Der Pflicht, Daten bereitzustellen, kam Deutschland Mitte Februar nach, mit Erscheinen einer Studie zu Gewaltbetroffenheit, die Bundesfamilienministerin Karin Prien (CDU), Bundesinnenminister Alexander Dobrindt (CSU) und der Präsident des Bundeskriminalamts Holger Münch gemeinsam vorstellten.

„Lebenssituation, Sicherheit und Belastung im Alltag“, kurz LeSuBiA, soll das sichtbar machen, was die Kriminalstatistik nicht abbilden kann: Wie viel Gewalt Menschen tatsächlich erleben. Denn das jährliche Lagebild des BKA behandelt zwar neuerdings ebenfalls die „Fallgruppe Digitale Gewalt“, zeigt allerdings nur einen Bruchteil der Fälle. Was nicht angezeigt und an eine Staatsanwaltschaft weitergereicht wird, taucht dort nicht auf.

Um dieses Dunkelfeld auszuleuchten, hat das BKA für LeSuBia mehr als 15.000 Menschen befragen lassen – darunter Männer, Frauen und Menschen, deren Geschlechtsidentität vom eingetragenen Personenstand abweicht oder die eine homo- oder bisexuelle Orientierung angeben. Das ist neu, frühere Umfragen beschränkten sich auf Frauen. Nun lassen sich direkte Vergleiche ziehen.

Abgefragt wurden verschiedenste Formen von Gewalt: körperliche und psychische Gewalt ebenso wie sexuelle Belästigung, Übergriffe oder Stalking. Die Studie bildet auch Taten ab, die sich unter der Schwelle von Strafbarkeit bewegen – zum Beispiel Demütigungen durch den eigenen Partner oder sexuelle Belästigung ohne Körperkontakt.

Beleidigungen und Drohungen an der Spitze

Bei der digitalen Gewalt unterscheidet die Studie zwischen zwei Kategorien. Digitale Gewalt im engeren Sinne sind demnach Taten, die vermeintlich nur im Internet begangen werden können: Mit KI erstellte Nacktbilder, gefälschte Profile auf Datingseiten oder Angriffe auf den eigenen Avatar in Online-Spielen.

Jeder zehnte Mensch hat solche Gewalt erlebt.

Digitale Gewalt im weiteren Sinne soll Übergriffe abbilden, die auch im analogen Leben passieren: Stalking, Drohungen oder sexuelle Belästigung. Gaben Menschen in der Befragung an, das erlebt zu haben, fragten die Interviewer*innen nach: Geschah das auch mit digitalen Mitteln? Jede fünfte Frau (20 Prozent) und jeder siebte Mann (13,9 Prozent) waren laut Studie in den letzten fünf Jahren von digitaler Gewalt betroffen.

Angezeigt wird nur ein kleiner Teil davon: Bei Frauen waren es 2,4 Prozent der Betroffenen, die den Übergriff anzeigten, bei Männern tat dies nicht einmal ein Prozent.

Frauen trifft es öfter, aber nicht nur sie

Bei der digitalen Gewalt im weiteren Sinne ist Bedrohung der häufigste Tatbestand. Am häufigsten werden Menschen im Netz oder per Messenger beleidigt oder bedroht. Zwei von 100 Befragten hatten das in den vergangenen fünf Jahren erlebt. Einen nennenswerten Unterschied zwischen Männern und Frauen fand die Studie dabei nicht.

Auch auf die Frage „Wurden schon persönliche oder heimlich erstellte Fotos oder Videos von Ihnen im Internet veröffentlicht oder per Messenger versendet“ antworteten erstaunlich viele Männer mit „Ja“. Rund jede hundertste Person gibt an, das schon einmal erlebt zu haben, unabhängig vom Geschlecht. Öffentlich verhandelt wurden bisher vor allem Fälle, in denen intime Aufnahmen von Frauen öffentlich wurden.

Rund ein Prozent der Befragten hat zudem in den vergangenen fünf Jahren mindestens einmal erlebt, dass gefälschte Profile unter dem eigenen Namen auf Social Media oder Datingplattformen angelegt wurden. Auch hier sind Männer und Frauen gleichauf. Lediglich von digitaler Gewalt in Onlinespielen sind deutlich mehr Männer betroffen.

Laut Michaela Burkard vom Dachverband der Frauenberatungsstellen bff fallen diese Zahlen überraschend niedrig aus. „Aus den Beratungsstellen wissen wir, wie alltäglich Formen digitaler Gewalt dort mittlerweile sind“, sagt sie. Sie vermutet, dass viele dieser Gewaltformen von den Betroffenen zunächst nicht als Gewalt wahrgenommen werden. Auch in Beratungsgesprächen brauche es manchmal mehrere Anläufe, bis auch digitale Übergriffe zur Sprache kommen.

Je jünger desto wahrscheinlicher

Nennenswerte Unterschiede zwischen den Geschlechtern findet die Studie dennoch. Denn abgefragt wurde nicht nur ob, sondern auch, wie häufig eine Gewalterfahrung aufgetreten ist. Laut LeSuBia erleben Frauen Fälle von digitaler Gewalt außerhalb einer Partnerschaft fünf Mal so häufig wie Männer. Sie empfinden dabei zudem mehr Angst und beurteilen die Situationen als schwerwiegender.

Im Altersvergleich zeigt sich zudem: Jüngere Menschen sind stärker betroffen als ältere. Die Gruppe der 16 bis 24-jährigen weist die höchsten Zahlen auf. Dieser Unterschied zwischen den Altersgruppen sei bekannt, sagt Burkard, jedoch nicht in der Ausprägung. „Dass junge Erwachsene so viel stärker betroffen sind und die Betroffenheit ab einem gewissen Alter so stark schwindet, haben wir so bisher noch nicht gesehen.“

Überrascht war sie auch darüber, dass laut LeSubia digitale Gewalt bei den betroffenen Männern in 51,1 Prozent der Fälle von einer fremden Person verübt wird, während es bei den betroffenen Frauen 33,9 Prozent sind, die eine fremde Person als Täter*in angeben. Die Beratungsstellen hätten hier andere Erfahrungen. Die dort geschilderte Gewalt werde meist von (Ex-)Partner*innen verübt.

Eine von 100 Frauen von einem Ex-Partner digital gestalkt

Die Studie fragt auch ab, wie häufig Menschen Stalking unter Einsatz von digitalen Hilfsmitteln erfahren haben. In der Vergangenheit konnte man sich hier nur auf das stützen, was Menschen von der Frontlinie im Kampf gegen solche Gewaltformen berichteten: Beratungsstellen und Frauenhäuser sprechen seit Jahren von einem Anstieg der Fälle – ob mit Hilfe von Spionage-Apps oder der üblichen Bordmittel, die in jedes Handy eingebaut sind.

LeSuBia zeigt, wie verbreitet das Ausspähen mittlerweile ist. Jede 30. der befragten Frauen hatte Erfahrungen mit digitaler Nachstellung. Weniger als jede zehnte Betroffene zeigte die Taten an.

Rund eine von 100 Frauen gab außerdem an, in den vergangenen fünf Jahren von einem Partner oder Ex-Partner gestalkt worden zu sein. In fast alles Fällen passierte das mit digitalen Mitteln. Männer sind ebenfalls von Stalking mit digitalen Mitteln betroffen, allerdings nur etwa halb so oft. Ein ähnliches Bild ergibt sich bei sexueller Belästigung im digitalen Raum.

„Die sehr geringe Bereitschaft, erlebte Gewalt bei der Polizei zur Anzeige zu bringen, hat uns nicht überrascht“, sagt Burkard. „Aus unserer Arbeit mit den Beratungsstellen wissen wir, dass es in vielen Polizeidienststellen an Sensibilität und Fachwissen im Umgang mit Partnerschaftsgewalt mangelt. Insbesondere Formen digitaler Gewalt scheinen bagatellisiert zu werden, oder der digitale Raum wird als zu abstrakt begriffen, um das Gewaltgeschehen einordnen zu können.“

„Er wusste immer genau, wo ich war“

Keine isolierte Gewaltform

Stalking und digitale Gewalt treten zudem besonders oft in Kombination mit körperlicher oder psychischer Gewalt auf. Auch dieser Zusammenhang ist unter Fachleuten bekannt. „Digitale geschlechtsspezifische Gewalt ist eine Fortsetzung bereits bestehender Gewaltverhältnisse“, sagt Michaela Burkard, “sie taucht selten isoliert auf.“

Die methodische Entscheidung, für die Studie vermeintlich „reine”“Formen von digitaler Gewalt von Mischformen wie Stalking oder sexueller Belästigung zu trennen, findet sie daher nicht sinnvoll. „Es wird zu wenig deutlich, dass digitale Gewalt ein Querschnittsthema ist, das in fast allen anderen Gewaltformen zum Tragen kommt. Es macht deshalb wenig Sinn, sie isoliert darzustellen. Die Einteilung in einen engeren und weiteren Sinn ist da unserer Ansicht nach wenig hilfreich“, sagt sie.

Queere und trans Menschen besonders betroffen

Aus anderen Ländern ist bekannt, dass nicht nur Frauen, sondern auch Personen jenseits der heterosexuellen zweigeschlechtlichen Norm ein besonders großes Risiko haben, angegriffen zu werden. Auch Polizeistatistiken zeigen einen Anstieg der queer- und transfeindlichen Straftaten in den vergangenen Jahren – wobei unklar ist, wie viel davon auf eine erhöhte Anzeigebereitschaft zurückgeht.

LeSuBia zeigt jetzt: LSBTIQ* Menschen sind auch im Dunkelfeld bei allen untersuchen Gewaltformen häufiger betroffen als andere Menschen. Das gilt auch für digitale Gewalt.

Rund 2.300 der Befragten rechnet LeSuBia dieser Kategorie zu. Es sind Personen, die angaben, homo- oder bisexuell zu sein oder dass ihr Personenstand von ihrem selbst gewählten Geschlecht abweicht. 16 Prozent von ihnen haben demnach digitale Gewalt im Laufe ihres Lebens erfahren, mehr als 10 Prozent in den vergangenen fünf Jahren. Sie sind damit doppelt so oft betroffen wie Menschen, die nicht in diese Gruppe fallen.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Statt Transparenzgesetz: Berliner Landesregierung will Informationsfreiheit beschneiden

2. März 2026 - 15:32

Die schwarz-rote Berliner Landeskoalition plant Rückschritte bei der Informationsfreiheit. Auffällig dabei ist, dass in Zukunft Dokumente verweigert werden könnten, wenn es in der Sache Ermittlungsverfahren gibt. Das könnte die öffentliche Aufklärung von Skandalen behindern.

In Zukunft könnte es in Berlin schwieriger werden an amtliche Dokumente zu kommen. (Symbolbild) – Gemeinfrei-ähnlich freigegeben durch unsplash.com Markus Spiske

Die schwarz-rote Berliner Landesregierung möchte das Berliner Informationsfreiheitsgesetz beschneiden. Das geht aus einem Entwurf zum „Gesetz zur Änderung des Berliner Datenschutzgesetzes und weiterer Rechtsvorschriften“ (PDF) aus dem Februar hervor. In Zukunft sollen dadurch bestimmte Informationen von Informationsfreiheitsanfragen ausgenommen werden, etwa solche zu kritischer Infrastruktur oder wenn es im Themenfeld laufende Ermittlungsverfahren gibt oder diese vorbereitet werden.

In der Gesetzesbegründung heißt es, ersteres sei durch „eine veränderte Sicherheitslage und in Reaktion auf mehrere Anschläge auf die Elektrizitätsversorgung“ notwendig. Letzteres ist laut Arne Semsrott, Leiter und Chefredakteur von FragDenStaat, allerdings besonders auffällig: „Unzählige Details zur CDU-Fördermittelaffäre in Berlin sind nur durch das Informationsfreiheitsgesetz ans Licht gekommen. Mit der geplanten Gesetzesänderung wären die Dokumente dazu künftig geheim.“ Offenbar wolle die Koalition kurz vor der Wahl noch dafür sorgen, dass ihre Klüngeleien nicht mehr aufgedeckt werden können, so Semsrott weiter.

Gegen den eigenen Koalitionsvertrag

Dass die schwarz-rote Koalition überhaupt das Informationsfreiheitsgesetz beschneidet, widerspricht ihrem Koalitionsvertrag (PDF). In diesem hieß es 2023 noch:

Die Koalition wird schnellstmöglich ein Transparenzgesetz nach Hamburger Vorbild einführen und dabei nur den Bereich Verfassungsschutz aus dem Geltungsbereich herausnehmen. Dabei werden wir die hohen Standards des Berliner Informationsfreiheitsgesetzes erhalten und einen umfassenden Rahmen für die Leitlinie ‚Open by default‘ für die öffentlichen Daten schaffen.

Die rot-grün-rote Vorgängerregierung hatte ein solches Transparenzgesetz bereits geplant. Die SPD hatte vor der damaligen Wahl-Wiederholung abrupt auf die Bremse getreten und das Gesetz blockiert, obwohl der Gesetzgebungsprozess schon im Gange war.

Informationsfreiheitsgesetze regeln den Anspruch auf Zugang zu amtlichen Informationen. Sie ermöglichen Bürger:innen und der Presse auf Anfrage Einsicht in amtliche Dokumente. Ein Transparenzgesetz geht noch einen Schritt weiter: Hier müssen die Dokumente nicht mehr angefragt werden, sondern werden im Regelfall automatisch veröffentlicht. Informationsfreiheits- und Transparenzgesetze sind ein Instrument demokratischer Kontrolle.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Trugbild: Flucht aus der Entfremdung

1. März 2026 - 7:43

Ein einsamer Pinguin bewegt das Netz. Politiker aus aller Welt, die Europäische Union und deutsche Supermarktketten wollen an seinem Ruhm teilhaben. Dabei steht der vermeintlich nihilistische Vogel für eine zunehmend entfremdete Welt.

Aber warum? – Public Domain Vincent Först mit ChatGPT

Ein Pinguin verlässt seine Kolonie am Südpol. Zielstrebig läuft er in Richtung der Berge. Es ist ein einsamer Gang in den sicheren Tod. „Aber warum?“, fragt Werner Herzog gewohnt dramatisch, während er den über das Eis wandernden Pinguin mit der Kamera festhält. Die Szene stammt aus seinem Dokumentarfilm „Begegnungen am Ende der Welt“ aus dem Jahr 2007.

Knapp zwanzig Jahre nach seinem ersten Auftritt geht der Pinguin viral. In den sozialen Medien setzt sich der Spitzname „Nihilist Penguin“ durch. Die Kommentarspalten lassen darauf schließen, dass sich Tausende Menschen in dem selbstmörderischen Vogel wiedererkennen. Es ist nicht das erste Mal, dass ein derartiges Verhalten im Netz als Spektakel romantisiert wird.

Fragwürdige Idole

Kurz vor der berühmt gewordenen Szene fragt Werner Herzog in der Doku einen Tierforscher, ob Pinguine wahnsinnig werden können, wenn sie genug von ihrer Kolonie haben. „Sie verlieren die Orientierung und landen dort, wo sie eigentlich nicht sein sollten“, antwortet der Forscher lakonisch.

Auf YouTube, TikTok und Instagram interpretieren viele Nutzer den Pinguin dagegen als einen mutigen Ausreißer, der sich aus den Fesseln der Gesellschaft befreit. „Dieser Pinguin ging nicht in die Berge, um zu sterben. Er machte diese Reise, um zu leben“, vermutet etwa ein Zuschauer. „Die Menschen verstehen die Abgründe der Kolonie nicht. Gesichtslos, starr, monoton“, ergänzt ein anderer. Wenige Tage nach dem viralen Erfolg des Pinguins gab es bereits T-Shirts zu kaufen mit der Aufschrift „Colony Dropout“.

Die mit unzähligen Daumen nach oben versehenen Beiträge heben den Pinguin damit auf eine Ebene mit fragwürdigen Internet-Idolen wie Marvin Heemeyer oder Richard Russell.

Heemeyer ist zu zweifelhaftem Ruhm gelangt, weil er mit einer modifizierten Planierraupe mehrere Gebäude, darunter das Haus des ehemaligen Bürgermeisters und die Polizeistation, im US-amerikanischen Ort Granby zerstörte. Anschließend erschoss sich der Täter. Seine Fans übernahmen den von den Medien etablierten Spitznamen „Killdozer“ für ihn. „Ist es nicht irre, wie viel besser du diesen Mann verstehst, je älter du wirst?“, sagt ein Bewunderer über den Killdozer und sammelt dafür über zwanzigtausend Likes auf YouTube.

Richard „Sky King“ Russell gehörte dem Bodenpersonal auf einem internationalen Flughafen in Seattle an. Der 28-Jährige entwendete dort ein unbesetztes Flugzeug und steuerte die Maschine nach einem 70-minütigen „Ausflug“ auf eine dünn besiedelte Insel. Den Absturz überlebte er nicht. Im Gespräch mit dem Kontrollturm sagte Russell zuvor: „Ich habe nicht geplant, wieder zu landen.“

In den sozialen Medien wurde er dafür ähnlich gefeiert wie Heemeyer und der Pinguin. Unter pathetischen Gedenkvideos und Lobreden am Jahrestag von Russells Flug, unter anderem von einem Kongressmitglied, finden sich Sprüche wie: „Am Boden war er tot, als er abhob, war er lebendig.“

Aus der Entfremdung ausbrechen wollen

Unter den Videos taucht immer wieder ein Zitat der Anime-Serie Cowboy Bebop auf: „Ich gehe da nicht hin, um zu sterben. Ich will herausfinden, ob ich wirklich lebe.“ Das Gefühl der Entfremdung ist offenbar ein essenzieller Teil der Online-Kultur. Und tatsächlich gibt es Tage, an denen sich die Netzwelt wie ein morbides Projekt zur Desensibilisierung der Menschheit anfühlt.

Die Startseiten von YouTube, TikTok, Instagram und Pornhub sind laut, überreizt und voller Gewalt. Nach der Entdeckung eines sehenswerten Videos lauert bereits ein brutaler Konterclip auf den Zuschauer. Darauf folgt penetrante Werbung – und der Kreislauf beginnt von neuem.

Ein Teil der Online-Gemeinschaft macht bizarre Figuren wie den Nihilist Penguin, den Sky King oder den Killdozer zu ihren Stellvertretern, die für sie aus einer feindlichen Umwelt und dem als fade wahrgenommenen Leben ausbrechen. Der Himmel oder die Berge dienen dabei als Symbole für eine verloren geglaubte Freiheit.

Im Streben nach „echten“ Erfahrungen außerhalb des digitalen Raums liegt wohl auch ein produktiver Aspekt des Herzogschen Pinguins. Das Buch „Reinhold Messners Philosophie – Sinn machen in einer Welt ohne Sinn“ beschreibt Messners Verlangen nach Grenzgängen in den Bergen als einen lebensnotwendigen Impuls. Dieser ereilt ihn ausgerechnet dann, wenn er sich am sichersten fühlt: zu Hause, bei der Familie. Woher dieser Trieb kommt, weiß Messner selbst nicht.

Es sind wohl diese weißen Flecken auf der Landkarte der menschlichen Bedürfnisse, die als Inspiration für einen nachhaltigen Ausbruch aus der Entfremdung dienen können. Herzogs Frage nach dem großen „Warum?“ sollte deshalb vielleicht gar nicht erst beantwortet werden.

Alarmierende Signale

Wo ein kleines Tier so große Aufmerksamkeit erregt, kreisen selbstverständlich schon die Marketing-Geier. Von Politikern und Präsidenten bis hin zu deutschen Discountern oder einer Schuhhandelskette möchten alle den Penguin für die eigenen Zwecke instrumentalisieren – etwa händchenhaltend mit Trump oder auf der Suche nach europäischen Werten am Südpol.

Diese vom „Nihilist Penguin“ inspirierten Marketing-Clips treffen den Nerv der Zeit. Auf die Schulter klopfen sollten sich die Werbeleute allerdings nicht. Denn dass eine beachtliche Zahl von Menschen online Selbstmorde romantisiert und so gleichzeitig ihr eigenes Leben abwertet, ist ein alarmierendes gesellschaftliches Signal. Dabei führt ein System, das menschliche Bedürfnisse mit leicht konsumierbaren Bildchen zu kompensieren versucht, zwangsläufig zur Entfremdung.

Und dem Wunsch, aus diesem System auszubrechen, kann eine erfahrungsarme Welt nichts weiter entgegensetzen als einen Pinguin, der auf eine KI-generierte Lidl-Filiale in den Bergen zuwatschelt.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

KW 9: Die Woche, in der wir eine Blamage kommen sehen

28. Februar 2026 - 8:04

Die 9. Kalenderwoche geht zu Ende. Wir haben 19 neue Texte mit insgesamt 146.272 Zeichen veröffentlicht. Willkommen zum netzpolitischen Wochenrückblick.

– Fraktal, generiert mit MandelBrowser von Tomasz Śmigielski

Liebe Leser:innen,

es gibt Wochen, da zieht sich ein bestimmtes Thema über Tage bei uns durch. Und es gibt andere Wochen, da ist es nur ein Fragment, das kurz aufblitzt und hängen bleibt.

In dieser Woche war es ein Fragment. Konkret: eine Antwort des sächsischen Innenministeriums.

Das Haus von Armin Schuster (CDU) will den biometrischen Abgleich von Gesichtern und Stimmen mit Internetdaten erlauben. Eine Polizeigesetznovelle soll den Weg dafür ebnen.

Schuster begründet die neuen Befugnisse damit, dass sich „eine Blamage“ wie bei der RAF-Terro­ristin Daniela Klette nicht wiederholen dürfe. Klette war über Jahre untergetaucht, Hinweise auf ihren Aufenthaltsort hatten dann zwei Journalisten mit Hilfe der umstrittenen Ge­sichtersuchmaschine PimEyes gefunden.

Allerdings steht Schuster vor hohen Hürden. Denn für einen biometrischen Abgleich braucht sein Ministerium eigentlich eine sehr, sehr große biometrische Datenbank. Eine solche anzulegen oder zu nutzen, verbietet aber die KI-Verordnung der EU – „und zwar ausnahmslos“, wie die Nichtregierungsorganisation AlgorithmWatch in einem Gutachten festgestellt hat.

Das sächsische Innenministerium ficht das nicht an. Man werde Tools verwenden, „die sich der grundsätzlichen Datenbankstruktur des Internets bedienen und keine polizeieigene Datenbank für alle Informationen des Internets erstellen“. Außerdem fokussiere sich die geplante Novelle „auf den anlassbezogenen Auftragsbereich der Gefahrenabwehr“.

Ein biometrischer Abgleich ohne Referenzdatenbank? Das geht effektiv nicht, sagt nicht nur AlgorithmWatch, sondern schreiben auch die Wissenschaftlichen Dienste des Deutschen Bundestages in ihrem kürzlich veröffentlichten Gutachten.

Und Gefahrenabwehr wird als Argument wohl kaum ausreichen, um die KI-Verordnung auszuhebeln, falls das sächsische Innenministerium etwas derartiges plant. Eine abschließende Entscheidung über deren Auslegung obliege dem Europäischen Gerichtshof, schreiben vorausahnend die Wissenschaftlichen Dienste des Bundestages.

Ich bin gespannt, wie die Geschichte weitergeht – und wer sich am Ende wie blamiert. Haben wir hier etwas missverstanden? Hat das Ministerium die Sachlage intern noch nicht ausreichend geklärt? Oder sind das Anzeichen eines Schusterschen Trumpismus, der Expertise und rechtsstaatliche Prinzipien einfach mal über Bord wirft?

Habt ein frühlingshaftes Wochenende

Daniel

Von Kinderhilfswerk bis Lehrerverband: So breit ist die Kritik am Social-Media-Verbot

Bundeskanzler Friedrich Merz (CDU) findet ein Social-Media-Verbot bis 16 Jahre sympathisch. Viele Organisationen aus Kinderschutz, Wissenschaft und Pädagogik lehnen das Verbot allerdings ab – und warnen vor Schäden für Kinder und Jugendliche. Die Übersicht. Von Sebastian Meineck –
Artikel lesen

KI-gestützte Videoüberwachung: Bremen führt Verhaltensscanner im Nahverkehr ein

Der Bremer ÖPNV plant KI-gestützte Videoüberwachung in allen Trams und Bussen. Auch die Polizei hat schon ein Auge auf die Technologie geworfen. Zunächst soll ihr aber heimliches Filmen mit Kameradrohnen erlaubt werden. Von Martin Schwarzbeck –
Artikel lesen

Tübingen: Boris Palmer will Videoüberwachung durchsetzen

Obwohl sich der Gemeinderat dagegen ausgesprochen hat, setzen Tübingens Oberbürgermeister Boris Palmer und das Regierungspräsidium Videoüberwachung durch. Dafür greifen sie auf eine ungewöhnliche Rechtsgrundlage zurück. Von Martin Schwarzbeck –
Artikel lesen

Totalitäre Tendenzen: Palantir-Ersatz aus der EU ist ein gefährlicher Wunsch

Deutschlandweit sprechen sich Politiker*innen dafür aus, keine Software von Palantir zu verwenden. Stattdessen soll eine europäische Alternative eingesetzt werden. Die Verknüpfung und automatische Analyse möglichst vieler Daten bleibt aber ein totalitäres Konzept. Ein Kommentar. Von Martin Schwarzbeck –
Artikel lesen

Niedersächsisches Psychisch-Kranken-Hilfe-Gesetz: Wann Daten bei der Polizei landen können, sollen oder müssen

Ein geplantes Gesetz zum Umgang mit psychisch erkrankten Menschen in Niedersachsen hatte viel Gegenwind bekommen. Nun hat die niedersächsische Landesregierung ihren Erstentwurf überarbeitet und Regeln zum Datenaustausch konkretisiert. Doch Fachleute wünschen sich weitere Anpassungen. Von Anna Biselli –
Artikel lesen

Ein „Kuss“ für Verschlüsselung: Kampagne kämpft für sichere Kommunikation

Die EU-Kommission wird demnächst neue Überwachungsansätze vorstellen und plant unter dem Deckmantel „rechtmäßiger Zugang“ einen weiteren Angriff auf die verschlüsselte Kommunikation. Europäische Digitalorganisationen machen dagegen jetzt mobil. Von Markus Reuter –
Artikel lesen

Datenschutz-Reform: Mitgliedstaaten gehen auf Abstand zu Plänen der EU-Kommission

Es ist das erste Signal des Rates im Ringen um den sogenannten Datenomnibus: In einem ersten Positionierungsentwurf stellen sich die Mitgliedstaaten gegen mehrere Vorschläge der EU-Kommission, die von Datenschutz-Expert:innen kritisiert worden waren. Wir veröffentlichen den Zwischenstand. Von Ingo Dachwitz –
Artikel lesen

NGOs fordern: Ex-Meta-Lobbyistin soll nicht EU-Digitalgesetze aufweichen

Mit der finnischen EU-Abgeordneten Aura Salla soll eine ehemalige Meta-Lobbyistin maßgeblich am geplanten digitalen Regulierungsabbau in der EU mitwirken. Nun fordern mehrere Nichtregierungsorganisationen ihre Abberufung als Chef-Verhandlerin des EU-Parlaments. Von Tomas Rudl –
Artikel lesen

Vier Städte betroffen: Bundesnetzagentur will Telekom laxer regulieren

Benachteiligt die Telekom kleinere Anbieter durch ihre Marktmacht? Darüber wacht die Bundesnetzagentur in ganz Deutschland. In vier Städten will die Behörde aber künftig die Regeln lockern. Wettbewerber der Marktführerin warnen vor Deregulierung „zum völlig falschen Zeitpunkt“. Von Tomas Rudl –
Artikel lesen

Gesellschaft für Freiheitsrechte: Klage gegen zentrale Speicherung von Gesundheitsdaten geht weiter

Beim Forschungsdatenzentrum Gesundheit sollen die Gesundheitsdaten aller gesetzlich Versicherten zusammenlaufen. Ein Gerichtsverfahren dagegen wird nun fortgesetzt. Dessen Ausgang könnte Pläne von Gesundheitsministerin Nina Warken durchkreuzen. Von Daniel Leisegang –
Artikel lesen

Niedersächsisches Polizeigesetz: Diese KI soll prüfen, ob du artig bist – und dich identifizieren, wenn nicht

Niedersachsen folgt dem bundesweiten Trend in Richtung Sci-Fi-Überwachung. Im neuen Polizeigesetz sind neben der Datenanalyse nach Palantir-Art auch Verhaltensscanner und Live-Gesichtserkennung vorgesehen. Heute findet eine Anhörung im Innenausschuss zu dem massiven Überwachungsausbau statt. Von Martin Schwarzbeck –
Artikel lesen

Protestbrief gegen Registrierungspflicht: Google gefährdet freie Installation von Android-Apps

Nach Meinung großer Digitalorganisationen aus der ganzen Welt versucht Google mit einer neuen Registrierungspflicht für Android-Entwickler:innen, seine Marktposition im Mobile-Bereich auszubauen. Das gehe zu Lasten der Freiheit all derer, die beim Handy auf Google verzichten wollen. Von Markus Reuter –
Artikel lesen

Interview zu Personenkennzeichen: „Den gläsernen Bürger nicht nur rechtlich, sondern auch technisch verhindern“

Während die Bundesregierung behördenübergreifend eine lebenslang gültige Personenkennzahl einführen will, geht das Nachbarland Österreich einen anderen Weg. Warum dieser mehr Datenschutz verspricht, ohne die Verwaltungsdigitalisierung zu behindern, erläutert die österreichische Juristin Heidi Scheichenbauer im Gespräch. Von Daniel Leisegang –
Artikel lesen

Polizeirechtsnovelle in Sachsen: Mit minimalen Anpassungen in Richtung Überwachungsstaat

Trotz scharfer Kritik hält die sächsische Regierung am ihrem Vorhaben fest, die Polizei mit erheblich erweiterten Überwachungsbefugnissen auszustatten. Den bisherigen Gesetzesentwurf hat sie nach internen Verhandlungen nur kosmetisch angepasst. Kritiker:innen bezweifeln die Vereinbarkeit mit geltendem EU-Recht und warnen vor dystopischen Verhältnissen. Von Leonhard Pitz –
Artikel lesen

Grundrechte: Wie Polizei und Justiz unsere Meinungsfreiheit einschränken

Noch nie gab es so viele Ermittlungsverfahren und Hausdurchsuchungen wegen bloßer Worte. Heute gelten etliche politische Aussagen als strafbar, die noch vor zehn Jahren ganz klar erlaubt waren. Dabei sollten wir gerade in der gegenwärtigen Lage mehr Meinungsfreiheit wagen. Von Gastbeitrag, Ronen Steinke –
Artikel lesen

Online-Ausweis : Der ePerso ist tot, lange lebe der ePerso

IT-Fachleuten gilt der elektronische Personalausweis gemeinhin als gut durchdacht und sicher. Dennoch fristet dessen eID-Funktion auch wegen politischer Versäumnisse ein Nischendasein. Zwei Projekte der Sparkassen und des Föderalen IT-Architekturboards könnten das nun ändern. Von Esther Menhard –
Artikel lesen

Polizeigesetz Niedersachsen: Verfassungsrechtliche Bedenken bei geplanten Überwachungsmaßnahmen

Der Landesdatenschutzbeauftragte und Polizeirechtler*innen sehen grundlegende Probleme in dem Entwurf des neuen Polizeigesetzes von Niedersachsen. Das wurde gestern bei einer Anhörung im Innenausschuss deutlich. Von Martin Schwarzbeck –
Artikel lesen

Bericht für den Bundestag: So gefährlich sind Deepfakes

Künstlich erzeugte Nacktfotos, gefälschte Beweise vor Gericht: Von Deepfakes gehen mehrere Gefahren aus, schreiben Forschende in einem Bericht für den Bundestag. Zugleich sehen sie Potenziale der Technologie, etwa für die Polizei. Der Überblick. Von Sebastian Meineck –
Artikel lesen

Appell der Datenschutzbehörden: EU soll „vollständig und endgültig“ auf Chatkontrolle verzichten

Anlässlich der EU-Verhandlungen zur CSA-Verordnung mahnen Deutschlands Datenschutzbehörden einhellig vor Chatkontrolle. In den Trilog-Verhandlungen gab es erste Einigungen über einige Punkte. Die harten Verhandlungen über die Chatkontrolle stehen aber noch an. Von Markus Reuter –
Artikel lesen

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Appell der Datenschutzbehörden: EU soll „vollständig und endgültig“ auf Chatkontrolle verzichten

27. Februar 2026 - 15:16

Anlässlich der EU-Verhandlungen zur CSA-Verordnung mahnen Deutschlands Datenschutzbehörden einhellig vor Chatkontrolle. In den Trilog-Verhandlungen gab es erste Einigungen über einige Punkte. Die harten Verhandlungen über die Chatkontrolle stehen aber noch an.

Auch Inhalte von verschlüsselten Messengern wie Signal und WhatsApp sind im Fokus der Chatkontrolle. – Alle Rechte vorbehalten IMAGO / photothek

Die EU-Gesetzgeber sollen in den Trilog-Verhandlungen zur CSA-Verordnung vollständig und endgültig auf eine Chatkontrolle verzichten. Das fordern die unabhängigen Datenschutzbehörden aus Bund und Ländern.

Die Datenschutzkonferenz appelliert in einer Stellungnahme (PDF) an die Verhandelnden, von der Massenüberwachung privater Chats per Aufdeckungsanordnungen, dem flächendeckenden Scannen privater Nachrichten und einem Durchbrechen der Ende-zu-Ende-Verschlüsselung ohne Ausnahme abzusehen.

„Hintertüren in der Verschlüsselung gefährden die Sicherheit der Kommunikation aller Bürgerinnen und Bürgern und könnten auch von Kriminellen ausgenutzt werden“, so die Datenschützer:innen. Zu den Gefahren für eine Ende-zu-Ende-Verschlüsselung zählen die Datenschützer auch das Client-Side-Scanning, bei dem Inhalte vor dem Verschlüsseln auf dem Endgerät durchsucht werden.

Generell dürfe eine Überwachung privater Kommunikation nur gezielt und bei einem konkreten Verdacht zum Einsatz kommen, so die Datenschutzkonferenz. Auch ein Ziel wie die Verhinderung und Verfolgung von sexuellem Missbrauch von Kindern rechtfertige keinen Generalverdacht gegen Millionen von Bürger:innen. Die Aufsichtsbehörden begründen dies unter anderem mit dem Recht auf Vertraulichkeit der Kommunikation und dem Recht auf informationelle Selbstbestimmung.

Erste Einigungen im Trilog

Ein Großteil der Trilog-Verhandlungen passiert auf Arbeitsebene. Gestern fand die zweite Verhandlung auf politischer Ebene statt. Laut Tagesspiegel Background Digitalisierung (€) haben sich Rat und Parlament „vorläufig auf eine Reihe politisch sensibler Fragen geeinigt“, die Informationen sind aber vage. Bisher ging es vor allem um das EU-Zentrum gegen Kindesmissbrauch, nicht direkt um die Chatkontrolle. Die dritten politischen Trilog-Verhandlungen sind für den 11. Mai angesetzt.

Der Trilog ist im EU-Gesetzgebungsverfahren der Abschnitt, in dem EU-Kommission, EU-Parlament und der Rat ihre vorher gefundenen Positionen zusammen verhandeln und eine finale Version des Gesetzestextes erarbeiten, die dann später dem Europaparlament zur Abstimmung gegeben wird. Der Trilog ist erfahrungsgemäß eine intransparente Phase des Gesetzgebungsprozesses, in dem noch viel passieren kann. Wer im Trilog, welche Verhandlungspositionen vertritt und was die strittigen Punkte sind, haben wir in diesem Erklär-Artikel beschrieben.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Bericht für den Bundestag: So gefährlich sind Deepfakes

27. Februar 2026 - 14:31

Künstlich erzeugte Nacktfotos, gefälschte Beweise vor Gericht: Von Deepfakes gehen mehrere Gefahren aus, schreiben Forschende in einem Bericht für den Bundestag. Zugleich sehen sie Potenziale der Technologie, etwa für die Polizei. Der Überblick.

Frauen sind besonders im Visier nicht-einvernehmlicher sexueller Deepfakes (Symbolbild) – CC-BY 4.0 Reihaneh Golpayegani / betterimagesofai.org

Im Jahr 2020 veröffentlicht der britische TV-Sender Channel 4 eine sonderbare Weihnachtsansprache. Zu sehen ist eine Person, die man auf den ersten Blick für die (inzwischen verstorbene) Königin Elisabeth II. halten muss. Nur ihre Worte klingen zunehmend weniger royal. Schließlich besteigt die vermeintliche Queen ihren Schreibtisch und legt unter Konfetti-Regen einen TikTok-Tanz hin.

Die Auflösung der Szene zeigt Channel 4 direkt im Anschluss: Die mit vergoldetem Stuck verzierten Wände weichen einem Greenscreen. Statt der Königin kommt eine Darstellerin zum Vorschein. Schon damals nannte man die eingesetzte Tricktechnik „Deepfake“. Es geht um synthetische Darstellungen, die täuschend echt aussehen. Heute kann jeder Mensch mit öffentlichen Online-Werkzeugen solche und noch aufwendigere Inhalte selbst erstellen. Möglich machen es Bild- und Videogeneratoren, die viele als KI bezeichnen.

Die Weihnachtsansprache der falschen Queen ist nur ein Beispiel aus einem lesenswerten Bericht über die Gefahren und Potenziale von Deepfakes, den Forschende im Auftrag des Bundestags erstellt haben. Das im Januar veröffentlichte Papier kommt aus dem Büro für Technikfolgen-Abschätzung. Es berät das Parlament in Fragen von Wissenschaft und Technik mit nach eigener Aussage unparteiischen Analysen.

Auf 46 Seiten buchstabieren die Forschenden aus, was mit Deepfakes alles möglich ist; wo sie Schaden anrichten oder Gutes bewirken können. Teils sehen die Forschenden Bedarf für strengere Regulierung, teils machen sie aber auch klar: Mit Gesetzen allein kommt man nicht weiter. Die Zusammenfassung.

Deepfakes: Das sind die Gefahren

Deepfakes können „sowohl für böswillige als auch für wohlmeinende Zwecke angewendet werden“, schreiben die Forschenden. Mindestens vier konkrete Risiken lassen sich aus dem Bericht zusammenfassen.

  • Nicht-einvernehmliche, sexuelle Aufnahmen: Mit Deepfake-Technologie können Menschen beliebige Gesichter fotorealistisch in Pornos montieren; sie können Kleider in Aufnahmen durch nackte Körper ersetzen – oder gänzlich neue Aufnahmen generieren. Die Forschenden schätzen: Dieses Phänomen ist das häufigste. Betroffen seien „fast ausschließlich“ Frauen. Sie würden bloßgestellt, herabgewürdigt, eingeschüchtert und erpresst. Diese Fälle seien nicht als individuelle Übergriffe zu werten, sondern hätten gesellschaftliche Auswirkungen, „indem sie die Gleichstellung von Frauen im öffentlichen, digitalen Raum angreifen“.
  • Politische Manipulation: In einem Deepfake-Video aus dem Jahr 2022 hatte ein vermeintlicher Präsident Selenskyj die Kapitulation der Ukraine vor dem Aggressor Russland erklärt. Mit diesem Beispiel illustrieren die Forschenden die Gefahr von politisch motivierten Deepfakes. Sie können auf die öffentliche Meinungsbildung abzielen oder Unruhen anheizen. Bereits der Verdacht, dass eine Aufnahme gefälscht ist, könne „den gesellschaftlichen Zusammenhalt destabilisieren“. Nennenswerte Auswirkungen hätten solche politischen Deepfakes allerdings noch nicht gehabt, „trotz vieler Fälle insbesondere im Kontext von Wahlkämpfen“.
  • Gefälschte Aussagen und Beweise: Immer wieder dienen Kamerabilder als Beweise vor Gericht. Aber Deepfakes „stellen grundlegend die Glaubwürdigkeit von Bild-, Ton- und Videodokumenten in juristischen Verfahren infrage“, warnen die Forschenden. Durch vermeintliches Beweismaterial könnten Menschen auch unberechtigt in Verdacht geraten. Als weiteres Problem nennen die Forschenden virtuelle Gerichtsverhandlungen. Hier sei das Risiko erhöht, dass eine per Video zugeschaltete Person ein Deepfake ist.
  • Betrug: Mit Deepfakes können Kriminelle Gesichter und Stimmen imitieren und sich als jemand anderes ausgeben. Die Forschenden schreiben von einer „neuen Form des Enkeltricks“. Als Beispiel nennen sie einen britischen Fall aus dem Jahr 2019: Die Führungskraft eines Unternehmens hatte 220.000 Euro auf ein ungarisches Konto überwiesen, weil der vermeintliche Chef per Telefon darum gebeten hatte.
Deepfakes: Das sind die Potenziale

Deepfakes sind ambivalent. Mindestens fünf Einsatzmöglichkeiten beschreiben die Forschenden in ihrem Bericht als positiv, einige aber mit ethischen Bedenken.

  • Medien: „Deepfakes sind ein neues Werkzeug, um der eigenen Kreativität Ausdruck zu verleihen“, schreiben die Forschenden. Möchte man etwa Filme in andere Sprachen übersetzen, lassen sich mit Deepfakes die Lippenbewegungen anpassen. Gealterte Darsteller*innen können jüngere Versionen von sich selbst verkörpern. Das werfe allerdings die Frage auf, ob es Filme mit bereits verstorbenen Schauspieler*innen geben dürfe. Satirische Deepfakes wiederum könnten „durch humoristische Kritik“ Debatten anstoßen. In journalistischen Videos könnten Deepfakes Quellen verfremden, die anonym bleiben wollen.
  • Bildung: Für TV-Dokus stellen Medienmacher*innen gerne historische Szenen nach. Deepfakes könnten wichtige Persönlichkeiten oder Ereignisse der Zeitgeschichte besonders eindrücklich erfahrbar machen, schreiben die Forschenden. In der beruflichen Bildung wiederum können Lehrkräfte mithilfe von Deepfakes gefährliche Situationen besser simulieren.
  • Gesundheit: Diese Anwendungsfälle werden gerade noch erforscht, heißt es im Bericht. Zum Beispiel könnten Menschen, die nach einer OP nicht mehr wie zuvor sprechen können, ihre Stimme synthetisch erzeugen lassen. Auch würden Wissenschaftler*innen diskutieren, ob Deepfakes Menschen dabei helfen können, bestimmte Traumata zu verarbeiten.
  • Verdeckte Ermittlungen: Auf ethisch und juristisch dünnem Eis bewegen sich mehrere Anwendungsfälle für die Polizei. Schon heute darf sich die Polizei mit künstlich erzeugten Aufnahmen sogenannter Kinderpornografie Zutritt zu Netzwerken von Pädokriminellen verschaffen – obwohl der Besitz dieses Materials strafbar ist. Deepfake-Technologie macht es zunehmend einfacher, solche Darstellungen zu generieren. Darüber hinaus diskutieren Behörden, ob sie Deepfakes für verdeckte Ermittlungen einsetzen können. Konkret könnten Beamt*innen dem Bericht zufolge die Stimme von Menschen aus dem Umfeld eines Verdächtigen imitieren. „Nach derzeitiger Rechtslage ist ein solches Vorgehen in Deutschland allerdings nicht möglich“, schreiben die Forschenden.
  • Öffentliche Kommunikation der Polizei: Mit Deepfake-Technologie kann die Polizei Fotos von Vermissten bearbeiten, die inzwischen älter aussehen müssten, wie die Forschenden erklären. Auch bei öffentlichen Aufrufen könnten Deepfakes zum Einsatz kommen. Als Beispiel nennt der Bericht ein Video der niederländischen Polizei aus dem Jahr 2022: Darin bittet ein per Deepfake animierter, getöteter Jugendlicher die Öffentlichkeit um Hinweise auf seinen eigenen Tod. Ethische Bedenken äußern die Forschenden an dieser Stelle nicht.
Das schützt schon heute vor Deepfakes

Das eine Anti-Deepfake-Gesetz gibt es nicht, stattdessen aber ein Bündel an Regulierungen je nach Art des Deepfakes. Teils unterscheiden sich die Vorschriften in Deutschland, Europa und anderen Ländern der Welt.

  • Nicht-einvernehmliche, sexuelle Deepfakes sind in der EU strafbar, zumindest, wenn Menschen sie verbreiten. Das verlangt die neue Richtlinie zur Bekämpfung von Gewalt gegen Frauen, die Mitgliedstaaten wie Deutschland noch umsetzen müssen. In den USA reguliert der Take It Down Act das Phänomen. Das aktuelle deutsche Strafrecht bietet generell für betroffene bildbasierter Gewalt noch einen Flickenteppich an Regelungen.
  • Deepfakes von Politiker*innen im Vorfeld von Wahlen sind in einigen US-Bundesstaaten reguliert, wie der Bericht ausführt. Konkret geht es um Deepfakes, die „darauf abzielen, den Ruf eines Kandidaten zu schädigen oder das Ergebnis einer Wahl zu beeinflussen“; ausdrücklich ausgenommen sind demnach Parodie und Satire.
  • Eine Kennzeichnungspflicht von Deepfakes steht in der KI-Verordnung (AI Act) der EU. Anbieter von KI-Systemen müssen demnach dafür sorgen, dass KI-Erzeugnisse einen maschinenlesbaren Hinweis verpasst bekommen. Die Maßnahmen werden jedoch als „ineffektiv und nicht ausreichend“ erachtet. Selbst korrekt gekennzeichnete Inhalte würden viele Leute erreichen.
  • Meldeverfahren und Moderation bei rechtswidrigen Inhalten schreibt in der EU das Gesetz über digitale Dienste (DSA) vor, und betrifft damit auch rechtswidrige Deepfakes. Kritik gibt es aber bei der Umsetzung: So schreibe das Gesetz keine konkreten Fristen dafür vor, wie schnell Anbieter reagieren müssen.
  • Das deutsche Zivilrecht gibt Betroffenen von Deepfakes je nach Fall verschiedene Mittel an die Hand. Zum Beispiel schützt das allgemeine Persönlichkeitsrecht das Recht am eigenen Bild, den Schutz der persönlichen Ehre – oder „das Recht, von der Unterschiebung nicht getätigter Äußerungen verschont zu bleiben“, führen die Forschenden aus. All das kann bei nicht-einvernehmlichen Deepfakes relevant sein. Die Krux ist hier eher: Betroffene haben es schwer, ihre Ansprüche vor Gericht durchzusetzen.
  • Das deutsche Strafrecht erfasst mehr als nicht-einvernehmliche sexuelle Deepfakes. Wenn Deepfakes zum Beispiel genutzt werden, um Menschen Geld aus der Tasche zu ziehen, kann Betrug in Frage kommen. Erstellen Kriminelle per Deepfakes kompromittierendes Material und drohen mit dessen Veröffentlichung, können das Erpressung oder Nötigung sein, wie der Bericht ausführt.
Das sind die Lücken beim Schutz vor Deepfakes

Das Wort „Lücken“ taucht im Bericht insgesamt acht Mal auf. Die Forschenden machen aber auch klar, dass die gestückelte Regulierung von Deepfakes einen tieferen Sinn hat: Das deutsche Rechtssystem ist nämlich technologieneutral. Das heißt, es orientiert sich nicht an bestimmten Technologien wie Deepfakes, sondern an Rechtsgütern wie Datenschutz, Ehre oder dem Recht am eigenen Bild.

Manches wiederum lässt sich nicht mit Gesetzen lösen. Das zeigen zumindest einige der offenen Baustellen, die aus dem Bericht hervorgehen.

  • Im deutschen Strafrecht erkennen die Forschenden Lücken im Kontext von nicht-einvernehmlichen sexuellen Deepfakes. Hier müsse die EU-Richtlinie, die deren Verbreitung unter Strafe stellt, „noch in nationales Recht umgesetzt werden“.
  • Die Durchsetzung des Rechts kann dem Bericht zufolge daran scheitern, dass Ermittler*innen schlicht nicht wissen, welche Behörde zuständig ist. „Deepfakes können global verbreitet werden, ihre Bekämpfung erfordert daher regelmäßig eine internationale Zusammenarbeit“, so der Bericht.
  • Beim Schutz vor Diskriminierung sehen die Forschenden eine weitere Lücke. So könnten KI-generierte Darstellungen Stereotype von Geschlechtern darstellen oder rassistische Annahmen reproduzieren. Konkretes Beispiel aus dem Bericht: wenn KI-generierte „Terroristen“ stets „männlich“ sind und eine „dunkler Hautfarbe“ hätten. Zwar ist der Schutz vor Diskriminierung auch in der EU gesetzlich verankert; in der Praxis gebe es bei entsprechenden Deepfakes aber kaum Handhabe, wie aus dem Bericht hervorgeht.
  • Zuverlässig erkennen lassen sich Deepfakes nicht. Zwar entwickeln Forschende zunehmend bessere Software dafür, doch im Gegenzug lassen sich auch KI-Systeme gezielt darauf trainieren, Deepfake-Detektoren zu täuschen. Das Ergebnis ist ein „Katz-und-Maus-Spiel“, schreiben die Forschenden. „Detektoren erweisen sich daher in ihrer Effektivität als zeitlich begrenzt und laufen den Weiterentwicklungen von Deepfakes stets hinterher.“
  • Mehr öffentliche Aufklärung über Fälle von schädigenden Deepfakes ist laut Bericht eine Gegenmaßnahme, „um die Aufmerksamkeit für das Problem zu erhöhen und Schutzmaßnahmen zu verbessern“. An dieser Stelle gehen die Forschenden allerdings nicht darauf ein, dass Berichte über Deepfakes auch deren Reichweite erhöhen.
  • Standards und Regeln im Umgang mit KI-generierten Inhalten sind eine weitere Option, so die Forschenden. Das betreffe etwa Parteien und Medien. „Auf diese Weise kann die Grenze zwischen kreativen und gefahrlosen und schädigenden Anwendungen deutlich gemacht werden.“

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Polizeigesetz Niedersachsen: Verfassungsrechtliche Bedenken bei geplanten Überwachungsmaßnahmen

27. Februar 2026 - 12:45

Der Landesdatenschutzbeauftragte und Polizeirechtler*innen sehen grundlegende Probleme in dem Entwurf des neuen Polizeigesetzes von Niedersachsen. Das wurde gestern bei einer Anhörung im Innenausschuss deutlich.

Die Sci-Fi-Systeme aus dem geplanten niedersächsischen Polizeigesetz sieht Denis Lehmkemper „auf der kritischen Grenze zwischen verbotenen KI-Praktiken und Hochrisiko-KI-Systemen“. – Alle Rechte vorbehalten Daniel George

Die rot-grüne Landesregierung von Niedersachsen will ihrer Polizei vier verschiedene Arten KI-gestützter Überwachung erlauben. Der Landesdatenschutzbeauftragte Denis Lehmkemper bezog nun öffentlich dazu Position. Er schreibt, dass diese Befugnisse die Eingriffsintensität in die Grundrechte gegenüber bisherigen Maßnahmen „erheblich erhöhen“. Sie würden sich auf der kritischen Grenze zwischen verbotenen KI-Praktiken und Hochrisiko-KI-Systemen bewegen. Es bestünde die Gefahr, „dass die Regelungen aufgrund ihrer Eingriffstiefe einer verfassungsrechtlichen Bewertung nicht standhalten.“

Gestern nahmen Lehmkemper und weitere Expert*innen im Innenausschuss des Landtags Stellung zum aktuellen Entwurf des niedersächsischen Polizeigesetzes. In einer Presseerklärung, die er danach versandte, zweifelt Lehmkemper daran, dass der Entwurf die Grundrechte im Blick behält.

Als besonders eingriffsintensiv benennt er die Maßnahmen mit sogenannter Künstlicher Intelligenz, wie sie sich derzeit in etlichen umstrittenen deutschen Polizeigesetzentwürfen finden: „intelligente“ Videoüberwachung, biometrische Echtzeit-Fernidentifizierung, Abgleich mit öffentlich zugänglichen Daten und automatisierte Datenanalyse. In diesen Bereichen sieht Lehmkemper „erheblichen Nachbesserungsbedarf“ an den Regelungen.

„Ein Paradigmenwechsel“

„Aus unserer Sicht sind europäische Datenschutz- und KI-Vorgaben noch nicht ausreichend berücksichtigt, damit riskiert man Rechtsunsicherheit“, schreibt er netzpolitik.org zu dem Entwurf.

Die Landesregierung will mit dem Entwurf auch Datenanalysen ermöglichen, wie sie der Konzern Palantir anbietet und die US-Einwanderungsbehörde gerade zur Jagd auf Migrant*innen nutzt. Lehmkemper sieht hier einen tiefen Eingriff in die Bürgerrechte, sogar einen Paradigmenwechsel. Während Daten von Zeugen und Opfern bislang nur zweckgebunden und vorgangsbezogen erhoben wurden, wäre es danach möglich, eine Datenbank zu betreiben, die nicht nur nach polizeilichen Vorgängen, sondern auch nach Zeugen und Opfern, also gezielt nach Personen, durchsucht werden kann.

Die Landesregierung hat bereits bekundet, keine Software von Palantir einsetzen, sondern auf eine europäische Alternative warten zu wollen. Der Datenschutzbeauftragte fordert, „völlig unabhängig davon, welches Software-System dafür eingesetzt werden soll, eine klare Begrenzung auf anlassbezogene Analysen, kürzere Speicherfristen, umfassende Betroffenenrechte und eine eindeutige Definition des Einsatzes von Künstlicher Intelligenz im Sinne der KI-Verordnung.“

„Verstoß gegen Verfassungsrecht“

Kristin Pfeffer, Professorin an der Hochschule der Polizei Hamburg, hat ebenfalls gestern im Innenausschuss das Polizeigesetz eingeordnet. In einer schriftlichen Stellungnahme, die sie dazu eingereicht hat, kritisiert sie vor allem die Befugnisse zur Datenanalyse nach Palantir-Art. Sie sieht einen Verstoß gegen das Verfassungsrecht, weil die Politik der Polizei zur Nutzung des Tools zu wenige Regeln auferlegt.

Die Big-Data-Analyse sei „äußerst eingriffsintensiv“, deshalb brauche es, wenn man sie einführen wolle, Regelungen, die die Eingriffstiefe der Maßnahme abmildern. Die gäbe es kaum. Die Art der Daten, die einbezogen werden könnten, sei kaum limitiert. Die Polizei darf dem Entwurf nach „Vorgangsdaten, Falldaten, Daten aus den polizeilichen Auskunftssystemen, Verkehrsdaten, Telekommunikationsdaten, Daten aus Asservaten und Daten aus dem polizeilichen Informationsaustausch“ nutzen.

Vorgangsdaten umfassen dabei, so Pfeffer, „Anzeigen, Ermittlungsberichte und Vermerke, die nicht nur Daten zu Verdächtigen, Beschuldigten oder sonstigen Anlasspersonen enthalten, […] sondern etwa auch Daten zu Anzeigeerstattern, Hinweisgebern oder Zeugen.“ Falldaten würden zudem „Beziehungen zwischen Personen, Institutionen, Objekten und Sachen“ sichtbar machen.

Dazu kommen „Datensätze aus gezielten Abfragen in gesondert geführten staatlichen Registern sowie einzelne gesondert gespeicherte Datensätze aus Internetquellen.“ Solche Register können laut Pfeffer Melde- oder Waffenregister oder das zentrale Verkehrsinformationssystem (ZEVIS) sein. Zudem sei die Verarbeitung von Daten, die durch besonders schwere Grundrechtseingriffe erlangt wurden, zum Beispiel durch die Wohnraumüberwachung oder den Einsatz verdeckter Ermittler*innen, nicht ausgeschlossen, sondern nur eingeschränkt.

Eine Superdatenbank

Die Politik habe es bislang auch verpasst, so Pfeffer, die Eingriffstiefe durch die Beschränkung auf inländische Quellen zu beschränken. Nach der aktuellen Fassung könnten auch Daten verarbeitet werden, die ausländische Sicherheitsbehörden erhoben haben.

Der Polizeigesetzentwurf ermöglicht es zudem, eine „Superdatenbank“ anzulegen. Pfeffer sähe eine solche aber unvereinbar mit dem aktuellen Verfassungsrecht. „Sollte das Anlegen einer vorsorglichen Datenbank gar nicht beabsichtigt sein, müsste dies in der Norm noch klargestellt werden“, schreibt sie.

Pfeffer kritisiert auch die Eingriffsschwelle für die Datenanalyse: Die liegt bereits im Vorfeld einer Gefahr für eine terroristische Straftat. Das Tool darf demnach genutzt werden, noch bevor eine Gefahr konkret wird.

Racial Profiling ist für Rot-Grün kein Thema

Matthias Fischer, Professor an der Hessischen Hochschule für öffentliches Management und Sicherheit, wurde ebenfalls gestern im Innenausschuss angehört und schreibt in einer schriftlichen Stellungnahme dazu: „Als eine besonders auffällige Leerstelle erweist sich die Thematik „Racial Profiling“.“

Zahlreiche Landesgesetzgeber hätten sich in den vergangenen Jahren bei den Novellierungen ihrer Polizeigesetze dieses Themas angenommen. „Sie haben erkannt, dass rechtswidriges oder als rechtswidrig erlebtes Polizeihandeln zu nachhaltigen Vertrauensverlusten in die Institution Polizei führen kann“, schreibt Fischer. In der Diskussion über den Reformbedarf des niedersächsischen Polizeigesetzes habe Racial Profiling aber offenbar trotzdem keine Rolle gespielt.

„Wer mit dem Anspruch antritt, das modernste Polizeigesetz Deutschlands vorlegen zu wollen, darf das Thema diskriminierender Kontrollen nicht ausblenden“, schreibt Fischer. Um der Gefahr von Racial Profiling zu begegnen, empfiehlt er eine Pflicht für Polizist*innen, Personenkontrollen vor deren Beginn zu begründen.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Online-Ausweis: Der ePerso ist tot, lange lebe der ePerso

27. Februar 2026 - 11:57

IT-Fachleuten gilt der elektronische Personalausweis gemeinhin als gut durchdacht und sicher. Dennoch fristet dessen eID-Funktion auch wegen politischer Versäumnisse ein Nischendasein. Zwei Projekte der Sparkassen und des Föderalen IT-Architekturboards könnten das nun ändern.

Lange fristete der elektronische Personalausweis ein Nischendasein – das könnte sich jetzt ändern. (Symbolbild) – Alle Rechte vorbehalten Hauswand: IMAGO/Hannelore Förster; Graffiti: Wikipedia/Nicor; Ausweis: IMAGO/Jochen Tack; Hand: Dürer (1506); Bearbeitung: netzpolitik.org

Online ein Auto mieten oder den Wohnsitz ummelden – das soll der elektronische Personalausweis (auch neuer Personalausweis, nPA) dank eID-Funktion ermöglichen. So war zumindest die Erwartung vieler, als die Bundesregierung unter Angela Merkel im Jahr 2010 den nPA einführte. Doch die damaligen Erwartungen haben sich bis heute nicht erfüllt.

Dabei können die Voraussetzungen für einen Erfolgskurs des nPA kaum besser sein. IT-Sicherheitsexpert:innen und Datenschützer:innen loben die Technologie in höchsten Tönen. Trotzdem ist es um den nPA ruhig geworden. Die meisten haben ihre PIN zum Freischalten der eID-Funktion verlegt oder verloren. Bis vor zwei Jahren konnten sie sich zwar kostenfrei eine neue PIN per Einschreiben auf dem Postweg zusenden lassen. Doch Anfang 2024 beschloss das Bundesinnenministerium unter der Ampel-Koalition, den Service mit Verweis auf die Kosten einzustellen. Wer die eID nutzen will, muss also wieder aufs Amt gehen.

Zwei Projekte könnten dem nPA nun neues Leben einhauchen: zum einen die neuen Services in den Apps der Sparkassen, zum anderen Neo, eine Kommunikationslösung für Bürger:innen und Verwaltung. Neo wird von der FITKO gemeinsam mit dem Bundesdigitalministerium im Auftrag des Föderalen IT-Architekturboards entwickelt.

Sichere Technologie fristet Nischendasein

Die Versäumnisse der Bundesregierung gipfeln in der Einschätzung des Bundesministeriums für Digitales und Staatsmodernisierung (BMDS), die eID sei eine „nationale Sonderlösung“. Der Bundesrechnungshof widersprach (PDF) explizit dieser Auffassung mit Verweis auf die eIDAS-Verordnung der EU, die die eID-Funktion mit Vertrauensniveau „hoch“ notifiziert.

Dass Bürger:innen und selbst die Bundesregierung der Technologie so wenig Bedeutung beimessen, wäre kaum ein Thema, wenn der nPA mehr in der Fläche genutzt würde, sagt Marco Holz. Er ist IT-Architekt bei der Föderalen IT Kooperation (FITKO). Die Bund-Länder-Organisation entwickelt IT-Lösungen für die öffentliche Verwaltung. „Wenn man den Perso höchstens ein Mal im Jahr benutzt, stehen die Chancen schlecht, dass man sich die PIN dauerhaft merkt.“

Privatpersonen können sich mit der AusweisApp gegenüber Dritten ohne große Hürden eindeutig und authentisch ausweisen. Dank NFC-Technologie (Near-Field Communication) ist inzwischen auch ein Kartenlesegerät überflüssig. Nutzer:innen halten ihren Personalausweis einfach an ihr Smartphone und erlauben so die kontaktlose Übermittlung ihrer Daten.

Um die eID-Funktion voranzubringen, müssten jedoch mehr Behörden, Banken und Versicherungen die eID-Funktion in ihre Prozesse einbauen, so Holz. Das erfordert einen hohen Aufwand, den viele Anbieter scheuten.

Hohe Hürden für die eID

Diensteanbieter, die den nPA nutzen möchten, müssen nachweisen, dass sie berechtigt sind, auf bestimmte Datenfelder des nPA zuzugreifen. Dafür brauchen sie ein elektronisches Berechtigungszertifikat, das sie bei der zentralen Vergabestelle beantragen müssen. Auf diese Weise können nur berechtigte und vertrauenswürdige Anbieter die Daten der Personalausweise auslesen. Jedoch verlangt das Bundesverwaltungsamt für die Berechtigungszertifikate hohe Gebühren. Auch Behörden erhalten sie nicht kostenfrei.

Ist diese erste Hürde genommen, benötigen Diensteanbieter dann einen eID-Server. Den betreiben sie entweder selbst und integrieren ihn direkt in ihre Anwendungen. Oder sie nutzen den eID-Server eines externen Dienstleisters, etwa von Governikus oder adesso. Einen eigenen eID-Server zu betreiben, sei sehr komplex, sagt Holz. „Für Diensteanbieter kommt erschwerend hinzu, dass keine der Server-Implementierungen unter einer Open-Source-Lizenz verfügbar ist.“

Außerdem sei es teuer, einen eigenen Server zu betreiben. Gerade für kleine Kommunen sei das kaum zu stemmen, erklärt Holz.

Sparkassen setzen auf eID

„Die Nutzer sollen sich die PIN ihres nPA für die Nutzung der eID irgendwann genauso gut merken wie die PIN zu ihrer Kreditkarte oder ihrem Smartphone“, so die Vision von Oliver Lauer. Lauer ist Leiter des digitallabor.berlin und Chief Digital Officer des Deutschen Sparkassen- und Giroverbands (DSGV). Zusammen mit dem digitallabor.berlin und Expert:innen der Sparkassen Finanzgruppe hat er die eID-Funktion des nPA in die Apps „tief integriert“. Damit will Lauer ein Vorzeigeprojekt für die eID schaffen.

Kund:innen der Sparkassen können ihren Zugang zum Online-Banking nun einfacher wiederherstellen, wenn sie ihre Zugangsdaten verloren haben, das Smartphone defekt oder abhanden gekommen ist. Bisher mussten sie dafür auf den Freischaltbrief warten, in die Filiale oder an den Geldautomaten gehen. Nun laufe der Reset über die Apps automatisch.

eID lohnt sich

Warum nutzen die Sparkassen ausgerechnet die eID-Funktion des nPA? „In einer digitalen Welt ist der Moment, in dem man sich ausgesperrt hat, in meinen Augen einer der schlimmsten“, sagt Lauer. Für Kund:innen sollte daher ein Weg geschaffen werden, um möglichst schnell aus diesem „Katastrophen-Moment“ herauszukommen.

Jedes Jahr sperrten sich Millionen Bankkund:innen aus, sagt Lauer. Daher lohne sich die eID in der Sparkassen-App, nicht zuletzt auf der Kostenseite. Seit Ende Januar ist die App im Einsatz. Und schon jetzt zeichne sich ab, dass sie zuverlässig laufe und Kosten einspare, auch weil die Sparkassen einen eigenen eID-Server betreiben.

Briefe zur Freischaltung oder persönliche Besuche in den Filialen seien mit erheblichen Kosten verbunden. Ebenso würden sich die Kosten für das VideoIdent-Verfahren auf 10 bis 12 Euro pro Transaktion belaufen.

Auch aus Sicht der IT-Sicherheit bleibt das VideoIdent weit hinter der eID zurück. Denn die eID hat eine physische Komponente, den Chip im Ausweis. Das Vertrauen werde immer zwischen dem eigentlichen physischen Personalausweis und dem eID-Server hergestellt, erklärt Holz. Und die Daten würden immer an den Server geschickt, der das entsprechende Berechtigungszertifikat hat. „Das vermeidet schon sehr viele Angriffspunkte.“

Mit der eID sicher mit Behörden kommunizieren

Gemeinsam mit dem BundID-Team des BMDS entwickelt Holz unter dem Arbeitstitel „Neo“ außerdem eine Kommunikationsinfrastruktur für die öffentliche Verwaltung. Damit sollen Privatpersonen einfacher online mit ihrem Stadtbüro oder Rathaus kommunizieren können, etwa nachdem sie einen Antrag gestellt haben.

Um sicherzustellen, dass eine Behörde personenbezogene Daten an den richtigen Thomas Müller oder die richtige Sandra Müller herausgibt, müssen sich Privatpersonen authentifizieren. Dafür nutzt auch Neo die eID-Funktion des nPA. „Das Ziel ist, dass sich Bürger:innen mit ihrem Personalausweis direkt und so einfach wie möglich in der App einloggen können“, so Holz. „Also Ausweis an das Smartphone halten, die PIN des Persos eingeben und direkt mit dem Rathaus kommunizieren oder den Bearbeitungsstatus der eigenen Anträge einsehen.“

Ähnlich wie in der App der Sparkasse hat auch das Neo-Team das Software Development Kit (SDK) der Ausweis-App direkt in den Dienst integriert. Damit sind sie nicht auf Anbieter von Authentifizierungssystemen angewiesen. Mit Blick auf Privatsphäre, Benutzbarkeit und Datenschutz sei der direkte Weg über die eID ein Gewinn. „Denn ich muss mich nicht mehr gegenüber einem Dritten authentifizieren, der dann meine ganzen Login-Daten kennt und weiß, wann ich mich zum Beispiel bei der Sparkasse oder bei Neo eingeloggt habe.“

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Grundrechte: Wie Polizei und Justiz unsere Meinungsfreiheit einschränken

27. Februar 2026 - 7:38

Noch nie gab es so viele Ermittlungsverfahren und Hausdurchsuchungen wegen bloßer Worte. Heute gelten etliche politische Aussagen als strafbar, die noch vor zehn Jahren ganz klar erlaubt waren. Dabei sollten wir gerade in der gegenwärtigen Lage mehr Meinungsfreiheit wagen.

Staatsanwälte der Zentralstelle zur Bekämpfung von Hasskriminalität im Internet Niedersachsen. – Alle Rechte vorbehalten CBS, 60 Minutes

Ronen Steinke ist Leitender Redakteur im Politikressort der Süddeutschen Zeitung und Lehrbeauftragter an der juristischen Fakultät der Goethe-Universität Frankfurt am Main. Heute erscheint sein neues Buch Meinungsfreiheit: Wie Polizei und Justiz unser Grundrecht einschränken – und wie wir es verteidigen im Berlin Verlag. Wir veröffentlichen das Vorwort mit freundlicher Genehmigung von Autor und Verlag. Alle Rechte vorbehalten.

Das zentrale Prinzip, auf dem jede Demokratie beruht, die Meinungsfreiheit, entzweit die Demokratien gerade gewaltig. Die USA auf der einen Seite, Europa auf der anderen.

Im Februar 2025 trat auf der Münchner Sicherheitskonferenz der amerikanische Vizepräsident J. D. Vance in einem Luxushotel auf die Bühne in einem Saal voller europäischer Regierungsvertreterinnen und Regierungsvertreter – und schaltete gleich auf Angriff. Europa würge die Meinungsfreiheit ab, behauptete der Amerikaner, dunkler Anzug, blaue Krawatte, ernster Ton. Die größte Bedrohung für Europa heute komme gar nicht mehr aus Russland oder China, sondern „von innen“. Infolge eines, wie Vance es ausdrückte, „Rückzugs Europas von einigen seiner grundlegenden Werte“. Dann belehrte der US-Vizepräsident seine Zuhörer – und besonders seine deutschen Gastgeber – darüber, dass die „Demokratie auf dem heiligen Prinzip ruht, dass die Stimme der Menschen ein Gewicht hat“.

Mit Blick auf die zahlreichen, immer schärfer werdenden europäischen Gesetze gegen sogenannte Hassrede, also solche Dinge wie die staatlichen „Zensurwünsche“ an die Adresse sozialer Medien wie Facebook oder X, die staatlich verordneten Online-Blocker und -Filter, wie sie vor allem Deutschland in den zurückliegenden zehn Jahren stark forciert hat, formulierte der Gast aus den USA: „Firewalls haben da keinen Platz.“ Das Prinzip der Meinungsfreiheit verlange nämlich eine spezielle Fähigkeit von Regierenden: die Fähigkeit, Kritik zu erdulden. „Entweder man hält dieses Prinzip hoch, oder man hält es nicht hoch.“

Entsetzen und Belustigung

Stille herrschte im Saal, europäische Teilnehmer waren für einen Moment sprachlos, und einige erzählten hinterher, wie sie innerlich geschwankt hätten zwischen Gefühlen des Entsetzens, aber auch der Belustigung. Denn, natürlich: Von Leuten wie J. D. Vance, die in ihrer Heimat kritische Journalisten diffamieren, Universitäten unter Druck setzen und Late-Night-Show-Hosts wegmobben, lässt man sich nicht so gern über demokratische Tugenden belehren. Für deutsche Politiker war es ein Leichtes, darauf hinzuweisen, dass der Amerikaner nicht wirklich gut positioniert sei, um über den Respekt vor abweichenden Meinungen zu dozieren.

Immerhin, gerade hatte die Regierung des US-Präsidenten Donald Trump und seines Vizes Vance die Nachrichtenagentur Associated Press achtkantig aus dem Weißen Haus geworfen, weil die Journalisten sich die Freiheit genommen hatten, den Golf von Mexiko weiterhin als „Golf von Mexiko“ zu bezeichnen, während die Trump-Regierung lieber kindisch von einem „Golf von Amerika“ sprechen wollte. Gleichzeitig hatte in den USA der Kampf gegen unliebsame Stimmen, auch mit drastischen Mitteln wie der Durchsuchung von Handys und sozialen Netzwerken nach kritischen Äußerungen gegen Amerikas Verbündeten Israel, gerade erst begonnen.

Sprachtabus in Deutschland

Aber, schrecklicher Gedanke: Was, wenn der Gast aus Amerika dennoch einen Punkt hatte? Der US-Vizepräsident ist schließlich nicht der Erste, der in Bezug auf Europa etwas bemerkt hat, auch Linksliberale in den USA blicken gegenwärtig mit zunehmend mulmigen Gefühlen auf das, was sich in Europa und besonders in Deutschland vollzieht. Von außen sieht man Dinge vielleicht manchmal klarer als von innen: Schon immer war die Bundesrepublik innerhalb der westlichen Welt das Land mit den meisten Sprachtabus, den schärfsten Strafvorschriften gegen bloße Worte, freedom of speech wird hier traditionell kleiner geschrieben als in den USA. Und: In dem Jahrzehnt zwischen 2015 und 2025, in dem die demokratische Kultur sich beiderseits des Atlantiks als äußerst volatil erwiesen hat und die Demokratie in einen Stresstest geraten ist, hat Deutschland sich entschieden, noch einmal deutlich mehr vom selben zu versuchen.

Das heißt, Deutschland hat darauf gesetzt, noch einmal zusätzliche Gesetze zu schaffen sowie auch alte, schon bestehende Gesetze zu verschärfen, um politische Äußerungen stärker zu regulieren und einzuschränken. Der Bundestag hat Strafparagrafen erweitert und vermehrt, der Tatbestand der Volksverhetzung ist gleich in mehrfacher Hinsicht ausgebaut worden, der Tatbestand der öffentlichen Billigung von Straftaten ist so ausgedehnt worden, dass man jetzt schon dafür bestraft werden kann, wenn man Taten „befürwortet“, die allein in der Fantasie spielen. Viele Staatsanwaltschaften haben die Bekämpfung von Hatespeech zu einer neuen Priorität erhoben, sie haben neue, schlagkräftige Teams gegründet, um zu ermitteln und juristische Spielräume auszuschöpfen.

Noch nie hat es hierzulande so viele Ermittlungen wegen bloßer Worte gegeben. Wegen reiner Äußerungsdelikte, wie Juristinnen und Juristen sagen. Die Zahlen der Ermittlungen haben sich in diesem Jahrzehnt – je nachdem, welchen Tatbestand man ansieht – teils verdreifacht, vervierfacht, verfünffacht, bei manchen, früher völlig unbekannten Delikten wie der öffentlichen Billigung von Straftaten sogar verhundertfacht, von jährlich knapp 20 auf 2000. Selbst wegen des Uraltdelikts der Blasphemie, „Beschimpfen von Bekenntnissen“, gab es im Jahr 2024 plötzlich 125 Ermittlungen – ein Rekord. Das liegt zum einen sicher daran, dass das Internet nichts vergisst und Äußerungen dort technisch leichter zu dokumentieren sind als im analogen Raum. Zum anderen aber auch daran, dass die Bereitschaft des Staates, auf Worte mit Verboten und Strafen zu reagieren, groß ist wie nie.

Vulnerable Gruppen schützen

Anfangs ist dies zweifellos aus besten Absichten geschehen. Als es losging mit der härteren Gangart, etwa 2015/16, lautete die Idee, dass man vor allem vulnerable Gruppen besser davor beschützen müsse, niedergebrüllt zu werden. Das ist richtig – ein wichtiger Gedanke. Als etwa die ZDF-Journalistin Dunja Hayali sich im Sommer 2025 zu einem tödlichen Attentat in den USA äußerte, dem Anschlag auf den Rechtsradikalen Charlie Kirk, da prasselten in den sozialen Medien so viele Kommentare auf sie ein, dass einen der Mut zum offenen Wort schon mal verlassen könnte. Hayali hatte unter anderem gesagt, es sei nicht zu rechtfertigen, dass manche Gruppen Kirks Tod feierten – „auch nicht mit seinen oftmals abscheulichen, rassistischen, sexistischen und menschenfeindlichen Aussagen“. Das genügte schon, um manche zu triggern.

„Sie werden bald für ihre Äußerungen bitter bezahlen“, schrieb @gordons_katzenabenteuer auf Instagram an die Journalistin, „Sie haben nur das allerschlimmste verdient. Schauen sie lieber ab jetzt öfter über ihre Schulter.“ Ein Nutzer namens @nocebo_the_mortem schrieb: „Ich hoffe, sie werden auch vor ihrer Familie erschossen“. @jaroabroad pflichtete bei: „Du bist ein Stück Scheiße sondergleichen und die Drohungen sind völlig gerechtfertigt!“ @juki030 schrieb: „Wir werden dich noch hängen sehen!“ @team.114hrc schrieb: „Heul leise du Dre…… Wirst bald die nächste sein“. @volkersuthoff schrieb: „Hoffentlich erschießt dich einer, du miese dreckslesbe!“

Wenn Täter mit solchen Gewaltdrohungen durchkämen, dann bliebe von der Meinungsfreiheit der Bedrohten nicht viel übrig. Zumal solche Attacken oft strategisch sind. Eine Studie der britischen Zeitung The Guardian ergab, dass von den zehn am häufigsten in Online-Kommentaren beleidigten Autorinnen und Autoren der Zeitung acht Frauen waren, vier von ihnen nicht weiß. Die anderen beiden waren schwarze Männer. In Deutschland sind Menschen mit Migrationshintergrund mehr als doppelt so oft von Online-Beschimpfungen betroffen wie andere. Das sind Menschen, die noch nicht sehr lange eine Stimme im politischen Diskurs haben und die aus Sicht der Pöbler wieder „auf ihre Plätze“ verwiesen werden sollen. Dahinter steckt der Wunsch, diese Gruppen gezielt aus dem Diskurs herauszutreiben.

Über Ziel hinausgeschossen

Das ist reaktionär, es ist antidemokratisch. Dagegen braucht es eine Verteidigung. Auch durch den Staat. Aber: Inzwischen ist der deutsche Strafverfolgungsapparat weit über dieses Ziel hinausgeschossen. Zunehmend geht es nicht erst bei Drohungen los, sondern schon bei viel harmloserem Spott. Wird ein Mensch in Deutschland „dämlich“ oder „Schwachkopf“ genannt, dann ist normalerweise klar, dass das keine Staatsanwaltschaft in Bewegung versetzt. Widerfährt das einem Politiker oder einer Politikerin, dann bilden sich gerade neue Maßstäbe heraus. Ein Bürger in Bayern bekam einen Strafbefehl, weil er die Grünen-Politikerin Annalena Baerbock als die „dümmste Außenpolitikerin der Welt“ bezeichnet hatte. Ein Fall für den neuen Strafparagrafen der „Politikerbeleidigung“.

Seit 2021 werden Beleidigung, üble Nachrede und Verleumdung gegen „Personen des politischen Lebens“ in einem einzigen Paragrafen zusammengefasst. Die Zahl der Ermittlungsverfahren, die der Staat auf dieser Grundlage eingeleitet hat, hat sich seither jährlich verdoppelt. 2021 waren es 748, im Jahr darauf schon 1.404. Im Jahr darauf dann 2.598. Und dann, zuletzt, 4.439 Fälle Fälle. Wohlgemerkt: Um Bedrohungen – oder andere Formen von Gewalt – geht es hier nicht.

Wie weit ist zu weit?

Der neue Wind weht scharf: Bis vor zehn Jahren war es noch undenkbar, dass die Polizei im Morgengrauen zu Razzien in Privatwohnungen anrückt, allein weil jemand das juristische Delikt der Beleidigung begangen haben soll, das in der Regel nur zu sehr geringen Strafen führt. Man hätte es für unverhältnismäßig gehalten. Eine Durchsuchung ist ein schwerer Grundrechtseingriff. Heute geschieht dies dagegen laufend, bei „Aktionstagen“ wird gleich an Dutzenden oder gar Hunderten Türen von Tatverdächtigen parallel geklingelt.

Man liest darüber sogar in der New York Times, in Artikeln, deren Autoren allerdings verwundert klingen über die Entwicklung der Meinungsfreiheit auf dem alten Kontinent. „Wie weit kann man gehen, bevor es zu weit geht?“, schrieben zwei Europa-Korrespondenten der Zeitung in einer langen Reportage im September 2022 über die neue Strenge, mit der Deutschland weiter gehe als „jede westliche Demokratie“. How far is too far?

Razzia wegen „Pimmel“

Hausdurchsuchungen erleben nun zunehmend auch Menschen, die im Netz ihre Meinung zu Ereignissen der internationalen Politik äußern. In den aufwühlenden Debatten zum Nahostkonflikt zum Beispiel war dies der Fall. Als ein Mann in München bei Instagram schrieb, dass das Massaker der palästinensischen Terrormiliz Hamas gegen israelische Zivilistinnen und Zivilisten am 7. Oktober 2023 natürlich entsetzlich sei, andererseits aber ein besetztes Volk das „legitime Recht auf Widerstand mit allen notwendigen Mitteln“ habe, genehmigte das Amtsgericht die Beschlagnahme seines Handys und anderer „internetfähiger Endgeräte“. Das kam unerwartet. Dass Menschen in Diskussionen solche kruden Aussagen einwerfen, die förmlich danach rufen, dass andere Menschen ihnen in der Diskussion widersprechen und mit Kontext oder Differenzierung antworten, ist nicht neu. Dass dies solche strafrechtlichen Interventionen nach sich zieht, ist durchaus neu.

In den Debatten zur innerdeutschen Politik ist dies ebenso zu beobachten. So hat etwa ein altgedienter Lokalpolitiker der Grünen in München erlebt, dass ihm verboten wurde, dem bayerischen Vizeministerpräsidenten Hubert Aiwanger von den Freien Wählern vorzuwerfen, dessen „Hetze“ gegen die Grünen ähnele in ihrer Sündenbock-Struktur der einstigen antisemitischen Agitation der Nazis. Der Grünen-Lokalpolitiker bekam dafür seinerseits ein Strafverfahren wegen Volksverhetzung, worüber er sehr staunte, und 2024 sogar schon Schuldsprüche in nicht nur einer, sondern zwei Gerichtsinstanzen; seine politische Karriere ist erledigt. Anderen zur Warnung.

Als Hamburgs Innensenator während der Corona-Pandemie eine strenge Ermahnung an seine Bürgerinnen und Bürger aussprach, keine Partys zu feiern, dann aber dabei erwischt wurde, wie er selbst eine – illegale – Party mit Dutzenden Gästen zelebrierte, kommentierte der Betreiber einer Punkkneipe aus dem Stadtteil St. Pauli im sozialen Netzwerk X, das damals noch Twitter hieß, diese Heuchelei lakonisch: „Du bist so 1 Pimmel.“ Kurz darauf tauchten vier uniformierte, bewaffnete Beamte vor der Wohnungstür des Gastronomen auf. Sie durchsuchten Räume, beschlagnahmten Geräte. Ein weiteres Verfahren wegen Politikerbeleidigung begann.

Gestern erlaubt, heute verboten

Damit hatte der Hamburger Gastronom nicht gerechnet. Damit hätte aber auch ich, ein ausgebildeter Jurist, der an der juristischen Fakultät der Universität Frankfurt unterrichtet, nicht gerechnet. Selbst wenn man sich sehr anstrengt, im Bilde zu sein, die teils sehr weite neue Interpretation des Strafrechts und von solchen sehr offenen Begriffen wie „Beleidigung“ im Blick zu behalten und politisch informiert zu bleiben, kann man bei diesem Tempo der Entwicklung immer häufiger auch überrascht werden.

Und das ist, meine ich, ein Problem. Damit hat sich in diesem Land etwas verändert. Nicht nur die USA haben ein Problem mit der Meinungsfreiheit, sondern, auf unsere Weise, auch wir. Darum soll es in diesem Buch gehen. Der deutsche Staat definiert heute etliche Aussagen als strafbar, die noch vor zehn Jahren ganz klar unter die Meinungsfreiheit fielen. Die Schwelle, von der an Polizei und Justiz hierzulande von strafbarer „Hetze“ ausgehen, ist an etlichen Stellen rapide abgesenkt worden, teils durch Änderungen der Gesetze, teils durch eine Änderung der Gesetzesinterpretation. Gestern noch erlaubt, heute verboten: Das ist ein juristischer Großtrend, den ich darstellen, analysieren und auf den ich auch eine kritische Antwort zu formulieren versuchen möchte.

UN-Sonderberichterstatter entsetzt

Im Frühjahr 2025, als J. D. Vance in München war, war ich, umgekehrt, in den USA. Ich habe in Kalifornien an Universitäten geforscht, die gerade große Not hatten, sich gegen die autoritären Übergriffe der Trump-Regierung zur Wehr zu setzen. Ich habe mit Rechtswissenschaftlern zusammengesessen, die gerade dabei waren, sich für Proteste gegen diese Trump-Politik zu vernetzen. David Kaye zum Beispiel, der ehemalige UN-Sonderberichterstatter für das Menschenrecht auf Meinungsfreiheit, der mir sein Lieblingscafé in Santa Monica zeigte, vegan und hundefreundlich. Aber so groß ihr Entsetzen über die Trump-Pläne war, so wenig hat das gleichzeitig ihre Sorge über das gemindert, was sie von der anderen Seite des Atlantiks her mitbekamen. „Diese Razzien“, sagte David Kaye.

Als in Kalifornien der Sommer begann, brachte die Sendung 60 Minutes des US-Senders CBS eine Reportage aus – Niedersachsen. Eine amerikanische Reporterin interviewte zwei deutsche Staatsanwälte und eine Staatsanwältin, die auf die Verfolgung von Hatespeech spezialisiert waren. Die Strafverfolger erzählten von den inzwischen üblichen Hausdurchsuchungen wegen Online-Postings und den teils verdutzten Reaktionen der Betroffenen, die oft sagen würden: Sie hätten gar nicht gewusst, dass ihre Äußerungen verboten seien. So erzählte es einer der Staatsanwälte und grinste.

Voraussetzung jeder Freiheit

In Santa Monica sprach mich David Kaye darauf an. Er fand das befremdlich. Staatsanwälte, die sich nichts dabei zu denken schienen, dass sie Menschen überraschten mit der Information, dass etwas neuerdings verboten sei? Was sei das für ein Verständnis von Rechtsstaat? Und er wies mich noch auf einen weiteren Aspekt hin, der ihm Sorgen bereite. „Pimmel“ sei in den USA noch das Mildeste, was man an Spott über den Präsidenten lesen könne. Es geschehe praktisch jeden Tag, dass jemand ihn als „Schwachkopf“ bezeichne, als „dümmsten Präsidenten aller Zeiten“ sowieso. Das ist nach amerikanischem Recht straffrei, zum Glück. Nicht auszudenken, was Donald Trump anstellen könnte, wenn sich die USA mit ihrem Strafrecht ein Beispiel an Deutschland nähmen.

Die Meinungsfreiheit wird in Demokratien traditionell als das wichtigste aller politischen Grundrechte verstanden, weil sie sozusagen die Voraussetzung aller weiteren Freiheiten schafft. Sie ist die Basis, auf der man politisch überhaupt in einen Streit eintreten kann, Forderungen stellen, sich Gehör verschaffen und so weiter. Die Bundesrepublik war noch jung, es war 1952, da schrieben die Richter des Bundesverfassungsgerichts (in diesem Fall waren es sieben Männer und eine Frau) in einem ihrer ersten Urteile, dass die Meinungsfreiheit für eine Demokratie „schlechthin konstituierend“ sei. Sprachlich schöner, auch ein wenig pathetischer: Die Freiheit, seine Meinung zu sagen, sei „die notwendige Voraussetzung beinahe jeder anderen Form der Freiheit“, so lauten die berühmten Worte des einstigen amerikanischen Supreme-Court-Richters Benjamin Cardozo. Und, ja: Es darf auch polemisch sein. Überspitzt. Oder emotional. Jedenfalls bis hin zu einer Grenze.

Was würde Trump damit tun?

Ich frage mich inzwischen, ob wir uns in Deutschland nicht ganz schön schnell gewöhnt haben an die Alltäglichkeit von Hausdurchsuchungen wegen „Politikerbeleidigung“, an die grassierende Verunsicherung, ob man denn noch von einer „dümmsten Außenministerin der Welt“ sprechen darf, an die Tatsache, dass schwierige zivilgesellschaftliche Debatten eingeengt werden – und ich frage mich auch, ob eine offene Gesellschaft ihre Strafjustiz nicht an etlichen Stellen dringend zurückpfeifen müsste, braucht man doch gerade in volatilen Zeiten eher mehr Debatte, nicht weniger. In der amerikanischen Cartoon-Serie „South Park“ taucht derweil der amerikanische Präsident Donald Trump als Sexpartner des Teufels auf, und es werden Zoten gerissen über das kleine Gemächt des Commanders in Chief.

Wenn die USA unter Trump solche Gesetze hätten wie Deutschland, dann würde dies J. D. Vance und Co. noch ganz andere Möglichkeiten bieten, ihre Kritiker einzuschüchtern. Dieses Szenario, in dem ein rechtsautoritärer Regierungschef mit einem fragilen Ego à la Trump oder Vance seine Kritiker wegen krimineller „Beleidigung“ verfolgen lassen könnte: Liberale Amerikaner wie David Kaye sind heilfroh, dass dies gerade nicht ansteht und dass wahrscheinlich auch der amerikanische Supreme Court verhindern würde, dass solche Instrumente diesen Rechtspopulisten in die Hände fielen. In Deutschland, wo die Anklagebehörden in diesem Punkt immer mehr Macht und gesetzlichen Spielraum bekommen haben, ist dieses Szenario vielleicht nur eine Landtagswahl entfernt.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Polizeirechtsnovelle in Sachsen: Mit minimalen Anpassungen in Richtung Überwachungsstaat

26. Februar 2026 - 19:02

Trotz scharfer Kritik hält die sächsische Regierung am ihrem Vorhaben fest, die Polizei mit erheblich erweiterten Überwachungsbefugnissen auszustatten. Den bisherigen Gesetzesentwurf hat sie nach internen Verhandlungen nur kosmetisch angepasst. Kritiker:innen bezweifeln die Vereinbarkeit mit geltendem EU-Recht und warnen vor dystopischen Verhältnissen.

Diese zwei dürften sich freuen, wenn das neue Polizeigesetz in Sachsen in Kraft tritt: Armin Schuster, Innenminister von Sachsen, und Jörg Kubiessa, Polizeipräsident von Sachsen. – Alle Rechte vorbehalten IMAGO / EHL Media

Die sächsische Polizei soll Bilder im Internet biometrisch auswerten dürfen – zumindest wenn es nach dem Willen der sächsischen Regierung geht. Und das ist lange nicht die einzige massive Befugniserweiterung der Polizei, die die Regierung plant. Auch Verhaltensscanner, verdeckte Kennzeichenerkennung und eine automatisierte Datenanalyse sollen kommen. Lediglich bei zwei problematischen Plänen machte das Innenministerium einen Rückzieher. Unter Zeitdruck muss nun der sächsische Landtag entscheiden.

Geringfügige Änderungen für eine „rechtsstaatlich sehr hohe Qualität“

Am Dienstag beschloss das Kabinett den Gesetzentwurf für das Sächsische Polizeivollzugsdienstgesetz (SächsPVDG). Dieser fällt in Teilen weniger scharf aus als die ursprünglich geplante Novelle. Wenn man den sächsischen Innenminister Armin Schuster (CDU) fragt, sogar ein gutes Stück zurückhaltender. Sein Referentenentwurf aus dem Herbst war auf viel Kritik gestoßen, auch die mitregierende SPD kritisierte einige der geplanten Befugniserweiterungen.

Im Vergleich dazu enthielten die neuen Pläne „sehr viele grundrechtssichernde Bestimmungen“, so Schuster. Er verweist auf Richtervorbehalte, Lösch- und Berichtspflichten. „Für Polizisten ist dieses Gesetz eine Herausforde­rung“, sagte der Innenminister auf einer Pressekonferenz am Dienstag nach der Kabinettssitzung. Der Entwurf habe nun eine „rechtsstaat­lich sehr hohe Qualität“, betonte er.

Tatsächlich gibt es bei den meisten Bestimmungen des Entwurfs, wenn überhaupt, geringfügige Änderun­gen und Konkretisierungen. So ist der präventive Staatstrojaner-Einsatz zur Quellen-Telekommuni­kationsüberwachung nach wie vor enthalten, ebenso Verhaltensscanner, die gesetzlichen Grund­lagen für eine Datenanalyse-Plattform sowie der biometrische Abgleich von Gesichtern und Stim­men mit dem Internet.

Kein Palantir, keine Drohnen gegen Handy-Sünder:innen

Gestrichen wurde vor allem das Filmen in Autos, um Handy-Nutzer:innen am Steuer zu erwi­schen. Diese Vorschrift sollte laut dem ursprünglichen Entwurf sogar mit Drohnen umgesetzt wer­den.

Die sächsische Datenschutzbeauftragte Juliane Hundert hielt das für „offensichtlich verfas­sungswidrig“ und sprach von einer „auf der Hand liegenden Unverhältnismäßigkeit“. Ihrer Empfeh­lung nach einer ersatzlosen Streichung folgte die sächsische Regierung offenbar.

Außerdem setzte die SPD durch, dass Palantir keinen sächsischen Auftrag für eine polizeiliche Da­tenanalyse-Plattform bekommt. Der Verzicht wird vom sächsischen Innenminister bedauert: „Der Vorsprung der Firma Palantir ist mit Händen greifbar“, sagte Schuster. Man führe Gespräche mit anderen Anbietern. Laut Kostenplanung im Entwurf rechnet die Staatsregierung mit einer zentralen Bereitstellung durch den Bund, an der man sich dann finanziell beteiligt.

Das 3-Stufen-Modell der polizeilichen Datenanalyse

Weiterhin enthalten ist die Vorschrift, die ermöglichen soll, dass die Polizei eine Plattform zur automatisierten Datenanalyse nutzt. Inzwischen findet sich im Entwurf dafür ein 3-Stufen-Modell.

Auf der ersten Stufe steht ein einfacher Datenabgleich, bei dem jede:r Polizist:in personenbezogene Daten in den Beständen der Polizei Sachsen suchen kann. Ausgenommen sind Biometrie-Daten, personenbezogene Da­ten von Unbeteiligten aus der Vorgangsbearbeitung sowie Daten aus der Wohnraumüberwachung.

Auf der nächsten Stufe folgt die Befugnis, Daten zur Gewinnung neuer Erkenntnisse automatisiert zusammenzuführen und auszuwerten. Voraussetzung ist ein drohender erheblicher Angriff auf den Staat oder Leib, Leben oder Freiheit einer Person. Für drohende terroristische Straftaten liegt die Gefahrenschwelle niedriger. Anordnen dürfen diese Art der Datenanalyse nur hochrangige Polizist:innen, wie etwa die Präsidentin einer Polizeidi­rektion.

Polizeidaten fürs KI-Training – auch ohne Pseudonymisierung

Nur bei der dritten und letzten Stufe muss die Polizei eine richterliche Erlaubnis einholen. Diese Stufe umfasst den Einsatz von „selbstler­nender KI“ sowie die Bildung von Verhaltensprofilen.

Nach wie vor plant die Staatsregierung, der Polizei auch das Training und Testen von eigenen KI-Anwen­dungen mit echten Polizeidaten zu erlauben. Erlaubt ist außerdem die Weiter­gabe personenbezogener Daten an Drittanbieter, die mit der Polizei zusammenarbeiten.

Vorausset­zung dafür ist, dass die Anonymisierung und Pseudonymisierung sowie die Verarbeitung bei der Polizei „nur mit unverhältnismäßigen Aufwand möglich“ ist. Auch diese Vorschrift wurde, trotz Kritik von der SPD-Fraktion und der Opposition, im Vergleich zum letzten Entwurf aus dem Herbst kaum angepasst.

Gesichtersuche im Netz – im Einklang mit der KI-Verordnung?

Auch der „Klette-Paragraf“, wie ihn Armin Schuster nennt, hat im Gesetzesentwurf weiterhin Bestand. Die RAF-Terro­ristin Daniela Klette war bis zu ihrer Festnahme 2024 mehrere Jahrzehnte untergetaucht. Den­noch fanden zwei Journalisten im Dezember 2023 Hinweise auf Klettes Aufenthaltsort über die Ge­sichtersuchmaschine PimEyes. „Diese Blamage darf so nie wieder passieren“, betonte Schuster in der Pressekonferenz.

Dieser biometrische Abgleich von Gesichtern und Stimmen mit Internetdaten wurde trotz viel Kritik kaum angepasst. Die Polizei soll nun lediglich nach Opfern und potenziellen Täter:innen suchen dürfen.

Doch es gibt Zweifel, ob die von Innenminister Armin Schuster als „Klette-Paragraf“ bezeichnete Vorschrift grundsätzlich mit der KI-Verordung der EU in Einklang zu bringen ist.

Laut einem Gutachten von AlgorithmWatch ist es technisch nicht umsetzbar, frei verfügbare Bilder aus dem Internet für einen Abgleich praktikabel durchsuchbar zu machen, ohne eine Datenbank die­ser Bilder zu erstellen. Das verbietet die KI-Verordnung.

Das sächsische Innenministerium rechtfertigt die Pläne auf Anfrage von netzpolitik.org damit, dass das Gutachten auf die Erstellung einer anlassunabhängigen Datenbank abziele, das vorgeschlagene Gesetz aber „auf den anlassbezogenen Auftragsbereich der Gefahrenabwehr“ fokussiere.

Das Innenministerium schreibt weiter:

Zu OSINT-Recherchen werden sowohl Sachbearbeiter als auch Tools eingesetzt, die sich der grundsätzlichen Datenbankstruktur des Internets bedienen und keine polizeieigene Datenbank für alle Informationen des Internets erstellen. Die Methodik hält sich an die von den Informationsan­bietern gesetzten Grenzen. OSINT-Recherchen sind für einen anlassbe­zogenen Lichtbildvergleich mit Bildern aus dem Internet rechtmäßig unter Wahrung der DSGVO sowie europäischen Datenschutzrichtlinien.

Tatsächlich aber ist es laut KI-Verordnung unerheblich, ob die Polizei selbst eine anlassunabhängige Datenbank mit allen Bildern erstellt oder eine von Drittanbietern nutzt. Konkret verbietet die Verordnung in Ar­tikel 5 (1e) „das Inverkehrbringen, die Inbetriebnahme […] oder die Verwendung von KI-Systemen, die Datenbanken zur Gesichtserkennung durch das ungezielte Auslesen von Gesichtsbildern aus dem Internet oder von Überwachungsaufnahmen erstellen oder erweitern“.

Videoüberwachung mit Mustererkennung

Auch Verhaltensscanner und Gesichtserkennung in der Videoüberwachung sind weiterhin vorge­sehen. Die Verhaltensscanner sollen Beamt:innen alarmieren, wenn die Software auf den Kamerabildern Bewegungsmuster erkennt, die auf Waffen, gefährliche Gegenstände oder die Begehung einer Straftat hindeuten. Die Beamt:innen sollen dann überprüfen, ob die Software zurecht angeschlagen hat. Sie können daraufhin auch eine auto­matisierte Nachverfolgung des vermeintlich gefährlichen Menschen durch die verschiedenen Kame­ras in die Wege leiten.

Diese Form der Überwachung soll prinzipiell nicht nur an allen Kriminalitätsschwerpunkten möglich sein, sondern etwa auch in Straßenbahnen und Bus­sen, wenn die Polizei annimmt, dass dort künftig Straftaten begangen werden.

Obwohl die SPD-Fraktion sich explizit gegen diese Vorschrift aussprach, ist auch die Möglichkeit eines Live-Gesichtsscans im Gesetzentwurf enthalten. Eingeschränkt wurde hier nur die Menge an Menschen, nach denen die Po­lizei suchen darf, nämlich nach Terrorverdächtigen sowie vermissten Menschen und Opfern von Entführungen und Menschenhandel.

Diese „Echtzeit-biometrische Fernidentifizierung“ muss von Richter:innen angeordnet werden, die auch Umfang und Dauer der Maßnahme absegnen müssen. Obwohl also prinzipiell alle gescannt werden, die durch das Kamerabild laufen, soll die Software nur nach einzelnen Menschen suchen.

Völlig unverändert: Staatstrojaner, Kennzeichenscan und Bodycams

Bei anderen Befugniserweiterungen hat sich nichts verändert.

Der Bodycam-Einsatz in Wohnungen soll weiterhin erlaubt werden. Auch der Einsatz von Staats­trojanern zur Gefahrenabwehr im Rahmen der Quellen-TKÜ soll möglich sein. Der Innenminister wollte zudem die verdeckte Online-Durchsuchung von Computern einführen, hat das aber nicht „durchgekriegt“, wie er bei der Presse­konferenz freimütig zugab. Auch die CDU-Fraktion macht Druck.

Nach wie vor ist das verdeckte automatisierte Scannen von Auto-Kennzeichen geplant. Diese Überwachungsmaßnahme soll in grenznahen Regionen erfolgen. Das Innenministerium begründet die Maßnahme explizit mit der Su­che nach Autodieben und gestohlenen Fahrzeugen. Der verdeckte Scan ist bis zu 30 Kilometer vor der Grenze zu Tschechien oder Polen erlaubt. Das entspricht etwa der Hälfte der Fläche Sach­sens.

Bei den Tasern gibt es einen Kompromiss. SPD- und BSW-Fraktion plädierten auf eine gestaffelte Einführung. Die Staatsregierung schafft nun zwar die Rechts­grundlage, um alle Polizist:innen damit auszustatten. Über die nächsten drei Jahre sollen allerdings nur 120 Stück angeschafft werden. Außerdem ist eine verpflichtende Evaluation im Jahr 2029 vorgesehen.

Minority Report und chinesische Verhältnisse

Auch wenn die Minderheitskoalition den Entwurf im Vergleich zur vorherigen Version in Details verändert hat, bleibt es bei einer massiven Erweiterung der Polizeibefugnisse. Der Dresdener Chaos Computer Club (C3D2) kriti­siert das: „Die Landesregierung will klassische Mittel der Strafverfolgung auf Landesebene einfüh­ren und verschiebt damit die rechtliche Grenze der behördlichen Befugnisse: Gefahrenabwehr ist Sache des Landes, Strafverfolgung des Bundes.“ Als Beispiel nennen sie die Staatstrojaner, deren Einsatz bundesweit durch die Strafprozessordnung geregelt ist.

Der Verein erinnert in seiner Mitteilung an dystopische Welten wie „Minority Report“, in denen Predictive-Policing die Unschuldsvermutung ersetzt. „Sicherheitsbehörden bauen derzeit solche Systeme aus, ungeachtet der juristischen Grenzen und gesellschaftlichen Folgen für die Demokratie und individuelle Freiheiten.“

Der C3D2 warnt insbesondere vor der Einführung ei­ner Plattform zur automatischen Datenanalyse. Diese sei „moderne Rasterfahndung mit Vorhersage­funktion“, so die Sprecherin weiter. „Ob es Palantir wird oder eine andere vergleichbare Lösung, ist letztendlich egal. Solche Systeme funktionieren in der Regel nur, wenn sie an möglichst viele Sensoren und Datenbanken an­geschlossen sind“, heißt es in der Mitteilung. Die Einführung einer solchen Software öffne die Büchse der Pandora.

„Der Chaos Computer Club sieht die Novelle des Sächsischen Polizeigesetzes als einen erneuten Angriff auf die informationelle Selbstbestimmung, die rechtsstaatlich gebotene Gewaltenteilung sowie als Gefahr für eine offene und demokratische Gesellschaft.“

Aus dem Landtag kommt die schärfste Reaktion von der Fraktion Bündnis 90/Die Grünen: „Der massive Einsatz von KI zu Überwachungszwecken, die intelligente Videoüberwachung und die Möglichkeit des Daten­abgriffs aus dem Internet sind keine Lappalien, sondern schwerwiegende Eingriffe in die Bürger­rechte aller Menschen in Sachsen“, sagte der innenpolitische Sprecher der Grünen-Fraktion, Va­lentin Lippmann. Er wiederholte seine Kritik aus dem Herbst, wonach sich der Entwurf eher an chinesischen Überwachungsfantasien orientiere als an dem Grundgesetz.

Grüne und Linke scheiden als Mehrheitsbeschaffer aus

Die Linksfraktion äußerte sich in einer ersten Mitteilung zurückhaltender und verwies darauf, den aktuellen Entwurf noch nicht zu kennen. In der Vergangenheit hatte auch sie die geplanten Befugnisse für die automatisierte Datenanalyse, verdeckte Kennzeichenerkennung und biometrische Suche im Internet zurückgewiesen.

Aufgrund der Mehrheitsverhältnisse im Landtag und die klare Ablehnung der Grünen ist die Positi­on der Linken für die Staatsregierung aber nicht entscheidend. Der schwarz-roten Minder­heitskoalition fehlen zehn Stimmen. AfD (40) und Bündnis Sahra Wagenknecht (15) können den Entwurf durch ihre alleinige Zustimmung über die Ziellinie bringen, Grüne (7) und Linke (6) müssten hingegen gemeinsam mit der Minderheitskoalition votieren.

AfD nicht konstruktiv, BSW sieht noch Änderungsbedarf

Eine Zusammenarbeit mit der AfD haben CDU und SPD in ihrem Koalitionsvertrag ausgeschlossen. Die AfD hat keine Stellungnahme im Konsultationsprozess abgegeben. Als einzig verbleibende Option bleibt der Koalition damit das BSW.

Dessen innenpolitischer Sprecher Bernd Rudolph kündigte Anpassungen im parlamentarischen Ver­fahren an. Besonders bei den Themen automatisierte Datenanalyse, Training von KI-Systemen mit Polizeidaten und Tasern sieht die BSW-Fraktion noch Änderungsbedarf. „Der vorliegende Gesetz-Entwurf enthält sinnvolle Modernisierungen, aber auch gefährliche Überdehnungen.“ Man wolle ein Polizeigesetz, das wirksam schützt, aber nicht überwacht.

Die Uhr tickt

Viel Zeit für Änderungen im Parlament bleibt indes nicht mehr. Wegen eines Urteils des Verfassungsge­richtshofs laufen einige Polizeibefugnisse aus dem aktuellen sächsischen Polizeigesetz bald aus. Grüne und Linke hatten gegen das Gesetz geklagt, der sächsische Verfassungsgerichtshof gab ihnen in Teilen recht und setzte für manche Polizeibefugnisse eine Frist: Bis zum 30. Juni braucht es eine neue Regelung, sonst laufen sie aus.

Den Fraktionen verbleiben damit noch gut vier Monate für den ge­samten parlamentarischen Prozess.

Grüne und Linke kritisie­ren die Regierung für den engen Zeitplan. Selbst Innenminister Schuster räumt ein, dass der Land­tag „jetzt nicht komfortabel“, aber ausreichend Zeit habe. Man habe das durchgerechnet, versicherte Schuster.

Geplant ist, das Gesetz am 24. Juni im Plenum zu beschließen. Damit das alles zeitlich klappt, wurde eine Sondersitzung des Innenausschusses angesetzt. Bereits am 27. März steht die Sachver­ständigenanhörung im Landtag an.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Interview zu Personenkennzeichen: „Den gläsernen Bürger nicht nur rechtlich, sondern auch technisch verhindern“

26. Februar 2026 - 13:48

Während die Bundesregierung behördenübergreifend eine lebenslang gültige Personenkennzahl einführen will, geht das Nachbarland Österreich einen anderen Weg. Warum dieser mehr Datenschutz verspricht, ohne die Verwaltungsdigitalisierung zu behindern, erläutert die österreichische Juristin Heidi Scheichenbauer im Gespräch.

Die österreichische Verwaltung nutzt eine Art Einweg-Kennzeichen, das den den „gläsernen Bürger“ verhindern soll. – Alle Rechte vorbehalten IMAGO / Zoonar

Seit Jahren wird in Deutschland über die sogenannte steuerliche Identifikationsnummer diskutiert. Die Steuer-ID soll es Behörden erleichtern, untereinander Daten auszutauschen, indem sie als zentraler Bezugspunkt für unterschiedliche Register dient. Die ID ist lebenslang gültig, alle Bürger:innen erhalten sie vom Bundeszentralamt für Steuern bei Geburt.

Jurist:innen und Datenschützer:innen kritisieren eine solche Personenkennzahl unter anderem mit Bezug auf das Volkszählungsurteil des Bundesverfassungsgerichts als verfassungswidrig. Bei der Einführung der Steuer-ID im Jahr 2007 wurden Bedenken von Datenschützer:innen als „konstruierter Erregungszustand“ weggewischt, nur um dann 13 Jahre später genau das zu tun, wovor diese gewarnt hatten. Damals plante die Große Koalition unter Angela Merkel (CDU), die Steuer-ID dazu zu nutzen, um Verwaltungsdaten zusammenzuführen. Die Ampelkoalitionäre folgten trotz früherer Kritik diesem Konzept und auch die schwarz-rote Bundesregierung hält an diesem Plan fest.

Heidi Scheichenbauer - Alle Rechte vorbehalten Andreas Czák

Österreich hat bereits vor einigen Jahren einen anderen Weg eingeschlagen und das bereichsspezifische Personenkennzeichen (bPK) eingeführt. Sie ist eine Art Einweg-Kennzeichen, das für unterschiedliche Verwaltungsbehörden angepasst wird. Die bPK verspricht so einen höheren Datenschutz und steuerbare Hürden gegen behördenübergreifende Profilbildung – ohne eine effektive Verwaltungsdigitalisierung zu behindern.

Wir haben mit Heidi Scheichenbauer über das bereichsspezifische Personenkennzeichen gesprochen. Sie ist Senior Researcher und Senior Consultant am Research Institute – Digital Human Rights Center. Als Juristin forscht und lehrt sie zu künstlicher Intelligenz in der Verwaltung, Datenschutz im Non-Profit-Sektor und Plattformregulierung.

„Best-Practice-Beispiel“ aus Österreich

netzpolitik.org: In Deutschland geht es in der Debatte um Verwaltungsmodernisierung viel darum, Datensilos aufzubrechen. Österreich will diese möglichst aufrechterhalten. Warum ist das so?

Heidi Scheichenbauer: Tatsächlich haben wir in Österreich ein Best-Practice-Beispiel dafür, wie sich Daten in der Verwaltung datenschutzoptimiert verarbeiten lassen. Wir bauen eine digitale Verwaltung auf und verhindern zugleich den sprichwörtlichen „gläsernen Bürger“.

Bevor die Bundesregierung ein bundesweit einheitliches Personenkernzeichen einführt, sollte sie einen Blick auf ihr kleines Nachbarland werfen. Unsere Erfahrungen zeigen, dass Privacy by Design auch in diesem Bereich möglich ist.

netzpolitik.org: Wie kam es dazu?

Heidi Scheichenbauer: Im Jahr 2001 gab es in Österreich eine Volkszählung. Damals wurden sehr viele Daten über die Bevölkerung gesammelt und das erste Mal ein zentrales Melderegister auf Bundesebene eingerichtet.

Dieses Zentrale Melderegister (ZMR) enthielt eine Vielzahl an personenbezogenen Daten. Darunter den Namen, das Geschlecht, das Geburtsdatum, die Staatsangehörigkeit. Das allein ist datenschutzrechtlich schon sehr kritisch. Und dann vergab das ZMR allen Bürger:innen auch noch einen bundesweiten Identifikator, die sogenannte Stammzahl. Viele fürchteten damals, dass damit der gläserne Bürger geschaffen wird.

Man hat sich daher einen Weg überlegt, wie man dieses Datenschutzthema adressieren kann – und schuf die bereichsspezifischen Personenkennzeichen, kurz: bPK. Diese Personenkennzeichen beruhen auf der Stammzahl, sind aber für jeden Verwaltungsbereich anders.

Also hat eine Bürgerin zum Beispiel beim Finanzamt ein eigenes bPK, für die Sozialversicherung ist es ein anderes. Und die eine Behörde kann mit dem Kennzeichen, das ihr vorliegt, keine sinnvollen Anfragen bei einer anderen Behörde stellen.

Eine Nummer, sie alle zu finden

Eine heikle Sache

netzpolitik.org: Eine bemerkenswerte Wende. Normalerweise wecken viele Daten auch viele Begehrlichkeiten.

Heidi Scheichenbauer: Es gab damals ein Bewusstsein dafür, dass die Daten im Zentralen Melderegister und die Verwendung eines einheitlichen Identifikators eine heikle Sache sind.

Bei der Einführung hagelte es daher Kritik an den geplanten Neuerungen. Bemängelt wurde unter anderem die mögliche Verknüpfung der vorliegenden Daten mit dem „Ursprungskennzeichen“, also der ZMR-Zahl. Denn damit ist eine behördenübergreifende Identifizierung einer bestimmten Person möglich.

Weiters wurde vorgebracht, dass das Kennzeichen eine Verknüpfung mit anderen individuellen Datensätzen ermögliche, beispielsweise aus der Einkommens- oder Volkszählungsstatistik.

Daten können – das zeigt auch der österreichische Postdatenskandal – sehr viel über das eigene Leben preisgeben, vom Wohnsitz bis zur vermuteten politischen Einstellung. Und dann wird auch klar, wie sehr man mit diesen Daten Menschen diskriminieren und manipulieren kann.

Ein Einweg-Kennzeichen für die Verwaltung

netzpolitik.org: Wie wird das bereichsspezifische Personenkennzeichen erzeugt?

Heidi Scheichenbauer: Es beruht auf der ZMR-Zahl, die im Zentralen Melderegister alle gemeldeten Personen erhalten. Aus ihr wird mit Hilfe eines Verschlüsselungsverfahrens die individuelle Stammzahl abgeleitet. Aus dieser Stammzahl wird dann für die jeweiligen Verwaltungsbereiche einzelne Ableitungen erzeugt.

netzpolitik.org: Erhält jede Behörde automatisch eine bPK für jede:n Bürger:in?

Heidi Scheichenbauer: Nein, nicht automatisch. Teilweise müssen die Behörden dafür zunächst bei der Stammzahlenregisterbehörde einen Antrag stellen, manchmal sogar ganz klassisch per Online-Formular. Bei dem Vorgang müssen Beamt:innen angeben, in welchem Verwaltungsbereich sie tätig sind. Es gibt aktuell rund 30 Tätigkeitsbereiche.

netzpolitik.org: Es gibt also für jede:n Bürger:in je nach Verwaltungsbereich individuelle Einwegskennzahlen. Das klingt recht aufwendig. Hat sich das im Alltag bewährt?

Heidi Scheichenbauer: Auf jeden Fall. Denn die Behörden können so nicht ohne weiteres behördenübergreifende Verarbeitungstätigkeiten vornehmen und damit auch kein Profiling betreiben.

Dafür sorgt auch eine Bereichsabgrenzungsverordnung, die unterschiedliche Verwaltungsbereiche voneinander trennt. Auch dem ging eine politische Diskussion voraus: Was gehört alles zu Steuern und Abgaben, was zu anderen Bereichen.

Auch diese Trennung soll den gläsernen Bürger verhindern. Nicht nur rechtlich, sondern eben auch technisch.

Strikte Trennung innerhalb der Verwaltung

netzpolitik.org: Wie kann eine Behörde denn mit anderen Behörden Daten austauschen?

Heidi Scheichenbauer: Das kann sie auf dem Wege der Amtshilfe tun. Es gibt auch die Möglichkeit, verschlüsselte bereichsspezifische Personenkennzeichen zu beziehen und dann so zu kommunizieren. Aber grundsätzlich ist das gesetzlich sehr strikt getrennt.

Das österreichische E-Government-Gesetz schreibt vor, dass zusammengehörige Lebenssachverhalte in ein und demselben Bereich zusammengefasst werden und dass miteinander unvereinbare Datenverarbeitungen innerhalb desselben Bereichs nicht vorgesehen sind.

netzpolitik.org: In der deutschen Debatte gibt es hingegen das Bestreben, Daten zusammenzuführen, weil die Verwaltung dann angeblich effizienter arbeiten könne. Gibt es eine ähnliche Debatte in Österreich?

Heidi Scheichenbauer: Auf der politischen Ebene haben wir aktuell keine Diskussion dahingehend, dass das bPK-System infrage gestellt wird. Es hat sich gut eingespielt und auch bewährt. In den vergangenen Jahren gab es auch keine politischen Bestrebungen, das System zu verändern. Auch Datenpannen oder Missbrauchsfälle gab es nicht. Zumindest keine, die öffentlich bekannt wurden.

Eine hundertprozentige Sicherheit gibt es, wie so oft im Leben, nicht. Die Privacy-by-Design-Maßnahmen verhindern hier aber tatsächlich sehr effektiv einen ansonsten prinzipiell möglichen Missbrauch.

netzpolitik.org: In Deutschland gilt die Devise, die Daten in einen großen Pool zu geben und den Behördenzugriff rechtlich zu regulieren. Ist das österreichische Modell aus deiner Sicht sicherer?

Heidi Scheichenbauer: Das ist ohne Zweifel sicherer, weil die meisten Risiken für die betroffenen Personen schon in der technischen Gestaltung signifikant gemindert werden. Es werden nämlich kryptografische Verfahren angewendet, die nicht umkehrbar sind. Von bPKs kann somit nicht mehr auf die Stammzahl zurückgerechnet werden. Das ist mathematisch schlicht nicht möglich.

Und auch organisatorisch ist das Zentrale Melderegister ein Ort, der sehr gut abgesichert ist, wie ich auch aus persönlicher Erfahrung weiß. Ich hatte vor vielen Jahren aus beruflichen Gründen einen Termin bei einem Dienstleister der Stammzahlenregisterbehörde. Damals machte ich die Erfahrung, dass man in das betreffende Gebäude nur sehr schwer hineinkommt.

Digitale Identitäten und künstliche Intelligenz

netzpolitik.org: In Österreich gibt es seit einigen Jahren die ID Austria. Zum Ende dieses Jahres soll in allen EU-Mitgliedstaaten die ID-Wallet starten. Welche Auswirkungen hat das auf die bPK?

Heidi Scheichenbauer: Die ID Austria ist ein digitaler Identitätsnachweis. Ich kann mich damit also gegenüber dem Finanzamt und dem Wohnungsamt ausweisen. Dadurch könnten theoretisch behördenübergreifende Profile erstellt werden. Doch es gibt Schutzmaßnahmen, die das verhindern sollen.

So müssen personenbezogene Daten pseudonymisiert und innerhalb bestimmter Fristen gelöscht werden. Die Daten dürfen außerdem, soweit es notwendig ist, nur von bestimmten Stellen verarbeitet oder übermittelt werden. Und sie unterliegen strengen Zugriffsrechten. Im Gegensatz zu den geplanten ID-Wallets der EU sieht die ID Austria gesetzlich sowohl gegenüber Behörden als auch privaten Einrichtungen einen strengen Akkreditierungsprozess unter anderem zur Sicherstellung der Datenminimierung, also des „minimal data set“ bei jeder Anwendung vor. An dem bestehenden System der bPK rüttelt die ID Austria also nicht.

netzpolitik.org: Der Einsatz von sogenannter Künstlicher Intelligenz wird mit Blick auf Verwaltungsdaten ebenfalls diskutiert. Gerade in der Sozialverwaltung gibt es Bestrebungen, Sprachmodelle mit den dort hinterlegten Daten zu trainieren. Gibt es ähnliche Debatten auch in Österreich?

Heidi Scheichenbauer: Durchaus und meist gilt das Datenschutzrecht dann als böse, weil es derartiges verhindere. Die österreichischen Verwaltungseinrichtungen äußern ihren Unmut vor allem über den Datenschutz, als dass sie nach Lösungen suchen. Dabei könnten sie etwa darüber nachdenken, wie KI-Training mit anonymen Daten möglich wäre. Das ist alles aber auch noch sehr im Fluss.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Protestbrief gegen Registrierungspflicht: Google gefährdet freie Installation von Android-Apps

26. Februar 2026 - 11:57

Nach Meinung großer Digitalorganisationen aus der ganzen Welt versucht Google mit einer neuen Registrierungspflicht für Android-Entwickler:innen, seine Marktposition im Mobile-Bereich auszubauen. Das gehe zu Lasten der Freiheit all derer, die beim Handy auf Google verzichten wollen.

Google möchte das Android-Ökosystem mehr unter seine Kontrolle bringen. (Symbolbild) – Gemeinfrei-ähnlich freigegeben durch unsplash.com Madeline Liu

Google hat angekündigt, dass sich alle Entwickler:innen von Android-Apps zentral bei Google registrieren müssen, damit ihre Anwendungen auf Android-Geräten installiert werden können. Das soll auch für solche Apps gelten, die über alternative App-Stores oder als direkte Downloads verfügbar sind. Die Registrierungspflicht soll laut Google böswillige Akteure abschrecken und die Verbreitung schädlicher Apps erschweren. Im September 2026 soll sie in den ersten Ländern wirksam und 2027 weltweit ausgerollt werden.

Nach ersten Protesten schien Google einzulenken, die Änderungen sind jedoch eher kosmetisch und das weitere Vorgehen laut Kritikern intransparent.

Eine breite Allianz von Organisationen aus der Zivilgesellschaft sowie gemeinnützigen Einrichtungen und Technologieunternehmen wehrt sich jetzt mit einer Protestnote und einer Kampagne gegen diese Pläne. Unterzeichnet haben nicht nur namhafte Organisationen wie die Free Software Foundation, der Chaos Computer Club und die EFF, sondern auch der alternative App-Store F-Droid sowie die Unternehmen Proton oder Tuta. Im Brief heißt es:

Die zwangsweise Einführung eines fremden Sicherheitsmodells, das der historischen Offenheit von Android zuwiderläuft, gefährdet Innovation, Wettbewerb, Datenschutz und die Freiheit der Nutzer. Wir fordern Google dringend auf, diese Richtlinie zurückzuziehen und gemeinsam mit der Open-Source- und Sicherheits-Community an weniger restriktiven Alternativen zu arbeiten.

Nutzung von Handys ohne Google in Gefahr

Das Betriebssystem Android erlaubt bislang, im Gegensatz zu Apples iOS, dass die Nutzer:innen Apps abseits von Googles App-Store in alternativen Stores oder einfach als Software von Webseiten herunterladen und installieren können. So war es möglich, dass die Nutzer:innen das System auch unabhängig von Google-Diensten nutzen konnten. Dieses Prinzip sehen die Kritiker nun in Gefahr:

Die vorgeschlagene Entwicklerregistrierungsrichtlinie verändert diese Beziehung grundlegend, indem sie Entwickler, die Apps über alternative Kanäle […] vertreiben möchten, dazu verpflichtet, zunächst die Genehmigung von Google durch einen obligatorischen Verifizierungsprozess einzuholen, der die Zustimmung zu den Nutzungsbedingungen von Google, die Zahlung einer Gebühr und das Hochladen eines amtlichen Ausweises umfasst.

Damit erweitere Google seinen großen Einfluss über den eigenen Marktplatz hinaus auf Vertriebskanäle, in denen der Konzern keine legitime operative Rolle spiele, so die Kritik. Weiter heißt es: „Die Zentralisierung der Registrierung aller Anwendungen weltweit gibt Google außerdem neue Befugnisse, jede beliebige App aus beliebigen Gründen für das gesamte Android-Ökosystem vollständig zu deaktivieren.“

Das Bündnis fürchtet zudem Barrieren für den Marktzugang, zum Beispiel von kleinen Teams mit begrenzten Ressourcen oder von Aktivist:innen, die in ihren Ländern verfolgt und kriminalisiert werden. Vor dem Hintergrund, dass Google auf Druck der US-Regierung in jüngster Vergangenheit zum Beispiel Apps gegen die Migrationstruppe ICE aus dem Store nahm, sind solche Bedenken nachvollziehbar. Die Registrierungspflicht könnte solche Maßnahmen über den App-Store hinaus ermöglichen.

Pläne stärken Googles Macht und Wettbewerbsposition

Weitere Bedenken beziehen sich auf Datenschutz und Überwachung: Durch die Registrierungspflicht entstehe bei Google eine umfassende Datenbank aller Android-Entwickler:innen, unabhängig davon, ob sie die Dienste von Google nutzen oder nicht. Zudem ergäben sich durch das Verfahren Risiken wie eine Kontoschließung, so die Kritiker:innen.

Bestehende App-Prüfungsverfahren von Google seien schon heute wegen undurchsichtiger Entscheidungsfindung, inkonsistenter Durchsetzung und begrenzter Beschwerdemechanismen in der Kritik. Die Ausweitung dieses Systems auf Apps für alle Android-zertifizierten Geräte berge deswegen Risiken, unter anderem willkürliche Ablehnungen von Apps oder den Einfluss von politischen oder wettbewerbsbezogenen Erwägungen, welche die Registrierungsgenehmigungen beeinflussen könnten.

Die neue Richtlinie ermögliche Google zudem Einblicke in den Wettbewerb. Diese Informationsasymmetrie verschaffe Google erhebliche Wettbewerbsvorteile, ermögliche es dem Unternehmen, konkurrierende Produkte und Dienste zu vereinnahmen, zu kopieren und zu untergraben, und kann viele Fragen zum Kartellrecht aufwerfen, so der Protestbrief.

Die Unterzeichnenden fordern deswegen Google auf, die obligatorische Registrierung für den Vertrieb durch Dritte unverzüglich aufzuheben. Das Unternehmen solle einen transparenten Dialog mit der Zivilgesellschaft, Entwickler:innen und Regulierungsbehörden über Verbesserungen der Android-Sicherheit zu führen sowie Offenheit und Wettbewerb respektieren. Die Initiative hat zudem eine Petition gestartet, um die Forderungen zu untermauern.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Niedersächsisches Polizeigesetz: Diese KI soll prüfen, ob du artig bist – und dich identifizieren, wenn nicht

26. Februar 2026 - 9:15

Niedersachsen folgt dem bundesweiten Trend in Richtung Sci-Fi-Überwachung. Im neuen Polizeigesetz sind neben der Datenanalyse nach Palantir-Art auch Verhaltensscanner und Live-Gesichtserkennung vorgesehen. Heute findet eine Anhörung im Innenausschuss zu dem massiven Überwachungsausbau statt.

So sieht es aus, wenn ein Verhaltensscanner analysiert, was Menschen tun. – Alle Rechte vorbehalten Polizeipräsidium Mannheim, Fraunhofer IOSB

Niedersachsen will der Polizei Datenanalyse nach Palantir-Art erlauben. Sie soll künftig Informationen zu verschiedenen Fällen verknüpfen und mit sogenannter KI aufbereiten können. In die Analyse dürfte auch einfließen, wer mit wem wann von wo aus kommuniziert. Außerdem der Inhalt von beschlagnahmten oder mit Staatstrojanern infizierten Telefonen sowie Audio- und Video-Material, das heimlich in Wohnungen aufgenommen wurde.

Die entsprechende Novelle des niedersächsischen Polizeigesetzes beinhaltet noch weitere tief invasive Überwachungsbefugnisse. Sie würde die polizeiliche Kontrolle in dem Bundesland drastisch verschärfen. Heute findet dazu eine Anhörung im Innenausschuss des Landtages statt.

Die Regierungskoalition aus SPD und Grünen hat dabei so ziemlich alles auf dem Wunschzettel, was nach futuristischer Polizeiarbeit klingt. Neben den Datenanalysen beispielsweise auch Live-Gesichtserkennung wie sie derzeit in Frankfurt am Main erprobt wird, oder den Verhaltensscanner, den Mannheim und Hamburg gerade trainieren. Zudem im Gesetz enthalten: der Abgleich biometrischer Daten wie Gesichtsbilder oder Stimmproben mit öffentlich zugänglichen Informationen aus dem Internet.

Unausgereifte Überwachungsmaßnahmen

Bislang wird eine derartige Gesichtersuchmaschine noch von keiner deutschen Behörde eingesetzt, wohl auch, weil der EU-AI-Act die dafür nötige Datenbank eigentlich verbietet. Auch der Verhaltensscanner ist noch nicht ausgereift. Die Mannheimer Polizei kann keinen einzigen Fall nennen, in dem er zu einem Ermittlungserfolg führte. Und die Frankfurter Gesichtserkennung hat bislang scheinbar nur einen anekdotischen Erfolg abgeworfen.

Niedersachsen will die Tools dennoch erlauben. Die Stadt Delmenhorst hat bereits angekündigt, KI-gestützte Videoüberwachung einführen zu wollen.

Laut Gesetzentwurf ist es auch nicht ausgeschlossen, die drei unterschiedlichen Systeme zusammenzuführen: Demnach ist es möglich, dass in Niedersachsen bald eine sogenannte KI die Bilder von Überwachungskameras in Echtzeit daraufhin untersucht, ob gerade eine mutmaßliche Straftat zu sehen ist, beispielsweise Körperverletzung oder ein Drogendeal. Wird eine vermutete Straftat gesichtet, könnte eine Software daraufhin die tatverdächtige Person identifizieren. Und zwar nicht nur mit Hilfe von Polizeidatenbanken, sondern auch anhand von Bildern oder Videos, die Menschen ins Netz gestellt haben, beispielsweise auf eine Social-Media-Plattform oder eine Nachrichtenseite.

Das in der Polizeigesetznovelle beschriebene multiple KI-System ermöglicht eine Strafverfolgung, die Polizeibeamt*innen eigentlich nur noch für die Festnahme braucht. Es gewährt der Technologie extremen Einfluss auf die Schicksale von Menschen. Betroffen von dem massiven Grundrechtseingriff, der damit einhergeht, sind nicht nur mutmaßliche Täter*innen, sondern alle Passant*innen, weil die KI alle Bewegungen und alle Gesichter analysiert, um die von der Polizei gesuchten herauszufiltern.

Die Hürden sind niedrig

Die Hürden für eine Videoüberwachung und darauf aufbauende KI-Systeme sind in Niedersachsen bereits heute relativ niedrig. Dass Kameras dauerhaft öffentlich zugängliche Straßen und Plätze filmen, ist dann erlaubt, wenn in einem Areal wiederholt Straftaten oder „nicht geringfügige Ordnungswidrigkeiten“ begangen werden. Das heißt, es braucht nicht wie in anderen Bundesländern eine hohe Kriminalitätsbelastung, sondern es reicht theoretisch, wenn dort wenige Fälle erfasst werden, damit ein Areal dauerhaft videoüberwacht werden kann. Bei der Videoüberwachung von Veranstaltungen reicht schon die Prognose möglicher Straftaten zur Legitimation.

Mit der Live-Gesichtserkennung dürfte die Polizei dem Gesetzentwurf zufolge nicht nur nach Straftätern fahnden, sondern auch nach Menschen, bei denen die Polizei annimmt, dass sie die körperliche Unversehrtheit anderer gefährden könnten. Zudem darf das System auch auf vermisste Personen sowie Opfer von sexueller Ausbeutung, Entführung oder Menschenhandel angesetzt werden. Normalerweise muss die Polizei jedes Mal einen Richter fragen, ob sie eine bestimmte Person zur automatisierten Fahndung ausschreiben darf, bei „Gefahr im Verzug“ allerdings nicht.

Der Verhaltensscanner dürfte derweil nicht nur Straftaten erkennen, sondern auch Muster, die auf Unglücksfälle hindeuten. Der Gesetzentwurf erlaubt also automatisierte Warnhinweise, wenn im Bild jemand liegt. Damit werden obdachlose Menschen einem erhöhten, diskriminierenden Überwachungsdruck ausgesetzt.

Verhaltens-Erkennung von der Drohne aus

Die Drastik des Polizeigesetz-Entwurfs wird noch dadurch erhöht, dass die Polizei demnach nicht nur stationäre Überwachungskameras, sondern auch Drohnen zur Videoüberwachung einsetzen darf. Diese Drohnen könnten dann auch Bilder für den Verhaltensscanner und die Live-Gesichtserkennung liefern. So könnten bei Großveranstaltungen auch Überblicksaufnahmen nach verdächtigen Bewegungsabläufen und den Gesichtern von Gesuchten durchforstet werden.

Eigentlich muss auf die Überwachung – beispielsweise mit Schildern – hingewiesen werden. Bei Drohneneinsätzen dürfte das schwierig sein, wodurch wohl viele Menschen ohne ihr Wissen zu Betroffenen derartiger Überwachungsmaßnahmen würden. Drohnen soll die niedersächsische Polizei künftig auch zum Luftkampf gegen andere, „feindliche“ Drohnen einsetzen dürfen, zur Telekommunikationsüberwachung und Standortermittlung und auch, um heimlich in Wohnungen zu filmen oder diese abzuhören.

Außerdem will die Landesregierung mit dem Gesetzentwurf Systeme erlauben, die in Videobildern nach bestimmten Gegenständen wie zum Beispiel Waffen suchen. Dabei ist das Land bislang mit der Erlaubnis von Staatstrojanern, Kennzeichenscannern, IMSI-Catchern zur Lokalisierung und Zuordnung von Telefonen, Bodycams für Polizist*innen und elektronischen Fußfesseln für potentielle Terrorist*innen alles andere als schwach aufgestellt, was digitale Maßnahmen zur Einschränkung von Grund- und Freiheitsrechten angeht.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker