«Der Staat ist eine Institution, die von Banden geführt wird, die aus Mördern, Plünderern und Dieben besteht, umgeben von willfährigen Handlangern, Propagandisten, Speichelleckern, Gaunern, Lügnern, Clowns, Scharlatanen, Blendern und nützlichen Idioten - eine Institution, die alles verdreckt und verdunkelt, was sie berührt.» (– Prof. Hans-Hermann Hoppe).
netzpolitik.org
TikTok goes MAGA: Trumps TikTok-Deal ist ein Geschenk an ihn selbst
Donald Trump gibt TikTok in die Hände seiner treuen Milliardärs-Fans. Ellison, Murdoch & Co. bekommen so Zugang zu 170 Millionen US-Handys. Für die US-Öffentlichkeit heißt das: noch mehr Propaganda, noch weniger Vielfalt. Ein Kommentar.
Der US-Präsident bei einer seiner Lieblingstätigkeiten: dem Unterzeichnen von Dekreten. – Alle Rechte vorbehalten IMAGO / MediaPunchWas der US-Präsident am Morgen sagt, kann er am Abend schon wieder leugnen. Aber nur einmal angenommen, was Donald Trump am Donnerstag über den Verkauf von TikTok an US-Investoren gesagt hat, stimmt tatsächlich und der Deal wird in den kommenden Tagen unterzeichnet: Wer hätte damit eigentlich etwas gewonnen?
Auf der Gewinnerseite stehen sicher die Tech-Milliardäre, die Trump schon im Wahlkampf finanzkräftig unterstützt haben und nun laut des US-Präsidenten zum Investorenkreis gehören werden. Larry Ellison, Gründer des Software-Unternehmens Oracle, und der Star-Investor Mark Andreesen mit seiner Investmentfirma Andreesen Horowitz sind beide Teil von Trumps engsten Zirkeln und begeisterte Pro-Trumper mit MAGA-treuen Ansichten.
Zu den „amerikanischen Patrioten“, die TikTok laut Trump übernehmen sollen, gehören außerdem Rupert Murdoch und dessen Sohn Lachlan Murdoch, Chef des US-Medienunternehmens Fox Corp. sowie der Chef von Dell, Michael Dell, der sich Trump direkt nach der Wahl zu Füßen warf.
Diese Getreuen werden vom Präsidenten nun für ihre Loyalität belohnt und dürfen sich einkaufen in die App, die die Hälfte der US-Bevölkerung auf ihrem Smartphone hat. Als Teil des Deals sollen sie auch den berüchtigten Algorithmus lizenzieren, der darüber bestimmt, was Nutzer*innen zu sehen bekommen. Diesen sollen sie „neu trainieren“ dürfen für die US-amerikanischen Sicherheitsbedürfnisse, heißt aus dem Weißen Haus. Wie das genau funktionieren soll, ist, wie so viele Details dieses Deals, noch komplett unklar. Klar ist aber: Die Regler der Informationskontrolle auf TikTok liegen künftig in den Händen der MAGA-Milliardäre.
Der Algorithmus landet bei den MAGA-OligarchenFür die vielen Millionen Nutzer*innen von TikTok in den USA bringt der Deal hingegen keinen Vorteil. Dass die App, wie eigentlich per Gesetz vorgesehen, in den USA tatsächlich aus dem Markt fliegen würde, daran hatte zuletzt wohl niemand mehr ernsthaft geglaubt. Zu oft hatte Trump die Frist für das Ende verschoben, auch wenn das Gesetz das überhaupt nicht hergab.
Die Nutzer*innen werden eine neue App herunterladen können, für deren Updates fortan ebenfalls Oracle zuständig sein soll. Ihre Daten werden, wie bereits bisher, auf Servern von Oracle in den USA gespeichert. Alles beim Alten also.
Doch was die Einflussnahme auf die Inhalte angeht, kommen Nutzer*innen maximal vom chinesischen Regen in die braune Traufe. Was sie serviert bekommen, wird in Zukunft nicht mehr aus Beijing kontrolliert, wo ByteDance und somit im Zweifel auch die chinesische Regierung an den Informationsreglern saß. Stattdessen wird ihr Medienmenü künftig von Trump-getreuen Tech-Milliardären bestimmt.
Wie das ausgehen kann, sieht man etwa an der Entwicklung der Plattform X, die bereits ein anderer Tech-Milliardär, Elon Musk, nach der Übernahme weitgehend zur rechtsradikalen Propagandaschleuder umgebaut hat. Musk brüstete sich nach der Wahl 2024 offen damit, Trump mit X den Weg ins Weiße Hause geebnet zu haben. Nun droht also der noch populäreren Plattform TikTok ein ähnliches Schicksal.
Eine solche Medienmacht ist ungesund für die DemokratieFür die Medienkonzentration in den USA ist dieser Deal ein Albtraum. Mit den Murdochs bekommen der Verleger und der Chef des Medienunternehmens hinter dem rechtskonservativen Sender Fox jetzt noch die Möglichkeit, weitere 170 Millionen Menschen mit Inhalten auf autoritärer Regierungslinie zu versorgen.
Der Sohn von Larry Ellison wiederum, David Ellison, kontrolliert als Chef des Medienunternehmens Paramount Skydance bereits den Sender CBS. Zugleich arbeitet er an einer Übernahme von Warner Bros., was ihm zusätzlich noch die Kontrolle über CNN geben würde – einem der verbleibenden medialen Widersacher von Trump. In den USA rechnen sie schon aus, wie schlimm es wird, sollte der Deal durchgehen. Ellison würde dann Streaming-Anbieter mit zusammengenommen mehr als 200 Millionen Abonnent*innen kontrollieren. Dazu kämen noch die 170 Millionen Nutzer*innen von TikTok.
Der Deal wird nicht reparieren, was an TikTok kaputt istDie Chefs von Meta, Amazon, Apple, Google und OpenAI haben alle schon freiwillig den Kniefall vor Trump gemacht. TikTok, das bisher als einzige verbleibende große Plattform nicht ganz auf Trumps Linie ausgerichtet war, hat er nun erfolgreich den nächsten willigen Oligarchen vermacht.
Nein, TikTok war nie ein Garant für Demokratie, Vielfalt und den gepflegten öffentlichen Austausch. Die Plattform verbreitete in der Vergangenheit Desinformation und rechtsextreme Propaganda, sie lässt ihre Inhaltemoderator*innen von KI ersetzen und tut nicht genug, um ihre Nutzer*innen vor Gewalt und Belästigung zu schützen. Doch die Übernahme durch rechte US-Investoren wird keines dieser Probleme lösen. Im Gegenteil.
Der größte Gewinner von allen ist damit Trump selbst, der seine Macht weiter ausbaut. Sein Einflussbereich ist nun nicht nur bei klassischen Medien im Aufwind, auch bei den sozialen Medien kann er auf noch mehr algorithmische Rückendeckung setzen. Für die in den USA einst so hochgehaltene Meinungsfreiheit und die Medienvielfalt verheißt das nichts Gutes. Der TikTok-Deal ist damit vor allem ein Geschenk von Trump an sich selbst.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Stuttgart: Bündnis plant Demonstration gegen Palantir-Einsatz
Die Rasterfahndungssoftware von Palantir beschäftigt die Menschen in Baden-Württemberg. In Stuttgart drängt der Protest gegen die Software und den Trump-Getreuen Peter Thiel Anfang Oktober auf die Straße. Ein Bündnis will verhindern, dass die umstrittene Software bei der Polizei eingesetzt wird.
Im Stadion in Stuttgart gab es schon Proteste gegen Palantir, am 4. Oktober geht es nun auf die Straße. – Alle Rechte vorbehalten IMAGO / ActionPicturesEtwa zwei Drittel der Deutschen lehnen den Einsatz der Big-Data-Software von Palantir ab, Hunderttausende haben eine Petition von Campact unterschrieben. Das Unbehagen ist bei Bürger:innen groß, einem Unternehmen mit engen Beziehungen zu US-Geheimdiensten, in dem zudem der Trump-Getreue Peter Thiel eine tragende Rolle spielt, weitgehenden Zugriff auf polizeiliche Datenbanken zu geben.
Jetzt soll sich dieses Unbehagen erstmals als Protest auf der Straße manifestieren. Ein „Bündnis für Grundrechtsschutz durch vertrauenswürdige und eigenständige Polizei-IT“ hat angekündigt, am Samstag, den 4. Oktober, in Stuttgart am Schlossplatz gegen den Einsatz von Thiels Software in Baden-Württemberg zu demonstrieren. Das Bündnis mobilisiert auch für eine Petition gegen den Palantir-Einsatz im Südwesten.
„Gefahr für die Demokratie“„Wir rufen die Menschen auf, gegen die Einführung der US-Sicherheitssoftware ‚Gotham‘ von Palantir zu protestieren“, sagt ein Sprecher des Bündnisses gegenüber netzpolitik.org. Die geplanten automatisierten Datenanalysen durch eine Software, die von den Betreibern selbst als Waffensystem bezeichnet würde, bedeuteten einen „unverhältnismäßigen Eingriff in Grundrechte und eine Gefahr für die Demokratie“.
Das Bündnis hat „erhebliche Bedenken hinsichtlich Datenschutz und digitaler Souveränität“ und verweist dabei darauf, dass Palantir von Peter Thiel mitbegründet wurde, einem langjährigen Unterstützer Donald Trumps und erklärten Gegner der liberalen Demokratie. „Wie kann eine Landesregierung im Jahr 2025 nach Edward Snowden tatsächlich noch so naiv sein, so ein System nach Deutschland zu holen?“, fragt der Sprecher gegenüber netzpolitik.org. „Das geht nicht!“
Zusage ohne RechtsgrundlageIn Baden-Württemberg ist die grün-schwarze Landesregierung gerade erst dabei, eine gesetzliche Grundlage für eine automatisierte Datenanalyse durch die Polizei zu schaffen, bisherige Gesetze reichen für den Einsatz von Palantir nicht aus.
Die Polizei im Ländle hatte dennoch einen Vertrag mit Palantir bereits im März 2025 geschlossen, bevor eine Rechtsgrundlage für den Einsatz überhaupt bestand. 25 Millionen Euro soll der Einsatz der umstrittenen Software das Land kosten, den Vertrag soll das Innenministerium ohne Wissen des Koalitionspartners abgeschlossen haben. Die Argumentation ist dabei, dass es keine Alternative zur Software von Thiel gäbe – ein Argument, dass die Konkurrenz von Palantir von sich weist.
Auch in den Bundesländern Nordrhein-Westfalen, Hessen und Bayern wird die Software von Palantir aktuell eingesetzt. Datenschützer:innen sehen in allen vier Bundesländern, dass die Vorgaben vom Bundesverfassungsgericht aus dem Jahr 2023 nicht ausreichend umgesetzt sind.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Bundesamt für Migration und Flüchtlinge: Asylbehörde liest kaum noch Datenträger aus
Nur noch in wenigen hundert Fällen las das BAMF in den letzten Monaten die Smartphones Geflüchteter aus. Das ist ein markanter Rückgang zu den fünfstelligen Zahlen aus früheren Jahren. Offenbar ist bei der Asylbehörde angekommen, dass der aufwändige und grundrechtsfeindliche Eingriff nichts bringt.
Handys durchsuchen? Das BAMF macht das immer seltener. – Alle Rechte vorbehalten BAMF: IMAGO / Panama Pictures, Handys: IMAGO / wolterfotoIm Jahr 2017 begann das Bundesamt für Migration und Flüchtlinge (BAMF), die Smartphones von Asylsuchenden auszulesen. Immer dann, wenn diese keinen Pass oder andere anerkannte Identitätsdokumente vorlegen konnten, durften ihre Geräte analysiert werden. Das Ziel: Hinweise auf Identität und Herkunftsland gewinnen – selbst wenn an den Angaben der Antragstellenden noch gar keine Zweifel bestanden.
2018 kam die Behörde mit der neuen Praxis auf über 11.000 ausgelesene Datenträger, 2023 waren es rund 12.500. Damit ist jetzt offenbar Schluss. Laut der Antwort der Bundesregierung auf eine Kleine Anfrage der Linken-Abgeordneten Clara Bünger erfolge das Auslesen von Handydaten „nur noch einzelfallbezogen auf Entscheidung der Entscheiderin oder des Entscheiders“.
Zuvor las das BAMF schon sehr früh im Asylverfahren die Daten aus, in der Regel weit vor der Asylanhörung. Die „damit verbundene ressourcenintensive Auswertung“ sei ab dem Jahr 2024 „ausgesetzt“ worden. Das führt zu deutlich rückgängigen Zahlen: Im ersten Halbjahr 2025, so die Bundesregierung, sind lediglich noch 338 Datenträger ausgelesen worden.
Die Auswertungen sind nutzlos und aufwändigDer Nutzen der Auswertungen stand schon seit Beginn der Maßnahmen in Frage. Zu Beginn scheiterte in rund einem Viertel der Fälle das Auslesen bereits auf einer technischen Ebene.
Bei den erfolgreichen Auslese- und Auswertevorgängen waren wiederum die meisten Ergebnisse bis zuletzt völlig unbrauchbar. So lieferten die Auswertungen im Jahr 2023 in 73,4 Prozent der Fälle „keine verwertbaren Erkenntnisse“. Nur in 1,7 Prozent der Fälle stützten die Ergebnisberichte die Angaben der Antragstellenden nicht – das heißt, es gab Hinweise darauf, dass ihre Angaben eventuell nicht korrekt sein könnten.
Das ist zum einen viel Aufwand und zum anderen ein tiefer Eingriff in Grundrechte und Privatsphäre für eine Maßnahme mit mehr als fragwürdigem Nutzen. Fragestellerin Clara Bünger kommentiert dazu gegenüber netzpolitik.org: „Die aktuelle Antwort der Bundesregierung zeigt, dass diese negative Bilanz inzwischen offenbar auch im BAMF so gesehen wird.“
Der Wandel geht laut Bundesregierung zurück auf ein „Maßnahmenpaket zur Bewältigung der Asyllage“, das BAMF und Bundesinnenministerium miteinander abgestimmt hätten. Im Gegensatz zur Praxis hat sich die gesetzliche Grundlage der Handydurchsuchungen jedoch verschärft. Durch das 2024 verabschiedete Gesetz zur Verbesserung der Rückführung könnten BAMF und Ausländerbehörden auch Cloud-Speicher von entsprechenden Personen auslesen.
Der Kurs steht weiter auf VerschärfungDiese Verschärfung beschloss die Bundesregierung kurz nachdem das Bundesverwaltungsgericht im Februar 2023 im Fall einer afghanischen Klägerin Grenzen gesetzt hatte: Das BAMF darf laut dem Urteil erst dann Smartphones auswerten, wenn es keine milderen Mittel gibt, um Hinweise auf Identität und Herkunft der Betroffenen zu bekommen. Das könnten beispielsweise offizielle Papiere neben Ausweisdokumenten sein oder andere Wege, Aussagen der Geflüchteten zu überprüfen.
Bünger fordert, auch andere politische Entwicklungen zu überdenken, um bessere Asylverfahren zu ermöglichen: „Es muss endlich Schluss sein mit den ausgrenzenden Missbrauchsdebatten, den permanenten Asylrechtsverschärfungen und der andauernden Entrechtung von Schutzsuchenden.“
Die Realität jedoch sieht offenkundig anders aus. Mit dem aktuellen Entwurf zur deutschen Umsetzung des Gemeinsamen Europäischen Asylsystems etwa schießt die Bundesregierung noch über die repressiven EU-Vorgaben hinaus. Im Koalitionsvertrag von Union und SPD ist angekündigt, dass sich auch in verwaltungsrechtlichen Asylverfahren einiges zum potenziellen Nachteil von Geflüchteten ändern soll. Die Regierungspartner wollen, dass die Asylsuchenden vor Gericht selbst etwa politische und soziale Faktoren in ihrem Herkunftsland einbringen müssen, wenn die im Verfahren berücksichtigt werden sollen – selbst wenn diese bereits öffentlich oder bei Gericht bekannt sind. Bünger findet: „Das ist das genaue Gegenteil von dem, was jetzt wichtig wäre: pragmatische Vorschläge für zügige und zugleich faire Asylverfahren.“
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Geplante Gesetzesänderung: Baden-Württemberg will Hürden für Videoüberwachung senken
Seit sieben Jahren bereits wird in Mannheim Videoüberwachung mit automatisierter Verhaltenserkennung getestet. Nun will Baden-Württemberg die Hürden für die Installation von Kameras senken. Der Verfassungsschutz soll künftig auf private Aufnahmen zugreifen dürfen.
Videokameras in Mannheim. Allein hier betreibt die Polizei bereits 70 Stück. Nun soll die Videoüberwachung in Baden-Württemberg vereinfacht werden. – Public Domain Martin SchwarzbeckDie grün-schwarze Landesregierung von Baden-Württemberg will mit einer Novelle des Landesdatenschutzgesetzes den Aufbau und Betrieb von Videoüberwachungssystemen erleichtern. Gleichzeitig sollen Behörden Bilder bis zu zwei Monate lang speichern dürfen.
Die Gesetzesänderung würde die sogenannte „Vorrangprüfung“ erleichtern und entsprechende Hürden senken. Gleichzeitig wird dabei dem Schutz von Leben und Gesundheit eine Art absoluter Wert zugeschrieben. Sie gelten künftig als „besonders wichtiges öffentliches Interesse“. Der Schutz der Privatsphäre wird in der Abwägung demnach häufig hintangestellt werden.
Vermutlich steht die geplante Gesetzesänderung auch im Zusammenhang mit dem Test von Verhaltenserkennungssoftware, der im baden-württembergischen Mannheim seit sieben Jahren läuft. Dort kommt es immer wieder vor, dass Areale, die die Stadt gerne überwachen würde, nicht oder nicht mehr als besonders kriminalitätsbelastet eingestuft sind. Das macht die Videoüberwachung nach geltendem Recht unmöglich.
Viele Kommunen wollen VideoüberwachungBaden-Württembergs Innenminister Thomas Strobl (CDU) ist ein Fan der KI-gestützten Videoüberwachung. Er sagte bei der Vorstellung des Gesetzesbündels, dass sich viele Kommunen eine juristische Vereinfachung des Aufbaus von Videoüberwachungsanlagen gewünscht hätten. Demnach ist davon auszugehen, dass die Zahl der überwachten Areale in Baden-Württemberg künftig deutlich steigen wird.
In Heilbronn etwa ging im September dieses Jahres eine Videoüberwachungsanlage an den Start. Es gab jedoch Kritik daran, dass nach aktueller Gesetzeslage der Marktplatz nur zu bestimmten kriminalitätsintensiven Uhrzeiten überwacht werden darf. Auch war eine Ausweitung auf weitere Räume im Gespräch, die aber eben nicht dem Kriterium eines besonders kriminalitätsbelasteten Ortes genügten.
Zusammen mit der vereinfachten Videoüberwachung will die baden-württembergische Landesregierung dem Verfassungsschutz Zugriff auf private Kamerastreams gewähren. Damit könnte der Geheimdienst etwa Tiefgaragen oder Shoppingcenter videoüberwachen, ohne eigene Systeme aufbauen zu müssen. Ähnliches ist auch in Berlin geplant.
Update, 25.9.2025, 12.30 Uhr: Reihenfolge der Koalitionspartner korrigiert.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Digital Networks Act: Kleine Anbieter, große Sorgen
Mit dem geplanten Digital Networks Act könnte sich der europäische Telekommarkt verändern – und die Wahlfreiheit für Verbraucher:innen stark schrumpfen. Vor allem kleine Netzbetreiber fürchten, dass manche in den Raum gestellte Regeln die Monopole stärken könnten.
Wo und zu welchen Bedingungen kommt das Internet her? Diese Frage will der DNA beantworten. – Alle Rechte vorbehalten IMAGO / ZoonarFür kleinere Netzbetreiber in der EU und ihre Kund:innen steht diesen Herbst viel auf dem Spiel. Wer derzeit einen Internetanschluss braucht, kann in der Regel zwischen mehreren Anbietern auswählen. Umgekehrt müssen Netzbetreiber nicht zwangsläufig eigene Infrastruktur besitzen, um Kund:innen mit konkurrenzfähigen Angeboten zu locken. Dieses Gefüge könnte mit dem geplanten Digital Networks Act (DNA) ins Wanken geraten, dessen Entwurf die EU-Kommission in den kommenden Monaten vorstellen will.
Der Dienstleister Transatel bringt die Sorgen weiter Teile der Branche auf den Punkt. In einer Stellungnahme an die EU-Kommission mahnt der zum japanischen Telekom-Riesen NTT Group gehörende Anbieter: „Ohne Auflagen für Anbieter mit signifikanter Marktmacht könnten marktbeherrschende Festnetz- und Mobilfunkbetreiber den Zugang zu ihren Netzen einschränken und kleinere sowie virtuelle Anbieter aus dem Markt drängen. Dies würde die Monopolverhältnisse wiederherstellen, die die Liberalisierung eigentlich beseitigen sollte, und den Wettbewerb, die Innovation und die Wahlfreiheit der Verbraucher:innen einschränken.“
Historisch gewachsener RegulierungsrahmenSeit der Abschaffung der staatlichen Monopole in den 1990er-Jahren ist die europäische Regulierung von Telekommunikation auf Wettbewerb und damit zu weiten Teilen auf die Bedürfnisse kleinerer oder zumindest nicht marktdominanter Anbieter ausgerichtet. Sie erhalten zu streng regulierten Konditionen Zugang zu den Netzen der ehemaligen Staatsbetriebe, um ihnen auch ohne eigene Leitungen Konkurrenz machen zu können. Zugleich soll das Modell des Infrastrukturwettbewerbs Anreize dafür schaffen, dass sich moderne Technik, beispielsweise Glasfaser, gegen zunehmend obsolete Lösungen wie Kupferleitungen durchsetzen kann.
Perfekt war dieser marktgetriebene Ansatz zwar nie. Immerhin hat er jedoch verkrustete Strukturen aufgebrochen und einen Markt mit einer Angebotsvielfalt geschaffen, die zuvor kaum vorstellbar war. In die Kritik ist das Modell mit der Zeit von unterschiedlichen Seiten aus geraten: Inzwischen subventionieren etwa viele EU-Länder, darunter Deutschland, den Netzausbau in ländlichen Regionen, in denen sich das teure Verbuddeln von Leitungen für die Betreiber finanziell nicht rechnet.
Dieses Internet der Zukunft wünschen sich die mächtigen Telekom-Konzerne
An anderer Stelle zeigt das sogenannte Überbau-Phänomen die Grenzen des Marktes auf, indem volkswirtschaftlich fragwürdig wiederholt Straßen aufgerissen werden, um neue Leitungen zu verlegen, anstatt kooperativ bereits vorhandene zu nutzen. Auf EU-Ebene wiederum wollen die Stimmen nicht verhallen, die sich „europäische Champions“ wünschen – also möglichst große Netzbetreiber, die auf einem harmonisierten EU-Markt und letztlich auf dem Weltmarkt mitmischen können. Was sich die ehemaligen Monopolisten vom DNA erwarten, haben wir hier zusammengefasst.
Ambitionierte Ausbauziele der EUÜber all dem steht das Ziel der Kommission, bis Ende des Jahrzehnts ganz Europa auf moderne Gigabit- und Mobilfunk-Verbindungen aufzurüsten. Ein Selbstzweck ist das nicht: Ohne schnelle und flächendeckend verfügbare Internetverbindungen ist ein modernes Leben kaum vorstellbar. Außerdem steigert eine bessere Breitbandversorgung das Wirtschaftswachstum, wie Studien immer wieder belegen. Letzteres hat die Kommission zu einer ihrer Prioritäten für die laufende Legislaturperiode erklärt.
Regulatorisch hat die Politik in den vergangenen Jahren bereits an einigen Stellschrauben gedreht: Seit der letzten Überarbeitung der EU-Regeln durch den sogenannten TK-Kodex sind selbst marktdominante Betreiber von besonders strenger Vorab-Regulierung befreit, solange sie in Zusammenarbeit mit anderen Anbietern oder Investoren moderne Netze neu bauen.
Noch weiter gingen manche EU-Länder, Frankreich etwa. Diese schwenken immer mehr auf sogenannte symmetrische Regulierung um, bei der alle Marktakteure, unabhängig von ihrer Größe, gleich behandelt werden. Auch die Strategie Deutschlands, den Ausbau mit öffentlichen Mitteln zu unterstützen, war alles andere als eine Selbstverständlichkeit: Ihr waren zähe Verhandlungen mit der EU-Kommission vorangegangen, die Sorge vor Marktverzerrungen hatte.
Bretons Weißbuch gibt Richtung vorIn dieses Umfeld platzte der inzwischen aus der Kommission ausgeschiedene Thierry Breton. Im Vorjahr stellte der damalige EU-Binnenmarktkommissar ein Weißbuch mit teils detaillierten Visionen zur Zukunft digitaler Infrastrukturen in Europa vor. Darin enthalten und potenziell wegweisend für den DNA: Vorschläge einer umfassenden Deregulierung und Konsolidierung des Marktes, einer Abschwächung der Netzneutralität unter dem Schlagwort „Fair Share“ sowie die Vorhersage eines weiteren Zusammenwachsens von Netz- und Diensteebene, was sich entsprechend in der Regulierung des Bereichs widerspiegeln müsse.
Schon damals musste Breton saftige Kritik für seine großindustrie-freundliche Sicht einstecken, sowohl aus der Zivilgesellschaft als auch von EU-Ländern. Künftige Regulierungspolitik müsse den Wettbewerb fördern und den Verbraucherschutz hochhalten, zudem müsse in bestimmten Zugangsmärkten die bewährte Vorab-Regulierung nicht leichtfertig aufgehoben werden, hieß es etwa in einer Erklärung des EU-Rats zu seinem Weißbuch.
Hinzu kommt die Sorge vor allzu harmonisierten Vorschriften, die der zersplitterten Betreiberlandschaft in der EU kaum gerecht werden könnten. So gibt sich der deutsche Glasfaser-Verband BUGLAS, der rund 180 deutsche Anbieter vertritt, überzeugt davon, dass „einheitliche Regelungen angesichts der Heterogenität der Märkte in den Mitgliedsstaaten nicht zielführend sind“.
Tatsächlich bringt jedes EU-Land unterschiedliche politische, regulatorische und wirtschaftliche Voraussetzungen mit: Der Ausbau verhält sich in Flächenländern anders als in gebirgigen Gegenden. In manchen Ländern ist die Marktkonsolidierung weiter fortgeschritten als in anderen, und einige Länder haben etwa den Zwischenschritt Vectoring übersprungen und gleich auf Glasfaser gesetzt, weil es keine dicht verlegte Kupferinfrastruktur gab, die sich wie in Deutschland hätte aufmöbeln lassen.
EU-Länder sind nicht gleichWie teils fundamental unterschiedlich die Ausgangslagen und Bedürfnisse innerhalb der EU sind, zeigt beispielsweise die Stellungnahme von Epic Communications, eines kleinen Anbieters aus Malta. Generell sei das Land in vielen Bereichen dysfunktional, erklärt der Anbieter: Bis heute seien schon vor Jahren verabschiedete EU-Gesetze wie die Kostensenkungsrichtlinie oder der Gigabit Infrastructure Act nicht umgesetzt. Außerdem sei die Wettbewerbsbehörde des Landes seit über einem Jahr nicht mehr handlungsfähig.
Eine Abschaffung der Vorab-Regulierung und Umstellung auf nachträgliche Kontrolle würde schnell an ihre Grenzen stoßen und wohl zu einer Remonopolisierung des Sektors führen, warnt der Anbieter: „Malta ist als kleiner Inselstaat mit erheblichen Hindernissen konfrontiert, darunter eine schwache Durchsetzungskapazität, begrenzte institutionelle Ressourcen, dominante Marktakteure und im Verhältnis zu seiner Wirtschaftsgröße unverhältnismäßig hohe Kapitalausgaben.“
Ganz anders die Situation in Schweden, das zumindest in Ballungsgebieten, wo der überwiegende Teil der Bevölkerung lebt, schon früh auf Glasfaser gesetzt hatte und heute über eine entsprechend gute und über dem EU-Schnitt liegende Versorgung verfügt. Basierend auf eigenen Erfahrungen dämpft etwa der schwedische Anbieter Stokab die Erwartungen der EU-Kommission, dass eine Konsolidierung des Marktes und Reduzierung des Wettbewerbs große Effekte hätte.
Infrastruktur und Netzwerke wie Glasfasernetze hätten den „gleichen lokalen Charakter“ wie Wasserleitungen und Straßen, führt Stokab in seiner Stellungnahme aus. Dies gelte für das Verlegen neuer Leitungen sowie für den Betrieb und Wartung. „Der landesweite oder multinationale Ausbau und die Bereitstellung solcher Infrastrukturen und Netzwerke bieten grundsätzlich keine Skalenvorteile – die Hauptkosten (Erdarbeiten) bleiben die gleichen.“
Lob für TK-KodexDemnach würde eine Abkehr vom bisherigen Regulierungsrahmen kaum den Ausbau beschleunigen oder billiger machen. Der Ansatz sei „weder passend noch angebracht“, so Stokab, zumal die im TK-Kodex enthaltenen Regulierungserleichterungen für Wholesale-Anbieter wie Stokab „positive Auswirkungen auf Investitionen und die Marktentwicklung“ gehabt haben sollen. Solche Wholesale-Unternehmen bieten ihre Dienste üblicherweise nicht Endkund:innen an, sondern Netzanbietern ohne eigene Infrastruktur. Gleichwohl würden diese Einwände nicht bei der grenzüberschreitenden Bereitstellung von Diensten gelten, wo sich die erwünschten Skaleneffekte mittels harmonisierter Regeln vermutlich umsetzen ließen, so der Netzbetreiber.
In eine ähnliche Kerbe schlägt der französische Wholesale-Anbieter Altitude. Der gegenwärtige Regulierungsrahmen samt der im TK-Kodex enthaltenen Anreize zur Kooperation habe das Ausrollen von Glasfasernetzen begünstigt und sollte schon allein aus Gründen der Rechtssicherheit beibehalten werden, schreibt Altitude. Und der Anbieter erinnert daran, wer eigentlich den initialen Ausbau bezahlt hat – bevor der einstige Monopolist France Télécom teilprivatisiert und zu Orange umbenannt wurde: „Die Leitungen und Schächte von Orange, die größtenteils von der öffentlichen Hand für den Bau des Kupfernetzes finanziert werden, umfassen das gesamte Gebiet und sind nicht replizierbar. Sie sind die Hauptstütze für die Netze der nächsten Generation, und daher ist es notwendig, die asymmetrische Regulierung dieser Infrastruktur aufrechtzuerhalten.“
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Internes Protokoll: Dänemark will Chatkontrolle durchdrücken
Dänemark will die Chatkontrolle in drei Wochen durchdrücken. Am Gesetz ändert die Ratspräsidentschaft nichts, stattdessen sollen Staaten ihre Meinung ändern. Die Position Deutschlands ist maßgeblich. Darüber entscheidet Innenminister Dobrindt. Wir veröffentlichen das eingestufte Verhandlungsprotokoll.
Innenminister Dobrindt (Mitte) mit dänischen Ministern für Integration und Öffentliche Sicherheit. – CC-BY-NC-ND 4.0 Dänische RatspräsidentschaftSeit über drei Jahren streiten die EU-Institutionen über eine verpflichtende Chatkontrolle. Die Kommission will Internet-Dienste verpflichten, die Inhalte ihrer Nutzer auf Straftaten zu durchsuchen und diese bei Verdacht an Behörden zu schicken. Das Parlament bezeichnet das als Massenüberwachung und fordert, nur unverschlüsselte Inhalte von Verdächtigen zu scannen.
Die EU-Staaten können sich nicht auf eine gemeinsame Position einigen. Bisher ist jede Präsidentschaft daran gescheitert, eine Einigung im Rat zu organisieren. Mitte September hat die Arbeitsgruppe Strafverfolgung den Gesetzentwurf erneut verhandelt. Wir veröffentlichen ein weiteres Mal das eingestufte Protokoll der Sitzung.
Zustimmung sehr schwierigSeit Juli hat Dänemark die Ratspräsidentschaft inne. Die sozialdemokratisch geführte Regierung befürwortet die verpflichtende Chatkontrolle und Client-Side-Scanning. Dänemark will, dass die Justiz- und Innenminister den Gesetzentwurf am 14. Oktober annehmen.
Die vorherige Ratspräsidentschaft hatte vorgeschlagen, die Chatkontrolle freiwillig statt verpflichtend zu machen und verschlüsselte Kommunikation auszunehmen. Dänemark hat diese Abschwächungen wieder rückgängig gemacht.
Dänemark sagt ganz offen: „Es dürfte sehr schwierig sein, neue Ansätze zu finden, die bei den Mitgliedstaaten auf Zustimmung stoßen. Uns gehen die realisierbaren Optionen aus.“ Deshalb legt Dänemark im Prinzip einfach den alten Gesetzentwurf nochmal vor – und hofft auf ein anderes Ergebnis.
Optionen gehen ausIn der Arbeitsgruppe war Dänemark damit nicht sofort erfolgreich. Die meisten EU-Staaten „wiederholten im Wesentlichen die bereits bekannten Positionen“. Viele Staaten wollen eine weitreichende Chatkontrolle, eine Sperrminorität der Staaten lehnt das ab.
Eigentlich ist eine Chatkontrolle laut E-Privacy-Richtlinie verboten. Eine vorübergehende Ausnahme erlaubt Anbietern trotzdem, Inhalte freiwillig zu scannen. Diese Ausnahme läuft im April 2026 aus.
Kommission und Ratspräsidentschaft nutzen das als Druckmittel. Dänemark ist „sich des Zeitdrucks sehr bewusst“. Die Ratspräsidentschaft ist „in engem Austausch mit der Kommission und dem Parlament“. Es brauche „deutliche Fortschritte“, damit sich der Rat auf eine gemeinsame Position einigt.
Befürworter machen DruckAuch zahlreiche EU-Staaten „betonten die dringende Notwendigkeit, im Lichte der auslaufenden Interims-Verordnung zu einer Einigung zu kommen“. Sowohl Gegner als auch Befürworter der Chatkontrolle fordern eine zeitnahe Einigung.
Zehn Staaten unterstützen den dänischen Vorschlag für eine verpflichtende Chatkontrolle. Darunter sind langjährige Befürworter wie Spanien, Rumänien und Ungarn.
Frankreich war lange skeptisch und wartete „auf eine Entscheidung auf allerhöchster Ebene“. Jetzt ist Paris „im Großen und Ganzen“ einverstanden mit dem Entwurf. Frankreich begrüßt sowohl verpflichtende Chatkontrolle als auch Client-Side-Scanning. „Die Verhältnismäßigkeit sei gewahrt.“
Weiterhin keine ZustimmungFünf Staaten lehnen den dänischen Vorschlag ab. Polen unterstützt den Kampf gegen sexuellen Kindesmissbrauch, dafür muss Prävention verstärkt werden. Einer Chatkontrolle kann Warschau „weiterhin nicht zustimmen“, sie stelle „Datenschutz und Privatsphäre“ in Frage.
Die Niederlande und Luxemburg unterstützen ebenfalls das Ziel, sexuellen Kindesmissbrauch besser zu bekämpfen. Doch mit der verpflichtenden Chatkontrolle sind sie „nicht einverstanden“. Auch Tschechien lehnt den Vorschlag ab. Die Chatkontrolle ist nicht verhältnismäßig.
Österreich verweist ebenfalls auf seine „bereits bekannte und unveränderte Position“. Der Nationalrat hat eine Chatkontrolle vor drei Jahren abgelehnt. Die österreichische Bundesregierung ist an diesen Beschluss gebunden.
Mehr politische AufmerksamkeitAndere Staaten positionieren sich nicht eindeutig. Schweden prüft den Vorschlag noch und arbeitet an einer Position. Finnland sieht den Vorschlag „ambivalent“, er enthalte gute und „problematische Bestimmungen“. Die Slowakei prüft ebenfalls weiter, dabei stehen „Cybersicherheit und Grundrechte im Fokus“.
Lettland bewertet „den Text positiv“. Es sei aber noch unklar, „ob dieser auch politische Unterstützung finde“. Grund sei, dass „der Vorschlag über die Sommerpause vermehrt politische Aufmerksamkeit erhalten habe“. Das dürfte an der Kampagne Fight Chat Control liegen, die nicht sehr genau und transparent ist, aber einige Reichweite erreicht.
Das entscheidende Land bleibt Deutschland. Bisher war die Bundesregierung gegen Client-Side-Scanning und Scannen verschlüsselter Kommunikation. Das Innenministerium unter CSU-Minister Alexander Dobrindt will diese Position aufweichen. Die deutsche Delegation „verwies auf die noch andauernde Meinungsbildung innerhalb der Bundesregierung“. Wenn Deutschland kippt, kommt die Chatkontrolle.
Keine fehlerfreie TechnologieViele Experten kritisieren die Chatkontrolle als gefährlich und unverhältnismäßig. Der Juristische Dienst des EU-Rats bezeichnet sie als rechtswidrig und erwartet, dass Gerichte das geplante Gesetz wieder kippen.
Hunderte Wissenschaftler kritisieren „inakzeptabel hohe Raten an Fehlalarmen und Fehldetektionen“. In der Arbeitsgruppe gesteht auch die Kommission, „dass es realistischerweise keine Technologie gäbe, die fehlerfrei funktioniere“. Trotzdem gehen die Beamten davon aus, dass Unternehmen „zu viele False Positives“ irgendwie verhindern können.
Die Kommission ist gesetzlich verpflichtet, einen Bericht über die freiwillige Chatkontrolle vorzulegen. Anhand von Statistiken soll sie Verhältnismäßigkeit und technischen Fortschritt bewerten. Die Frist war am 4. September. Bis heute gibt es diesen Bericht nicht. Damit bricht die Kommission ihr eigenes Gesetz. Bereits vor zwei Jahren hat die Kommission die gesetzliche Frist gerissen und konnte die Verhältnismäßigkeit der Chatkontrolle nicht belegen.
Deutschland entscheidetUnter dem Strich hat auch die neueste Verhandlungsrunde keine Einigung gebracht. Ratspräsidentschaft und Kommission haben keine Mehrheit für eine verpflichtende Chatkontrolle. Doch sie sind nicht bereit, die Chatkontrolle fallenzulassen oder abzuschwächen.
Stattdessen schlagen sie immer wieder das Gleiche vor. Sie hoffen, dass manche EU-Staaten ihre Position ändern. Wenn die deutsche Bundesregierung ihre Meinung ändert, könnten sie damit Erfolg haben.
Dänemark will eine Entscheidung innerhalb der nächsten drei Wochen. Letzte Woche sollten die EU-Staaten schriftliche Kommentare und Anmerkungen einreichen. Am 9. Oktober tagt die Arbeitsgruppe erneut. Am 14. Oktober treffen sich die Justiz- und Innenminister. Wenn es nach Dänemark geht, bringen sie dort das Chatkontrolle-Gesetz auf den Weg.
Hier das Protokoll in Volltext:
- Geheimhaltungsgrad: Verschlusssache – Nur für den Dienstgebrauch
- Datum: 15. September 2025
- Von: Ständige Vertretung der BRD bei der EU
- An: Auswärtiges Amt
- Kopie: BKAmt, BMI, BMJV, BMF, BMWE, BMBFSFJ, BMDS
- Betreff: Sitzung der RAG Strafverfolgung am 12. September 2025
- Zweck: Zur Unterrichtung
- Geschäftszeichen: 350.80
TOP 3: Grundlage der Aussprache bildete der am 24. Juli von der DNK Präsidentschaft übermittelte überarbeitete Kompromisstext. Vor dem Hintergrund, dass das EP eine Verlängerung der Interims-VO nur in Aussicht gestellt hat, sofern eine Einigung im Rat erreicht wird, kündigte Vorsitz an, auch weiterhin im JI-Rat am 14. Oktober 2025 eine teilweise Allgemeine Ausrichtung anzustreben.
Zahlreiche wortnehmenden MS wiederholten im Wesentlichen die bereits bekannten Positionen und kündigten schriftliche Ergänzungen im Nachgang an.
Vorsitz bat um Übermittlung der schriftlichen Kommentare und Anmerkungen bis 19.09.2025 und kündigte weitere RAGS-Polizei Sitzungstermine für den 09. Oktober, 10. November und 03. Dezember, ohne inhaltliche Konkretisierung, an.
Bei TOP 5 unterstrichen die MS die Bedeutung der Bekämpfung von Online-Betrug. Neben dem immensen wirtschaftlichen Schaden sei auch der Vertrauensverlust der Bevölkerung zu bedenken. Die Strafverfolgung sei insbesondere mit Drittstaaten schwierig und Informationsaustausch sowie Rechtshilfeverfahren könnten mit der Schnelligkeit der Kriminellen bei diesem Phänomen nicht mithalten. KOM solle auch dies bei der Erarbeitung eines Aktionsplans berücksichtigen. MS könnten bis zum 17. Oktober schriftliche Kommentare einreichen.
II. Im Einzelnen TOP 1: Tagesordnung wurde mit Ergänzungen unter AOB angenommen. TOP 2: Information from the PresidencyVO Schleuserkriminalität: Es gab zwei technische Triloge, die insgesamt sehr konstruktiv verlaufen seien. Vorsitz werde das 4-Spalten Dokument in Vorbereitung der Sitzung der JI-Referent*innen am 17. September übermitteln (mittlerweile erfolgt)
EU Roadmap Drogen- und OK-Bekämpfung: Vorsitz wolle sich auf die Umsetzung von einzelnen Themenbereichen konzentrieren (u.a. Mobilisierung Zoll/Grenzschutz/Sondereinheiten, Rekrutierung von Kindern und Jugendlichen, Synthetische Drogen, Justizielle Zusammenarbeit). Die Diskussionen hierzu würden in der HDG geführt.
Temporary Core Group RAGS Netzwerke: Die erste Sitzung habe stattgefunden. Kernaufgabe sei die Erarbeitung einer Priorisierung der RAGS Netzwerke. Zudem solle eine einheitliche governance Struktur entwickelt werden. Die erste Sitzung habe gezeigt, dass insbesondere die Erarbeitung von validen Kriterien zur Priorisierung schwierig werden könnte. Zur nächsten Sitzung der Core Group mit Vertretern der Netzwerke (29. September, virtuell) solle ein Fragenkatalog beantwortet werden, um die Arbeit der Netzwerke und deren Struktur besser zu verstehen. Eine weitere Sitzung der Kerngruppe sei am 1. Oktober vorgesehen, um die Kriterien für eine Priorisierung zu diskutieren. Vorsitz hoffe zur Vorbereitung auf schriftliche Kommentare der MS und der KOM. Die RAGS werde sich am 9. Oktober wieder mit dem Thema befassen.
EU Abkommen mit Lateinamerikanischen Ländern: EP habe der Unterzeichnung des Abkommens mit BRA zugestimmt. Die Unterzeichnung ECU solle am Rande der UN-Vollversammlung am 23. September stattfinden.
Die nächsten Sitzungen der RAGS finden am 9. Oktober (NICHT 7. Oktober), am 10. November (NICHT 14. November) sowie am 3. Dezember (Vormittags gemeinsame Sitzung mit RAGS-C) statt.
TOP 3: Proposal for a Regulation of the European Parliament and of the Council laying down rules to prevent and combat child sexual abuse (11596/25)Vorsitz eröffnete die Sitzung mit einer kurzen Zusammenfassung der am Kompromisstext vorgenommenen inhaltlichen und technischen Veränderungen. Ergänzend verwies Vorsitz auf die Ausführungen dazu im Presidency Flash.
Zahlreiche wortnehmende MS (ESP, DEU, POL, AUT, HUN, ROU, SWE, IRL, CYP) betonten die dringende Notwendigkeit, im Lichte der auslaufenden Interims-VO zu einer Einigung zu kommen und kündigten die Übermittlung schriftlicher Kommentare an (AUT, POL, EST, ITA, FIN, HRV, PRT).
BEL teilte mit, den aktuellen Kompromissvorschlag im Prinzip mittragen zu können. Der Text sei in dieser Form nützlich und effizient. Eine Anpassung wird in Bezug auf die Zugänglichkeit von Treffern bei Aufdeckungen angeregt: Treffer könnten beim jeweiligen Diensteanbieter vorgehalten und erst bei Zustimmung durch die zuständige Behörde bzw. ein Gericht übermittelt werden, z.B. bei anhängigen Ermittlungsverfahren oder Anzeigen. Dann könne die Detektion auch in verschlüsseltem Umfeld erfolgen. BEL werde hierzu Textvorschläge übermitteln.
ITA äußerte Zweifel in Bezug auf die Einbeziehung von neuem CSAM in den Anwendungsbereich, zudem solle Audiokommunikation umfassender definiert werden.
Für LTU stehe die Wahrung der Grundrechte im Fokus, gleichzeitig solle der Kompromissvorschlag aber auch so ambitioniert wie möglich sein. LTU unterstütze den Vorschlag weiterhin.
EST merkte an, der Text solle in Bezug auf Altersverifikation (Art. 28 DSA) an den DSA angeglichen werden. DSA und DSGVO sollten im Text ausdrücklich genannt und darauf Bezug genommen werden. Im Übrigen könne EST die Änderungen in Art. 10 nicht mittragen. Der Zugang zu Verschlüsselung müsse an einer einheitlichen Stelle behandelt werden.
LVA bewertet den Text positiv, ob dieser auch politische Unterstützung finde, sei aber noch unklar, da der Vorschlag über die Sommerpause vermehrt politische Aufmerksamkeit erhalten habe.
ESP unterstrich deutlich, den Vorschlag weiterhin vollumfänglich zu unterstützen und machte klar, dass die Signale aus dem EP zur möglichen Verlängerung der Interims-VO nicht gut seien.
Vorsitz bestätigt, dass man sich des Zeitdrucks sehr bewusst sei und sich diesbezüglich in engem Austausch mit der KOM und dem EP befinde. Um mit den Trilogverhandlungen zu beginnen, brauche es deutliche Fortschritte im Rat.
SVK gab an, den Vorschlag weiterhin zu prüfen. Hierbei stünden Cybersicherheit und die Grundrechte im Fokus. Ein nicht-selektives Scannen von Kommunikation sei problematisch, daher könne man derzeit noch keine positive Rückmeldung geben.
CZE äußerte Zweifel an der Verhältnismäßigkeit des Vorschlages und kündigte an, diesen im Falle einer Abstimmung abzulehnen.
POL teilte mit, dem Vorschlag weiterhin nicht zustimmen zu können und legte Prüfvorbehalt ein. Man unterstütze das Ziel der CSA–VO aber nicht so, wie im aktuellen Kompromissvorschlag. Prävention müsse verstärkt werden. Generell sei man gegen alles, was Datenschutz und den Schutz der Privatsphäre in Frage stelle.
FIN sah den Vorschlag ambivalent; er enthalte Regelungen, die einen stärkeren Schutz böten, aber eben auch problematische Bestimmungen.
BGR unterstützte ausdrücklich den Vorschlag, auch in Bezug auf Altersverifikation.
AUT verweist auf die bereits bekannte und unveränderte Position und kündigte schriftliche Kommentare mit weiteren technischen Anmerkungen an. Vorsitz verwies auf AUT Nachfrage zum Zeitplan und weiteren Vorgehen auf den Presidency Flash und bekräftigt das Vorhaben, am 14. Oktober zu einer Allgemeinen Ausrichtung zu kommen.
DEU trug weißungsgemäß vor, legte weiterhin Prüfvorbehalt ein und verwies auf die noch andauernde Meinungsbildung innerhalb der Bundesregierung und die Notwendigkeit einer regierungsabgestimmten Position.
PRT sah den Text als in die richtige Richtung gehend an. Est müsse nochmal geprüft werden, ob die im Flash angekündigten Änderungen bereits alle in den Text übernommen seien. PRT gab weiterhin zu bedenken, dass der Erfolg des EU-Zentrum wesentlich davon abhinge, wie gut die Regelungen zu den nationalen Strukturen der MS passten.
HUN hielt seinen Prüfvorbehalt aufrecht, dieser sei aber positiv und nur aus technischen Gründen notwendig. Angemerkt wurde weiterhin, dass die in Art. 24 Abs. 6 genannte Frist von 3 Monaten zu lang sei, HUN schlage unverzüglich bis max. 8 Tage vor (auch FRA). Vorsitz erwiderte, man habe sich in Bezug auf die Frist von 3 Monaten an der NIS–RL orientiert und diese von dort übernommen.
IRL unterstützt den Kompromissvorschlag, dieser biete einen deutlichen Mehrwert. Die zusätzlichen Safeguards gewährleisten eine gute Balance zwischen Datenschutz und Kinderschutz.
FRA zeigte im Großen und Ganzen Einverständnis mit dem vorliegenden Text. Es sei gut, dass die Aufdeckungsanordnungen wieder enthalten seien. Ebenso sei es zu begrüßen, dass die Risikoklassifizierung und Client-Side-Scanning enthalten seien. Die Verhältnismäßigkeit sei gewahrt. Wichtig sei, die Humankontrolle bei Treffern zu gewährleisten. FRA hätte daher gerne das Hit-System wieder im Text, um die Zahl der False Positives zu verringern. Zudem müsse es die Möglichkeit geben, Dienste bei entsprechenden Erkenntnissen schnell zu „Hochrisikodienst“ hochstufen zu können. Da Sextortion ein großes Problem in FRA sei, plädiere FRA für eine kürzere Review Frist beim Grooming (18 Monate anstatt 3 Jahre). FRA begrüßte zudem die Zertifizierung von Aufdeckungstechnologien, sowie die vorgesehene Verlängerung der Interims-VO um 72 Monate.
Vorsitz erläuterte, dass das Hit-System von zahlreichen MS als kritisch bewertet wurde und man es daher herausgenommen habe.
ROU unterstützte den Text, würde die Risikokategorisierung aber lieber auf 2 anstatt 3 Kategorien beschränken.
NLD und LUX unterstützen das Ziel des VO-Entwurfes, zeigten sich aber mit dem Kompromisstext nicht einverstanden und verwiesen auf die bekannten Positionen. Kritisch bewerte NLD zudem auch Ausgestaltung der Zustimmung durch den Nutzer.
SWE gab sich insgesamt positiv und begrüßte, dass die Aufdeckungsanordnung und die Verschlüsselung wieder aufgenommen wurden. Man prüfe den Kompromisstext jedoch noch und arbeite an einer Position. SWE frage sich aber, ob die aktuelle Formulierung in Bezug auf E2EE eine Beschränkung im Hinblick auf künftige Technologien darstellen könnte.
Vorsitz verwies in Bezug auf die Formulierung von Art. 1 Abs. 5 auf die Arbeit unter den vorangegangenen Ratspräsidentschaften, darauf basiere die Formulierung. Man sähe darin das notwendige Gleichgewicht zwischen Kinderschutz und Schutz von Privatsphäre und Cybersicherheit.
HRV begrüße die letzten Änderungen im Text. Man wünsche sich aber eine klarere Begriffsbestimmung in Bezug auf die Client-Side-Scanning-Technologie und visuelle Inhalte.
CYP stimmt dem Kompromissvorschlag zu und gab an, alles zu unterstützen, was dafür sorge, dass die Bürger sicherer seien. Der Text ginge in die richtige Richtung. Der VO-Entwurf habe höchste Priorität.
KOM berichtete auf Nachfrage BEL, dass der Evaluierungsbericht zur Umsetzung der Interims-VO in Arbeit sei und schnellstmöglich vorgelegt werde. Die Datensammlung sei schwierig gewesen und zahlreiche Nachfragen erforderlich gewesen, was die Verzögerung erkläre.
KOM führte weiterhin aus, dass sich nach Auskunft von NCMEC die Anzahl der Fälle von Sextortion um das 12-fache erhöht habe. Die Zahlen von Grooming und finanzieller Erpressung seien extrem gestiegen. Z.B. in Südafrika und auf den Philippinen hätten sich OK-Gruppierungen hierauf spezialisiert. Nach NCMEC Zahlen müsse man davon ausgehen, dass dieses Phänomen bereits zu 3.000 Selbstmorden von Kindern geführt haben.
Insgesamt sei die Anzahl an NCMEC-Meldungen seit Einführung der E2EE im Facebook Messenger um 7 Mio. gesunken. Insgesamt seien aber bei Anbietern ohne E2EE die Meldungen gestiegen. Das zeige deutlich, dass verschlüsselte Kommunikation im Anwendungsbereich der CSA–VO verbleiben müsse.
Zum Thema False Positives müsse klar kein, dass es realistischerweise keine Technologie gäbe, die fehlerfrei funktioniere. Unternehmen würden aber nie eine Technologie verwenden, die zu viele False Positives erzeugt. Und auch das EU-Zentrum würde eine solche nicht akzeptieren oder gar zertifizieren, um eine Überflutung mit Falschmeldungen zu verhindern.
Zu dem von BEL vorgeschlagenen Verfahren führte KOM aus, dass es praktisch nicht zu handhaben wäre, die Treffer zunächst ausschließlich beim Anbieter zu speichern. Wie solle die Strafverfolgung Kenntnis davon erlangen? Man könne nicht akzeptieren, dass Kinder missbraucht würden, Anbieter auch entsprechende Hinweise dazu hätten, diese aber erst ans Licht kämen für den Fall, dass es bereits ein Ermittlungsverfahren gäbe. Das sei absolut inakzeptabel.
Vorsitz bat abschließend um Übermittlung der schriftlichen Kommentare und Anmerkungen bis 19.09.2025 zur Vorbereitung der (teilweisen) Allgemeinen Ausrichtung im Rahmen des JI-Rates am 14. Oktober 2025.
TOP 4: Network for the Prevention of Child Sexual AbuseKOM informierte kurz über die Pläne für ein Netzwerk zur Prävention von sexuellem Kindesmissbrauch. Einladungen zur Nominierung von Expert*innen seien versandt worden, zuletzt mit Schreiben/Email an die StäVen vom 11.9.2025. Die Nominierten sollten in der öffentlichen Verwaltung arbeiten und einen entsprechenden professionellen Hintergrund haben. Nominierungen müssten bis 30. September erfolgen.
TOP 5: Online fraud: Stepping up the fight against online fraud in the EU (12499/25)FIN präsentierte die nationalen Plattformen für die Kommunikationsmit dem Privatsektor (Bank Inquiry System, LEA Warrant Management and lawfull interception, Phenomen-level exchange of information). Diese diene insbesondere auch der Prävention. Präventionskosten seien insgesamt steigend und man wolle mit passenden Instrumenten diese Kosten senken. Die Plattformen würden auch bei der Nachverfolgbarkeit von kriminellen Gewinnen helfen.
Europol präsentierte die Erkenntnisse der Bereiche EFECC und EC3 und kündigte eine Veröffentlichung zu spoofing an.
Auf Basis der im Bezugsdokument übermittelten Fragen fand eine umfassende Aussprache statt. Die Bedeutung des Themas wurde von allen wortnehmenden MS (EST, BGR, POL, CZE, FRA, DEU, BEL, SWE, SVN, NLD, GRC, LVA, CYP, LTU, SVK, ESP, FIN, AUT, PRT, DNK, ROU, HRV) betont. Viele MS nannten Investitionsbetrug sowie fake shops/Banken als häufigste Form des online Betruges (DEU, BGR, LTU, FIN, HRV, SVK, PRT, AUT, SVN, BEL, FRA, CZE). Als weitere Bedrohungen wurden Schockanrufe/falsche Polizei- oder Behördenmitarbeiter*innen (DEU, BEL, EST, CZE, LVA, LTU, SVK) und Kontaktbetrug u.a. romantic scam (SWE, FRAU, DEU, POL). Neben dem wirtschaftlichen Schaden sei auch der Vertrauensverlust der Bevölkerung bzw. ein entsprechendes Unsicherheitsgefühl zu beachten (NLD, LVA, PRT). Die Problematik werde durch die Einsatzmöglichkeiten von KI noch verstärkt (DEU, ROU, POL, CZE, HRV). Als besondere Herausforderung sahen die meisten Staaten die grenzüberschreitende Zusammenarbeit an. Gewinnes seien immens und würden schnell auf ausländische Konten verschoben. Auch säßen die Tätergruppierungen meist im Ausland (DEU, HRV). Ein möglicher künftiger Rechtsrahmen müsse dies berücksichtigen; aktuell sei die grenzüberschreitende Zusammenarbeit, insbesondere mit Drittstaaten viel zu langsam oder gar unmöglich. Der Informationsaustausch müsse deutlich schneller werden (DEU, EST, POL, FRA, SWE, NLD, LTU, SVK, PRT), hierbei könnten öffentlich-private Partnerschaften hilfreich sein. Man müsse die Privatwirtschaft stärker in die Pflicht nehmen. Zudem seien verstärkte Sensibilisierungskampagnen und weitere Präventionsmaßnahmen sinnvoll (DEU, EST, BGR, SVK, ROU, CZE, FRA, SWE, GRC, NLD, PRT). Neben uns erwähnten auch NLD, FIN, FRA und KOM Europol als wichtigen Partner bzw. erwähnten EMPACT als Möglichkeit der Zusammenarbeit.
KOM dankte für die Diskussion und sagte zu, die Beiträge bei der Erarbeitung eines Aktionsplans zu berücksichtigen. Man werde sicherlich die Problematik der verbesserten Kooperation und Koordination aufgreifen und versuchen, einen automatisieren Informationsaustausch zu fördern. Wichtig sei ein ganzheitlicher und multidisziplinärer Ansatz. So habe es schon vereinzelt Kooperationen zwischen Strafverfolgung und Verbraucherschutz gegeben. Beim EMPACT habe man eine einsprechende OA vorgeschlagen. Es habe sich aber kein Action Leader hierfür gefunden.
Vorsitz sagte zu, die Diskussion weiter zu verfolgen und bat um schriftliche Kommentare bis zum 17. Oktober.
TOP 6: AOBKOM berichtete kurz über die fortlaufenden Arbeiten zur Zukunft von Europol. Es habe in den letzten Monaten neben dem Kick-off Treffen auch Diskussionen im COSI sowie beim Europol Verwaltungsrat gegeben. Man befinde sich zudem im engen Austausch mit Europol. KOM habe zusätzliches Personal gewonnen und einen beträchtlichen Anstieg der Mittel für den nächsten MFR angemeldet. KOM plane nun die angekündigten technischen Workshops (6./7. November, 18/19. Dezember). Einladungen mit weiteren Informationen würden in Kürze übersandt. Der Evaluierungsbericht gemäß Art. 68 werde demnächst abgeschlossen. Zudem bereite ein Vertragsnehmer derzeit eine Studie durch, die in ein staff working document einfließen solle. KOM appeliere an de MS, den Vertragsnehmer hierbei zu unterstützen.
KOM berichtete zudem über eine Machbarkeitsstudie zum Thema Polizeiausbildung. Ziel sei eine Verbesserung des Ausbildungsniveaus insbesondere im Bereich der internationalen Zusammenarbeit. Auch hierbei werde es umfangreiche Konsultationen geben. CEPOL sei eingebunden. Ein „Validierungsworkshop“ sei am 17. Dezember geplant.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Datenarbeiter:innen: Mit vereinten Kräften gegen die Ausbeutung durch Big Tech
In Berlin trafen sich vergangene Woche Arbeitskräfte zur Vernetzung, die für den Erfolg von KI-Anwendungen und Sozialen Medien unverzichtbar sind. Sie streiten für bessere Arbeitsbedingungen und fordern Politik und Gewerkschaften auf, sich endlich ihrer Sache anzuschließen.
Datenarbeiter:innen machen vieles in unserer digitalen Welt erst möglich.Sie wollen nicht länger unsichtbar bleiben: In Berlin haben sich vergangene Woche Datenarbeiter:innen und Content-Moderator:innen aus den USA, Kenia, Nigeria, Deutschland, Venezuela und Spanien für eine zweitägige Versammlung getroffen. Die Arbeiter:innen sind Fachleute für Daten-Aufbereitung und Online-Sicherheit. Ihre Arbeit spielt für den Erfolg von Künstlicher Intelligenz und Sozialen Medien eine unverzichtbare Rolle, trotzdem weiß kaum jemand von ihnen.
Beschäftigt sind die Arbeiter:innen häufig über Outsourcing-Firmen. Sie erhalten oft mickrige Gehälter. Am Arbeitsplatz werden sie konstant überwacht und sind permanentem Erfolgsdruck ausgesetzt. Die Tech-Konzerne, deren Probleme sie lösen, profitieren von ihrer Ausbeutung und nehmen in Kauf, dass sie alleingelassen werden, auch wenn sie potenziell traumatisierende Tätigkeiten wie die Moderation gewalttätiger Inhalte übernehmen müssen.
Das wollen die Arbeiter:innen nicht länger hinnehmen. In Berlin tauschten sie Erfahrungen aus, vernetzten sich und schmiedeten Pläne.
Große LohnunterschiedeSprechen dürfen die Arbeiter:innen über ihre Tätigkeit eigentlich nicht. Sie mussten Knebelverträge unterschreiben, um die Jobs zu erhalten, die ihr Überleben sichern. Deshalb bleiben alle, deren Statements wir wiedergeben, in diesem Artikel anonym.
Etwa die Person, die von den jüngsten Maßnahmen des Social-Media-Konzerns Tiktok berichtet, der seine Arbeiter:innen in Europa feuere, um woanders günstigere Arbeitskräfte anstellen zu können. So etwa in Casablanca, wo ein neues Moderationszentrum geplant werde. In anderen Fällen würden die Moderator:innen durch KI-Systeme ersetzt, die sie selbst trainieren mussten.
Eine weitere Person berichtet von den unterschiedlichen Gehältern, die global für die gleiche Arbeit gezahlt werden. Das sei auch innerhalb Europas der Fall: „Der Unterschied zwischen Ländern wie Spanien und den nordischen Ländern ist enorm“, sagt die Person, die in Barcelona bei einem Outsourcing-Unternehmen arbeitet. Dort könnten sich Datenarbeiter:innen oft kaum noch die Miete leisten, während Arbeiter:innen in Skandinavien sich von ihrem Gehalt eine eigene Wohnung kaufen könnten.
Kritik an GewerkschaftenOrganisiert wurde das Treffen vom Forschungszentrum Weizenbaum-Institut und der Nichtregierungsorganisation superrr lab. „Die zwei Tage waren für uns etwas Besonderes, weil sie von transnationaler Solidarität geprägt waren“, schreiben Milagros Miceli und Julia Kloiber im Anschluss. „Die Arbeiter*innen schließen sich über Landesgrenzen hinweg zusammen, um den tückischen Taktiken von Big Tech entgegenzutreten, die darauf abzielen, Arbeiter:innen gegeneinander auszuspielen und sich ihrer rechtlichen Verantwortung zu entziehen.“
In den nächsten Jahren gehe es darum, etablierte Gewerkschaften und politische Vertreter:innen zu gewinnen, „damit sie diesen Kampf endlich unterstützen“, so die beiden Organisatorinnen. Dass das notwendig ist, zeigt auch Kritik der Arbeiter:innen vor Ort.
„Weil die Gewerkschaften sich nicht an unseren neuen Sektor angepasst haben, gibt es nichts, was sie für uns tun können, wofür wir nicht als Betriebsrat selbst kämpfen könnten“, sagte eine Person. Zu häufig würden Gewerkschaften Beschäftigte nur als Zahlen sehen. So sei es in der Vergangenheit vorgekommen, dass die deutsche Gewerkschaft ver.di Moderator:innen als Callcenter-Agenten dargestellt habe. „Das ist falsch und verschafft uns nicht die Anerkennung, die wir verdienen.“
Gemeinsamer Kampf für bessere BedingungenAnerkennung für ihre Leistungen ist schon lange ein großes Thema für die Arbeitskräfte, die oft lapidar als „Klickarbeiter:innen“ bezeichnet werden. Tatsächlich aber braucht es für viele ihrer Tätigkeiten intensives Training – ohne ihre Arbeit würden heute weder KI-Anwendungen noch Soziale Medien funktionieren. Zu ihrer Vision der kollektiven Emanzipation gehöre es, „unsere Arbeit als qualifizierte Arbeit anzuerkennen“, sagt deshalb eine:r der Arbeiter:innen. Außerdem müsse man Druck auf Arbeitgeber ausüben, damit sie betroffenen Arbeitnehmern angemessene psychologische Unterstützung bieten und diese auch bezahlen.
„Was wir brauchen, ist eine solide, transnationale und branchenübergreifende Vernetzung der Arbeitnehmer:innen in Form einer neuen repräsentativen Gewerkschaft“, sagte eine andere Person vor Ort. Daran wollen gemeinsam mit den Arbeiter:innen auch Kloiber und Miceli in den kommenden Jahren arbeiten. Außerdem wollen sie gemeinsam Anforderungen an ein maßgeschneidertes Mental-Health-Programm entwickeln und Wissenstransfer rund um Arbeitskämpfe verbessern.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Automatisierte Datenanalyse: Palantir-Gesetze missachten Vorgaben aus Karlsruhe
Bundes- und Landesdatenschützer üben Kritik am Palantir-Einsatz und den Gesetzen, die automatisierte Polizeidatenanalysen erlauben. Sie verlangen eine verfassungskonforme Neuausrichtung. Jetzt sei der Moment gekommen, einen digital souveränen Weg einzuschlagen.
Das Wort Palantir geht auf den Schriftsteller J. R. R. Tolkien und sein Werk „Der Herr der Ringe“ zurück, der damit fiktionale „sehende Spionage-Steine“ beschrieb. – CC-BY 2.0 BricksetIm Streit um die Nutzung von Palantir hat sich die Konferenz der unabhängigen Datenschutzaufsichtsbehörden des Bundes und der Länder (DSK) zu Wort gemeldet: In einer Entschließung (pdf) fordert sie bei der massenhaften automatisierten Datenanalyse durch die Polizei die Einhaltung rechtlicher Anforderungen und mahnt besonders an, dass die notwendige gesetzliche Grundlage den verfassungsrechtlichen Maßstäben genügen soll.
Aktuell erwägt Bundesinnenminister Alexander Dobrindt (CSU), für die Polizeien des Bundes die gesetzliche Voraussetzung zu schaffen, um Software des US-Konzerns Palantir oder von Konkurrenten zur automatisierten polizeilichen Rasterfahndung einsetzen zu dürfen. Im Rahmen eines Gesetzespakets soll das Vorhaben in Kürze umgesetzt werden. SPD-Justizministerin Stefanie Hubig hat allerdings noch Bedenken und fordert die Einhaltung rechtsstaatlicher Grundsätze.
Die DSK betont, dass die Erlaubnis zu solchen Analysen nur bei sehr schwerwiegenden Rechtsgutsverletzungen überhaupt denkbar sei. Sie könnten auch nur „im Rahmen sehr enger Verfahrensbestimmungen“ eingesetzt werden.
Detaillierte Vorgaben aus KarlsruheDie Datenschützer verweisen insbesondere auf ein Urteil des Bundesverfassungsgerichts zur automatisierten Datenanalyse aus dem Jahr 2023, das detaillierte Vorgaben macht. Demnach haben die Gesetzgeber von Polizeigesetzen, die solche Analysen erlauben, explizite Einschränkungen vorzunehmen, was die Art der einbezogenen Daten und deren Umfang betrifft, aber auch welcher Art die angewandten Analysemethoden und die Eingriffsschwellen sein dürfen. Sie müssen zudem Regelungen in die Polizeigesetze einbauen, die für diese starken Grundrechtseingriffe abmildernd wirken und auch deren Folgen berücksichtigen.
Nordrhein-Westfalen, Hessen und Bayern setzen Software von Palantir aktuell ein. Baden-Württemberg hat kürzlich ebenfalls eine gesetzliche Grundlage für die automatisierte Datenanalyse durch die Polizei in die Wege geleitet. Die dortige Polizei hatte den Vertrag mit Palantir aber bereits geschlossen, bevor eine Rechtsgrundlage für den Einsatz überhaupt bestand.
Die derzeitige DSK-Vorsitzende und Berliner Datenschutzbeauftragte Meike Kamp sieht in all diesen Bundesländern die gegebenen Voraussetzungen aus Karlsruhe nicht genügend berücksichtigt: „Bisher tragen die rechtlichen Vorschriften diesen Voraussetzungen nicht ausreichend Rechnung. Für Bund und Länder gilt es, sich an die Vorgaben des Bundesverfassungsgerichts zu halten und den Einsatz von automatisierten Datenanalysen durch die Polizeibehörden verfassungskonform auszugestalten.“
Das sieht auch Franziska Görlitz von der Gesellschaft für Freiheitsrechte (GFF) so, die gegen die Polizeigesetze in allen drei Bundesländern Verfassungsbeschwerde erhoben hat. Die Juristin fasst in einem Interview zusammen, warum keines der Landesgesetze verfassungskonform ist: „Die bisherigen Gesetze erlauben, dass zu viele Daten unter zu laschen Voraussetzungen in die Analyse einbezogen werden und dabei zu mächtige Instrumente zum Einsatz kommen. Gleichzeitig fehlen wirksame Schutzmechanismen gegen Fehler und Diskriminierung.“
Nicht „digital souverän“, sondern vollständig abhängigFür eines der drei unionsgeführten Bundesländer, die Palantir aktuell nutzen, nennt die DSK für das polizeiliche Analyseverfahren eine Hausnummer, welche die erhebliche Breite der Datenrasterung klarmacht: Etwa 39 Millionen Personendatensätze durchkämmt die bayerische Polizei mit Palantir. Die Datenschützer zeigen damit, dass praktisch jeder Mensch betroffen sein kann, eben nicht nur „Straftäterinnen und -täter, sondern etwa auch Geschädigte, Zeuginnen und Zeugen, Sachverständige oder Personen, die den Polizeinotruf genutzt haben“.
Zudem ist die Art der Daten höchst sensibel. In Polizeidatenbanken können beispielsweise auch Informationen über Menschen abgelegt werden, die eine „Volkszugehörigkeit“, einen „Phänotyp“ oder die „äußere Erscheinung“ beschreiben. Auch die Religionszugehörigkeit, verwendete Sprachen, Dialekte oder Mundarten dürfen festgehalten werden. Entsprechend besteht ein sehr hohes Diskriminierungspotential.
Die hohe Zahl von Betroffenen und die Art der gespeicherten Daten sind aber nicht etwa die einzigen Probleme. Das Problem heißt auch Palantir, ein 2003 gegründeter US-Anbieter, der heute am Aktienmarkt gehandelt wird und nach Marktkapitalisierung zu den dreißig wertvollsten Konzernen der Welt zählt. Die deutsche Tochter ist Vertragspartner der Polizei in vier Bundesländern. Die DSK pocht bei der Polizeidatenanalyse auf die Wahrung der „digitalen Souveränität“. Denn damit können ungewollte Abhängigkeiten oder Kostenfallen vermieden werden, in die Polizeien geraten können. Die DSK fordert hier „sicherzustellen, dass die eingesetzten Systeme hinreichend offen sind, um nötigenfalls einen Wechsel auf ein geeigneteres System zu ermöglichen“.
Das widerspricht den praktischen Gegebenheiten bei der Nutzung von Palantir fundamental: Der US-Konzern bietet ein geschlossenes und proprietäres System an, das mit denen anderer Anbieter nicht kompatibel ist. Die polizeilichen Nutzer sind genau das Gegenteil von „digital souverän“ oder selbstbestimmungsfähig, nämlich vollständig abhängig. Die DSK präferiert hingegen „Lösungen auf Open-Source-Basis“ und bietet für verfassungskonforme und praxistaugliche Lösungen auch „konstruktive Beratung“ an.
Palantir Wir berichten mehr über Palantir als uns lieb wäre. Unterstütze unsere Arbeit! Jetzt spendenDie Datenschützer fordern zudem, dass polizeiliche Datenbestände nicht in Drittländer übermittelt werden dürften, „die hinter dem europäischen Rechtsstaatsniveau zurückbleiben“. Polizeidatenverarbeitung soll erst gar nicht von Softwaresystemen abhängen, die Zugriffe dieser Drittstaaten zulassen.
Diese Forderung dürfte der Tatsache Rechnung tragen, dass für den ohnehin zwielichtigen US-Konzern Palantir der US CLOUD Act aus dem Jahr 2018 einschlägig ist. Das Gesetz bestimmt, dass US-Tech-Anbieter unter bestimmten Voraussetzungen zur Offenlegung von Daten gegenüber US-Behörden verpflichtet werden können, auch wenn sich diese Daten außerhalb der Vereinigten Staaten befinden. Die Befürchtung besteht also, dass selbst bei der Verarbeitung und Speicherung von Daten in einem polizeilichen Rechenzentrum unter bestimmten Umständen US-Behörden Zugriff erlangen könnten.
Es formiert sich WiderstandIn Baden-Württemberg, dem jüngsten Palantir-Clubmitglied, formiert sich bereits Widerstand gegen das geplante Polizeigesetz: Ein parteiunabhängiges Protest-Bündnis mit dem Namen Kein Palantir in Baden-Württemberg plant eine Kundgebung am 4. Oktober auf dem Schlossplatz der Landeshauptstadt und fordert dazu auf, den Landtagsabgeordneten schriftlich mitzuteilen, was man von der Idee hält.
Das geplante Gesetz soll in Kürze durch den Landtag gehen und beschlossen werden. Das Bündnis könnte mit dem Protest also wegen des beginnenden Wahlkampfs in Baden-Württemberg ein politisches Debattenthema setzen. Auch der bundesweite Campact-Appell „Trump-Software Palantir: Überwachungspläne stoppen“ hat große Unterstützung gefunden und wurde von mehr als 430.000 Menschen unterzeichnet.
Der Landesdatenschutzbeauftragte im Ländle, Tobias Keber, betont anlässlich der DSK-Entschließung, dass die Anforderungen an das Polizeigesetz „enorm hoch“ seien, sowohl rechtlich als auch technisch. Automatisierte Grundrechtseingriffe würden auch die Anforderungen an den Nachweis erhöhen, dass durch diese Datenanalyse relevante Erkenntnisse erschlossen werden können, die anders nicht in gleicher Weise zu gewinnen wären. Seine Behörde hatte in einer Stellungnahme zum Landespolizeigesetz (pdf) im Juni bereits Änderungen angemahnt und festgestellt, dass einige der darin getroffenen Regelungen „verfassungsrechtlichen Anforderungen nicht gerecht“ würden.
Die DSK-Vorsitzende Kamp betont, dass alle polizeilichen Datenanalysen rechtskonform, nachvollziehbar und beherrschbar sein müssten. Und sie fügt hinzu: „Jetzt ist der Moment gekommen, einen digital souveränen Weg einzuschlagen.“ Dass ein solcher Weg mit Palantir-Software nicht möglich ist, versteht sich von selbst.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Opt-Out-Anleitung: So verhinderst du, dass LinkedIn mit deinen Daten KI trainiert
Das Karrierenetzwerk LinkedIn will mit Nutzer*innendaten generative KI-Werkzeuge trainieren. Wir zeigen, wie man das dem Unternehmen verbieten kann.
Die Erlaubnis zum KI-Training ist bei LinkedIn voreingestellt. – Alle Rechte vorbehalten IMAGO / ZoonarWas steht im Lebenslauf, wer postet was, wer sucht schon wie lange einen Job? Die Social-Media-Plattform LinkedIn hat sehr aufschlussreiche Informationen über ihre Nutzer*innen. Normalerweise lässt sich einstellen, wer was sehen darf, aber eine Nutzerin bekommt demnächst Zugang zu vielen vorhandenen Datensätzen: die hauseigene Künstliche Intelligenz, die automatisiert Inhalte erstellen soll. Die wird ab dem 3. November mit Informationen der Nutzer*innen gefüttert.
Nicht zu diesen Informationen gehören laut einer Infoseite private Nachrichten oder Inhalte von minderjährigen Nutzenden. Wer volljährig ist und das KI-Training deaktivieren möchte, muss jetzt tätig werden. Dem Unternehmen diese Verwendung der eigenen Daten zu verbieten, geht so: Wer sich mit einem Browser in seinen Account einloggt, findet auf der Profilseite ganz unten den Link zu „Konto und Datenschutz verwalten“. Dort, in den Profileinstellungen, gibt es den Reiter „Datenschutz“ und unter „So verwendet LinkedIn Ihre Daten“ die Einstellung „Daten zur Verbesserung generativer KI“. Die ist standardmäßig auf „Ein“ gestellt, lässt sich aber mit einem Klick deaktivieren.
Noch mehr Wege, persönliche Informationen vor LinkedIn zu schützenDie KI soll etwa Arbeitgeber*innen dabei unterstützen, mit Job-Kandidat*innen in Kontakt zu kommen und Nutzer*innen bei Profilaktualisierungen, Nachrichten und Beiträgen helfen. Sie lässt sich auch verwenden, wenn man LinkedIn die Erlaubnis zur Datennutzung zum KI-Training eintzogen hat.
LinkedIn beruft sich bei dem KI-Training auf ein berechtigtes Interesse nach DSGVO. Bei bestimmten Änderungen der Nutzungsbedingungen, beispielsweise wenn ein neues Produkt eingeführt wird, will LinkedIn die Nutzer*innen künftig nicht mehr vorab über die Änderung informieren. Gleichzeitig verkündete das Unternehmen auch, dass es zu Werbezwecken künftig mehr Daten an die Muttergesellschaft Microsoft weitergeben will. Unter dem Reiter „Anzeigendaten“ in den Profileinstellungen lässt sich angesichts verschiedener Datenarten festlegen, dass LinkedIn diese künftig nicht mehr zum Ausspielen personalisierter Werbung nutzen darf.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Ägyptischer Aktivist und Blogger: Alaa Abd el-Fattah begnadigt
Nach sechs Jahren Haft wird der prominenteste politische Gefangene Ägyptens begnadigt. Seit Jahren kämpfen seine Familie und eine internationale Kampagne für die Freilassung.
Alaa Abd el-Fattah im Juni 2011 auf dem Tahrir-Platz in Kairo. – CC-BY 2.0 Lilian WagdyDer ägyptische Präsident al-Sisi hat den berühmten Blogger und Demokratie-Aktivisten Alaa Abd el-Fattah begnadigt. Das berichten die Nachrichtenagenturen AP und Reuters unter Berufung auf Abd el-Fattahs Anwalt und auf das ägyptische Staatsfernsehen. Wann er tatsächlich aus dem Gefängnis in die Freiheit entlassen wird, ist noch nicht bekannt.
Abd el-Fattah war einer der Protagonisten des Arabischen Frühlings 2011 in Ägypten und ist seit sechs Jahren in Haft. Der 1981 geborene Aktivist befand sich nach Angaben seiner Mutter Laila Soueif seit dem 1. September in einem Hungerstreik, um gegen seine Inhaftierung zu protestieren. Die Familie des Aktivisten, der auch einen britischen Pass besitzt, setzt sich seit Jahren mit einer internationalen Kampagne für seine Freilassung ein. Sie hatte dabei zuletzt auch die Unterstützung der britischen Regierung erhalten. Eine Arbeitsgruppe der Vereinten Nationen hatte die Haft von Abd el-Fattah als rechtswidrig und willkürlich eingestuft.
In einer ersten Reaktion twitterte seine Schwester Mona Seif, dass ihr Herz gerade stehenbleiben würde. Abd el-Fattahs andere Schwester Sanaa Seif verkündete, dass sie nun mit ihrer Mutter zum Gefängnis fahre, um herauszufinden, wann ihr Bruder entlassen werde.
Prominentes Gesicht der demokratischen RevolteSeit mittlerweile fast 20 Jahren war Abd el-Fattah immer wieder im Fokus der ägyptischen Repression. Schon vor der arabischen Revolution war er im Jahr 2006 für zwei Monate verhaftet worden. Nach dem arabischen Frühling 2011 saß er ab 2015 für mehr als vier Jahre im Gefängnis, weil ihm vorgeworfen wurde, politische Proteste organisiert zu haben.
Im September 2019 wurde Abd el-Fattah erneut festgenommen, vermutlich weil er den Tweet eines politischen Gefangenen teilte. Ein ägyptisches Staatssicherheitsgericht hat ihn im Dezember 2021 zu einer Gefängnisstrafe von fünf Jahren wegen angeblicher Verbreitung von Falschnachrichten verurteilt. Während seiner Haft trat er zuletzt im Jahr 2022 in Hungerstreik, um konsularischen Zugang zur britischen Botschaft zu erhalten.
Ab dem 29. September 2024 hätte Alaa Abd el-Fattah wieder auf freiem Fuß sein sollen. Dann wäre die fünfjährige Haftstrafe abgelaufen. Doch die ägyptische Justiz weigerte sich – entgegen der eigenen Strafprozessordnung – ihn aus dem Gefängnis zu entlassen, indem sie die zweijährige Untersuchungshaft nicht anrechnete.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Demonstrationen: Wie Lärmschutz die Versammlungsfreiheit beschränkt
Immer wieder machen Polizeien bei Demonstrationen Auflagen zur Lautstärke. Das greift tief in die Grundrechte ein. Die Berliner Polizei argumentiert neuerdings mit dem Arbeitsschutz der eingesetzten Polizisten, um Demos leiser zu drehen.
Menschen tanzen mit ordentlich Bass und Lautstärke vor dem Brandenburger Tor während einer Demonstration gegen die AfD im Jahr 2018. – Alle Rechte vorbehalten IMAGO / Emmanuele ContiniEr ist seit einer Protestaktion beim ARD-Sommerinterview bundesweit bekannt, aber Ordnungshütern wohl ein Dorn im Auge: Die Berliner Polizei nimmt offenbar die Anwesenheit des Protestbusses „Adenauer SRP+“ bei Versammlungen zum Anlass, diesen Demonstrationen besondere Lärmauflagen zu machen. So hatte die Berliner Versammlungsbehörde zuletzt am 2. August einer Demo gegen Rechtsextremismus und Verschwörungsideologie eine Lautstärkebegrenzung auferlegt. Im Auflagenbescheid an den Veranstalter hieß es:
Ein Lautstärkepegel von maximal 90 dB(A) am maßgeblichen Immissionsort (MIO) darf durch die zum Einsatz kommende Lautsprecheranlage nicht überschritten werden.
Diese Auflage hatte Auswirkungen auf die Teilnahme des Protestfahrzeuges vom Zentrum für politische Schönheit, das die Polizei – nicht nur in Berlin – seit Längerem auf dem Kieker hat. Im Verlauf der Versammlung stellte die Polizei mit ihrem Messgerät einen Verstoß gegen die Lärmauflage fest – und versuchte, die Lautsprecher des Fahrzeuges zu beschlagnahmen.
Später teilte die Polizei mit, dass ein Polizist durch die Lautstärke leicht verletzt worden sei. Insgesamt seien in den letzten Monaten durch das „Tatmittel Adenauer SRP+“ schon 26 Polizist:innen leicht verletzt worden, Ermittlungsverfahren wegen gefährlicher Körperverletzung würden laufen.
Nicht nur in BerlinDie Maßnahme gegen den antifaschistischen Protestbus steht exemplarisch für die neueste Hürde für Veranstalter:innen von Demonstrationen. So berichtete auch das Bündnis „MyGruni“, das immer wieder Demos mit Tausenden Menschen im Berliner Villenviertel Grunewald abhält, dass die Polizei bei Aktionen angeordnet habe, dass die Lautsprecherwagen beispielsweise beim Vorbeifahren an Seniorenheimen heruntergedreht werden müssten. Warum ausgerechnet Senior:innen, die in der Regel ja schlechter hören, von den Inhalten eines Protestes abgeschirmt werden sollen, bleibt das Geheimnis der Polizei.
Um die Lautsprecher zu beschlagnahmen, fuhr die Berliner Polizei schweres Gerät auf. - Alle Rechte vorbehalten Zentrum für politische SchönheitBerlin steht als Bundesland nicht allein, wenn es um solche Auflagen geht. Auch im sächsischen Dresden gilt seit vergangenem Jahr ein Richtwert von 90 Dezibel, in Bayern gibt es ähnliche Auflagen. Im nordrhein-westfälischen Düsseldorf setzte die Polizei bei einer Kundgebung – es war wieder der Adenauer-Protestbus – sogar die Lautstärke auf maximal 70dB fest, in Spitzen durfte sie 90dB nicht übersteigen. Um das abzusichern, erließ die Polizei sogar die Auflage (Dokument 1, Dokument 2), dass drei Polizeibeamte permanent im Bus sein sollten und zuvor vom Veranstalter in der technischen Bedienung des Fahrzeuges eingewiesen werden sollten.
Soweit so absurd und einschränkend. Doch was heißen eigentlich die Dezibel-Zahlen?
Wer in einer Diskothek feiert, ist auf der Tanzfläche oft Lautstärken von 90 bis 100 Dezibel ausgesetzt, manchmal auch mehr. Auf Dauer sind solche Lautstärken schädlich für das Gehör. Doch Lärmschutzauflagen auf 90 oder gar 70 Dezibel beschränken letztlich die Versammlungsfreiheit massiv.
Dazu muss man sich etwas näher anschauen, was es mit Dezibel auf sich hat und wie der Schall mit der Entfernung zu- beziehungsweise abnimmt: Die Skala, die den sogenannten Schalldruckpegel abbildet, verhält sich nicht linear, sondern logarithmisch. 10 Dezibel entsprechen etwa einer Verdopplung der empfundenen Lautstärke, gleichzeitig nimmt die Lautstärke bei einer Verdopplung des Abstandes zur Schallquelle um jeweils 6 Dezibel ab.
Etwas weiter entfernt nur noch ein FlüsternStehe ich bei einem Demo-Lautsprecher – der bei einem Meter Abstand die polizeilich erlaubten 90 Dezibel laut ist – in 64 Meter Entfernung, dann bleiben von den vorn lauten 90 Dezibel gerade noch 54 Dezibel übrig, was deutlich leiser ist als ein Fernseher auf Zimmerlautstärke oder die Geräuschkulisse in einem Büro – und in etwa der Lautstärke eines normalen Gesprächs zwischen zwei Menschen entspricht.
Bei der extremen Düsseldorfer Auflage mit den 70 Dezibel ist der Klang des Lautsprecherwagens in schon 32 Metern Entfernung nur noch als Flüstern mit etwa 40 Dezibel wahrzunehmen. Bei Umgebungsgeräuschen durch Verkehr oder dem Geraschel und Gemurmel von vielen versammelten Menschen, wird es dann schon schwierig, etwas von den politischen Inhalten zu verstehen.
Alles netzpolitisch Relevante Drei Mal pro Woche als Newsletter in deiner Inbox. Jetzt abonnierenDas hat Auswirkungen auf die Versammlungsfreiheit: Demonstrationen haben, gerade wenn sie laufen, oftmals eine Ausdehnung über mehrere Hundert Meter. Bei einer Lautstärkebeschränkung auf 90 Dezibel am Lautsprecher haben so viele der Teilnehmenden gar keine Chance, die Inhalte eines Lautsprecherwagens zu hören.
Und auch die Adressaten des Protests dürften durch so eine Regelung davon verschont werden, die Redebeiträge inhaltlich mitzubekommen. Demonstriere ich gegen eine Institution oder eine Veranstaltung, von der die Polizei den Lautsprecherwagen auf mehr als 50 Meter Abstand hält, dann dürfte der Adressat des Protests bei geschlossenen Fenstern nichts mehr vom Protest hören.
Eine allgemeine Beschränkung der Lautstärke widerspricht dem Grundrecht auf Versammlungsfreiheit, das Proteste laut Rechtsprechung in „Hör- und Sichtweite“ zum Adressaten ermöglichen soll. Proteste in Hörweite sind bei den üblichen Lautstärkebeschränkungen dann schon deutlich erschwert bis unmöglich.
So laut sind verschiedene Lärmquellen – es kommt aber auf die Entfernung an. - Alle Rechte vorbehalten IMAGO / Zoonar Flüsterdemo wegen Arbeitsschutz der Polizei?Der Lärmvorfall bei der Demo gegen Rechtextremismus in Berlin hat es nun bis ins Berliner Abgeordnetenhaus geschafft. Der grüne Innenpolitiker Vasili Franco hat eine parlamentarische Anfrage (PDF) mit vielen Fragen gestellt.
Spannend ist an der Antwort unter anderem, dass die Berliner Landesregierung die Lärmschutzauflagen in erster Linie mit dem Arbeitsschutz der eingesetzten Polizeibeamt:innen begründet, denn in der Regel dürften Demoteilnehmende oder Passant:innen gar nicht so nahe an den etwa drei Meter hoch hängenden Lautsprecher herankommen wie die messenden Polizist:innen.
Drei Polizisten messen die Lautstärke am Adenauer-Bus. Einer von ihnen soll sich laut Polizeiangaben dabei wegen der hohen Lautstärke leicht verletzt haben. - Alle Rechte vorbehalten Zentrum für politische SchönheitIn der Antwort auf die parlamentarische Anfrage heißt es: Es habe die Gefahr bestanden, dass durch den Einsatz von Lautsprechern mit einer über 90 Dezibel A-Bewertung (dB(A)) hinausgehenden Lautstärke „Belange des Schutzes Dritter vor Lärm, des Schutzes der Gesundheit und der körperliche Unversehrtheit der Versammlungsteilnehmenden, der eingesetzten Dienstkräfte der Polizei Berlin und unbeteiligter Dritter sowie zu berücksichtigende Belange des Arbeitsschutzes“ verletzt würden. Eine längere Konfrontation mit einem Schalldruckpegel von mehr als 90 dB(A) könne Gehörschäden verursachen.
In der Anfrage an die Landesregierung hat Vasili Franco auch gefragt, warum denn die Polizeibeamt:innen beim Messen direkt am Lautsprecher keinen Gehörschutz getragen hätten. Hierzu antwortet die Innensenatorin:
Im Gegensatz zu anderen Berufsgruppen ist es nicht möglich, dass Polizeibeamtinnen und -beamte während der Begleitung des Aufzuges einen über die Impulsschallgehörschutzstöpsel hinausgehenden Gehörschutz tragen. […] Das Tragen eines umfassenden Gehörschutzes ist daher mangels Effektivität nicht als milderes Mittel in Betracht zu ziehen (vgl. Verwaltungsgericht (VG) München, Urteil vom 24. Juli 2013 – 7 K 13.2850). Bei Versammlungen kann daher im Wege der Beschränkung eine Höchstlautstärke vorgegeben werden (siehe Niedersächsisches Oberverwaltungsgericht, Beschluss vom 10. November 2010 – 11 LA 298/10; Oberverwaltunsggericht Magdeburg, Beschluss vom 13. Februar 2012 – 3 L 257/10).
Den gesetzten Grenzwert von 90 Dezibel sieht die Berliner Innenverwaltung in Sachen Versammlungsfreiheit als unproblematisch an: Nach Meinung der Innenverwaltung würde der auferlegte Maximalwert das Schutzgut des Versammlungsgrundrechts aus Art. 8 GG als Recht zur kollektiven Meinungskundgabe wahren. Mit der angesetzten Lautstärke könnten laut der Landesregierung sowohl die eigenen Teilnehmenden als auch unbeteiligte Dritte erreicht werden, so dass die Binnen- und die Außenkommunikation gewährleistet war. Die Einwirkung auf den öffentlichen Meinungsbildungsprozess, die das Wesen einer jeden Versammlung ausmacht, sei damit möglich gewesen.
„Unverhältnismäßige Einschränkung der Versammlungsfreiheit“Das sieht der grüne Innenpolitiker Franco anders. Er kritisiert, dass „Versammlungen von der Polizei nicht als demokratische Wahrnehmung von Grundrechten, sondern als Hort von Gefahren betrachtet werden“. Im Falle des Protestbusses dränge sich mittlerweile der Eindruck auf, dass die Berliner Polizei nach Vorwänden suche, den Bus aus dem Verkehr zu ziehen, so Franco weiter.
„Lärmauflagen und penible Kontrollen muten in der Gesamtschau als unverhältnismäßige Einschränkung der Versammlungsfreiheit an. Es ist schon verwunderlich, dass wiederholt Verletzungen von Polizist:innen durch die überschrittene Lautstärke angeführt werden, gleichzeitig jedoch keinerlei Beschwerden oder Verletzungen von Dritten oder Demonstrationsteilnehmenden zu verzeichnen sind“, sagt Franco gegenüber netzpolitik.org.
Die Polizei schaffe durch ihren Einsatz faktisch mutwillig selbst den Grund, die Versammlungsfreiheit einzuschränken. „Der Protest auf der Straße wird im Ergebnis unterdrückt, während die rechtsextreme Propaganda im Netz lauter als jeder Demobus den politischen Diskurs verschiebt.“
„Mittel, um Versammlungsleitungen zu gängeln“Stefan Pelzer vom Zentrum für politischen Schönheit sagt gegenüber netzpolitik.org, dass er die Lautstärkebeschränkungen als willkürlich empfinde. „Sie dienen letztlich nur dazu, Demonstrationen jederzeit behindern zu können und Fahrzeuge wie unseren Bus von Demonstrationen ausschließen zu können.“
Kritik an Lärmauflagen hat auch der Republikanische Anwältinnen- und Anwälteverein (RAV): „Versammlungen müssen wahrgenommen werden können. Lautstärkeauflagen erschweren die Außenwahrnehmung. Sie sind ein Mittel, um Versammlungsleitungen unnötig zu gängeln“, erklärt auch Rechtsanwalt Peer Stolle, Vorstandsmitglied des RAV.
„Derartige Auflagen sind Ausdruck eines behördlichen Verständnisses, Versammlungen als Störung wahrzunehmen und nicht als elementaren Ausdruck einer lebendigen Demokratie“, so Stolle weiter.
Nehmen die Lärmschutzauflagen in Berlin zu?Wie oft die Berliner Versammlungsbehörde Demonstrationen in der Hauptstadt Lärmauflagen macht, ist nicht so leicht herauszubekommen. Die Berliner Polizei kann nach eigener Auskunft keine Angaben zur Entwicklung der Lärmschutzauflagen in den letzten Jahren machen oder sagen, ob es mehr werden. Bei der Polizei Berlin erfolge keine automatisierte Erfassung von Beschränkungen bei Versammlungen. „Deshalb ist ein Überblick dazu nicht möglich“, sagt ein Sprecher der Polizei gegenüber netzpolitik.org. In einer früheren kleinen Anfrage zum Thema antwortete die Senatsverwaltung, dass Lärmschutzauflagen immer eine Einzelfallbewertung voraussetzen würden.
Bei der Berliner Lauti-Gruppe, die seit vier Jahrzehnten etwa 50 Demonstrationen im Jahr mit einem Lautsprecherwagen unterstützt, heißt es, dass Lautstärkeauflagen bei Demonstrationen in Berlin noch die „absolute Ausnahme“ seien, aber immer wieder vorkämen.
„Wenn es dann aber doch willkürlich diese Auflagen gibt, stellt es eine starke Einschränkung der Demo dar, die ja den Zweck hat, gehört zu werden“, sagt Toni*, 39, die in der Gruppe mitarbeitet. „Sind solche Auflagen im Vorfeld bekannt, sollte man unbedingt rechtlich dagegen vorgehen“, so Toni weiter.
Lautstärkeauflagen in der VergangenheitEs ist nicht das erste Mal, dass die Frage von Lautstärke und Versammlungsfreiheit das Berliner Abgeordnetenhaus erreicht. Im Jahr 2023 gab es eine schriftliche Anfrage der Linkspartei (PDF) zum Thema. Schon damals wurde gefragt, auf welcher Grundlage eigentlich Lärmauflagen erteilt würden.
Hier antwortete die Senatsinnenverwaltung, dass der Behörde eine „einzelfallbezogene Bewertung der Zumutbarkeit“ vorbehalten bleibe. Die Versammlungsfreiheit beinhalte kein Recht, „musikalische Vorträge oder Redebeiträge in beliebiger Lautstärke abzuspielen“, hieß es dort weiter. Bei der Festsetzung von Grenzwerten würden „bei dem vorzunehmenden Rechtsgüterausgleich in praktischer Konkordanz die Zeit, Örtlichkeit und Teilnehmendenzahl der Versammlung und gegebenenfalls weitere Variablen miteinbezogen“.
Weiterhin wurde damals mit der öffentlichen Sicherheit argumentiert. Der Begriff der öffentlichen Sicherheit umfasse laut dem Innensenat u.a. die Individualrechtsgüter Leben und Gesundheit. Außerdem seien grundrechtlich relevante Belange wie beispielsweise Lärmschutz von Anwohnenden, Passantinnen und Passanten, aber auch die negative Versammlungsfreiheit anderer Personen in den Blick zu nehmen. Insgesamt sei es immer eine Einzelfallprüfung.
Fuckparade 2006. - CC-BY 2.0 Nicor Streitpunkt Musik- und TanzdemosIm Visier von Versammlungsbehörden und Polizeien sind seit Jahren Versammlungen, bei denen viel Musik gespielt wird. Hier gibt es immer wieder Auseinandersetzungen, ob Musik eine politische Meinungsbekundung ist. Der bekannteste Fall ist die „Fuckparade“, eine Demonstration, die gegen die Kommerzialisierung der Loveparade gestartet war. Hier stufte die Polizei im Jahr 2001 die Fuckparade nicht als Demonstration ein und verbot sie. Die Veranstalter:innen zogen bis vor das Bundesverwaltungsgericht, das ihnen im Jahr 2007 Recht gab und die Fuckparade als politische Versammlung anerkannte.
Ebenjener Fuckparade hatte die Berliner Polizei im Jahr 2023 allerdings strenge Lärmschutzauflagen gemacht, die den Charakter der politischen Musikparade stark veränderten, weil diese plötzlich ganz leise war. Unklar ist hier auch der unterschiedliche Umgang im Einzelfall. Während die Fuckparade starke Beschränkungen hinnehmen musste, sind bei der Musikdemo „Rave the Planet“, die seit 2022 in Berlin stattfindet, keine Lautstärkeeinschränkungen bekannt. Bei der Techno-Demo „Zug der Liebe“ hingegen setzte die Polizei wieder einen Höchstwert von 90 Dezibel fest.
Musik als Meinungskundgabe hat sich trotz mittlerweile längerer Tradition und zahlreichen Musik-Demonstrationen im ganzen Bundesgebiet noch nicht durchgesetzt. Jüngst hatte die Polizei Aachen der „Krachparade Aachen“, einer Demonstration aus Nachtleben und Subkultur, den Status als Demonstration abgesprochen und sie verboten. Die Veranstalter:innen hatten sich daraufhin gewehrt, waren aber sowohl vor dem Verwaltungsgericht Aachen als auch vor dem Oberverwaltungsgericht Münster gescheitert.
Augsburg schießt den Vogel abIm bayerischen Augsburg hingegen reglementiert man Musik und Lautstärke maximal versammlungsfeindlich. Bei einer Demo zum Frauentag 2022 durften Lautsprecheranlagen und Megafone „nicht für reine Unterhaltungs-/Vergnügungszwecke, sondern nur für direkte Versammlungszwecke“ verwendet werden.
Weiterhin verfügte die Versammlungsbehörde, durch das „Rufen von Parolen, Benutzen von Lärm- und ähnlichen Geräten darf es zu keiner unzumutbaren Lärmbelästigung von Passanten und Anwohnern oder Beeinträchtigungen des Straßenverkehrs kommen“. Zudem sollten „alle Reden und auch von Ton-/Bildträgern abgespielte Texte, Videos und Musikstücke“ den „öffentlichen Frieden“ wahren. So dürfe nicht zum „Hass gegen Bevölkerungsteile aufgestachelt werden oder zu Gewalt oder Willkürmaßnahmen aufgerufen werden, indem Teile der Bevölkerung beschimpft, böswillig verächtlich gemacht oder verleumdet werden“.
Die Veranstalterinnen fingen sich nach der Demo einen Strafbefehl in Höhe von 1.200 Euro ein, weil sie die Auflagen missachtet hätten. RAV-Vorstandsmitglied Peer Stolle sagte damals gegenüber netzpolitik.org, solche rigiden Auflagen seien „mit einer liberalen Demokratie nicht zu vereinbaren“.
* Name der Redaktion bekannt
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
KW 38: Die Woche, in der wir bemerkten, wie wir gehen
Die 38. Kalenderwoche geht zu Ende. Wir haben 14 neue Texte mit insgesamt 147.076 Zeichen veröffentlicht. Willkommen zum netzpolitischen Wochenrückblick.
– Fraktal, generiert mit MandelBrowser von Tomasz ŚmigielskiLiebe Leser*innen,
diese Woche hat meine Kollegin Karoline einen Text darüber geschrieben, wie Menschen anhand ihrer Art zu gehen eindeutig identifiziert werden können. In Russland und China wird solche Gangerkennung schon lange eingesetzt, auch deutsche Polizeibehörden beschäftigen sich bereits mit dem Thema.
Amnesty International und AlgorithmWatch warnen davor, dass die Technologie das Ende der Anonymität im öffentlichen Raum bedeuten könnte. Denn gegen Gangerkennung hilft – anders als gegen Gesichtserkennung – keine Maskierung. Vor der Technologie kann man sich nicht verstecken.
KI, die menschliche Bewegungen analysiert, wird in Mannheim seit sieben Jahren getestet. Das ist die technologische Grundlage, die zur Gangerkennung nötig ist. Seit 1. September wird sie auch in Hamburg eingesetzt. Zahlreiche weitere Länder und Städte haben Interesse angemeldet. Die Technologie ist dazu gedacht, Straftaten zu detektieren, etwa Schlagen oder Treten. Die Erkennung weiterer Bewegungsabfolgen, etwa derer, die bei einem Drogendeal ausgeführt werden, ist geplant. Von da ist es nur ein kleiner Schritt bis zur Analyse der jeweils persönlichen Art zu gehen.
Die Technologie wird als besonders privatsphärenfreundlich beworben, weil sie die Bilder der betroffenen Menschen zu Strichzeichnungen abstrahiert. Weder Gesicht noch Statur spielen dabei eine Rolle. Doch wie der Text von Karoline zeigt, können genau solche Strichmännchen und die persönliche Art, die Glieder zu bewegen, Menschen eben doch eindeutig identifizieren.
Das ist ein Problem. Denn mit dem Argument, dass die Verhaltenserkennung ja so privatsphärenfreundlich sei, wird der Aufbau neuer Überwachungskameras deutlich erleichtert. Wenn die dann aber doch zur Identifikation von Personen eingesetzt werden können, schlägt der versprochene Privatsphärenvorteil ins Gegenteil um.
Viel Spaß beim Lesen!
Martin
Degitalisierung: Die AbkürzungGerade wenn ein Problem rein technisch erscheint, lohnt es sich, eine Frage zu stellen: Was macht das mit den Menschen? Das könnte einigen Schaden verhindern, bevor etwas wild drauf los digitalisiert wird, findet unsere Kolumnistin Bianca Kastl. Von Bianca Kastl –
Artikel lesen
Elon Musk hat am Samstag als Sprecher einer Großdemonstration zu Gewalt aufgerufen. Doch die Bundesregierung und viele Medien sind weiterhin auf seiner Plattform X. Was muss eigentlich noch passieren, bis sie diesem gewaltbereiten Rechtsradikalen den Rücken kehren? Ein Kommentar. Von Markus Reuter –
Artikel lesen
Der Einsatz von Staatstrojanern durch den BND gefährdet den journalistischen Quellenschutz. Reporter ohne Grenzen zieht deshalb nun vor den Europäischen Gerichtshof für Menschenrechte. Es geht auch darum, dass die Betroffenen mangels Informationspflichten gar keine Chance haben, sich zu wehren. Von Markus Reuter –
Artikel lesen
Der Berliner Verfassungsschutz soll neue Regeln bekommen. Ginge es nach dem schwarz-roten Senat, dürfte er künftig live auf Videoüberwachung von Einkaufszentren oder Krankenhauseingängen zugreifen, um Menschen zu observieren. Fachleute stufen das als verfassungswidrig ein. Von Anna Biselli –
Artikel lesen
Nach dem Attentat auf den rechtsradikalen Influencer Charlie Kirk gerät in den Medien einiges durcheinander und aus dem Blick. Wir haben mit der Autorin Berit Glanz über Online-Kultur und Offline-Gewalt, kryptische Memes und Nihilismus gesprochen. Von Daniel Leisegang –
Artikel lesen
Was früher noch händisch im Kalender gezählt wurde, machen viele mittlerweile mit einer App: den Zyklus tracken. Doch viele bekannte Apps geben die intimen Daten zu Werbezwecken weiter. Deswegen hat netzpolitik.org besonders datensparsame Zyklus-Apps zusammengetragen. Von Karoline Tanck –
Artikel lesen
Vor einem Jahr erhielten wir einen Datensatz mit Milliarden Handy-Standortdaten aus Deutschland, vermittelt über einen Berliner Datenmarktplatz. Politiker*innen warnten vor einer Gefahr für die nationale Sicherheit. Neue Recherchen zeigen, wie der Marktplatz dem Geschäft weiter eine Plattform bietet. Von Sebastian Meineck, Ingo Dachwitz –
Artikel lesen
Biometrische Gangerkennung soll Menschen aus der Ferne identifizieren können, selbst wenn sie ihr Gesicht verhüllen. Unser Überblick zeigt, wie die Technologie funktioniert und wo sie bereits eingesetzt wird. Menschenrechtler*innen fordern ein Verbot.
Von Karoline Tanck –
Artikel lesen
Die Folgen des KI-Hypes für den Datenschutz sind schwer absehbar. Im Fall von Metas KI-Training zögern Aufsichtsbehörden, das Oberlandesgericht Köln gab dem Konzern sogar – fürs Erste – grünes Licht. Jura-Professorin Paulina Jo Pesch zeigt Schwächen des Urteils auf und fordert eine entschiedenere Durchsetzung der Datenschutzvorgaben. Von Gastbeitrag, Paulina Jo Pesch –
Artikel lesen
In seinem Buch „Allein mit dem Handy“ beschreibt Digitaltrainer Daniel Wolff lebhaft, was Kinder ihm beigebracht haben – über ihre Erlebnisse im Netz und ihre Angst vor den Eltern. Das Buch hebt die Debatte um Jugendmedienschutz auf ein neues Level. Eine netzpolitische Rezension. Von Sebastian Meineck –
Artikel lesen
Menschen, die von der Digitalisierung überfordert sind, finden bei einem Berliner Pilotprojekt Hilfe. Digitallots*innen unterstützen sie bei Problemen mit Geräten oder Services. Ein Besuch zeigt, wie nötig solche Stellen sind. Von Martin Schwarzbeck –
Artikel lesen
Janik Besendorf glaubt: Das BKA hat Fotos von ihm genutzt, um damit Software für Gesichtserkennung zu testen. Deshalb hat er heute eine Klage eingereicht. Er will, dass sich die Behörde „in Zukunft an geltendes Recht hält“. Von Martin Schwarzbeck –
Artikel lesen
Mit Hilfe von Einschüchterung, Zensur, Tech-Bros und neuen Medienmogulen gewinnt US-Präsident Trump immer mehr Einfluss auf Medien und soziale Netzwerke. Geradezu bilderbuchmäßig kommen dabei Werkzeuge für einen autoritären Umbau zum Einsatz. Ähnliche Muster sind auch schon bei uns zu erkennen. Ein Kommentar. Von Markus Reuter –
Artikel lesen
Maximilian von Grafenstein ist Professor für „Digitale Selbstbestimmung“ und hat mit seinem Team den ersten Einwilligungs-Agenten Deutschlands entwickelt. Das Tool namens „Consenter“ soll Nutzer:innen die Entscheidungsmacht im Datenschutz zurückgeben. In der neuen Folge versucht er, uns von dem Dienst zu überzeugen. Von Ingo Dachwitz –
Artikel lesen
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
#300 On The Record: Ist das wirklich die Lösung für das Cookie-Problem, Max von Grafenstein?
Maximilian von Grafenstein ist Professor für „Digitale Selbstbestimmung“ und hat mit seinem Team den ersten Einwilligungs-Agenten Deutschlands entwickelt. Das Tool namens „Consenter“ soll Nutzer:innen die Entscheidungsmacht im Datenschutz zurückgeben. In der neuen Folge versucht er, uns von dem Dienst zu überzeugen.
Gesprächspartner bei On The Record: Maximilian von Grafenstein https://netzpolitik.org/wp-upload/2025/09/OnTR-25-09.mp3In der neuen Folge „On The Record“ spreche ich mit Maximilian von Grafenstein. Er ist Jurist, Historiker, Professor für „Digitale Selbstbestimmung“ an der Universität der Künste in Berlin und Teil des Einstein Center for Digital Future. Zusammen mit einem Team hat er in jahrelanger Forschung ein Tool entwickelt, von dem er sagt, dass es die Cookie-Krise lösen kann.
Denn hinter den nervigen Bannern auf Online-Websites steht ein Grundproblem der Datenschutzgrundverordnung: Das Instrument der informierten Einwilligung soll Nutzer:innen eigentlich informationelle Selbstbestimmung ermöglichen, doch es ist zur Farce verkommen. Die Browser-Erweiterung „Consenter“ soll das ändern. Sie ist ein sogenannter Einwilligungsdienst, der Nutzer:innen zu ihrem Recht verhelfen soll. Einfach, übersichtlich und gut informiert sollen Menschen damit entscheiden können, wem sie im Netz für welche Zwecke ihre Einwilligung geben – und wem nicht.
Ich bin skeptisch, dass das funktionieren kann. Aber ich bin auch neugierig, dass da jemand die Datenschutzgrundverordnung ernst nimmt und dabei auch noch verspricht, dass davon nicht nur Nutzer:innen, sondern auch Unternehmen profitieren würden. Im Podcast stellt Maximilian von Grafenstein „Consenter“ vor, wir diskutieren aber auch über Grundfragen der Datenschutzpolitik.
Übrigens: Das „Consenter“-Team sucht Website-Betreiber:innen – idealerweise mit einer größeren Nutzerschaft – die sich an einem Beta-Test des Tools beteiligen. Interessierte können sich per E-Mail an Maximilian von Gafenstein wenden: max.grafenstein@law-innovation.tech
So sieht Consenter aus - Alle Rechte vorbehalten UDK BerlinIn dieser Folge: Ingo Dachwitz und Maximilian von Grafenstein
Produktion: Serafin Dinges.
Titelmusik: Trummerschlunk.
Hier ist die MP3 zum Download. Wie gewohnt gibt es den Podcast auch im offenen ogg-Format. Ein maschinell erstelltes Transkript gibt es im txt-Format.
Bei unserem Podcast „Off/On“ wechseln sich zwei Formate ab: Bei „Off The Record“ führen wir euch in den Maschinenraum von netzpolitik.org und erzählen Hintergründe zu unserer Arbeit. Bei „On The Record“ interviewen wir Menschen, die unsere digitale Gesellschaft prägen.
Unseren Podcast könnt ihr auf vielen Wegen hören. Der einfachste: in dem Player hier auf der Seite auf Play drücken. Ihr findet uns aber ebenso bei Apple Podcasts, Spotify und Deezer oder mit dem Podcatcher eures Vertrauens, die URL lautet dann netzpolitik.org/podcast.
Wie immer freuen wir uns über Kritik, Lob und Ideen, entweder hier in den Kommentaren oder per Mail an podcast@netzpolitik.org.
Links und Infos- Projektwebsite des Einwilligungsdienstes „Consenter“
- Regeln der Datenschutzgrundverordnung zur Einwilligung
- Studie „How effectively do consent notices inform users about the risks to their fundamental rights?“ von Paul Grassl, Nina Gerber und Maximilian Grafenstein
- Die Databroker Files von netzpolitik.org und Bayerischem Rundfunk
- Recherchen zu Abzocke bei Einwilligungen im Handy-Shop und in der Sparkasse
- Recherche zu manipulativem Design bei Cookie-Bannern
- Die Geschichte der gescheiterten e-Privacy-Verordnung
- Die Geschichte des gescheiterten Do-Not-Track-Standards
- Das TDDDG: Gesetz über den Datenschutz und den Schutz der Privatsphäre in der Telekommunikation und bei digitalen Diensten
- Die Einwilligungsverwaltungsverordnung des Bundesministeriums für Verkehr und Digitales
- Infoseite der Bundesdatenschutzbeauftragten zur Akkreditierung von Diensten zur Einwilligungsverwaltung
- Guidelines für eine nutzerfreundliche Cookie-Banner-Gestaltung der Bundesregierung
- Vorgaben der französischen Datenschutzbehörde CNIL zur Gestaltung von Cookie-Bannern
- Die Cookie-Pledge-Initiative der EU
- Belgisches Verfahren zum TCF-Tracking
- Artikel über Druck auf den Datenschutz in Deutschland und der EU
- Augmented-Reality-App „Mauerschau“
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Oligarche Gleichschaltung: Das Ende der Meinungsfreiheit in den USA und was wir daraus lernen müssen
Mit Hilfe von Einschüchterung, Zensur, Tech-Bros und neuen Medienmogulen gewinnt US-Präsident Trump immer mehr Einfluss auf Medien und soziale Netzwerke. Geradezu bilderbuchmäßig kommen dabei Werkzeuge für einen autoritären Umbau zum Einsatz. Ähnliche Muster sind auch schon bei uns zu erkennen. Ein Kommentar.
Donald Trump und seine MAGA-Bewegung bauen die mediale Vorherrschaft aus. – Alle Rechte vorbehalten IMAGO / ABACAPRESSGeradezu erdrutschartig verändert sich der Zustand der Meinungsfreiheit in den USA zum Schlechten. Vor zwei Tagen hat der Fernsehsender ABC auf Zuruf der US-Medienaufsichtsbehörde FCC die Late Night Show von Jimmy Kimmel abgesetzt. Der mutmaßliche Grund: Kimmel hatte im Zusammenhang mit Charlie Kirk kritische Comedy gesendet. Vergleiche zu Putins Russland machen bereits die Runde.
Und als sei das nicht genug, will US-Präsident Donald Trump nun offenbar auch, dass Fernsehsender, die „negativ“ über ihn berichten, ihre Lizenz verlieren. Mediale Kritik an ihm soll also quasi verboten werden. Das alles passiert ausgerechnet in dem Land, in dem die Meinungs- und Redefreiheit meist höher gehalten wurde als anderswo.
Trump-Freunde auf EinkaufstourIm Hintergrund läuft derweil die wirtschaftliche Übernahme von Medienkonzernen und sozialen Netzwerken. Nachdem die Tech-Oligarchen schon unmittelbar nach dem Amtsantritt Trumps gebuckelt haben, greift nun die superreiche Ellison-Familie nach Warner Bros und TikTok. Auch das wird die Trumpsche Mediendominanz bei Fernsehsendern und sozialen Medien weiter verstärken – und die Demokratie entscheidend schwächen.
Larry Ellison ist Mitgründer und Großaktionär von Tech-Gigant Oracle, er liefert sich gerade mit Elon Musk ein Kopf-an-Kopf-Rennen, wer der reichste Mann der Welt ist. Ellison ist Republikaner, gilt als Freund von US-Präsident Donald Trump (€) – und ist Geschäftspartner von Musk, dem er finanziell bei der Twitter-Übernahme half und in dessen Konzern Tesla er wichtige Vorstandsposten innehatte. Außerdem mischt Ellison zusammen mit OpenAI beim „Project Stargate“ mit, das gerade Oracles Geschäfte beflügelt.
Larry Ellisons Sohn David wurde lange als „rich kid“ belächelt. Sein Unternehmen Skydance hat sich aber unlängst den Medienkonzern Paramount einverleibt. Zu Paramount gehören nicht nur die Filmstudios, sondern auch Fernsehsender wie CBS, MTV und Nickelodeon. Trump hält David Ellison für einen „fantastischen jungen Mann“.
Aufstieg der neuen MedienmoguleDie Einkaufstour durch die Medienwelt soll nun weitergehen: Ellison Junior hat Warner Bros ins Visier genommen. Dem Medienkonzern gehört neben der Filmsparte und zahlreichen weiteren Geschäftsbereichen auch der einflussreiche Nachrichtensender CNN. Schon jetzt gelten die Ellisons als die aufsteigenden Medienmogule der USA(€). Und das mit Trumps Placet und Segen.
Und auch bei der geplanten Übernahme der US-Sparte der Video-Plattform TikTok haben die Ellisons offenbar ihre Finger im Spiel. Ein Deal mit der chinesischen Regierung über den Verkauf befindet sich anscheinend auf der Zielgeraden und der Konzern Oracle soll Teil des Konsortiums sein, das den Zuschlag erhalten wird. Ihm sollen dem Wall Street Journal zufolge auch Silver Lake und die Investitionsfirma Andreessen Horowitz angehören. Einer der Mitgründer der Investitionsfirma ist Marc Andreessen, der Donald Trump mit zwei Millionen US-Dollar im letzten Wahlkampf unterstützte. Kommt der Deal zustande, befände sich das US-amerikanische TikTok in der Hand von Trump-Getreuen.
TikTok hat in den USA 170 Millionen Nutzer:innen, knapp die Hälfte aller Einwohner der USA kann also über die Algorithmen mit Inhalten bespielt werden. Für viele ist TikTok die wichtigste Nachrichtenquelle, keine andere Plattform eignet sich so gut zur Informations- und Desinformationskontrolle. In zahlreichen Ländern spielt sie eine überragende Rolle bei der Verbreitung rechtsradikaler Erzählungen.
Alles netzpolitisch Relevante Drei Mal pro Woche als Newsletter in deiner Inbox. Jetzt abonnieren Silicon Valley auf Trump-KursDie Dominanz von Trump und seinen Freunden aus Medien- und Techkonzernen wird zunehmend erdrückend. Wenn man sich den Kotau der Tech-Bros vor dem Trump-Regime anschaut, dann weiß man bereits, wohin die Reise geht. Längst kommen dabei nicht nur warme Worte und schmierige Schmeicheleien zum Einsatz, sondern handfeste redaktionelle Beschränkungen, wie zahlreiche Entwicklungen in jüngster Vergangenheit zeigen:
- Twitter hat sich seit dem Kauf durch Elon Musk zur Propagandaschleuder X entwickelt. Der Milliardär hat das einstige globale Informationsnetzwerk auf die Dominanz rechter Accounts getrimmt, unterstützt offen rechtsradikale Parteien und Gruppierungen und ruft dabei auch zu Gewalt auf.
- Meta hat die Inhaltemoderation und das Factchecking zurückgefahren, um Trump zu gefallen, während Mark Zuckerberg mehr „maskuline Energie“ fordert.
- Paramount hatte im Juli bekanntgegeben, die Sendung „The Late Show With Stephen Colbert“ im kommenden Mai einzustellen. Der Showmaster hatte zuvor die Millionenzahlung seines Arbeitgebers an Trump als „große fette Schmiergeldzahlung“ bezeichnet.
- Und die Washington Post von Jeff Bezos hat erst vor wenigen Tage die Kolumnistin Karen Attiah entlassen, weil sie sich nach dem Attentat auf Charlie Kirk kritisch geäußert hatte.
All diese Maßnahmen in den USA passen in die Zeit. Moderne autoritäre Regimes besitzen und kontrollieren heute lieber Medien, als sie nur zu verbieten. Öffentlich-rechtlichen US-Sendern werden derweil die Gelder gestrichen, andere unliebsame Medien werden mit Klagen überzogen und der Zivilgesellschaft wird gedroht (€). Gleichzeitig entwickelt sich die Medienaufsicht FCC unter Brendan Carr zur Zensurbehörde.
In der Summe sehen wir so einerseits eine mediale Gleichschaltung durch Oligarchen und andererseits offene Einschüchterung und Zensur. Im Zusammenspiel schränkt das die Vielfalt der Meinungen und die Pressefreiheit in einem so atemberaubenden Tempo ein, dass man sich kaum mehr vorstellen mag, wie die politische Lage in die USA morgen, übermorgen oder in vier Wochen aussieht. Klar ist: Die amerikanische Demokratie steht am Abgrund.
Die rechte Lüge von der MeinungsfreiheitIn Deutschland sollten wir aus der Entwicklung in den USA lernen. Sie zeigt uns, wie entfesselte Konservative und Rechtsradikale selbst gefestigt geglaubte Demokratien in Windeseile niederreißen können. Geradezu bilderbuchmäßig kommen hier wie dort die Werkzeuge für den autoritären Umbau nach und nach zum Einsatz. Die Strategien und Taktiken setzen auf die Demontage von unabhängigen Medien, wie die aktuelle Debatte um den NDR oder orchestrierte Angriffe auf Journalist:innen wie Dunja Hayali auch in Deutschland zeigen.
Dabei wird klar, was wir alle bereits wissen, viele im Diskurs aber nach wie vor sträflich ignorieren: Wenn Rechte und Rechtsradikale Meinungsfreiheit fordern, geht es ihnen nicht um die Meinungsfreiheit aller. Stattdessen wollen sie die Grenzen des Sagbaren verschieben. Die Meinungsfreiheit nutzen sie nur als Blendgranate, damit am Ende alle anderen nur noch das sagen dürfen, was sie zulassen. Ob in den USA, in Ungarn oder auch bei uns geht es Rechtsradikalen immer nur um eines: das Grundrecht auf Meinungsfreiheit abzuschaffen.
Es ist höchste Zeit, dass wir noch deutlicher und lauter dagegen aufbegehren.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Biometrie-Test: Datenschutzaktivist verklagt BKA, weil es sein Gesicht missbraucht haben soll
Janik Besendorf glaubt: Das BKA hat Fotos von ihm genutzt, um damit Software für Gesichtserkennung zu testen. Deshalb hat er heute eine Klage eingereicht. Er will, dass sich die Behörde „in Zukunft an geltendes Recht hält“.
Janik Besendorf will nicht, dass das BKA mit seinem Gesicht Biometriesysteme testet. – Alle Rechte vorbehalten PrivatIm Oktober 2018 nahm die Polizei Janik Besendorf fest. Vorwurf: Hausfriedensbruch. Es folgte eine erkennungsdienstliche Behandlung. Vier Fotos wurden von ihm erstellt: Porträt, linkes und rechtes Profil sowie ein Ganzkörperfoto. Direkt danach durfte er gehen, der Vorwurf wurde kurz darauf fallengelassen. Doch die Bilder sind bis heute im Polizeisystem gespeichert.
Im Jahr 2019 hat das BKA schließlich 4,8 Millionen Porträtfotos von rund drei Millionen Personen benutzt, um vier verschiedene Systeme zur Gesichtserkennung zu testen. Das umfasste fast alle damals verfügbaren Bilder und deshalb vermutlich auch die von Besendorf. Der Datenschutzaktivist geht davon aus, dass es dafür keine Rechtsgrundlage gab. Das BKA gab gegenüber der Datenschutzaufsicht an, dass die Bilder zu wissenschaftlichen Zwecken genutzt worden seien, was nach dem BKA-Gesetz erlaubt wäre. Janik Besendorf sagt: „Die dürfen Forschung machen, aber nicht Marktforschung!“
Das BKA setzt seit 2007 ein Gesichtserkennungssystem mit dem Kürzel GES ein. „Die Erkennungsleistung des Systems wurde über die Jahre durch Updates des Algorithmenherstellers kontinuierlich verbessert, sodass das GES zu einem unverzichtbaren Hilfsmittel bei der Identifikation unbekannter Personen geworden ist“, schrieb das BKA 2017 in einer internen Mitteilung. Um zu sehen, ob das aktuell genutzte System eine wettbewerbsfähige Erkennungsleistung liefert, sollte es mit am Markt erhältlichen Systemen getestet werden. „Es gilt, die Frage zu beantworten, ob dem BKA noch das effektivste Gesichtserkennungssystem zur Verfügung steht“, heißt es in der genannten Mitteilung weiter.
„Ich sehe eine Gefahr“Zuerst hatte Besendorf sich bei der Datenschutzaufsicht über die mutmaßliche Nutzung seines Fotos beschwert, die hat die Beschwerde abgewiesen. Unterstützt vom Chaos Computer Club reichte er nun gemeinsam mit seiner Anwältin Beata Hubrig Klage vor dem Verwaltungsgericht Wiesbaden ein. Besendorf will feststellen lassen, dass die Verwendung seines Bildes – und damit auch aller anderen Bilder – rechtswidrig war. „Damit sich das BKA in Zukunft an geltendes Recht hält, also nur unternimmt, wofür es eine Rechtsgrundlage gibt. Schließlich geht es um Grundrechte. Es passiert leider immer häufiger, dass Polizeibehörden losgehen und irgendwas testen, obwohl gar nicht klar ist, ob es dafür eine Rechtsgrundlage gab. Ich sehe eine Gefahr darin, wenn die Polizei immer mehr technische Mittel benutzt“, sagt der hauptberufliche IT-Sicherheitsexperte.
Besendorf weiß, dass seine Fotos in der Polizeidatenbank INPOL-Z liegen, weil er das BKA danach gefragt hat. Wie man solche Auskünfte beantragt, erklärte er gemeinsam mit seiner Anwältin in einem Vortrag beim 38C3. Dort zeigten die beiden auch, wann man die Löschung von Daten aus Polizeidatenbanken verlangen kann. Besendorf will mit dem Löschantrag zu seinen Fotos allerdings noch warten, bis das Verfahren abgeschlossen ist, damit keine Beweise zerstört werden.
Den Test der Gesichtserkennungssysteme hat das Fraunhofer-Institut für Graphische Datenverarbeitung (Fraunhofer IGD) durchgeführt. Besendorf fürchtet, dass das BKA dafür seine Fotos an das Fraunhofer-Institut gegeben hat. Das BKA schrieb der Datenschutzbehörde allerdings: „Die Bilddaten haben das BKA nicht verlassen und standen Mitarbeitenden des Fraunhofer IGD auch nicht zur Einsichtnahme zur Verfügung.“ An anderer Stelle hieß es allerdings, Fraunhofer-Mitarbeitende seien – unter BKA-Aufsicht – im Rechnerraum gewesen.
Besendorf sagt: „Dass die Daten nicht an das Fraunhofer-Institut weitergegeben wurden, ist bislang eine Behauptung, vor Gericht wird sich das BKA bekennen müssen.“ Besendorf ist auch gespannt, welche Rechtsgrundlage das BKA für den Test angeben wird.
Die den Test betreffende Kommunikation zwischen der Datenschutzaufsicht und dem BKA, die netzpolitik.org vorliegt, zeigt, wie sehr das BKA die Datenschutzbehörde auflaufen lässt. Es antwortet auf mehrere Nachfragen nicht, lässt Fristen für geforderte Erklärungen verstreichen, übersendet zunächst nur eine Variante des Abschlussberichts, in der die Namen der Hersteller nicht genannt sind.
Mögliche Rechtsgrundlagen für den EingriffAls eine mögliche Rechtsgrundlage für die Speicherung nennt die Datenschutzbehörde in einem Schreiben an Besendorf vom Februar 2025 Artikel 6 der DSGVO. Demnach ist eine Datenverarbeitung unter anderem erlaubt, wenn sie zur Erfüllung einer rechtlichen Verpflichtung erforderlich ist. Angeblich gäbe es ein erhebliches öffentliches Interesse: die mögliche Senkung der Falscherkennungsrate bei der Gesichtserkennung. „Die potenziellen Folgen des polizeilichen Einsatzes einer fehlerbehafteten Gesichtserkennungssoftware für die betroffenen Personen, die von der Stigmatisierung über die Rufschädigung bis hin zu Diskriminierung und strafrechtlicher Verfolgung reichen können, können im Einzelfall gravierend sein“, schreibt die Datenschutzbehörde.
Das steht allerdings im Widerspruch zu dem, was das Amt im Juni 2022 an das BKA schrieb. Damals hieß es, der entsprechende Artikel des Bundesdatenschutzgesetzes sei aufgrund seiner Unbestimmtheit und angesichts der Eingriffsintensität keine taugliche Rechtsgrundlage für die Verarbeitung einer Vielzahl biometrischer Daten. „Hätte der Gesetzgeber hierfür eine Rechtsgrundlage schaffen wollen, hätte er – entsprechend den verfassungsrechtlichen Anforderungen – konkrete Vorschriften zu Zweck, Anlass und Verfahrenssicherungen geschaffen“, heißt es weiter.
Das BKA selbst nannte gegenüber der Datenschutzbehörde als Rechtsgrundlage für die Nutzung der Fotos für den Test einen Paragrafen des BKA-Gesetzes, der die Datenverarbeitung zum Zweck der wissenschaftlichen Forschung erlaubt. Die Datenschutzbehörde hält diesen Paragrafen hier allerdings für nicht anwendbar: „Vorliegend ging es um eine vergleichende Untersuchung der Leistungsfähigkeit marktreifer Gesichtserkennungssysteme. Neue Erkenntnisse, die den Fortschritt der Wissenschaft zu bewirken vermögen, sind nicht ersichtlich.“
USB-Anschlüsse deaktiviert, Festplatten zerstörtDas BKA hat sich, wie es der Datenschutzaufsicht schreibt, im Rahmen des Tests viel Mühe beim Schutz der personenbezogenen Daten gegeben: Das passwortgeschützte Computersystem, das dafür genutzt wurde, sei in einem abgeschlossenen Raum aufgebaut worden, zu dem nur das Projektteam Zugang gehabt habe. Einen Anschluss ans Internet oder an andere polizeiliche Systeme zur Datenerfassung habe es nie gegeben. Die Fotos seien auf einer verschlüsselten Festplatte transportiert worden. Und nachdem die Fotos eingelesen wurden, seien die USB-Anschlüsse des Computersystems deaktiviert worden.
Die Fraunhofer-Mitarbeiter, die am Projekt mitwirkten, seien einer Sicherheitsüberprüfung unterzogen worden. Nur die Auswertung der Daten – ohne Bilder und personenbezogene Informationen – sei dem Fraunhofer-Institut zur Weiterbearbeitung in eigenen Räumen ausgehändigt worden. Nach Abschluss des Projekts seien alle Datenspeicher zerstört worden.
Der Abschlussbericht des Fraunhofer-Instituts zeigt, welches der Systeme am schnellsten und am besten Menschen erkannte, und auch, in welchen Fällen Menschen von keinem der Systeme auf Fotos erkannt werden konnten. Getestet wurden meist, aber nicht nur, Bilder aus erkennnungsdienstlichen Maßnahmen; darüber hinaus gibt es im Polizeisystem aber beispielsweise auch Fotos aus Observationen.
Die Programme versagten demnach bei Bildern von vermummten oder verschleierten Gesichtern, bei zu geringer Auflösung und zu geringem Kontrast sowie bei tief gesenktem Kopf. Welche Hersteller Produkte zu dem Test beisteuerten, hält das BKA geheim. Nach dem Test blieb es bei dem System zur Gesichtserkennung, das es auch zuvor schon verwendet hatte.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Digital-Zebra: „Wie schön es ist, dass ich das jetzt weiß!“
Menschen, die von der Digitalisierung überfordert sind, finden bei einem Berliner Pilotprojekt Hilfe. Digitallots*innen unterstützen sie bei Problemen mit Geräten oder Services. Ein Besuch zeigt, wie nötig solche Stellen sind.
Rechts ist die Digitallotsin Lena Zerfowski, die Frau links neben ihr ist ein Model. Die Nutzerinnen, die wir für diese Geschichte begleitet haben, wollten lieber anonym bleiben. – Alle Rechte vorbehalten VÖBB, Fotografie: Barbara DietlSigrid* reißt die Augen auf, als hätte sie einen Zaubertrick gesehen. „Ach so!?“, ruft sie erstaunt. Sie nimmt ihr Kinn zwischen Daumen und Zeigefinger und beugt sich langsam immer weiter über ihren Laptopbildschirm, studiert das Abgebildete ganz genau. „Das ist ja klasse“, flüstert sie.
Sigrid hat gerade gelernt, dass man mithilfe von Tabs mehr als eine Internetseite auf einmal öffnen kann. Dabei ist sie technisch eigentlich gar nicht sehr unbedarft. Sie sagt stolz von sich, dass sie ihren Laptop „für die Dinge, die ich brauche, zu 90 Prozent beherrsche.“
Sigrid ist heute in die Berliner Amerika-Gedenkbibliothek gekommen, weil sie das Finanzamt fürchtet. Sie hat die Abgabefrist für ihre Steuererklärung bereits überzogen und kommt an einem bestimmten Punkt der Steuersoftware Elster nicht weiter. Doch als sie das Problem präsentieren will, ergibt sich eine noch viel elementarere Schwierigkeit: Sigrid hat ihr Passwort vergessen. Bei Elster lässt sich das nicht einfach nur per E-Mail zurücksetzen. Sigrid muss sich online authentifizieren. Sie hat keine Ahnung, wie das geht.
Die Digitalisierung schließt viele Menschen ausJe umfassender die Digitalisierung in unseren Alltag eingreift, je öfter es für Services keine analoge Alternative mehr gibt, desto weiter werden all jene abgehängt, für die der Umgang mit der digitalen Welt eine Herausforderung darstellt. Alte Menschen, Menschen mit Lernschwierigkeiten, Menschen mit sensorischen Beeinträchtigungen beispielsweise. Oder Menschen mit geringem Einkommen. Laut einer Studie zur Digitalkompetenz haben nur 32 Prozent von ihnen digitale Grundkenntnisse.
In einer Studie zur digitalen Teilhabe fanden 80 Prozent der Befragten, dass Menschen, die sich im Digitalen schlecht auskennen, es im Alltag zunehmend schwer haben. Lena Zerfowski soll solchen Menschen helfen. Die 28-Jährige ist Digitallotsin im Pilotprojekt Digital-Zebra, das die Berliner Bibliotheken aufgesetzt haben. Dort sollen Menschen, die sich mit Technik schwertun, Unterstützung beim Zugang zu digitalen Angeboten bekommen.
Bislang bleibt jenen, die an digitalen Herausforderungen scheitern, nur die Hoffnung, dass technikaffine Bekannte oder Familienmitglieder ihnen helfen. Die privatwirtschaftlichen Geräte- und Softwareanbieter können und wollen meist nicht assistieren. Die betriebswirtschaftliche Logik verbietet die ausufernde Auseinandersetzung mit themenübergreifenden Problemen von Menschen wie Sigrid. Deshalb beginnt nun die öffentliche Hand, Angebote zu entwickeln, die Digitalisierungsverlierer auffangen sollen. Neben der 1:1-Sprechstunde bei den Digitallots*innen gibt es in Berlin beispielsweise auch Digital-Cafés, wo es eher um Austausch in und mit einer Gruppe geht.
Hilfe zur SelbsthilfeSigrid setzt sich neben Lena Zerfowski auf einen Barhocker, wuchtet ihren Laptop auf den Tisch vor den beiden, verlegt das Kabel, steckt es ein und schaltet den Rechner an. Der Bildschirm bleibt sehr lange schwarz. „Er macht irgendwas. Was auch immer“, sagt Sigrid mit Berliner Akzent. „Wir geben ihm mal noch ein bisschen Zeit“, antwortet Zerfowski.
Sigrid trägt eine weißblonde Kurzhaarfrisur und weiße Turnschuhe von Reebok zu weißer Jeans und apricot-farbenem Pullover. Ihr Lippenstift ist pink, ihre Nägel schimmern zartrosa und ihre Brille hat goldene Bügel. Nur die Flecken auf ihren Händen verraten, dass sie vermutlich nicht mehr so jung ist, wie sie wirkt. Ihrem Computer ist das Alter schon leichter anzusehen: Der Laptop ist dick wie ein Band Harry Potter.
Nach einer ganzen Weile ist das Gerät endlich hochgefahren. „Sind Sie schon mit dem Internet verbunden?“, fragt Zerfowski. „Ich denke“, antwortet Sigrid. Zerfowski glaubt das nicht und zeigt ihr, wo in diesem Fall welches Symbol zu sehen wäre und erklärt, wie sie die Ansicht mit den verfügbaren W-LANs öffnet. Sigrid ist ganz erstaunt, wie viele dort sichtbar sind. Dann verbindet sie sich mit dem Bibliotheksnetzwerk. Das dauert vermutlich ein Vielfaches der Zeit, die Zerfowski gebraucht hätte, um das Gerät selbst ans Netz zu bringen, doch das ist Teil des Konzepts: Hilfe zur Selbsthilfe.
„Damit sich jeder willkommen und wohl fühlt“Lena Zerfowski hat eine Ausbildung zur Fachangestellten für Medien- und Informationsdienste gemacht, unter den Digitallots*innen sind aber auch Quereinsteiger*innen, ein Mediendesigner zum Beispiel. Als Digitallots*in absolviert man zudem zahlreiche Fortbildungen: bei der Polizei zu Internetbetrug, bei der Verbraucherzentrale zu Onlinetransaktionen, bei Vereinen für Seh- und Hörbehinderungen zum Thema Barrieren. „Da haben wir gelernt, dass wir klar sprechen müssen, den Mund nicht verdecken dürfen und die Person, mit der wir sprechen, anschauen sollen, damit sich jeder willkommen und wohl fühlt“, sagt Lena Zerfowski.
Sigrid öffnet den Firefox-Browser. „Ich gehe jetzt zu Elster“, sagt sie. Und muss wieder eine ganze Weile lang warten. Sigrid stützt das Kinn auf den Handrücken, hebt es und legt den Zeigefinger an die Schläfe, dann tippt sie sich an den Mundwinkel. „Warum macht der nix. Das ist jetzt komisch“, murmelt sie. Dann öffnet sich die Seite der Steuerverwaltung. Die Zertifikatsdatei findet Sigrid, aber dann fällt ihr, wie erwähnt, ihr Passwort nicht ein. Um es zu finden, versucht sie, die Zertifikatsdatei zu öffnen. Zerfowski erklärt ihr, dass das nicht geht und zeigt ihr den „Passwort vergessen“-Button.
Um ein neues Passwort zu vergeben, braucht Sigrid ihren Benutzernamen. Der steht in einer E-Mail des Finanzamtes. Aber wie soll sie da rankommen? Sie hat ja nun schon die Elster-Website im Browser geöffnet. Zerfowski zeigt ihr den Trick mit dem neuen Tab. Kurz darauf bekommt Sigrid noch einen Skill beigebracht: Wie man Zeichen kopiert und anderswo wieder einfügt. Sigrid ist begeistert. Doch beim Sicherheitscode, den sie kurz darauf per Mail bekommt, funktioniert das nicht.
„Wie soll das gehen?“„Sie merken sich einfach die ersten drei Zeichen und ich die letzten drei“, sagt Zerfowski. „Ich glaube, das ist eine blöde Idee, ich habe ein bisschen Gedächtnisprobleme“, sagt Sigrid. „Wir schaffen das schon“, sagt Zerfowski und behält recht. Doch um ein neues Passwort zu vergeben, muss Sigrid jetzt erst einmal ihre Identität verifizieren. „Wie soll das gehen?“, fragt sie.
Die Lots*innen tauschen sich regelmäßig über besondere Fälle aus, auch um die persönliche Aufarbeitung zu erleichtern. „Eine Frau, die wegen häuslicher Gewalt eine Wohnung sucht. Ein Mensch, der seinen digitalen Nachlass regeln will, weil er schwer erkrankt ist. Solche Fälle machen etwas mit einem“, sagt Olaf Wolter, einer von zwei Leitern des Projekts. Teil der Lots*innen-Arbeit ist auch die Vermittlung ins Hilfesystem, etwa zu spezialisierten Beratungsstellen. Wiederkehrende Probleme mit bestimmten Anwendungen melden die Lots*innen auch an deren Hersteller zurück, beispielsweise Banken oder das Arbeitsamt.
Sigrid wird nun in die Wunder der Online-Identifikation eingeführt. Sie wedelt nach Zerfowskis Anleitung mit ihrem Ausweis vor der Kamera und spricht zufällig generierte Worte in ein Selfie-Video. Nun muss sie 15 Minuten warten. Sigrid sagt: „Das ist nicht sehr benutzerfreundlich. Allein hätte ich mich da nie durchgewurschtelt.“ Lena Zerfowski sagt: „Wir versuchen, den Digitalzwang aufzufangen. Wenn es nur noch digital geht, brauchen die Leute eine Anlaufstelle.“
Der Hilfsbedarf ist hochIn diesem Moment spricht eine Kollegin Zerfowski an. Es gäbe da noch eine Nutzerin, die gerne von Zerfowski beraten werden würde. Krystyna* war schon eine Weile interessiert um die Beratungsbox herumgestreift. Sie trägt ihre grauen Locken offen, eine Nickelbrille, Skinny Jeans, schwarze Lacksneaker mit weißer Sohle, eine Jeansweste über einem T-Shirt. Sie sieht aus, als wolle sie eigentlich zu einem Heavy-Metal-Konzert und ein bisschen wie die Antithese zu der blütenweiß-schicken Sigrid. Zerfowski fragt Sigrid, ob das in Ordnung ist, wenn sie sich in der Wartezeit um Krystyna kümmert. Sie bejaht.
Der Bedarf an Dienstleistungen wie denen der Digitallots*innen vom Digital-Zebra-Projekt ist hoch. Wöchentlich nehmen etwa 350 Nutzer*innen die Angebote von Digital-Zebra in Berlin wahr, Tendenz steigend. Einen Termin brauchen sie nicht. Dass Menschen warten müssen, weil gerade noch andere beraten werden, kommt regelmäßig vor.
Dieses Zebra ist das Maskottchen des Projekts. Digital-Zebra heißt dieses, weil auch der Zebrastreifen einen sicheren Überweg garantieren soll – so wie die Digitallots*innen den Weg ins Netz begleiten. Schwarz und weiß stehe zudem für die Binarität, die der Digitalisierung zugrunde liegt. - Alle Rechte vorbehalten VÖBB/ZLB, Zeichnung: Jens Nordmann26 Bibliotheken sind aktuell beteiligt, demnächst sollen es 28 sein. Anfangs war mit viel weniger geplant, doch zahlreiche Bibliotheken haben sich aus eigenem Antrieb angeschlossen und ihre Mitarbeiter*innen zu den Fortbildungen für Digitallots*innen geschickt. Das Projekt wird vom Berliner Senat gefördert, läuft seit September 2023 und ist bis zum Februar 2026 befristet. Danach soll es Teil des Regelangebots der Berliner Bibliotheken werden.
„Wow“Krystyna schildert ihr Problem: „Ich soll 80 Euro für eine PDF-App zahlen. Ich will das nicht! Ich habe doch schon eine App für PDF“, sagt sie empört. „Wo haben Sie diese Forderung denn gesehen?“, fragt Zerfowski. „Das war, als ich auf Öffnen geklickt habe.“ Zerfowski zeigt Krystyna, wo sie sieht, welche Berechtigungen die entsprechende App hat, nämlich keine. „Ja, aber sie kommt immer wieder“, sagt Krystyna. „Die haben gesagt, wenn ich nicht bis morgen kündige, kostet das 80 Euro.“
„Also diese App kostet nichts und es gibt auch keine In-App-Käufe“, sagt Zerfowski. Sie und Krystyna sitzen sich gegenüber. „Sie können das lesen, wenn es auf dem Kopf steht?“, fragt Krystyna erstaunt. „Ja“, antwortet Zerfowski. Krystyna sagt: „Wow“.
Zerfowski findet heraus, dass Krystyna insgesamt vier PDF-Apps installiert hat. Bei einer davon gibt es In-App-Käufe. Zerfowski vermutet, dass diese App die Zahlungsaufforderung angezeigt hat. Dann schaut sie wieder nach Sigrid. Die sitzt tatenlos vor der Notiz, dass die Online-Legitimierung funktioniert hat. „Ich habe gewartet, weil ich nichts falsch machen wollte“, sagt Sigrid. Jetzt darf sie ein neues Passwort vergeben. Zerfowski dreht sich weg, Sigrid tippt entschlossen. Damit sie das Passwort nicht wieder vergisst, schreibt sie es zusätzlich auf die erste Seite ihres papierenen Terminkalenders.
„Ich tippe, aber es passiert nichts“Die Nutzer*innen des Angebots sind meist ältere Menschen. Aber auch unter Jüngeren gibt es welche, die beispielsweise nicht wissen, wie man eine Powerpoint-Präsentation erstellt, und deshalb Hilfe suchen. Von einem jungen Menschen wurde Zerfowski mal gefragt, wie man eine Maus bedient, „weil die nur noch das Touchpad kennen“.
Zerfowski wechselt wieder zu Krystyna. Sie hat die Theorie, dass Krystyna vielleicht ein Adobe-Abo angeboten wurde. „Haben Sie einen E-Reader“, fragt sie. „Einen was?“ „Ein Gerät, mit dem sie E-Books lesen können.“ „So etwas habe ich nicht. Aber ich habe noch ein anderes Problem. Wenn jemand anruft, weiß ich nicht, wie ich rangehen soll. Ich tippe, aber es passiert nichts.“
Zerfowski holt ihr Arbeitstelefon heraus und lässt Krystyna ihre Nummer eingeben, dann tippt sie auf den grünen Hörer. Auf Krystynas Bildschirm erscheint ein Anruf. „So sieht das aus, da kann ich nix tippen“, sagt sie. Zerfowski macht ihr vor, wie sie das Hörersymbol zur Seite zieht, um den Anruf anzunehmen.
„Ah“, ruft Krystyna, klatscht die Hände zusammen und hebt sie in einer betenden Geste. Zerfowski ruft sie noch einmal an und lässt sie diesmal selbst abheben. Krystyna strahlt und sagt „Dankeschön“. Als sie die Bibliothek verlässt, raunt sie einem Bibliotheksmitarbeiter zu: „Die ist ganz gut“ und zeigt dabei auf Zerfowski. „Für uns ist es vielleicht nur ein kleines Problem, aber für die Person kann es riesig wirken“, sagt die.
Wie Lena Zerfowski Sigrid vor Ärger mit dem Finanzamt rettetZurück zu Sigrid. Die ist nun endlich in ihrem Elster-Account und kann das eigentliche Problem suchen, die Stelle, an der es nicht weitergeht. „Sekunde. Ich bin völlig durch den Wind. Ah, hier ist es!“ Sigrid möchte eine Mietwohnung, die ihr gehört, angeben. „Aber der meckert mich dann immer an und sagt, ich hätte eine Ferienwohnung eingetragen. Ich habe mir das schon hundert Mal angeschaut, aber finde den Fehler nicht“, sagt sie.
Zerfowski lernt selbst viel bei der Arbeit, beispielsweise Videoschnitt, als jemand Hilfe mit seinen Urlaubsfilmen suchte. Sie erarbeitet sich die Lösung für das jeweilige Problem gemeinsam mit den Nutzer*innen, ruft zum Beispiel auch mit diesen gemeinsam bei einer Hotline an, wenn sie selbst nicht mehr weiter weiß.
„Im Grunde freut das die Person, wenn ich sage: Tut mir leid, das weiß ich auch nicht. Weil die sich dann nicht blöd fühlt. Deshalb gehen wir offen damit um, etwas nicht zu wissen und lernen dann was zusammen. Das ist ein schöner Prozess“, sagt Zerfowski. Informationen, die die Lots*innen bei der Arbeit gewinnen, tragen sie in ein Wiki ein, damit die Hilfe bei der nächsten Person mit dem gleichen Problem einfacher ist.
Zerfowski probiert einfach mal, was passiert, wenn sie eine bestimmte Zeile, in der Sigrid „0“ eingetragen hat, leer lässt. Und siehe da, es funktioniert. „Ich könnte Sie umarmen! Das hätte ich alleine nie hingekriegt. Ich freue mich ganz doll. Wissen Sie, wie viele schlaflose Nächte mich das gekostet hat?“, sagt Sigrid.
Zerfowski erzählt Sigrid noch, dass ihr Laptop mit Windows 10 läuft und das ab Oktober nicht mehr unterstützt wird. Wenn sie Hilfe bei der Umstellung auf Linux wolle, solle sie einfach wiederkommen. In Berlin-Marienfelde, wo Sigrid lebt, gäbe es übrigens auch Digitallots*innen, die ihr helfen könnten. Sigrid antwortet: „Ich kann ihnen gar nicht sagen, wie schön es ist, dass ich das jetzt weiß.“
*Name geändert
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Datenschutz und KI: Schluss mit der Zögerlichkeit!
Die Folgen des KI-Hypes für den Datenschutz sind schwer absehbar. Im Fall von Metas KI-Training zögern Aufsichtsbehörden, das Oberlandesgericht Köln gab dem Konzern sogar – fürs Erste – grünes Licht. Jura-Professorin Paulina Jo Pesch zeigt Schwächen des Urteils auf und fordert eine entschiedenere Durchsetzung der Datenschutzvorgaben.
Abwärtsspirale: Das Treppenhaus im Oberlandesgericht Köln – CC-BY-SA 4.0 1971markusHinter weitverbreiteten KI-Anwendungen stehen generative Sprach- und Bildmodelle, die mit riesigen Datenmengen gefüttert werden, auch mit personenbezogenen Daten. Das Problem: Teile der Trainingsdaten, darunter personenbezogene, lassen sich aus vielen der Modelle extrahieren. Unter welchen Umständen sich ein Modell zu viel „merkt“ und wie sich das verhindern lässt, ist bislang wenig erforscht. Zugleich werden Extrahierungsmethoden immer besser. Anbieter*innen können bislang nicht verhindern, dass Modelle personenbezogene Trainingsdaten ausgeben. Auch Chatbots können personenbezogene Daten von anderen verraten.
Außerdem „halluzinieren“ die Modelle. Sie generieren also falsche Informationen, die nicht in den Trainingsdaten enthalten sind. Weil KI-Unternehmen diese nicht offenlegen, können Forscher*innen nicht zuverlässig messen, wann ein Modell Informationen erfindet und wann es unrichtige Trainingsdaten wiedergibt. Zuverlässige Methoden zur Vermeidung von Halluzinationen gibt es bisher nicht.
Werden personenbezogene Daten aus einem Modell extrahiert, kann für Betroffene gerade die Kombination aus „Erinnerung“ und „Halluzination“ gefährlich sein. Ein mit personenbezogenen Daten trainiertes Modell generiert unter Umständen Falschinformationen über sie. Gerade bei öffentlichen Modellen besteht das Risiko, dass Nutzer*innen diese Informationen unkritisch weiterverbreiten.
Meta fragt lieber nicht um ErlaubnisMit Llama (Large Language Model Meta AI) ist auch Meta an dem KI-Rennen beteiligt. Meta nutzt Llama für eigene KI-Funktionen wie Transkriptions- oder Suchfeatures auf Instagram, Facebook und WhatsApp sowie für Chatbots oder in KI-Brillen, die das Unternehmen anbietet. Außerdem stellt Meta seine Modelle anderen zur Nutzung bereit. So können etwa Forscher*innen die Modelle testen oder Unternehmen auf Basis von Llama KI-Dienstleistungen oder -Produkte anbieten.
Im Juni 2024 informierte Meta die Nutzer*innen von Instagram und Facebook über eine Aktualisierung seiner Datenschutzrichtlinie. Diese Aktualisierung ließ Metas Vorhaben erkennen, seine KI-Modelle mit Nutzer*innendaten zu trainieren. Die Nutzer*innen konnten dem zwar widersprechen, die Widerspruchsmöglichkeit war jedoch schwer auffindbar.
Nachdem Datenschutzorganisationen wie noyb Meta scharf kritisierten, veröffentlichte der Konzern noch gleichen Monat weitere Informationen zum geplanten Training. Demnach beabsichtigte der Konzern, nur noch öffentliche Daten für das Training zu verwenden. Kurz darauf verkündete Meta, die irische Datenschutzbehörde verzögere das Training in der EU. Im April 2025 verkündete der Konzern dann den baldigen Trainingsstart.
Was trainiert Meta eigentlich mit welchen Daten?Inzwischen hat der Konzern damit begonnen, seine KI mit den Daten europäischer Nutzer*innen zu trainieren. Unklar ist weiterhin, welche Daten dafür genau genutzt werden. Meta stellt im Vergleich zu anderen KI-Unternehmen zwar mehr Informationen über das Training mit Social-Media-Daten bereit. Diese Informationen haben sich aber immer wieder verändert und lassen Fragen offen.
Das betrifft insbesondere den Umgang mit sensiblen Daten. Bei Llama handelt es sich um ein multimodales Sprachmodell, das neben Texten auch Bilder, Videos und Tondateien verarbeitet. Der für das Training genutzte Social-Media-Content umfasst damit etwa auch Fotos der Nutzer*innen. Metas Datenschutzinformationen verweisen auf öffentliche Inhalte wie Beiträge, Kommentare und Audiospuren.
Inzwischen heißt es in den Datenschutzinformationen, dass auch Daten von Drittpartner*innen und KI-Interaktionen für die KI-Entwicklung genutzt würden. Als Beispiele für KI-Interaktionen nennt Meta Nachrichten, die Nutzer*innen oder andere Personen von der KI erhalten, mit ihr teilen oder an diese senden.
Diese Angaben schließen private Sprachnachrichten und Transkriptionen nicht aus. Metas Umschreibung passt auch auf Chatverläufe mit Chatbots. Solche Chatverläufe können besonders sensible Daten enthalten, wenn etwa Chatbots für intime Gespräche zu mentaler Gesundheit oder parasoziale romantische Beziehungen genutzt werden.
Verbraucherzentrale scheitert vor GerichtUm den Beginn des Trainings zu verhindern, hat die Verbraucherzentrale Nordrhein-Westfalen im Mai 2025 einen Eilantrag beim Oberlandesgericht (OLG) Köln gestellt. Sie argumentierte insbesondere, dass Meta das Training nicht auf eine wirksame Rechtsgrundlage stützen könne, ist mit dem Eilantrag jedoch gescheitert. Das Urteil und Einblicke in die mündliche Verhandlung in Köln offenbaren erhebliche Mängel.
Meta hatte sich entschieden, keine Einwilligungen einzuholen, sondern beruft sich auf ein berechtigtes Interesse an der Nutzung der Daten für KI-Training. Die Verbraucherzentrale hält das für unzureichend, doch das Gericht folgt Metas Argumentation in seinem Urteil. Nach der Datenschutzgrundverordnung (DSGVO) können berechtigte Interessen die Verarbeitung personenbezogener Daten rechtfertigen, solange die Interessen Betroffener nicht schwerer wiegen. Dabei müssen diese der Datenverarbeitung aber widersprechen können.
Die Verbraucherzentrale NRW hat darauf hingewiesen, dass nicht alle Betroffenen widersprechen können. Facebook- und Instagram-Beiträge enthalten zuhauf personenbezogene Daten von Nicht-Nutzer*innen. Die Widerspruchsfunktion steht aber nur Nutzer*innen offen. Das Gericht ignoriert diesen Einwand. Zudem behauptet es ohne Begründung und trotz gegenteiliger Hinweise, Meta erfülle die Anforderungen der DSGVO an den Schutz von Minderjährigen.
Das Gericht halluziniert niedrige Risiken herbeiBerechtigte Interessen geben außerdem keine Rechtsgrundlage für Verarbeitungen her, die für Betroffene zu riskant sind. Das OLG Köln behauptet, die Risiken für Nutzer*innen seien gering. Dabei legt das Urteil nahe, dass die Richter*innen nicht verstanden haben, was Meta trainiert. Das Wort „Llama“ taucht im gesamten Urteil nicht auf. Auch beschreibt das Gericht keine Anwendungsszenarien.
Auf diese kommt es aber entscheidend an. Ein Transkriptionsfeature gibt wahrscheinlich keine extrahierbaren Daten aus. Aus Llama selbst werden jedoch sicher Daten extrahiert. Forscher*innen wenden Extrahierungsmethoden auf alle bekannten Modelle an. Je nachdem, welche Arten von Daten wie gut extrahierbar sind, könnte es dabei versehentlich auch zu Datenlecks kommen.
Gerichte prüfen in Eilverfahren die Rechtslage nur „kursorisch“, also nicht im Detail. Das OLG Köln reiht dabei aber mit großem Selbstbewusstsein Behauptungen aneinander, die aus Sicht der Datenschutzforschung haltlos sind. Selbst wenn Metas Training transparent genug wäre, fehlt es an tragfähigen Forschungsergebnissen für die Einschätzung des Gerichts.
Ein grober Fehler des Urteils betrifft besondere Kategorien personenbezogener Daten. Das sind sensible Daten, die die DSGVO besonders schützt, zum Beispiel Daten über Race, religiöse Anschauungen oder sexuelle Orientierungen. Social-Media-Daten enthalten viele solcher Daten. Besondere Kategorien personenbezogener Daten dürfen nicht auf Basis berechtigter Interessen verarbeitet werden, sondern nur unter strengeren Voraussetzungen, in vielen Fällen nur aufgrund von Einwilligungen. Das OLG Köln stört sich daran nicht.
Stattdessen behauptet das Gericht, dass die Anwendung der besonderen Schutzanforderungen nicht geboten sei. Das Urteil stellt hier wieder auf ein nicht weiter begründetes geringes Risiko ab. Dabei kommt es gerade im Bereich des maschinellen Lernens leicht zu unbemerkten Modellbias, also zu systematischen Fehleinschätzungen, die zum Beispiel zu rassistischer Diskriminierung führen. Besondere Kategorien personenbezogener Daten bergen dabei potenziell besonders hohe Risiken.
Bedenkliche InformationslageBedenklich ist zudem die Informationslage, auf die sich das Gericht stützt. In diesem Fall sind das vor allem die Angaben von Meta selbst. Das ist in einem Eilverfahren an sich nicht zu beanstanden – weil es schnell gehen muss, gelten geringere Beweisanforderungen. Gerichte arbeiten daher mit eidesstattlichen Versicherungen, formellen Erklärungen der Parteien. Um Falschangaben vorzubeugen, sind falsche eidesstattliche Versicherungen nach dem Strafgesetzbuch strafbar.
Das Urteil stellt entscheidend auf eidesstattliche Versicherungen von Metas Produktmanager für generative KI ab. Zwei in der mündlichen Verhandlung in Köln anwesende Personen berichten allerdings, dass die Versicherungen nie formgerecht abgegeben worden sind. (Die Autorin hat von zwei in der Verhandlung in Köln anwesenden Personen Informationen zum Ablauf der mündlichen Verhandlung und dabei getroffenen Aussagen des Gerichts erhalten. Eine der Personen ist seitens der klagenden Verbraucherzentrale am Verfahren beteiligt, die andere Person hat den Prozess beobachtet, ohne daran beteiligt zu sein.)
Eidesstattliche Versicherungen müssen mündlich oder im Original mit händischer Unterschrift abgegeben werden. Selbst wenn die Erklärungen von Meta formgerecht wären, hätte sich das OLG Köln besser nicht darauf verlassen. Es gibt zwar keine Anzeichen dafür, dass diese Falschangaben enthalten. Durch das deutsche Strafgesetzbuch wäre deren Richtigkeit aber nicht abgesichert: Falls der in Kalifornien ansässige Manager nicht einreisen will, hätten Falschangaben keine strafrechtlichen Folgen für ihn.
Zudem legt das Urteil nahe, dass Metas Erklärungen inhaltlich dünn sind. Sie bestätigen etwa das Funktionieren der Widerspruchsfunktion. Eine Pressemitteilung der für Meta zuständigen irischen Datenschutzbehörde (Data Protection Commission, DPC) zeigt jedoch, dass die Behörde Meta zur Nachbesserung der Widerspruchsfunktion aufgefordert hat. Es bleibt somit zweifelhaft, ob Widersprüche in der Vergangenheit einfach genug möglich waren und funktioniert haben.
Datenschutzbehörden lassen Meta erst mal machenAuch die Pressemitteilung der irischen Datenschutzbehörde und der Umgang des Gerichts damit verdienen besondere Aufmerksamkeit. Die für ihre Nachsicht gegenüber Datenkonzernen bekannte Behörde hat die Pressemitteilung am Vorabend der mündlichen Verhandlung in Köln veröffentlicht. Sollte die Behörde sich etwa mit Meta abgestimmt und so das Verfahren beeinflusst haben?
Das OLG Köln hat nach Berichten Anwesender schon in der mündlichen Verhandlung signalisiert, der Rechtsauffassung der irischen Behörde wahrscheinlich folgen zu müssen, warum auch immer das Gericht sich an deren Einschätzung auch nur lose gebunden fühlt. Das ist nicht nur im Hinblick auf die Gewaltenteilung bedenklich. Die Pressemitteilung enthält auch keinerlei Rechtsauffassung zur Frage nach der Datenschutzkonformität, der das Gericht folgen könnte. Sie enthält schlicht gar keine rechtliche Einschätzung. Es heißt lediglich, Meta habe in Absprache mit der Behörde Maßnahmen zur Verbesserung des Datenschutzes ergriffen und verfolge die Umsetzung weiter.
Aus der Pressemitteilung wird ersichtlich, dass die irische Behörde Meta nur beraten hat. Das war dem OLG Köln auch von Metas Hauptaufsichtsbehörde in Deutschland, dem Hamburger Datenschutzbeauftragten, bekannt. Im Urteil heißt es ausdrücklich, die Behörde habe Meta das Training „bislang“ nicht untersagt und beobachte derzeit die Folgen der Trainings.
Der Hamburger Datenschutzbeauftragte hatte im Juli 2024 die Datenschutzauswirkungen des Trainings generativer Sprachmodelle noch unterschätzt. Nach Berichten aus der mündlichen Verhandlung hat er angesichts seiner Einblicke in Metas Training diese Auffassung zurückgenommen, erhebliche Datenschutzbedenken geäußert und zunächst sogar ein eigenes Verfahren gegen Meta angekündigt. Außerdem berichtete er, dass die irische Behörde plane, ein Verletzungsverfahren im Oktober einzuleiten. Das spricht dafür, dass europäische Datenschutzbehörden von Verstößen wissen, Meta aber zunächst gewähren lassen.
Wider den KI-HypeDie Bedeutung des Kölner Verfahrens weist über Meta und über Deutschland hinaus. Das Urteil und die Vorgänge im Prozess legen nahe, dass europäische Gerichte und Aufsichtsbehörden bei KI dem Ansatz „Abwarten und Teetrinken“ folgen. Es lässt sich nur spekulieren, welche Rollen hier der Druck des KI-Hypes, Innovationspläne der EU oder auch blanke Naivität spielen.
Dabei macht die DSGVO nicht nur klare Vorgaben an KI-Unternehmen, sondern bietet diesen auch ausreichende Möglichkeiten, sich an die Vorgaben zu halten. Demnach müssen KI-Unternehmen die Datenschutzkonformität ihrer Vorhaben begründet nachweisen. Sie dürfen ihre Modelle trainieren und testen – allerdings nur zu reinen Forschungszwecken und ohne die KI in der Praxis einzusetzen – und damit blind auf die Menschheit loszulassen. Gerichte und Aufsichtsbehörden sollten diese Vorgaben durchsetzen, anstatt sich dem KI-Hype zu beugen.
Prof. Dr. Paulina Jo Pesch ist Juniorprofessorin für Bürgerliches Recht sowie das Recht der Digitalisierung, des Datenschutzes und der Künstlichen Intelligenz am Institut für Recht und Technik der Friedrich-Alexander-Universität Erlangen-Nürnberg. Sie koordiniert das vom Bundesministerium für Forschung, Technologie und Raumfahrt (BMFTR) geförderte interdisziplinäre Forschungsprojekt SMARD-GOV, das Datenschutzaspekte großer Sprachmodelle erforscht.
Eine englischsprachige Langfassung der Analyse des Verfahrens sowie eines weiteren Verfahrens beim OLG Schleswig-Holstein ist im CR-online blog erschienen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Biometrische Gangerkennung: Zeige mir, wie du gehst, und ich sage dir, wer du bist
Biometrische Gangerkennung soll Menschen aus der Ferne identifizieren können, selbst wenn sie ihr Gesicht verhüllen. Unser Überblick zeigt, wie die Technologie funktioniert und wo sie bereits eingesetzt wird. Menschenrechtler*innen fordern ein Verbot.
Unser Gang hat einen Wierdererkennungswert. (Symbolbild) – Alle Rechte vorbehalten IMAGO / Westend61, Bearbeitung: netzpolitik.orgUnser Gang ist besonders. Wir unterscheiden uns zum Beispiel darin, wie wir unsere Füße aufsetzen, unsere Arme beim Gehen schlenkern lassen oder wie lange unsere Schritte dauern. Solche Merkmale sind individuell und potenziell auch verräterisch, denn sie werden wie beiläufig bei der Videoüberwachung mit aufgezeichnet. Und anders als bei der biometrischen Gesichtserkennung kann man nicht einfach eine Maske aufsetzen, um den eigenen Gang zu verschleiern.
Wenn man Menschen auch von Weitem anhand ihrer Körpermerkmale erkennt, nennt man das biometrische Fernidentifizierung. In der öffentlichen Debatte darüber geht es meist um Gesichtserkennung. Dabei gibt es noch weitere Möglichkeiten, Menschen biometrisch zu erkennen. Eine solche Methode ist die biometrische Gangerkennung.
Verboten ist der Einsatz der Technologie in der EU nicht, im Gegenteil. Dort, wo die KI-Verordnung (AI Act) den Staaten Spielraum für biometrische Gesichtserkennung lässt, können Behörden auch andere biometrische Technologien einsetzen – auch wenn darüber selten diskutiert wird.
Dieser Artikel erklärt, was Gangerkennung bereits kann, und wo sie schon angewandt wird. Die Organisationen Amnesty International und AlgorithmWatch warnen vor der Technologie – die beispielsweise die Polizei bereits auf dem Schirm hat. Und im Auftrag der Europäischen Union erkunden Forscher*innen in Österreich ihren Einsatz an der EU-Grenze.
- Wie funktioniert Gangerkennung?
- Wie korrekt ist Gangerkennung?
- Deutschland: Polizei bildet sich zu Gangerkennung weiter
- Deutschland: Erkennung gehender Personen im Supermarkt
- EU: Forschung an Gangerkennung für die Grenze
- China und Russland: Gangerkennung über 50 Meter Entfernung
- Grundrechte in Gefahr: Menschenrechtler*innen fordern Verbot
Auch Menschen können andere Personen anhand ihres Gang identifizieren. Unter anderem in Großbritannien werden dafür Sachverständige vor Gerichte geladen, um etwa die Identität eines Tatverdächtigen festzumachen. Einer Studie über diese forensische Gangerkennung aus dem Jahr 2018 zufolge würden solche Gang-Expert*innen allerdings noch wenig mit Software arbeiten.
Inzwischen gibt es zunehmend technisch gestützte Methoden für Gangerkennung, die gemeinhin als „KI“ bezeichnet werden. Einer der Menschen, der dazu forscht, ist Simon Hanisch. „Gangerkennung funktioniert mittlerweile sehr gut mithilfe von Deep Learning und Objekterkennung“, erklärt der Forscher, der am Karlsruher Institut für Technologie zur Anonymisierung biometrischer Daten arbeitet.
Im Gespräch mit netzpolitik.org beschreibt er eine Art, wie Gangerkennung per Software heutzutage funktionieren kann: Zuerst zerlegt die Software das Video einer laufenden Person in einzelne Frames, also Momentaufnahmen. So lassen sich etwa die Phasen eines Schritts nachvollziehen, die Bewegungen von Armen und Beinen. Danach stellt die Software die Umrisse der Person frei. Sie sieht dann so ähnlich aus wie ein Ampelmännchen. Schließlich legt die Software die Umrisse aus mehreren Frames in Graustufen übereinander. Das sieht dann aus wie ein Ampelmännchen mit vielen Armen und Beinen.
Auf diese Weise sollen möglichst einzigartige Profile entstehen, anhand derer sich Menschen voneinander unterscheiden lassen – und wiedererkennen.
Wie korrekt ist Gangerkennung?Zu Gangerkennung sind in den vergangenen Jahren viele Studien erschienen. Sie beschreiben mehrere Verfahren, die verschieden genau sind. Manche Forschende verweisen auf äußere Faktoren, die Einfluss auf unseren Gang haben und deshalb die Wiedererkennung erschweren würden. Zum Beispiel könnten Schuhe, die Beschaffenheit des Bodens oder Taschen das Gangprofil verändern.
So stellten auch die Autor*innen der oben erwähnten Studie zur forensischen Gangerkennung fest: Der Beweiswert eines menschlichen Gang-Gutachtens vor Gericht sei relativ niedrig. Das war jedoch im Jahr 2018. Mittlerweile sind die technischen Mittel ausgereift genug, um Personen auch trotz sich ändernder Bedingungen zu identifizieren, wie Simon Hanisch erklärt. Die Software könnte auch Veränderungen des Gangs einbeziehen.
Eine KI ist jedoch nur so gut wie die Daten, mit denen sie trainiert wurde. „Für das Training benötigt man viele Daten“, sagt Hanisch, „die entsprechenden Datensätze gibt es aber heute schon“. Um nur eine einzelne Person anhand ihres Gangs über mehrere Überwachungskameras hinweg zu verfolgen, brauche es nicht sehr viele Daten, so der Forscher. Zur Identifikation würden bereits einige Beispiele genügen, die zeigen, wie diese Person geht.
Anders sehe es aus, wenn eine beliebige Person in einem Video eindeutig identifiziert werden soll, erklärt Hanisch. Dafür „wäre eine große Datenbank erforderlich, in der Gangbeispiele aller Personen vorhanden sind – analog zu einer Datenbank mit Gesichtsbildern oder Fingerabdrücken.“ Im Moment gibt es allerdings keine Anzeichen dafür, dass in Deutschland größere Datenbanken mit biometrischen Gangprofilen existieren.
Eine wichtige Komponente könne auch die Zeitspanne sein. Wie verändert sich der Gang eines Menschen über Jahrzehnte? Es gibt „noch nicht genug Forschung, um sagen zu können, wie gut die Gangerkennung über die Zeit funktioniert“, sagt Hanisch. „Wahrscheinlich wird es einen großen Einfluss haben; allerdings sind mir keine Studien bekannt, die das wirklich gut untersucht haben.“
Für eine realistische Anwendung von Gangerkennung brauche es noch mehr Forschung. „Meiner allgemeinen Vermutung nach würde die Gangerkennung in einem realistischen Setting außerhalb des Labors wahrscheinlich eher mäßig gut funktionieren.“
Trotzdem warnt Hanisch vor der Technologie: „Man sollte nicht vergessen, dass sich biometrische Merkmale kombinieren lassen, um bessere Ergebnisse zu erzielen, beispielsweise Gangerkennung mit Gesichtserkennung.“ Das Potenzial für staatliche Überwachung sieht Hanisch durchaus. Besonders sei es für Behörden vorteilhaft, Gangerkennung einzusetzen, weil „man seinen Gang nur schwer verstecken kann“.
Deutschland: Polizei bildet sich zu Gangerkennung weiterWir haben bei deutschen Polizeibehörden nachgefragt, ob sie biometrische Gangerkennung einsetzen oder sich zumindest damit beschäftigen. Die Landeskriminalämter (LKAs) aus 16 Bundesländern sowie das Bundeskriminalamt (BKA) haben den Einsatz computergestützter biometrischer Gangerkennung verneint.
Laut der Pressestelle des LKA Hessen „fehlt es an einer Datenbank, gegen die ein solches System Daten abgleichen könnte“. Gangerkennung hätten die Beamt*innen in Hessen allerdings auf dem Schirm. „Denkbar wären 1:1 Vergleiche, beispielsweise den Gang einer unbekannten Person mit dem Gang einer bekannten Person abzugleichen“, schreibt die Pressestelle. Dies könne „als Sachbeweis in einem laufenden Ermittlungsverfahren herangezogen werden“.
Das LKA Berlin hat sich ebenso mit Gangerkennung beschäftigt, allerdings nicht computerbasiert. Stattdessen würden Gutachten des kriminaltechnischen Instituts (KTI) des LKA Berlin „nach der Methode der beobachtenden Gangbildanalyse erstellt, wie sie auch in der Medizin und der Sportwissenschaft angewandt wird“. Auch das LKA Rheinland-Pfalz wende sich für solche Gutachten an das LKA Berlin.
Das LKA Saarland hat sich nach eigenen Angaben bereits mit biometrischer Gangerkennung beschäftigt, und zwar im Rahmen einer Fortbildung durch das BKA. Das BKA wiederum teilt mit, die angesprochene Fortbildung sei eine Online-Vortragsreihe der Deutschen Hochschule der Polizei gewesen. Dort habe man Vertreter*innen der Polizeien von Bund und Ländern über aktuelle Entwicklungen in der Kriminaltechnik informiert.
Deutschland: Erkennung gehender Personen im SupermarktGangerkennung findet wohl auch Verwendung in der freien Wirtschaft. Bereits 2024 berichtete netzpolitik.org von einem Rewe-Supermarkt in Berlin, der seine Besucher*innen mit hunderten Überwachungskameras durch den Laden verfolgt, die mitgenommenen Waren erkennt und dann an der Kasse abrechnet. Dabei arbeitet Rewe mit der israelischen Firma Trigo zusammen, die es sich zur Mission gemacht hat, den Einzelhandel mit sogenannter KI zu optimieren.
Im Rewe-Supermarkt soll es allerdings keine Gesichtserkennung geben, wie Rewe und Trigo betonten. Stattdessen würden Kameras die schematische Darstellung des Knochenbaus der Besucher*innen erfassen, um sie voneinander zu unterscheiden. Auch das kann eine Form biometrischer Gangerkennung sein, wie sie etwa in einer Studie der TU München beschrieben wird. Demnach könne Gangerkennung per Skelettmodell sogar besser funktionieren als über die Silhouette. Die Strichmännchen mit Knotenpunkten an den Gelenken aus der Münchner Studie ähneln optisch dem Pressematerial von Trigo.
Screenshot aus der Studie der TU München: Gangerkennung per Silhouette und per Skelett. - Alle Rechte vorbehalten Screenshot: Technical University of MunichAuf Anfrage von netzpolitik.org verneint Trigo allerdings den Einsatz von Gangerkennung: „Unser System unterscheidet zwischen Käufer*innen mittels computerbasiertem Sehen (‚computer vision‘)“, schreibt die Pressestelle. „Aus wettbewerbstechnischen Gründen können wir nicht tiefer auf technologische Details eingehen, aber wir nutzen keine Gangerkennung oder biometrische Identifikation.“
Ohne die technologischen Details, die Trigo vorenthält, lässt sich die Technologie nicht abschließend bewerten. Bereits 2024 hatten wir den Biometrie-Experten Jan Krissler (alias starbug) um eine Einschätzung gebeten. Er sagte mit Blick auf Trigo: „Körpermerkmale erfassen ist der Inbegriff von Biometrie – und das passiert hier.“
Die Technologie, deren Details das Unternehmen geheimhalten will, wird nach Angaben von Trigo schon in mehreren europäischen Länder eingesetzt. Wo genau? Auch hierzu verweigert die Pressestelle eine Antwort, wieder mit Verweis auf Wettbewerber*innen.
EU: Forschung an Gangerkennung für die GrenzeDie EU erforscht den Einsatz von Gangerkennung an der Grenze, Projektname: PopEye. Das Projekt läuft von Oktober 2024 bis September 2027. Auf der Projektwebsite gibt es beim Klick auf „Ergebnisse“ noch nichts zu sehen. In der dazugehörigen Beschreibung heißt es auf Englisch: „Das von der EU geförderte Projekt PopEye zielt darauf ab, die Sicherheit an den EU-Grenzen durch den Einsatz fortschrittlicher biometrischer Technologien zur Identitätsüberprüfung in Bewegung zu erhöhen“. Eine dieser Technologien ist Gangerkennung.
Die Grenzagentur Frontex listet PopEye als eines von mehreren Forschungsprojekten auf der eigenen Website auf. Bereits 2022 hatte Frontex Gangerkennung in einer Studie über biometrische Technologien beschrieben. Demnach benötige Gangerkennung „keine Kooperation der betreffenden Person und kann aus mittlerer Entfernung zum Subjekt funktionieren“. In der Studie schätzt Frontex: Bis biometrische Gangerkennung im Alltag ankommt, würden noch mindestens zehn Jahre vergehen.
Frontex ist auch an illegalen Pushbacks beteiligt. Das heißt, Beamt*innen verhindern, dass schutzsuchende Menschen an der EU-Grenze Hilfe bekommen. Auf Anfrage von netzpolitik.org will sich Frontex nicht zu PopEye äußern und verweist auf das AIT, das Austrian Institute of Technology. Das Institut aus Österreich koordiniert das Projekt im Auftrag der EU.
Das AIT wiederum erklärt auf Anfrage, selbst nicht im Bereich Gangerkennung zu arbeiten. Allerdings sei Gangerkennung eines von mehreren biometrischen Verfahren, die im Rahmen von PopEye erforscht würden. In dem Projekt würden biometrische Methoden entwickelt, die auch dann funktionieren, wenn sich eine Person bewegt und etwas entfernt ist. Kurzum: Man will Menschen identifizieren können, auch wenn sie gerade nicht aktiv ihr Gesicht vor eine Kamera halten oder ihren Finger auf einen Sensor legen. Das könne etwa die Wartezeit von Reisenden verkürzen, so das AIT.
Weiter erklärt das AIT, man wolle die Technologie verstehen, ihre Einschränkungen und Risiken. Ohne, dass wir ausdrücklich danach gefragt hätten, betont das AIT mehrfach, nichts Verbotenes zu tun. „Wir verpflichten uns, alle geltenden Vorschriften einzuhalten und die Werte der EU sowie die Grundrechte zu fördern und zu wahren.“ Sollte das nicht selbstverständlich sein?
Die gemeinnützige Organisation AlgorithmWatch kritisiert Gangerkennung an der Grenze, gerade mit Blick auf einen möglichen Einsatz bei Geflüchteten. „Wie so häufig wird also die Entwicklung digitaler Überwachungstools an Menschen auf der Flucht getestet, die sich kaum dagegen wehren können“, schreibt Referentin Pia Sombetzki auf Anfrage.
China und Russland: Gangerkennung über 50 Meter EntfernungDie chinesische Regierung treibt Forschung zu Gangerkennung voran. Einer der größeren Datensätze mit Gangprofilen ist Gait3D, der auf Videodaten aus einem Supermarkt basiert. Das im Jahr 2022 veröffentliche Projekt hat China mit staatlichen Mitteln gefördert.
Nach Berichten der Agentur AP News soll China bereits 2018 Überwachung per Gangerkennung eingeführt haben, und zwar durch Polizeibehörden in Beijing und Shanghai. Die Technologie komme von der chinesischen Überwachungsfirma Watrix. Nach Angaben des CEOs gegenüber AP News könne das System Personen aus bis zu 50 Metern Entfernung identifizieren. Das System lasse sich angeblich nicht täuschen, etwa durch Humpeln.
In einer Spiegel-Reportage aus dem Jahr 2019 erklärte eine Pressesprecherin von Watrix, das System würde weitere Informationen nutzen, um Menschen zu identifizieren, etwa Körpergröße und Statur. Angeblich erkenne die Software Menschen in einer Sekunde. „Zwei Schritte reichen.“ Auch in Gruppen von bis zu 100 Leuten könne die Software Menschen erkennen, deren Gangprofil dem System bekannt sei. Es ist üblich, dass Überwachungsfirmen die Fähigkeiten ihrer Produkte überhöhen. Auf unsere Fragen hat Watrix nicht reagiert.
Auch das russische Regime soll biometrische Gangerkennung einsetzen. Im Jahr 2020 berichtete das russische Exilmedium Meduza von entsprechenden Plänen für das Folgejahr. Die Technologie sollte demnach Teil der staatlichen Kameraüberwachung in Moskau werden. Im Jahr 2021 schreib das staatliche Propaganda-Medium Rossiyskaya Gazeta von einem solchen Überwachungssystem im Auftrag des Innenministeriums. Angeblich könne die Gangerkennung eine Person aus einer Entfernung von bis zu 50 Metern identifizieren. Es fehlt allerdings eine unabhängige Prüfung, um festzustellen, viel davon Einschüchterung ist und wie viel korrekt.
Grundrechte in Gefahr: Menschenrechtler*innen fordern VerbotMenschenrechtsorganisationen betrachten Gangerkennung schon länger kritisch. Privacy International warnte bereits 2021 vor den Gefahren von Gangerkennung bei Protesten. Auch Amnesty International beschäftigt sich damit. Gangerkennung funktioniere aus der Ferne und bleibe dadurch unbemerkt, schreibt Lena Rohrbach auf Anfrage von netzpolitik.org. Sie ist Referentin für Menschenrechte im digitalen Zeitalter bei Amnesty International in Deutschland.
Behörden könnten Gangerkennung etwa ergänzend zu Gesichtserkennung einsetzen, um Menschen auch auf Distanz zu identifizieren. „Überwachung durch Gangerkennung ist ein tiefgreifender Eingriff in Menschenrechte und geht mit umfassenden Risiken einher“, warnt Rohrbach. „Jede Form biometrischer Fernidentifizierung ist potenziell geeignet, zur Repression genutzt zu werden und die freie und unbeobachtete Bewegung im öffentlichen Raum vollständig zu beenden.“
Amnesty International setze sich deshalb für ein umfassendes Verbot biometrischer Fernidentifizierung zur Überwachung des öffentlichen Raums ein – inklusive Gangerkennung. Die EU hat die Gelegenheit verpasst, ein solches Verbot im Rahmen der KI-Verordnung zu beschließen.
In Deutschland befasst sich die Organisation AlgorithmWatch mit den Auswirkungen sogenannter KI auf Menschenrechte. Auf Anfrage vergleicht Referentin Pia Sombetzki Gangerkennung mit Gesichtserkennung. „Die Anonymität im öffentlichen Raum wird effektiv aufgehoben, und Menschen dürften es sich tendenziell eher zweimal überlegen, an welcher Versammlung sie noch teilnehmen“, schreibt sie. Neben Demonstrierenden könnten zum Beispiel auch Obdachlose oder Suchtkranke beobachtet werden.
Das Problem betreffe grundsätzlich alle, die sich in der Öffentlichkeit frei bewegen wollten. Rufe nach mehr KI in der Polizeiarbeit könnten in eine Sackgasse führen, warnt Sombetzki. „Denn je mehr die Freiheitsrechte auch hierzulande eingeschränkt werden, desto weniger bleibt von der demokratischen Gesellschaft übrig, die es eigentlich zu schützen gilt.“
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Berliner Datenmarktplatz „Datarade“: Das gefährliche Geschäft mit Standortdaten geht weiter
Vor einem Jahr erhielten wir einen Datensatz mit Milliarden Handy-Standortdaten aus Deutschland, vermittelt über einen Berliner Datenmarktplatz. Politiker*innen warnten vor einer Gefahr für die nationale Sicherheit. Neue Recherchen zeigen, wie der Marktplatz dem Geschäft weiter eine Plattform bietet.
Angepriesen. (Symbolbild) – Korb: Pixabay; Nebel: Vecteezy; Montage: netzpolitik.orgExakte Standortdaten von Millionen Handys weltweit lassen sich einfach online kaufen. Datenhändler verschleudern sie sogar als Gratis-Kostprobe. Bereits diese kostenlosen Datensätze sind so umfangreich, dass sich damit Massenüberwachung betreiben lässt. Das haben unsere bisherigen Recherchen zu den Databroker Files mit dem Bayerischen Rundfunk gezeigt. Aus den Daten lassen sich teils detaillierte Bewegungsprofile ablesen, sogar von Soldat*innen oder Politiker*innen.
Wer Kontakt zu Händlern, also Databrokern sucht, wird auf dem Online-Marktplatz eines Berliner Unternehmens fündig: Datarade.ai. Der Marktplatz verkauft die Daten zwar nicht selbst, verkuppelt aber Anbieter und Interessierte. Das funktioniert ähnlich wie Amazon, nur eben für Datensätze. Für erfolgreiche Deals streicht der Marktplatz eine Provision ein.
Vermittelt über Datarade haben nicht nur wir sensible Handy-Standortdaten von Databrokern erhalten, sondern auch Journalist*innen aus den Niederlanden, der Schweiz und Belgien, und zwar unabhängig voneinander. Das hat im Jahr 2023 geklappt, im Jahr 2024 – und trotz der kritischen Berichterstattung in zahlreichen Medien war es auch noch 2025 möglich.
Das Problem: Der Handel mit derart detaillierten Handy-Standortdaten ist nach Einschätzung von Fachleuten nicht mit der Datenschutzgrundverordnung (DSGVO) vereinbar. Zudem haben Bundestagsabgeordnete wie Konstantin von Notz (Grüne) oder Roderich Kiesewetter (CDU) bereits vergangenes Jahr vor einer Gefahr für die nationale Sicherheit gewarnt.
Datarade wollte „alle zumutbaren Anstrengungen“ unternehmenUnd was tut Datarade? Noch vor gut einem Jahr hatte uns der Berliner Marktplatz mitgeteilt, man nehme die von unseren Recherchen ausgelösten, öffentlichen Bedenken „sehr ernst“. Die Angebote auf der Plattform prüfe das Unternehmen zwar nicht einzeln. „Eine Verpflichtung zur proaktiven Sichtung sämtlicher Inhalte auf mögliche Rechtsverletzungen ist weder praktisch möglich noch gesetzlich geboten.“ Dennoch unternehme Datarade „alle zumutbaren Anstrengungen, um rechtswidrige Inhalte auf der Plattform von Vornherein zu verhindern“.
Ein Jahr später haben wir uns nochmal auf dem Marktplatz umgeschaut. Unsere neue Recherche weckt Zweifel daran, dass Datarade „alle zumutbaren Anstrengungen“ unternimmt. So preiste Datarade in einem eigenen, redaktionellen Beitrag selbst Handy-Standortdaten an, schrieb über die daraus ablesbaren, sehr genauen Bewegungsmuster – und empfahl passende Händler. Als wir per Presseanfrage mehr zu der Seite erfahren wollten, wurde sie offline genommen.
Bereits 2024 warnte die damals kurz vor ihrem Amtsantritt stehende Bundesdatenschutzbeauftragte, Louisa Specht-Riemenschneider, vor einer Regulierungslücke. Auch die zuständige Berliner Datenschutzbeauftragte sah ein Problem: Solange ein Marktplatz die Daten nicht selbst verarbeitet, sondern nur Kontakte zwischen Käufern und Verkäufern herstellt, habe sie keine Handhabe. Verantwortlich nach der DSGVO sei nur jemand, der selbst auch Daten verarbeitet.
Unter Datenschützer*innen gibt es in dieser Frage keine Einigkeit. Das Netzwerk Datenschutzexpertise etwa kam in einem Gutachten aus dem Frühjahr 2025 zu dem Schluss, dass die DSGVO hier sehr wohl anwendbar sei. Um verantwortlich zu sein, müsse ein Datenmarktplatz nicht notwendigerweise selbst in Besitz der Daten sein. Oft sei der Handel mit personenbezogenen Daten sogar strafbar, weshalb nicht nur Datenschutzbehörden, sondern auch Staatsanwaltschaften handeln müssten.
Passiert ist so etwas bisher nicht. Auf Datarade preisen Händler weiterhin ihre Handy-Standortdaten an. In Datarade selbst steckt sogar Geld vom deutschen Staat, und zwar mehr als bisher angenommen. Dazu später mehr.
Auf Anfrage entfernte Datarade Angebote für HandystandortdatenNach unseren Veröffentlichungen im Jahr 2024 hatte Datarade ein Angebot für Handystandortdaten des US-Datenhändler Datastream Group offline genommen. Hierzu schrieb das Unternehmen: „Vorsorglich haben wir die betreffenden Inhalte des Datenanbieters in Bezug auf Standortdaten von unserer Plattform entfernt, bis weitere Erkenntnisse in der Angelegenheit vorliegen.“
Davon unberührt waren jedoch ähnliche Angebote von anderen Datenhändlern. Auch nach Veröffentlichung der Recherchen präsentierte Datarade Angebote von ähnlichen Datensätzen. Suchte man etwa Anfang September dieses Jahres auf Datarade nach Angeboten mit Geo-Koordinaten und mobilen Werbe-IDs, erhielt man rund 50 Ergebnisse. Grenzte man die Suche weiter ein auf Daten aus Deutschland, waren es noch 15 Treffer.
Über ein Online-Formular können Nutzer*innen verdächtige Inhalte melden. Genau das haben wir ausprobiert. Für eine solche Meldung müssen Nutzer*innen Namen und E-Mail-Adresse angeben. Um das Ergebnis nicht zu verfälschen, hat ein Kollege ohne erkennbare Verbindung zu netzpolitik.org diese Meldungen vorgenommen. Es handelte sich um insgesamt fünf Angebote von Handystandortdaten aus Deutschland oder der EU. Das Ergebnis: Die Angebote waren weniger als zwei Wochen nach Eingang der Meldungen offline.
Auf Presseanfrage teilt Datarade mit: „Die Produkt-Listungen wurden vorsorglich offline genommen, um den Hinweisen nachzugehen.“ Man gebe den Anbietern nun die Möglichkeit, Stellung zu beziehen.
So preist Datarade selbst Handy-Standortdaten anHatte Datarade vor unseren Meldungen wirklich keine Kenntnis über diese Angebote? Zumindest einen Überblick dürfte Datarade gehabt haben. Es gab nämlich die bereits erwähnte von Datarade selbst bereitgestellte Infoseite mit dem Titel „Was sind Handy-Standortdaten“ (im Original: „What is Mobile Location Data?“), die nach unserer Presseanfrage offline genommen wurde.
Auf dieser Seite beschrieb ein Datarade-Mitarbeiter im Detail, wie solche Datensätze aufgebaut sind: mit GPS-Koordinaten und individueller Werbe-ID, der sogenannten MAID („mobile advertising ID“). Vorschaufenster auf der Seite präsentieren mehrere passende Angebote von Datenhändlern, etwa als „Ausgewählte Datensets“. Anhand kleiner Flaggen-Emojis in den Angeboten ließ sich ablesen, woher die Daten kommen, auch mehrere Deutschland-Flaggen waren zu sehen.
Übersetzt aus dem Englischen stand auf der Infoseite, viele Datensätze böten eine hohe GPS-Genauigkeit, „wodurch sichergestellt wird, dass die von Ihnen erhaltenen Daten den realen Standorten und Bewegungsmustern sehr genau entsprechen“. Einige Datensätze würden sogar eine Präzision von unter 19 Metern erreichen, „was besonders nützlich sein kann, wenn Sie sehr detaillierte Einblicke benötigen“.
An einer anderen Stelle der Infoseite hieß es: „Manche Menschen fühlen sich möglicherweise unwohl dabei, wenn ihre Standortdaten gesammelt und für kommerzielle Zwecke verwendet werden.“ Das ist korrekt, wie die Reaktionen auf unsere Recherchen zeigen. Eine Betroffene sagte zum Beispiel im Gespräch mit netzpolitik.org:
Von mir wurden mehrere Standortdaten in meinem Kiez erfasst. Das ganze macht mich etwas sprachlos und schockiert mich. Ich hätte mir nicht vorstellen können, dass das in diesem Ausmaß möglich ist.
Und der Bundestagsabgeordnete Konstantin von Notz (Grüne) sagte 2024 mit Blick auf den Handel mit Handy-Standortdaten: „Diese Daten dürfen in der Form nicht erhoben und dann auch nicht verkauft werden.“ Dass etwas passieren müsse, stehe für ihn völlig außer Frage. „In diesem konkreten Fall widerspricht das den Sicherheitsinteressen der Bundesrepublik Deutschland.“
Warum Handel mit Standortdaten fast immer DSGVO-widrig istAuf potenzielle Bedenken beim Handel von Handy-Standortdaten ging die Datarade-Infoseite selbst ein. Dort hieß es auf Englisch:
Es gibt mehrere verbreitete Missverständnisse über mobile Standortdaten, darunter die Annahme, dass sie immer genau seien und dass man damit Personen ohne deren Wissen oder Zustimmung verfolgen könne. In Wirklichkeit kann die Genauigkeit mobiler Standortdaten je nach Qualität der Datenquelle und der verwendeten Technologie variieren. Darüber hinaus ist das Sammeln und Nutzen von Standortdaten ohne Zustimmung sowohl illegal als auch unethisch.
Drei Aspekte an diesem Zitat verdienen besondere Aufmerksamkeit: Es ist erstens korrekt, dass Handy-Standortdaten nicht immer genau sind. Unsere Recherchen haben gezeigt, dass Händler auch ungenaue Standortdaten verbreiten.
Es ist zweitens allerdings kein „Missverständnis“, dass sich mit diesen Daten „Personen ohne deren Wissen oder Zustimmung verfolgen“ lassen. Gemeinsam mit unseren Recherche-Partnern konnten wir in mehreren Fällen sogar Angehörige von Geheimdiensten und Regierungen vom Arbeitsplatz bis hin zu ihren Privatwohnungen tracken. Die Kolleg*innen aus Norwegen konnten sogar einen verdutzten Grindr-Nutzer zuhause besuchen, der nicht geoutet werden wollte.
Mehrere Betroffene sagten uns im Gespräch, ihnen sei nicht bewusst, einer solchen Art von Tracking zugestimmt zu haben. Zum Beispiel Hedi aus Bayern, die sagte:
Es ist beklemmend, wenn ich mir das so anschaue; die Punkte, wo ich war. Das geht niemandem was an. Und ich habe das ja nicht freigegeben.
Drittens ist der Handel mit Standortdaten nach Ansicht von Datenschutzbehörden und anderen Fachleuten oftmals selbst mit Einwilligung nicht von der DSGVO gedeckt. So werden die Daten zum einen oft angeblich nur für Werbezwecke erhoben; der Handel stellt also eine verbotene Änderung des Verarbeitungszwecks dar. Zum anderen fehlt es an Transparenz, denn Menschen müssten bei der Einwilligung umfassend informiert werden, an wen Händler Daten weitergeben. Deshalb sind die Einwilligungen oft unwirksam.
Datarade – geschickte Geschäfte im Graubereich
Hinzu kommt, dass sich aus Standortdaten oft sensible Informationen ableiten lassen, zum Beispiel über Besuche in spezialisierten Kliniken, bei Parteien und Gewerkschaften oder in religiösen Gebäuden. Solche Informationen sind durch die DSGVO besonders geschützt.
Die Beobachtungen auf dem Marktplatz Datarade werfen Fragen auf. Wieso hat die Plattform auf einer selbst verfassten Infoseite Angebote mit GPS-Daten angepriesen, die realen „Bewegungsmustern sehr genau entsprechen“ – nahm solche Angebote allerdings nach der Meldung durch einen Nutzer wieder offline?
Wir haben Datarade per Presseanfrage auf die Infoseite angesprochen. Wenig später war sie offline. „Wir nehmen Ihren Hinweis zum Anlass, die Kategorie-Seite redaktionell zu überprüfen und vorsorglich offline zu nehmen“, teilt das Unternehmen mit.
Diese Anstrengungen unternimmt Datarade nach eigenen AngabenDatarade legt Wert darauf, zu betonen, selbst kein Datenanbieter zu sein, „sondern ein Verzeichnis von Datenanbietern und deren Produktkatalogen“. Weiter schreibt die Pressestelle auf unsere Fragen: „Datarade verurteilt jedweden rechtswidrigen Handel mit Daten und setzt sich für einen rechtskonformen Austausch von Daten ein.“
Demnach dürften sich auf Datarade nur registrierte Unternehmen anmelden. Anbieter würden sich vertraglich dazu verpflichten, nur rechtskonforme „Inhalte auf Datarade zu veröffentlichen“. Sie würden „angehalten“, ihre Datenschutz-Richtlinien zu verlinken und die Konformität mit Datenschutzbestimmungen zu bestätigen. Auf jeder Produktseite gebe es einen Link zum Melden von Inhalten; den Meldungen gehe man dem Digitale-Dienste-Gesetz entsprechend nach.
Wir wollten wissen, in welchem Ausmaß Datarade am mutmaßlich illegalen Geschäft mit Handy-Standortdaten mitverdient. Genauer gesagt: Wie viel Provision Datarade in den letzten drei Jahren durch über den Marktplatz vermittelte Deals mit Handy-Standortdaten erhalten hat. Diese Frage hat uns das Unternehmen nicht beantwortet. Stattdessen verwies die Pressestelle auf den allgemein gehaltenen Jahresabschluss, nach dem wir nicht gefragt hatten.
Zum Zeitpunkt der Veröffentlichung dieser Recherche gibt es auf Datarade noch immer mehrere Angebote für Handy-Standortdaten, die mit individuellen Werbe-IDs verknüpft sind. Sie lassen sich kinderleicht über die Suchfunktion auf der Plattform finden. Damit Datarade sie offline nimmt, müsste sie wohl erst jemand von außerhalb aktiv melden – und den Marktplatz regelmäßig auf neue Angebote prüfen.
Wir erinnern uns: Datarade unternimmt nach eigener Aussage „alle zumutbaren Anstrengungen, um rechtswidrige Inhalte auf der Plattform von Vornherein zu verhindern“.
So will Datarade neue Händler auf den Marktplatz lockenIm Zuge unserer Recherchen hatten wir uns auch selbst als potenzieller Anbieter für Ortsdaten bei Datarade registriert. Dafür haben wir eine E-Mail-Adresse mit Pseudonym genutzt – und nichts weiter unternommen. Seitdem erhalten wir regelmäßig E-Mails von Datarade. Daraus lässt sich ableiten, welche Mühen die Plattform unternimmt, um aktiv neue Datenhändler für sich zu gewinnen.
Mehrfach versuchte Datarade etwa, ein persönliches Gespräch mit uns – dem vermeintlich neuen Händler – zu vereinbaren. „Lass mich wissen, wenn du Daten zum Verkauf hast, dann können wir darüber nachdenken, sie auf den größten Datenmarktplätzen zu monetarisieren“, hieß es auf Englisch.
Es folgten weitere E-Mails von Datarade. Darunter eine, die versuchte, uns mit der Aussicht auf Umsatz zu locken. Demnach sollten wir lernen, wie ein anderer Anbieter von Standortdaten „Kunden in neuen Märkten erreicht hat“. Das Marktvolumen, also der Umsatz aller Akteur*innen am Markt, liege demnach bei 93 Millionen Euro.
Auch Tutorials erreichten uns. Sie handelten davon, wie wir unser Angebot für Datarade optimieren können. Demnach sollten wir unseren Produktkatalog per ChatGPT ausformulieren lassen. Einen passenden Prompt lieferte die Plattform gleich mit. Auf unserem Anbieterprofil sollte der Hinweis auf DSGVO-Compliance nicht fehlen, riet ein anderes Tutorial.
In den Datenmarktplatz floss mehr Steuergeld als bisher angenommenBereits 2024 konnten wir berichten, dass in Datarade auch Steuergeld steckt. Inzwischen wissen wir: Es ist noch mehr Geld als bisher bekannt.
Zunächst hatte der Datenmarktplatz im Jahr 2019 ein Investment in Höhe von einer Million Euro aus dem „High-Tech Gründerfonds“ (HTGF) erhalten. Das ist ein zentrales Instrument der deutschen Start-up-Förderung. Mehr als die Hälfte des 320 Millionen Euro schweren Fonds stammt vom Bundeswirtschaftsministerium, 170 Millionen Euro.
Darüber hinaus schoss der HTGF allerdings vier Jahre später weitere knapp 500.000 Euro in das Unternehmen. Der Anlass war eine Runde zur Anschlussfinanzierung. Das geht aus einer Antwort des Wirtschaftsministeriums auf eine parlamentarische Anfrage der damaligen Linken-Abgeordneten Martina Renner aus dem Jahr 2024 hervor.
Abgeordnete kritisieren Staatsgeld für Datenmarktplatz
Wir haben das Dokument mit einer Anfrage nach dem Informationsfreiheitsgesetz (IFG) erhalten, jedoch zunächst in einer fast vollständig geschwärzten Variante. Das Wirtschaftsministerium hatte die Antwort des damaligen Staatssekretärs als „Verschlusssache – Nur für den Dienstgebrauch“ eingestuft. Erst nachdem wir Widerspruch gegen die Entscheidung eingelegt hatten, gab das Ministerium die Antwort für die Öffentlichkeit frei.
Das Ministerium betont darin erneut, dass es „auf die Investmententscheidungen des HTGF keinen Einfluss“ nehme. Jedoch seien „Investitionen in Unternehmen, die Aktivitäten in Verbindung mit Cybercrime verfolgen“, gemäß „der Ausschlussliste des HTGF ausgeschlossen.“ Als solche könne das Geschäftsmodell von Datarade nicht betrachtet werden, da die Plattform lediglich Kontakte zwischen Datenanbietern und Interessierten herstelle. „Das Zustandekommen eines Vertrags und der Austausch von Daten läuft grundsätzlich vollständig außerhalb der Plattform.“
SPD sieht „erheblichen Handlungsbedarf“, CDU bleibt unkonkretWie viel Verantwortung sollen Datenmarktplätze dafür tragen, wenn Datenhändler dort die Standortdaten von Millionen Menschen verschleudern? Einen Vorschlag hierzu hatte die heutige Bundesdatenschutzbeauftragte bereits im vergangen Jahr: Der deutsche Gesetzgeber könnte die Reform des Bundesdatenschutzgesetzes nutzen, um das Geschäft von Datenmarktplätzen zu regeln. Die Reform war zunächst für 2024 geplant gewesen, fiel aber dem vorzeitigen Aus der Ampel-Koalition zum Opfer.
Auch die neue Koalition aus Union und SPD will den Datenschutz reformieren. Im Fokus stand zwar bisher ein Rückbau von Regulierung – aber gerade bei Datenmarktplätzen sehen Politiker*innen mehrerer Parteien Probleme.
„Auch wenn im Koalitionsvertrag keine konkrete Aussage dazu vereinbart wurde, so sehen wir mit Blick auf die Databroker-Files-Recherchen nicht allein aus datenschutzrechtlicher Sicht, sondern auch aus sicherheitspolitischer Perspektive erheblichen Handlungsbedarf“, schreibt uns etwa Johannes Schätzl, der digitalpolitische Sprecher der SPD-Fraktion im Bundestag. Er werde „diese Thematik in den anstehenden Verhandlungen selbstverständlich auch ansprechen und konkrete Vorschläge einbringen“. Es sei allerdings noch offen, ob es in der Koalition eine Zustimmung für entsprechende Gesetzesänderungen gibt.
Der Koalitionspartner, die Union, hält sich auf Anfrage von netzpoiltik.org bedeckt. Ralph Brinkhaus, Sprecher für Digitalisierung und Staatsmodernisierung, lässt auf unsere sechs Fragen zur anstehenden Datenschutzreform lediglich verlauten: „Wir arbeiten an den von Ihnen genannten Punkten.“
Grüne und Linke machen DruckDie Grünen-Digitalpolitiker Lukas Benner und Konstantin von Notz sehen im fehlenden Plan der Regierungskoalition beim Datenhandel ein Beispiel für deren Datenschutzpolitik. Während Union und SPD sich „verfassungsrechtlich hochumstrittene Vorhaben“ wie die Wiedereinführung der Vorratsdatenspeicherung vorgenommen hätten, fehle auf ihrer Agenda die Lösung der „anhaltenden und zunehmenden Problematik der Databroker“.
Die grüne Bundestagsfraktion halte „eine gesetzliche Einschränkung dieser Praktiken für dringend geboten – übrigens auch mit Blick auf den Schutz unserer Sicherheitsbehörden und ihrer Mitarbeiterinnen und Mitarbeiter“. Das Innenministerium müsse sich endlich der Thematik widmen.
Grundsätzlicher wird bei dem Thema Donata Vogtschmidt, digitalpolitische Sprecherin der Linkspartei. Sie wolle „Geschäftsmodellen, die auf personalisierter Onlinewerbung basieren, insgesamt den Kampf ansagen“. Vogtschmidts Vorschlag, um das Problem an der Wurzel zu lösen: Im Gesetz über digitale Dienste (DSA) der Europäischen Union ist bereits ein Verbot personalisierter Werbung für Minderjährige vorgesehen. Dieses Verbot sollte auf alle Nutzenden ausgeweitet werden, denn „so ließe sich kommerzieller Datenhandel wirklich eindämmen“.
Unterdessen könnte auch die EU aktiv werden. Sie will mit dem kommenden Digital Fairness Act Lücken für Verbraucher*innen im Netz schließen. Bis 24. Oktober können Interessierte Ideen einreichen, in welchen Bereichen sie Handlungsbedarf sehen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Datenschutzfreundliche Perioden-Apps: Zyklus-Tracking ohne Tracking
Was früher noch händisch im Kalender gezählt wurde, machen viele mittlerweile mit einer App: den Zyklus tracken. Doch viele bekannte Apps geben die intimen Daten zu Werbezwecken weiter. Deswegen hat netzpolitik.org besonders datensparsame Zyklus-Apps zusammengetragen.
Zyklus-Apps sind oft nicht datensparsam. – Alle Rechte vorbehalten IMAGO / ZoonarIn welchem Rhythmus man menstruiert, unterscheidet sich von Person zu Person. Das manuell immer wieder nachzuzählen und im Blick zu behalten, kann sehr nervig sein. Um so praktischer, dass es mittlerweile viele Apps gibt, die einem helfen den eigenen Zyklus, das heißt zum Beispiel die Menstruation, den Eisprung und die fruchtbare Phase, zu tracken. Allerdings setzten viele der bekannteren Zyklus-Apps nicht so stark auf Privatsphäre.
Mehrere Untersuchungen, zum Beispiel von Privacy International oder der Mozilla Foundation, konnten nachweisen, dass diese Apps persönliche Daten speichern und an Werbetreibende und Datenhändler verkaufen. Momentan läuft ein Gerichtsprozess gegen die bekannteste App Flo in den USA, weil deren Betreiber von 2016 bis 2019 Nutzer*innendaten an Google und Meta weitergegeben haben sollen.
Daten zu Schwangerschaft sind besonders wertvollDer Zugriff auf intime Gesundheitsdaten ist für viele kommerzielle Zyklus-Tracking-Apps die Grundlage ihres Geschäftsmodells. Viele dieser Apps fragen auch deutlich mehr Parameter ab als nur solche zum Zyklus, zum Beispiel genutzte Verhütungsmittel, Alkoholkonsum oder Feiergewohnheiten.
Daten über den Zyklus, besonders über eine bestehende Schwangerschaft, werden von der Branche als wertvoller eingestuft als andere. Es gibt einige Studien, die Korrelationen zwischen Schwangerschaftshormonen und dem Kaufverhalten untersuchen und Zusammenhänge zu einer Art Nestbautrieb aufstellen. Die Marketingbranche würde seit der Mitte des 20. Jahrhunderts werdende Eltern als immer lukrativeren Markt einstufen und mit Werbung anvisieren, so Lara Freidenfelds in ihrem Buch zum Mythos der perfekten Schwangerschaft.
Außerdem warnt Privacy International vor der Gefahr von Zyklus-Apps in einer „post-Roe-Welt“. Nachdem Abtreibungsrechte in den Vereinigten Staaten gekippt wurden, gäbe es Grund zur Sorge, dass Daten von Zyklus-Apps als Beweise in der Kriminalisierung von Schwangerschaftsabbrüchen genutzt werden könnten.
Deswegen ist es um so wichtiger, seine Daten vor der Weitergabe zu schützen. Dazu gibt es einige Zyklus-Apps, die großen Wert auf die Privatsphäre der Nutzer*innen legen. Diese stellen wir hier vor:
DripDrip ist eine Open-Source-App von feministischen Coder*innen aus Berlin. Das bedeutet, dass der Quellcode der App für alle zugänglich und einsehbar ist.
- Welche Features bietet Drip?
Mit der App lassen sich die einzelnen Phasen des Zyklus verfolgen und tägliche Symptome eintragen. Zusätzlich ermöglicht Drip das Tracken des Zyklus mit der sympto-thermalen Methode. Dabei wird zum Beispiel die fruchtbare Phase nicht allein über das Abzählen der Tage bestimmt, sondern auch Werte wie die Körpertemperatur fließen in die Berechnungen ein. Nicht alle Zyklus-Apps haben diese Funktion.
Drip erstellt Vorhersagen für die nächste Menstruation und zeigt Diagramme für eine zyklusübergreifende Übersicht. Dabei sind die Rechenmethoden transparent einsehbar. Man kann Benachrichtigungen einstellen und den Zugriff auf die App mit einem eigenen Passwort schützen. - Welche Rolle hat Privatsphäre?
Drip ist eine besonders tracking-arme App. In ihrer Datenschutzerklärung heißt es: „Drip respektiert und feiert deine Privatsphäre“. Es würden keine Nutzungsdaten oder persönliche Daten gesammelt werden und es gäbe keine Werbung. Die App speichere alle Daten lokal auf dem Handy. Keine anderen Apps sollen auf diese Daten zugreifen können. Mit Ausnahme der Benachrichtigen nutzt Drip keine anderen Handyfunktionen. Eine Anmeldung in der App mit der E-Mail-Adresse sei auch nicht nötig. Für mehr Transparenz kann man den Code der App einsehen.
Eine der Entwicklerinnen von Drip berichtete 2022 auf netzpolitik.org bereits von der App. Die Coder*innen würden keine kommerziellen Interessen verfolgen, sondern auf „Transparenz und Teilhabe“ setzen. - Wie funktioniert der Umstieg auf Drip?
Drip bietet eine detaillierte Anleitung zum Umstieg auf ihre App. Weil viele Apps unterschiedliche Formate nutzen, ihre Daten zu speichern, ist es meist schwierig, die Daten zu exportieren. Drip empfiehlt, sie manuell zu überschreiben. Dafür stellen die Macher*innen eine Dateivorlage zur Verfügung, in die man die relevanten Daten eintragen kann, etwa zum Eisprung oder der Periode. Das kann eine Weile dauern. Die ausgefüllte Datei kann man anschließend über die Einstellungen in die App importieren.
Für den Umstieg von den weit verbreiteten Apps Flo und Clue empfiehlt Drip sogenannte „Converter“, die andere Menschen programmiert haben und über Plattformen wie GitHub zur Verfügung stellen. Damit werden die Daten aus den alten Apps so umgestellt, dass sie für Drip lesbar sind.
Drip ist verfügbar im Google PlayStore, im App Store und bei F-Droid.
EukiEuki ist eine App der Women help Women Foundation, die sich als internationale gemeinnützige Organisation für reproduktive Rechte und den Zugang zu sicheren Abreibungen einsetzt.
- Welche Features bietet Euki?
In der App können Nutzer*innen ihre Symptome eintragen. Es werden Vorhersagen für die nächste Menstruation gemacht. Dazu errechnet Euki den Durchschnitt einiger Werte wie der Zykluslänge oder der Menstruationslänge. Außerdem kann man in der Kalenderfunktion Termine eintragen sowie Erinnerungen einstellen, wann man Medikamente nehmen muss. Die Körpertemperatur könne noch nicht mit Euki getrackt werden, so Euki in seinen FAQs.
Dafür bietet Euki weitere Gesundheitsangebote, wie medizinische Informationen zu Verhütungsmitteln. - Welche Rolle hat Privatsphäre?
Die Analyse der Mozilla Foundation hat die App als sicher eingestuft. Euki selbst verpflichtet sich der Privatsphäre. Auf der Website heißt es: „Wir glauben Privatsphäre ist ein Grundrecht, kein kostenpflichtiges Feature.“
Alle Daten, die in der App eingegeben werden, würden lokal auf dem Gerät anstatt in einer Cloud gespeichert. Beim Löschen der App würden auch alle eingegebenen Daten gelöscht, so Euki. Auch Cookies und Nutzeraktivität tracke Euki nicht. In der Datenschutzerklärung heißt es: „Die App sammelt keine persönlich identifizierbaren Informationen oder anonyme Informationen automatisch“.
Eine Anmeldung in der App mit der E-Mail-Adresse sei auch nicht nötig. Für einen zusätzlichen Schutz der Daten lasse sich eine PIN einrichten. Im Falle einer Handydurchsuchung lasse sich die PIN „0000“ eingeben, um in der App falsche Daten anzeigen zu lassen. - Wie funktioniert der Umstieg auf Euki?
Gegenüber netzpolitik.org erklärt Euki, dass es bis jetzt keine automatisierte Möglichkeit gäbe, von anderen Zyklus-Apps auf Euki zu wechseln. Man müsse alles manuell übertragen. Euki arbeite gerade an einer Funktion für den Datenimport.
Euki ist im Google PlayStore und App Store verfügbar.
PeriodicalPeriodical ist eine quelloffene Zyklus-App von Softwareentwickler Arno Welzel.
- Welche Features bietet Periodical?
Periodical sei für die Bestimmung der fruchtbaren Tage gedacht, so die Beschreibung im Google PlayStore. Dies berechnet die App mit der Knaus-Onigo-Rechenmethode. Wer den Zyklus trackt, um eine Schwangerschaft zu vermeiden, solle lieber Apps nutzen, die mit der basalen Körpertemperatur arbeiten, da dies genauer sei.
Man kann Symptome täglich eintragen, die in einem Listenformat einsehbar sind. Backups können auf eine externe Speicherkarte gespeichert werden. - Welche Rolle hat Privatsphäre?
Nach Angaben im Google PlayStore sammle Periodical keine Nutzer*innendaten und gebe die Daten nicht an Dritte weiter. Für mehr Transparenz kann man den Code der App einsehen. - Wie funktioniert der Umstieg auf Periodical?
Bei einem Wechsel zu Periodical müssen Daten manuell übertragen werden. Auf Anfrage von netzpolitik.org bestätigt Arno Welzel, dass es keine andere Möglichkeit gäbe umzusteigen.
Periodical ist verfügbar im Google PlayStore und bei F-Droid.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
