netzpolitik.org

netzpolitik.org Feed abonnieren netzpolitik.org
Aktualisiert: vor 1 Stunde 34 Minuten

Degitalisierung: Systemisch achtloses Vorgehen

14. Juli 2024 - 9:19

Deepfake-Verbot, Online-Alterskontrollen und Registermodernisierung haben eines gemeinsam: Es fehlt der Blick aufs Ganze. Eine Kolumne und ein Appell für einen differenzierteren und systemischen Blick auf Probleme und vermeintliche Lösungen.

– Gemeinfrei-ähnlich freigegeben durch unsplash.com Pavel Neznanov

Manchmal ist die Themenfindung für diese Kolumne nicht ganz einfach. Viele mögliche Themen, aber kein so wirklicher roter Faden. Erst mal recherchieren, was da so relevant zu sein scheint in den letzten Tagen und vergangenen Wochen:

Das ist alles irgendwie … vom Vorgehen her ziemlich am vollumfänglichen Problemfeld vorbei, und zwar übergreifend. Aus diesem diffusen Feld von Halb- bis Nichtlösungen von Problemen mittels digitaler Vorhaben kommen wir deshalb ganz präzise zu dieser Degitalisierung an diesem Sonntag. Thema: systemisch achtloses Vorgehen.

In dieser Kolumne soll es um einen etwas weiteren Blick auf drei vermeintliche Lösungen für digitale Probleme gehen, bei denen das Gesamtsystem um das Problem herum weit stärker mit betrachtet werden sollte. Eine systemische Sichtweise also, um die Probleme dieser Detaillösungen aufzuzeigen. Oftmals würde eine solche Sichtweise bei vielen digitalen Vorhaben durchaus helfen – um nachher nicht wieder auf die Nase zu fallen.

Beginnen wir beim ersten Beispiel, der juristischen Keule: dem Verbot.

Technik einfach verbieten

Der technologische Wandel im digitalen Zeitalter geht oftmals rasant vor sich und bringt Entwicklungen hervor, die in ihrer Dynamik eher schwer einzudämmen sind. Augenscheinlich fällt das im Kontext von sogenannten Deepfakes auf. Spätestens seit dem Olaf-Scholz-Fake des Zentrums für Politische Schönheit (ZPS) zum vermeintlichen AfD-Verbot und dessen Verbot ist das Thema auch in der deutschen Politik angekommen. Es wird nach Lösungen gesucht – zumindest in juristischer Form.

Die juristische Keule des Vorschlags eines „Gesetzes zum strafrechtlichen Schutz von Persönlichkeitsrechten vor Deepfakes“ haut da erst einmal drauf und versucht – in vermeintlich gutem Willen – die Verbreitung von Deepfakes ganz einzudämmen. Erstverbreitung unter Strafe, okay, aber dann auch erstmal jede weitere Verbreitung ebenso unter Strafe stellen. Nicht ganz zu Ende gedacht im System. Weil dann schon das bloße Hinweisen auf Deepfakes zum Problem werden kann. Systemisch achtlos.

Gesetzvorschläge wie der Deepfake-Vorstoß werden darüber hinaus wohl eher Einzelne treffen. Professionelle Desinformationskrieger wie russische Desinformationstruppen mit ihren durchautomatisierten digitalen Kommandostrukturen mit Botfarmen werden sich davon sicher nicht abhalten lassen. Systemisch betrachtet also eher ein kleiner Tropfen auf den heißen Stein.

Historisch betrachtet sind Fakes ohnehin oftmals ein Instrument der Mächtigen. Pharao Ramses II. etwa schönte den Ausgang der Schlacht um Kadesch 1274 vor Christus, der erste große bekannte Fake der Geschichte. Otto von Bismarck fakte 1870 den Inhalt der Emser Depesche und begünstigte damit einen Krieg gegen Frankreich.

Generell werden durch ein Verbot Fakes wie auch die Verbreitung von Deepfakes sicher nicht verschwinden – auch durch spezielle Gesetze für Deepfakes nicht. Sie werden aber wohl schwerer zu melden werden. Das ändert nichts daran, dass Deepfakes ein Problem sein können – nur gibt es systemisch gesellschaftlich lohnenswertere Ansatzpunkte abseits von technischen Maßnahmen, an denen sich die massenhafte Verbreitung von Deepfakes wahrscheinlich besser eindämmen ließe. Digitalkompetenz und Medienkompetenz sowie eine gesunde skeptische Grundhaltung etwa – never trust, always verify. Aber das ist kein einfacher Aktionismus im Sinne eines Gesetzesvorschlags.

One-Time-Anonymitätsnachweis

Digitalvorhaben in dieser Zeit haben immerhin an manchen Stellen erkannt, dass Privacy in der Umsetzung von digitalpolitischen Vorhaben dazu führen kann, dass bestimmte eher leidige Pflichten im digitalen Raum eher akzeptiert werden. Spätestens seit der Diskussion um die Corona-Warn-App zu ihrem Beginn 2020 ist ein gewisses Bemühen um Privacy in vielen digitalpolitischen Vorhaben zumindest stärker erkennbar.

Aktuelles Beispiel: Online-Alterskontrollen zum Jugendschutz. Privatsphäre-schonend soll die geforderte Lösung sein, mit der Jugendliche bei Online-Diensten wie TikTok ihr Alter nachweisen müssen. Der Fokus der Anwendung liege auf „Datensparsamkeit und Anonymität der Nutzenden“.

Folglich wurde eine grundsätzlich vielversprechende Lösung präsentiert, die sogar mit einer Art Zero-Knowledge-Proof zu arbeiten verspricht. Über eine zufällige Nummer für eine Alterskohorte wird bei einer dritten Stelle wie etwa einer Bank das dort vorliegende Alter der Person nachgewiesen. Nur über die Nummer wird dann rückgemeldet, ob eine bestimmte Altersgruppe erreicht ist, um einen Dienst zu nutzen. Es wird im Sinne von „Zero Knowledge“ nur eine bestimmte Eigenschaft bestätigt. Das genaue Geburtsdatum oder andere Daten der Person werden nicht bekannt.

Das klingt erst mal ganz schick und toll. Allerdings ist eine Lösung zum Altersnachweis im Internet entweder technisch lückenhaft, weil sie einfach umgangen werden kann, wenn sie beispielsweise über Browser-Add-ons integriert würde. Auf der Seite einer besonders robusten Lösung würde ein starker Altersnachweis, tief in den Untiefen des Betriebssystems, beginnen, Anonymität im Internet aufzubrechen. Es ist also systemisch relativ egal, ob der eine Altersnachweis anonym erfolgt. Das ganze System ist so nicht zu retten – entweder weil es leicht zu umgehen wäre oder weil es nicht mehr anonym wäre.

Systemisch also auch wieder daneben, trotz guter Ansätze in den Details der Umsetzung.

Kompensation für systemische Risiken

Kommen wir zum dritten Beispiel, bei dem das Kind schon etwas in den Brunnen gefallen ist: die Registermodernisierung. Nach jahrelanger Diskussion um die Steuer-ID als eindeutige lebenslange Nummer für alle Bürger*innen wurde nun vom Bundesrat das Datenschutzcockpit verabschiedet.

Eindeutige Nummern oder Merkmale für Menschen scheinen so bequem, einfach und sicher zu sein. So sicher wie Biometrie als Zugangscode. Bequem zwar, aber wenn Merkmale dieser Art massenhaft bekannt werden, dann führt das zu massiven Problemen im Gesamtsystem. Wer bestimmte tiefgreifende Merkmale so tief in IT-Systeme einbaut, dass sie kaum mehr entfernt werden können, steht im Falle eines Falles ziemlich doof da. Einmal bitte alle eindeutigen Nummern oder Merkmale in allen Systemen auf einmal austauschen, bitte!

Transparenz über das, was möglicherweise abgeflossen ist oder auf was unrechtmäßig zugegriffen wurde, hilft dann auch nicht mehr viel.

Nichtsdestotrotz forderte erst diese Woche der Verband der Privaten Krankenversicherungen eine automatische Einführung der lebenslangen Krankenversicherungsnummer auch für Privatpatient*innen – also mehr lebenslange, eindeutige Nummern.

Auch hier fehlt der systemische Blick auf das Gesamtsystem und das, was so eine ID-Nummer eigentlich alles gleichzeitig tun soll – oder eben vielleicht besser nicht.

In der vereinfachten Sichtweise sind ID-Nummern furchtbar praktisch, um bestimmte Personen eindeutig schnell zu finden. Um Hans Müller aus Frankfurt am Main von Hans Müller aus Frankfurt an der Oder zu unterscheiden etwa, wenn beide im Jahr 1975 Geburtstag haben. Soweit, so eindeutig.

Kettet man noch die Verknüpfung von verschiedenen Datensätzen zu einer Person an diese eine Nummer, klingt es erstmal logisch und einfach, das mit der einen Nummer zu tun. Es führt systemisch aber genau zu den Problemen mit einem System, bei dem es keine technische Kontrolle mehr gegen Profilierung gibt, wenn es jemand drauf anlegt. Ein neues systemisches Risiko, das eine solche vereinfachte Anwendung einer technischen Lösung erst neu schafft. Und nein, ein „Verknüpfen rechtlich verboten“ interessiert Cyber-Angreifer*innen in dem Fall auch nicht.

Privatsphäre-schonende Gesamtansätze wie etwa in Österreich wären auch hier möglich gewesen, um systemische Risiken zu minimieren. Nur ist diese Diskussion bei einem System, das sich schon um eine „verfassungsrechtliche Kompensation“ seiner eigenen systemischen Fehler Gedanken macht, eher schon zu spät.

Shifting Baselines

Flankiert wird die Einführung dieser technischen Maßnahmen und Halblösungen wie in den drei Beispielen oftmals mit einer medialen Darstellung, dass diese Lösungen ja mehr Transparenz, „Empowerment“ und Sicherheit bringen würden.

Oftmals wird aber auch still und leise unsere Baseline verschoben, wie Bruce Schneier und Barath Raghavan die Entwicklung von der Einstellung zur Privatsphäre in den letzten Jahren treffend beschreiben.

Auch wenn es mühsam in der Diskussion erscheint und es vielleicht nicht unbedingt schneller zum Ergebnis führt, würde ein differenzierter, systemischer Blick helfen: auf das, was wir da eigentlich neu an digitalen Problemen schaffen. Und was wir an Möglichkeiten und individuellen Rechten verlieren. Denn am Ende lässt sich der gesamtgesellschaftliche Impact nicht achtlos übergehen. Auch wenn der Impuls für eine halbgare Lösung vielleicht gar nicht falsch war.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

KW 28: Die Woche, in der ChatGPT reflektierter war als der Bundeskanzler

12. Juli 2024 - 18:14

Die 28. Kalenderwoche geht zu Ende. Wir haben 19 neue Texte mit insgesamt 176.299 Zeichen veröffentlicht. Willkommen zum netzpolitischen Wochenrückblick.

– Fraktal, generiert mit MandelBrowser von Tomasz Śmigielski

Liebe Leser:innen,

ich hatte noch nie das Bedürfnis, jemandem ernsthaft die Nutzung von ChatGPT zu empfehlen – bis zu dieser Woche. Und dieser jemand war immerhin Olaf Scholz, der Bundeskanzler. Der besuchte nämlich kürzlich das Bundesamt für Migration und Flüchtlinge und hat Werbung für mehr so genannte Künstliche Intelligenz bei Asylverfahren gemacht.

Warum sein Gerede entweder unlauteres Innovationsbingo oder ganz schön gefährlich oder im schlimmsten Fall beides ist, habe ich am Mittwoch kommentiert. Was nicht im Kommentar steht: Ich habe aus Spaß und mit einer Prise Zynismus mal ChatGPT gefragt, ob es denn eine gute Idee wäre, KI über Asyl entscheiden zu lassen. Wie diese KI geartet sein soll, habe ich nicht spezifiziert – das macht ja in der öffentlichen Diskussion auch nie jemand.

Das Ergebnis: ChatGPT würde sich selbst wohl keinen Entscheider-Job im BAMF geben. „Es wäre riskant und unethisch, eine KI allein über Asylgesuche entscheiden zu lassen“, spuckt die Maschine aus. Unterstützend ja, da könnte man vielleicht bei der Datenanalyse was machen. Aber die Liste an Risiken, die sich das Sprachmodell irgendwo im Internet zusammengelernt hat, ist lang. Sieben bedenkenswerte Aspekte nennt die Maschine, aufgeteilt in ethische, rechtliche und praktische Überlegungen.

KI-Algorithmen seien oft schwer nachvollziehbar, das gebe Probleme mit Rechtsstaatlichkeit und Transparenz, heißt es etwa. Außerdem könnten die Systeme „Vorurteile und Diskriminierungen aufweisen“, gerade bei verzerrten Trainingsdaten. Und nicht zuletzt, sondern ganz oben: „Asylentscheidungen betreffen oft tief persönliche und emotionale Schicksale. Eine KI könnte Schwierigkeiten haben, die menschliche Dimension und den Kontext vollständig zu erfassen und angemessen zu berücksichtigen.“

Das glorifizierte Sprachmodell klingt hier leider deutlich reflektierter als der menschliche Bundeskanzler, dem böse Zungen ja auch eine gewisse Roboterhaftigkeit nachsagen. Scholz redet lieber davon, dass er ein „erstklassiges, unübertreffbares Management von irregulärer Migration nach Deutschland“ will. Und man wird das Gefühl nicht los, dass er damit vor allem Abschiebungen meint. Das ist einer der Momente, in denen ich ausnahmsweise hoffe, dass es nur bei leeren Worten bleibt.

Ein nicht ganz so konsterniertes Wochenende wünscht euch

anna

#282 Off The Record: Konfiguration abgeschlossen

Wir haben es geschafft! Unsere Doku-Podcast-Staffel „Systemeinstellungen“ ist veröffentlicht! Höchste Zeit für Einblicke in den Maschinenraum, wie der Podcast entstanden ist, was wir gelernt haben und wie es weitergeht. Von Serafin Dinges, Anna Biselli, Ingo Dachwitz, Chris Köver, Sebastian Meineck –
Artikel lesen

DisplayEurope.eu: Eine föderierte europäische Öffentlichkeit

DisplayEurope.eu verspricht „Europäische Nachrichteninhalte ohne Grenzen. In deiner Sprache.“ Dafür setzt das Portal konsequent auf föderierte Inhalte, Open-Source-Technologie und Creative-Commons-Lizenzen. Und es könnte Maßstäbe setzen für eine europäische Öffentlichkeit. Von Volker Grassmuck –
Artikel lesen

Data Workers‘ Inquiry: Die versteckten Arbeitskräfte hinter der KI erzählen ihre Geschichten

Ohne Millionen Datenarbeiter:innen würden weder sogenannte Künstliche Intelligenz noch Content-Moderation funktionieren. In einem neuen Projekt erzählen sie ihre Geschichten: von Plattformarbeiter:innen in Venezuela und Syrien über Angestellte von Outsourcing-Firmen in Kenia bis zu Content-Moderator:innen in Deutschland. Von Ingo Dachwitz –
Artikel lesen

Data Workers‘ Inquiry: The hidden workers behind AI tell their stories

AI and content moderation would be impossible without the labor of millions of data workers. In a new project, these workers share their stories: from platform workers in Venezuela and Syria to employees of outsourcing companies in Kenya and content moderators in Germany. Von Ingo Dachwitz –
Artikel lesen

Digital Services Act: „Wir wollen dafür sorgen, dass große Unternehmen die neuen Rechte einhalten“

Wir sprechen mit Svea Windwehr von der Gesellschaft für Freiheitsrechte über die neuen Rechte durch den Digital Services Act. Wie wehrt man sich gegen regelwidrige Maßnahmen der Plattformen? Wo könnte der DSA auch missbraucht werden? Und Svea ruft euch dazu auf, sich bei der GFF zu melden, wenn Plattformen eure Inhalte oder euer Konto sperren. Von Constanze –
Artikel lesen

Nippelverbot: Facebook-Sperre von Filmwerkstatt Düsseldorf war rechtswidrig

Das Landgericht Düsseldorf hat geurteilt, dass eine Facebook-Sperre der Filmwerkstatt Düsseldorf nicht in Ordnung war. Das Unternehmen Meta habe seine marktbeherrschende Stellung ausgenutzt. Es ging – wie bereits oft – auch um dargestellte Nacktheit. Von Anna Biselli –
Artikel lesen

Sexualdelikte zum Nachteil von Minderjährigen: Was die gestiegenen Fallzahlen bedeuten

Liest man die heutigen Schlagzeilen über den Anstieg von Sexualdelikten zum Nachteil von Kindern und Jugendlichen, kann einem angst und bange werden. Doch was sagen die Zahlen wirklich aus? Wir geben Kontext zu einer Debatte, bei der mal wieder mehr Überwachung gefordert wird. Von Markus Reuter –
Artikel lesen

Beschwerde von noyb: Xandr verweigert jede Datenauskunft

Nach einer Recherche von netzpolitik.org zur Werbedatenplattform Xandr wollten Datenschutzbehörden deren Praktiken untersuchen. Die NGO noyb macht nun Druck, damit etwas passiert, und reicht Beschwerde ein. Denn Xandr verweigere die Auskunft nach Datenschutzgrundverordnung. Von Anna Biselli –
Artikel lesen

Buchvorstellung mit Diskussion: Wie Hacker in Filmen dargestellt werden

Eine Buchvorstellung mit Diskussion widmet sich am Donnerstag in Berlin den Hacker-Klischees in Filmen und Fernsehserien und der fiktiven Abbildung von Hackertätigkeiten. Buchautor William Mahan spricht und diskutiert über die Wechselwirkungen zwischen filmischer und realer Welt, denn Hacken ist politisch. Von Constanze –
Artikel lesen

Transparenzbericht Juni 2024: Unsere Einnahmen und Ausgaben und eine gerissene Latte

Die Bundesregierung duckt sich unter der rechten Welle weg und kommt nicht vom Fleck. Wir reißen zwar eine Latte, kommen aber um einiges voran. Und wir haben einiges in Planung. Denn: Ein großer Geburtstag steht an. Und ihr seid alle herzlich eingeladen! Von netzpolitik.org –
Artikel lesen

Online-Alterskontrollen: Banken oder Krankenversicherungen sollen Alter bestätigen

Das Bundesfamilienministerium will mit einem Konzept für eine „datensparsame Altersverifikation“ in den Debatten um den Jugendschutz punkten und hat dazu ein System beauftragt. Fachleute kritisieren die Pläne als kurzsichtig und technisch nicht machbar. Von Chris Köver –
Artikel lesen

Aktionismus gegen Deepfakes: „Da würde eine neue Technik pauschal unter Strafe gestellt“

Der Bundesrat legt ein Gesetz gegen Deepfakes vor. Es ist nur die aktuellste in einer Reihe hauptsächlich symbolischer, aktionistischer Regelungsbestrebungen. Aber selbst wenn dieses Gesetz nie verabschiedet wird: Ein Gesetz zum Thema Deepfakes wird kommen. Wir haben uns deshalb mit dem Entwurf auseinandergesetzt. Von Martin Schwarzbeck –
Artikel lesen

KI in Asylverfahren: Gefährlicher Tech-Populismus

Scholz will mehr KI bei Asylverfahren. Man könnte seine Äußerung beim BAMF-Besuch als Innovations-Bingo abtun. Doch wenn es um Menschenleben geht, ist dieser Tech-Populismus ein Problem. Ein Kommentar. Von Anna Biselli –
Artikel lesen

Telekommunikation: Was die Zivilgesellschaft von Bretons Zukunftsvisionen hält

Der EU-Kommissar Thierry Breton trommelt für eine weitreichende Reform der EU-Märkte für Telekommunikation und holte dazu ein öffentliches Stimmungsbild ein. Wir haben uns angesehen, wie die Zivilgesellschaft die Deregulierungsfantasien des französischen EU-Politikers beantwortet hat. Von Tomas Rudl –
Artikel lesen

Amnesty-Report: Versammlungsfreiheit in Gefahr

Amnesty International schlägt Alarm: Friedlicher Protest und das Grundrecht auf Versammlungsfreiheit werden in Europa zunehmend eingeschränkt. Behörden überwachen Demonstrierende immer ausgeklügelter und schrecken sie vom Protest ab – auch in Deutschland. Von Markus Reuter –
Artikel lesen

Eskalation in Gaming-Communitys: Morddrohung als Reflex

In der Gaming-Welt werden Morddrohungen teilweise leichtfertig ausgesprochen. Genauso werden lange Hasstiraden geteilt, die sich um vermeintliche Kleinigkeiten drehen. Warum ist das so? Und wie sollten wir dem begegnen? Von Dom Schott –
Artikel lesen

Diensteanbieterverpflichtung: Die Mauer in meinem Netz

Anders als früher will die Bundesnetzagentur im Herbst keine Mobilfunkfrequenzen mehr versteigern, sondern die bestehenden Nutzungsrechte verlängern. Doch ohne passende Auflagen schwäche das den Wettbewerb, kritisieren Verbraucherschützer:innen und Mobilfunkanbieter ohne eigenes Netz. Von Tomas Rudl –
Artikel lesen

Vorläufiges Ergebnis: X-Twitter verstößt gegen EU-Regeln für Plattformen

Die EU-Kommission hat heute ihre vorläufigen Ergebnisse zu Verstößen von Elon Musks Plattform gegen den Digital Services Act übermittelt. Es geht um täuschende blaue Haken, intransparente Werbung und mangelhaften Zugang zu Daten für Forschende. Das Verfahren könnte in einer hohen Strafe enden. Von Maximilian Henning –
Artikel lesen

Sachsen: Polizei gibt zu, in 21 Verfahren Gesichtserkennung eingesetzt zu haben

Die Polizei in Görlitz hat in fast zwei Dutzend Verfahren stationäre und mobile Systeme für biometrische Überwachung eingesetzt. Die Datenschutzbeauftragte Sachsen zweifelt die angegebene Rechtsgrundlage an. Doch da es um richterliche Anordnungen geht, wird es kompliziert. Von Markus Reuter –
Artikel lesen

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Sachsen: Polizei gibt zu, in 21 Verfahren Gesichtserkennung eingesetzt zu haben

12. Juli 2024 - 14:07

Die Polizei in Görlitz hat in fast zwei Dutzend Verfahren stationäre und mobile Systeme für biometrische Überwachung eingesetzt. Die Datenschutzbeauftragte Sachsen zweifelt die angegebene Rechtsgrundlage an. Doch da es um richterliche Anordnungen geht, wird es kompliziert.

Das Überwachungssystem PerIS gibt es stationär, wie auf dem Bild, und mobil. – Screenshot Werbevideo PptoPrecision

Die sächsische Polizei hat bei 21 Ermittlungsverfahren automatisierte Gesichtserkennung für Videoüberwachungsaufnahmen eingesetzt. Das geht aus einer Antwort der Sächsischen Datenschutzbeauftragten auf eine Beschwerde hervor, die wir im Volltext (PDF) veröffentlichen.

Demnach hat die Polizei Görlitz etwa mit mobilen und stationären Geräten (PerIS) in Ermittlungsverfahren den Verkehr überwacht und die Aufnahmen später händisch und automatisiert ausgewertet. Dies ist laut der Datenschutzbehörde auf Grundlage richterlicher Anordnungen passiert. Die Polizei hatte die Überwachungstechnik ohne Kenntnis der Datenschutzbehörde eingesetzt.

Die Auswertung fand laut der Polizei bis auf ein Verfahren immer retrograd, also im Nachhinein statt. Ein biometrischer Echtzeit-Abgleich habe bisher nur in dem Verfahren stattgefunden, über welches „nd“ und netzpolitik.org im Mai 2024 berichtet hatten – hier waren Berliner Strafverfolgungsbehörden verantwortlich. Die richterliche Anordnung stützte sich dabei auf die Rasterfahndungsparagrafen 98a und 98b der Strafprozessordnung.

Datenschutzbehörde sieht keine Rechtsgrundlage

Die anderen biometrischen Überwachungen fanden auf Basis von §§100h und 163f StPO statt. Nach Einschätzung der Datenschutzbehörde seien das jedoch „keine Rechtsgrundlagen, auf die derartige ‚Scans‘ des öffentlichen Verkehrsraums gestützt werden können“.

Die Datenschutzbehörde ist wegen der Unabhängigkeit der Gerichte nicht zuständig für die Prüfung richterlicher Beschlüsse, welche die Überwachung angeordnet hatten. Sie bewertet den Einsatz der Technik aber „abstrakt und unabhängig von konkreten Ermittlungsverfahren“ als „sehr kritisch“, weil diese in großer Zahl „nahezu ausschließlich unbeteiligte Dritte betreffen“ würden.

Diese Bedenken hinsichtlich der Verhältnismäßigkeit des Vorgehens verstärken sich laut der Behörde „exponentiell, wenn sich an derartige Bildaufzeichnungen eine biometrische Weiterverarbeitung der erhobenen Daten anschließt und von den Kameras erfasste Personen einem biometrischen Abgleich ihrer Gesichter mit Referenzbildern unterzogen werden“.

Hinzu komme, dass die Polizei in Görlitz den Bilddatenbestand aus den Aufzeichnungen vor dem biometrischen Abgleich nicht reduziert oder nach wie auch immer gearteten Kriterien gefiltert habe. Dadurch würden auch biometrische Daten von Personen verarbeitet, die „bestimmte, auf den Täter vermutlich zutreffende Prüfungsmerkmale“ gerade nicht erfüllen würden. Als Beispiel nennt die Behörde eine Suche nach männlichen erwachsenen Tatverdächtigen, bei der aber auch Frauen und Kinder vom biometrischen Abgleich erfasst würden.

Behörde könnte Staatsanwaltschaften biometrische Überwachung untersagen

Die Piraten-Politikerin Anne Herpertz, die sich bei der Datenschutzbehörde beschwert hatte, sagt: „Dass es sich um retrograde Abgleiche von Gesichtern statt Echtzeit-Überwachung handelt, ändert nichts an der Tatsache, dass biometrische Überwachung stattfindet.“ Eine rückläufige Überwachung würde zudem neue Fragen bezüglich Datensammelei und Vorratsdatenspeicherung aufwerfen.

Die Datenschutzbeauftragte stelle selbst fest, so Herpertz weiter, dass die bestehende Strafprozessordnung diese Praxis nicht abdecke. Herpertz fordert die Datenschutzbeauftragte auf, den Staatsanwaltschaften zu untersagen, biometrische Überwachung zu beantragen. Im Rahmen der Umsetzung des europäischen AI Acts brauche es jetzt ein klares Verbot des Einsatzes solcher Techniken in Deutschland.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Vorläufiges Ergebnis: X-Twitter verstößt gegen EU-Regeln für Plattformen

12. Juli 2024 - 13:15

Die EU-Kommission hat heute ihre vorläufigen Ergebnisse zu Verstößen von Elon Musks Plattform gegen den Digital Services Act übermittelt. Es geht um täuschende blaue Haken, intransparente Werbung und mangelhaften Zugang zu Daten für Forschende. Das Verfahren könnte in einer hohen Strafe enden.

X zeigt sich zu verschlossen, findet die Kommission. – Public Domain Pexels / BM Amaro

X, ehemals Twitter, verstößt gegen verschiedene Regeln des Digital Services Acts. Das ist das vorläufige Ergebnis einer Untersuchung der EU-Kommission. Die Kommission übermittelte dieses Ergebnis heute an X.

Die EU hat mit dem Digital Services Act (DSA) neue Regeln für Online-Plattformen festgelegt. Sie legt heute zum ersten Mal das vorläufige Ergebnis einer Untersuchung unter diesen Regeln vor.

Die Untersuchung ist mit der heutigen Ankündigung noch nicht beendet: X darf sich nun schriftlich verteidigen. Sollte die Kommission dann zu dem Schluss kommen, dass ihr Ergebnis trotzdem zutraf, kann sie eine Strafzahlung verhängen. Diese Strafe darf bis zu sechs Prozent des jährlichen weltweiten Umsatzes einer Plattform betragen.

X hat unter Elon Musk einen großen Teil seines Umsatzes eingebüßt. Bloomberg berichtet, dass der Gesamtumsatz 2023 rund 3,4 Milliarden US-Dollar betragen dürfte. Die DSA-Strafe könnte damit um die 200 Millionen US-Dollar betragen.

Täuschende blaue Haken

Die heute vorgestellten Ergebnisse konzentrieren sich auf drei Bereiche: die blauen Haken neben den Namen mancher Accounts, die Transparenz von Werbung und den Zugang zu öffentlichen Daten für Forschende.

Das Problem der EU-Kommission mit den blauen Haken ist, dass sie im allgemeinen Verständnis einen Account mit verifizierter Identität kennzeichnen. Tatsächlich gibt es die blauen Haken auf X aber für knapp zehn Euro im Monat zu kaufen. „Das ist ein großer Unterschied zu Industriestandards und heutigen Normen, aber auch zu dem, was Nutzer:innen gewohnt sind“, sagte heute ein Beamter der Kommission. Es handele sich deshalb um ein sogenanntes Dark Pattern, also eine Manipulation von Nutzenden.

Wenn Accounts mit blauen Haken auf X-Posts antworten, werden ihre Antworten bevorzugt angezeigt. Auch das sei ein Dark Pattern, so der Kommissionsbeamte: „Man kann sich selber eine Priorisierung kaufen. Wir glauben, dass das irreführend ist.“

Intransparente Werbung

Nach den Regeln des DSA müssen Plattformen Informationen über bei ihnen gezeigte Werbung zur Verfügung stellen. Dafür schreibt das Gesetz eine Datenbank vor, die durchsuchbar und verlässlich sein muss. Das ist bei X nicht der Fall, meint die Kommission. „Sie funktioniert technisch eigentlich nicht, weil man Ewigkeiten braucht, um irgendeine Art Datensatz herunterzuladen“, sagte heute der leicht frustriert wirkende Kommissionbeamte.

Die Datensätze, die man herunterladen könne, seien oft unvollständig. Das erschwere die Aufsicht und die Suche nach Problemen mit Werbung auf X, so die Kommission.

Mangelhafter Zugang zu Daten für Forschende

Große Plattformen müssen unter dem DSA Forschenden Zugang zu vorgeschriebenen Daten geben. Daran hält sich X momentan laut der Kommission nicht. Dabei geht es um Probleme mit Daten, die sowieso schon zugänglich sind, etwa auf der Seite der Plattform. Die Geschäftsbedingungen von X verbieten das massenhafte Abrufen der Webseite, sogenanntes Scrapen.

Auch der vorgeschriebene Zugang zu Daten über eine API funktioniert nach Ansicht der Kommission nicht. Es gibt zwar eine API, also eine Programmierschnittstelle, die scheint aber Forschende mit „unverhältnismäßig hohen Gebühren“ abzuschrecken.

Um ansonsten Zugang zu Daten zu bekommen, müssen sich Forschende verifizieren lassen. Das System dafür sei „zusammengebastelt“ und funktioniere nicht richtig, so der Kommissionsbeamte gestern. Außerdem müssten europäische Forschende einen Überprüfungsprozess in den USA durchlaufen, der mehrere Monate lang dauert und sehr intransparent sei. Nur sehr wenige hätten ihn bisher erfolgreich absolviert.

Verfahren zu Desinformation läuft weiter

Die Kommission hat diese Bedenken bereits in einer Reihe von Treffen mit X besprochen. Dazu hat sie auch Meinungen von den Behörden eingeholt, die in den EU-Mitgliedstaaten für den DSA zuständig sind. In Deutschland ist das die Bundesnetzagentur. Neben der eigenen Expertise im neu aufgebauten Zentrum für algorithmische Transparenz war die Kommission außerdem in Kontakt mit verschiedenen Expert:innen. „Sie haben uns unseren Verdacht bestätigt, dass X bei diesen Themen nicht den Regeln entspricht“, so der Beamte heute.

Ein weiteres Verfahren zu Desinformation und illegalen Inhalten läuft weiter. Man mache „ausgezeichneten Fortschritt“, hieß es dazu heute aus der Kommission. Auch dabei sei man im Kontakt mit den Mitgliedstaaten und der Zivilgesellschaft.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Diensteanbieterverpflichtung: Die Mauer in meinem Netz

11. Juli 2024 - 17:57

Anders als früher will die Bundesnetzagentur im Herbst keine Mobilfunkfrequenzen mehr versteigern, sondern die bestehenden Nutzungsrechte verlängern. Das schwäche den Wettbewerb, kritisieren Verbraucherschützer:innen und Mobilfunkanbieter ohne eigenes Netz.

Verbraucherschützer:innen und Anbieter ohne eigene Infrastruktur fordern eine Öffnung der Mobilfunknetze. – Alle Rechte vorbehalten IMAGO / Zoonar

Der deutsche Mobilfunkmarkt braucht neuen Schwung, fordern Verbraucherschützer:innen. Im Herbst steht die Verlängerung der Frequenznutzungsrechte für die Mobilfunkbetreiber Deutsche Telekom, Vodafone und Telefónica (O2) an. Dabei wünscht sich der Bundesverband der Verbraucherzentralen (Vzbv) mehr Wettstreit auf dem Markt. Das soll zu einem besseren Preis-/Leistungsverhältnis und damit Vorteilen für Verbraucher:innen führen.

Vor allem für Diensteanbieter und Kommunikationsanbieter ohne eigenes Netz müssten „die richtigen Grundvoraussetzungen geschaffen werden“, um den Markt zu beleben, schreibt der Vzbv in seiner Stellungnahme zu einer Konsultation der Bundesnetzagentur. Die Regulierungsbehörde müsse die Auflagen „sowohl für den Ausbau als auch zur Verbesserung des Wettbewerbs deutlich verschärf[en]“. Insbesondere sollte den Platzhirschen eine Diensteanbieterverpflichtung auferlegt werden, indem sie Wettbewerber in ihre Netze lassen müssen, fordert der Vzbv.

Keine Versteigerung geplant

Bislang wurden die Rechte für die Nutzung der begehrten Mobilfunkfrequenzen stets versteigert und haben damit Milliardenbeträge in die Staatskasse gespült. Für die nächste Runde will die Bundesnetzagentur nun einen anderen Ansatz ausprobieren. Sie will die Ende 2025 auslaufenden Rechte an den Frequenzen in den Bereichen 800 MHz, 1.800 MHz und 2.600 MHz nicht mehr zur Auktion freigeben, sondern zu bestimmten Konditionen für fünf Jahre verlängern.

Das ist verknüpft mit deutlich gestiegenen Ausbauverpflichtungen, die sich auf die Fläche und nicht mehr nur auf Haushalte beziehen. Bezahlen sollen die drei Betreiber insgesamt rund 600 Millionen Euro, rund ein Drittel der zuletzt gezahlten Auktionserlöse. Das gesparte Geld sollen sie in den Netzausbau stecken: Ab dem Jahr 2030 sollen 99,5 Prozent des Bundesgebiets mit mindestens 50 Mbit/s versorgt sein, für Haushalte und Straßen sollen noch höhere Auflagen gelten.

Neuer Netzbetreiber ohne Frequenzen

Eines der Probleme dabei ist, dass mit 1&1 inzwischen ein vierter Netzbetreiber in den Markt eingestiegen ist – der keine Rechte an den bereits vergebenen Frequenzen besitzt. Um das auszugleichen, sollen die etablierten Betreiber zu einer kooperativen Mitnutzung von Frequenzen unterhalb von 1 GHz verpflichtet werden. Außerdem erwägt die Bundesnetzagentur, zu Gunsten von 1&1 ein Verhandlungsgebot zu National Roaming zu erlassen. Sollten die Verhandlungen mit den anderen Betreibern scheitern, könnte die Behörde das ab 2026 sogar anordnen. Ausgemachte Sache ist der Vorschlag der Bundesnetzagentur aber noch nicht.

Das Vorhaben baut zu einem guten Teil auf einem Gutachten von WIK-Consult und EY (Ernst & Young) auf, welches die beiden Beratungsunternehmen im Auftrag der Netzagentur erstellt und Anfang des Jahres präsentiert hatten.

Gutachten sieht „wirksamen Wettbewerb“

Die Ergebnisse waren für viele überraschend, denn dem Gutachten zufolge geht es dem Wettbewerb auf dem deutschen Mobilfunkmarkt gut: „Unabhängige Mobilfunkanbieter haben in Deutschland im europäischen Vergleich die höchsten Teilnehmermarktanteile“, heißt es etwa. Zudem sei die Marktkonzentration in „Deutschland bei den in der Studie betrachteten Ländern mit am geringsten“.

Entsprechend empfehlen die Autor:innen nur zurückhaltende regulatorische oder gesetzgeberische Eingriffe. Weder brauche es neue Auflagen, um dem Neueinsteiger 1&1 den Markteintritt zu erleichtern, noch gebe es nennenswerte Probleme auf dem Vorleistungsmarkt, wo die Betreiber Zugänge zu ihren Netzen verkaufen. „Es findet sich keine empirische Evidenz für eine Abschottung des Vorleistungsmarktes durch die etablierten Mobilfunknetzbetreiber“, heißt es in der Studie. Marktzutritte im Vorleistungsmarkt seien möglich und fänden statt.

Dieser Einschätzung ist die Bundesnetzagentur bislang gefolgt: „Eine Regulierung von Zugang zu Vorleistungen ist in einem funktionsfähigen Marktumfeld nicht geboten“, stellt der Konsultationsentwurf klar.

Bündelangebote kleinerer Netzbetreiber

Dem widerspricht nicht nur der Vzbv energisch. Auch der Branchenverband Breko kann die Einschätzung der derzeitigen Wettbewerbsverhältnisse nicht nachvollziehen. Entsprechend sei der Vorschlag der Bundesnetzagentur nicht geeignet, einen „chancengleichen und diskriminierungsfreien Wettbewerb im Mobilfunkmarkt zu ermöglichen“, schreibt der Verband in seiner Stellungnahme.

So habe sich das heute schon geltende Verhandlungsgebot bislang als wirkungslos erwiesen. Nach Einschätzung des Breko könnte dies sogar „zur Rechtswidrigkeit der Verlängerungsentscheidung“ führen. Und wie der Vzbv pocht der Verband auf eine Diensteanbieterverpflichtung – aus seiner Sicht das „mildeste wirksame Regulierungsinstrument“, um bestehende Ungleichgewichte zwischen den etablierten Mobilfunknetzbetreibern und Vorleistungsnachfragern aller Marktsegmente zu beseitigen.

Dazu zählen etwa auch kleinere Netzbetreiber, die beispielsweise regional Glasfaserprodukte anbieten. Auf Basis einer wirksamen Diensteanbieterverpflichtung könnten sie „mit attraktiven Bündelangeboten im Markt aktiv werden“, also Festnetz- und Mobilfunkverträge aus einer Hand anbieten. Zugleich könnte das Instrument „drohende Marktaustritte von heute aktiven netzunabhängigen Mobilfunkanbietern verhinder[n]“.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Eskalation in Gaming-Communitys: Morddrohung als Reflex

11. Juli 2024 - 16:13

In der Gaming-Welt werden Morddrohungen teilweise leichtfertig ausgesprochen. Genauso werden lange Hasstiraden geteilt, die sich um vermeintliche Kleinigkeiten drehen. Warum ist das so? Und wie sollten wir dem begegnen?

Warum schaukeln sich hasserfüllte Kommentare und Drohungen in manchen Communitys so schnell hoch? – Gemeinfrei-ähnlich freigegeben durch unsplash.com Alessandro Bellone

„Ich habe eine sehr konkrete Morddrohung bekommen.“ Diese Zeilen einer befreundeten Journalistin finde ich eines Tages in meinem Posteingang. Anlass für diese Nachricht war eine Reportage über prominente Streamer und ihre Beziehung zu den Fans. Ein Text, der für heftige Reaktionen sorgte – und eben eine Morddrohung.

Nichts, was diese Kollegin gewohnt ist, obwohl sie seit Jahren über Themen schreibt, die gemeinhin als noch brisanter und gesellschaftlich noch relevanter angesehen werden als Livestreaming-Kultur: Russlandpolitik, Migrationspolitik, diese Dinge. Morddrohungen erhielt sie bisher nie.

Ist das ein Zufall? Oder ist das Eskalationspotential in der Welt des Gamings und insbesondere in der Beziehung zwischen Streamern und ihren Zuschauern außerordentlich explosiv? Woran könnte das liegen? Diesen Fragen bin ich nachgegangen und sprach mit Psychologen, Streamerinnen und Hass-Betroffenen über ihre Perspektiven und Erfahrungen.

Wenn der Kommentarbereich brennt

„Ich habe sowohl als freie Redakteurin Anfang der 2010er Jahre als auch jetzt als Content Creator immer wieder Erfahrungen mit wütenden Gamern gemacht“, schreibt mir Sandra Friedrichs. Sie hat lange Zeit als PR-Expertin in der Spielebranche gearbeitet und wurde vergangenes Jahr zur Vize Miss Germany gekürt – eine Auszeichnung, die sie auch für ihr Engagement für Themen rund um Mental Health im Gaming erhielt. Heute produziert sie regelmäßig persönliche Videos, Ausschnitte aus ihrem Leben und Videos rund um die Lebenssimulation Die Sims.

„Entweder wurde mein Aussehen beleidigt, weil ich in deren Augen zu hässlich, zu viel geschminkt – oder weil ich keine ‚ebenbürtige‘ Gamerin sei. Das ging auch in regelrechte Hasstiraden über, bei denen sich die Kommentatoren in Rage geschrieben haben.“ Für Sandra Friedrichs waren diese Erfahrungen belastend und vor allem die ausführlichen Hassnachrichten, die unter ihren Videos vielfach auftauchen, treffen sie sehr.

Friedrichs Erfahrungen teilen viele Menschen, insbesondere auch Frauen, die in der Gaming-Öffentlichkeit stehen und die ihrer spielerischen Leistungen oder auch einfach nur ihrer Stimme wegen mit Hassnachrichten konfrontiert werden. Erfahrungsberichte wie diese sind seit über einem Jahrzehnt fester Teil der täglichen Berichterstattung rund um Spielkultur und seit noch viel längerer Zeit ein hartnäckiges Problem der Spielkultur selbst.

Extrem hohe Identifikation mit dem Hobby

Unterkriegen lassen will sich Friedrich davon trotzdem nicht: „Auf keinen Fall lasse ich zu, dass diese Menschen noch mehr Einfluss auf mich haben als diese kurzen Momente der Ohnmacht. Ich mache meine Arbeit unbeirrt weiter und kläre darüber auf, wie engstirnig viele solcher Kommentare sind.“

Immer wieder fragt sich Friedrichs, was diese heftigen Reaktionen einiger Zuschauer provoziert, die zu langen Hassnachrichten und -kommentaren führen. Einer ihrer Erklärungsansätze: der extrem hohe Grad der Identifikation dieser Menschen mit ihrem Hobby.

„Ich bin keine Psychologin, aber ich kann mir vorstellen, dass diese Kommentatoren ihr ‚Selbst‘ mit ihrer Beziehung zu diesem Hobby gleichsetzen”, sagt sie. “Wenn sich nun andere ebenso wie sie als ‚Gamer‘ bezeichnen, könnten sie sich bedroht fühlen oder als würde ihnen jemand etwas wegnehmen wollen.“

Ein gut erforschtes Phänomen

Auch Dr. Benjamin Strobel kennt diesen Erklärungsansatz. Der Psychologe beschäftigt sich vor allem mit der Dynamik von Gaming-Communitys und ist ebenso wie Sandra Friedrichs mit dem Phänomen der Hasskommentare als Reaktion auf Berichterstattung, Livestreams – oder einfach nur ein Sims-Video – vertraut.

„Tatsächlich kann dieses Verhalten mit hoher Identifikation zu tun haben“, bestätigt Strobel. „Darauf deuten zumindest auch Ergebnisse einer Studie der Psychologin Rachel Kowert und ihren Kollegen hin. Sie fanden heraus, dass eine hohe Identifikation mit Gaming-Kultur auch mit mehr toxischen Verhaltensweisen verbunden ist.“

Die Erklärung für diesen Zusammenhang liegt in einem psychologischen Modell, das ursprünglich aus der Marktwirtschaft kommt: der Self-Brand-Connection. „Games, Spielehersteller oder auch Streamer kann man hier als Brands oder Marken verstehen, mit denen ich mich verschieden stark identifiziere. Je mehr ich das Gefühl habe, dass eine Marke mit meinen eigenen Vorstellungen und Idealen übereinstimmt, desto stärker kann die Verbindung zwischen meinem Selbst und der Marke werden.“

In der Folge, so der Psychologe weiter, fühlten sich Angriffe auf diese Marke wie persönliche Angriffe auf den Fan selbst an – was starke Emotionen und den Impuls zur Verteidigung auslösen könne.

„Angst oder Scham wirken hier weniger

Dieser Erklärungsansatz allein greife aber zu kurz, wie Benjamin Strobel betont. Gerade online greifen noch weitere Faktoren, die sich nicht nur auf Gaming-Communitys beschränken: „Zum einen spielt Anonymität eine Rolle, weil Personen das Gefühl haben, dass ihre Aussagen nicht notwendigerweise auf sie persönlich zurückfallen. Gefühle wie Angst oder Scham, die sie andernfalls davon abhalten würden, sich abfällig zu äußern, wirken hier weniger.“

Zum anderen spielen Regeln und Normen eine wichtige Rolle, die im Online-Raum anders definiert sind als im „echten“ Zusammenleben offline: „Im Vergleich zum physischen Raum sind digitale Räume deutlich weniger reguliert. Und für die Regeln, die es gibt, ist die Durchsetzung nicht sonderlich konsequent. Dadurch verschieben sich Grenzen und Normen, der Werterahmen verändert sich.“

Ein anschauliches Beispiel für diese verschobenen Grenzen sieht der Psychologe in Phishing-Mails: „Die löschen wir einfach – dass es sich aber eigentlich um einen Betrugsversuch und eine Straftat handelt, beachten wir kaum noch. Dieser Normbruch ist so normalisiert, dass wir ihn gar nicht mehr wahrnehmen.“

Eben dieser Effekt sei auch in der Welt des Gamings zu sehen, wenn Morddrohungen ausgesprochen werden – und für den Urheber konsequenzlos bleiben: „Alle anderen bekommen das mit und lernen: Wenn du sowas sagst, passiert gar nichts. Wenn das Verhalten dann sogar noch von anderen bejubelt wird, lernt eine ganze Community: Das ist in Ordnung.“

Rein rechtlich wäre alles klar

Rechtlich sind Konsequenzen bei Morddrohungen und anderen strafbaren Hass-Postings längst vorgesehen. In der Vergangenheit durch das Netzwerkdurchsetzungsgesetz, das im Februar durch das Digitale-Dienste-Gesetz auf EU-Ebene abgelöst wurde. Es schreibt unter anderem nutzerfreundliche Meldewege für strafbare Inhalte vor, wie Plattformen mit Meldungen umgehen sollen und wie Verdachtsmeldungen an Behörden weitergeleitet werden müssen. Was mit einer strafbaren Bedrohung auf einer Online-Plattform passiert, ist also geregelt.

Doch sowohl beim Umgang der entsprechenden Plattformen mit strafbaren Inhalten als auch bei der polizeilichen Verfolgung gab es in der Vergangenheit immer wieder Probleme. Im Jahr 2022 zeigte etwa eine Recherche des „ZDF Magazin Royale“, dass Betroffene teils nicht ernst genommen wurden oder Ermittlungen nur schleppend verliefen.

Die Betroffenen werden mit Hass und Drohungen daher oft alleingelassen – und müssen ihnen mit den Mitteln entgegentreten, die sie zur Verfügung haben.

Morddrohungen müssen keine Selbstverständlichkeit sein

Natürlich sind nicht alle Spielerinnen und Spieler potenzielle Absender von Morddrohungen. Die Analyse von Benjamin Strobel und die Erfahrungsberichte Betroffener unterstreichen aber: Das Potential zur verbalen Grenzüberschreitung ist in der Gaming-Community wegen unterschiedlicher Faktoren besonders hoch. Doch Morddrohungen müssen trotzdem keine Selbstverständlichkeit werden – es gibt Möglichkeiten auf mehreren Ebenen, diesen Ausbrüchen entgegenzuwirken.

Der Psychologe Strobel sieht eine Chance in einem grundsätzlichen Perspektivenwechsel auf die Online-Welt und wie wir uns in ihr bewegen: „Wir müssen einerseits Werte wie Vielfalt und Gleichwertigkeit aktiv vermitteln und diese mit gesellschaftlichen Normen auch einfordern. Andererseits müssen wir bei Verhalten Grenzen setzen, das gegen diese Werte verstößt.“

Hier sieht Strobel auch die Verantwortung bei den Plattformen, auf denen diese Konflikte stattfinden, vornehmlich Twitch, YouTube und soziale Netzwerke wie Instagram.

„Wir müssen vor allem die Verschiebung des Werterahmens in digitalen Räumen durchbrechen. Und wir müssen Regeln und Normen unserer demokratischen Gesellschaft stärker einfordern. Das heißt auch, Regelbrüche und Normverletzungen nicht zu akzeptieren. Wenn wir diese Grenzen nicht ziehen, wird es bald keine mehr geben“, schließt der Psychologe.

Er fordert alle, die dafür Kraft und Kapazitäten haben, zum aktiven Entgegentreten auf: „Wenn ich etwas lese, das nicht in Ordnung ist, weil es andere herabsetzt, kann ich mit Gegenrede ein Zeichen setzen. Damit kann ich verhindern, dass sich die Normen immer weiter verschieben. Wenn andere sehen, dass solche Kommentare nicht gut ankommen, geahndet oder gelöscht werden, ist das ein wichtiges Zeichen, von dem alle lernen und an dem eine Community wachsen kann.“

Moderation als Schlüsselstrategie

Auf meinem Bildschirm blicken mir Robin Schweiger und Thomas „Tom“ Goik entgegen. Die beiden sind Spielejournalisten, früher beim Branchenpromi GIGA und seit 2014 an der Spitze ihres selbstgegründeten Onlinemagazins Hooked.

Sie erreichen mit ihren oft kritischen Videos auf YouTube tausende Gamer, regelmäßig treten sie auf Twitch live mit ihrem Publikum in Austausch. Sie kennen sich aus in der Spielebranche, sind selbst Streamer – und alles andere als überrascht, als ich ihnen von den Erfahrungen meiner Kollegin erzähle, die am Beginn dieser Recherche standen.

„Typischer ‚Gamer-Rage‘ war meine erste Assoziation dazu, und eigentlich ist es traurig, dass ich davon so gar nicht überrascht bin“, sagt Thomas Goik, Robin Schweiger stimmt ihm nickend zu. Das Duo ist mit der Wut der SpielerInnen vertraut, der sie allerdings seit einigen so entschieden entgegentreten, wie es auch der Psychologe Benjamin Strobel einfordert – und an ihrem Beispiel wird klar: Diese Strategie kann funktionieren.

„Wir moderieren all unsere Kommentarbereiche stark, das ist unglaublich wichtig“, erklärt Schweiger. „Wir lassen natürlich Kritik zu, aber blenden Kommentare aus, die über sowas wie grundlegende Menschenrechte diskutieren wollen oder schlichtweg beleidigend sind. Und wenn man das eine zeitlang konsequent macht, dann baut sich dadurch eine Community auf, die aus sich heraus ebenfalls andere moderiert. Das heißt, wenn bei uns Zuschauer Grenzen überschreiten, schreiten andere Mitglieder aus der Community eigeninitiativ ein.“

Diese Disziplin im Umgang mit der Community haben sich die beiden Journalisten angewöhnt, nachdem sie jahrelang selbst erleben mussten, wie sich der Umgang online ohne klare Regeln entwickeln kann.

Goik erzählt: „Bei Giga Games hatten wir jahrelang eine unmoderierte Kommentarsektion und die war furchtbar, wirklich ganz furchtbar. Die waren gemein zu uns und anderen Redakteurinnen – etwas, dem man viel stärker hätte entgegentreten müssen. Hätten wir damals bei der Chefetage aber nach einem Moderationsteam gefragt, hätte man uns wohl den Vogel gezeigt.“

Mit ihrer Strategie der strengen Moderation sieht sich das Duo allerdings recht alleine in ihrer Branche. Mit Blick auf noch größere Redaktionen, Podcastmagazine und Streamer kritisieren Goik und Schweiger, das Moderation und Community-Betreuung noch immer zu häufig nachlässig behandelt werde: „Es werden an viel zu vielen Stellen viel zu selten Regeln durchgesetzt, auch weil mit steigender Reichweite nur selten auch wachsende Moderationsteams verbunden sind. Aus irgendeinem Grund ist das der Weg, den das Internet eingeschlagen hat.“

Es liege in den Händen von uns allen, so das Duo, diesen Weg wieder zu verlassen und Grenzüberschreitungen online entgegenzutreten – so, wie wir es auch offline im Alltag tun sollten.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Amnesty-Report: Versammlungsfreiheit in Gefahr

10. Juli 2024 - 16:12

Amnesty International schlägt Alarm: Friedlicher Protest und das Grundrecht auf Versammlungsfreiheit werden in Europa zunehmend eingeschränkt. Behörden überwachen Demonstrierende immer ausgeklügelter und schrecken sie vom Protest ab – auch in Deutschland.

Die Polizei tritt Protesten in Europa zunehmend repressiv entgegen. Hier ein Beamter bei einer Klima-Demo im französischen Sainte-Soline. – Alle Rechte vorbehalten IMAGO / ABACAPRESS

Amnesty International hat sich den Status der Versammlungsfreiheit in 21 europäischen Ländern (PDF) angeschaut. Das Recht auf friedliche Versammlung gerate zunehmend unter Beschuss. Staatliche Behörden würden die Organisator:innen und Teilnehmenden stigmatisieren, behindern, abschrecken und hart gegen diejenigen vorgehen, die friedliche Proteste organisieren oder daran teilnehmen.

Die Menschenrechtsorganisation stellt fest, dass „willkürliche Massenüberwachung, strenge polizeiliche Maßnahmen, übermäßige Auflagen und die Gefahr strafrechtlicher Sanktionen“ Menschen einschüchtern von der Teilnahme an Versammlungen abschrecken würden. Dieser Abschreckungseffekt wirke sich unverhältnismäßig stark auf von Rassismus betroffene Menschen und marginalisierte Gruppen aus. Außerdem stellt Amnesty fest, dass viele Länder in diskriminierender Weise zwischen verschiedenen Protestbewegungen, Gruppen und Anliegen unterscheiden würden.

Immer mehr digitale Überwachung von Protesten

Laut Amnesty setzen die Strafverfolgungs- und Sicherheitsbehörden der Staaten zunehmend hochentwickelte digitale Instrumente ein, um gezielt und massenhaft Demonstrierende zu überwachen. Diese Daten kämen nicht nur aus sozialen Medien und verdeckten polizeilichen Operationen. Sie beinhalteten auch die Erfassung biometrischer Daten, die wiederrum zur Überwachung öffentlicher Plätze und Proteste unter Verwendung von Überwachungskameras, Drohnen und Bodycams genutzt würden.

Behörden würden Versammlungen zunehmend als „Gefahr“ sehen, die zunehmende Überwachung von Demonstrationen habe eine abschreckende Wirkung und würde Menschen von der Ausübung ihres Grundrechts abhalten.

Amnesty kritisiert auch die zunehmende Überwachung von Demonstrationen in Deutschland. So werden Bodycams heute schon in mehreren Bundesländern auch auf Demonstrationen eingesetzt. Zudem habe Deutschland in der Vergangenheit schon Gesichtserkennung zur Strafverfolgung bei Protesten eingesetzt, obwohl es dafür keine gesetzliche Grundlage gäbe.

Vermummungsverbote sind „unverhältnismäßig und diskriminierend“

Vor dem Hintergrund zunehmender Überwachung hat Amnesty auch Kritik am deutschen Vermummungsverbot, das ein Bedecken des Gesichts pauschal verbietet. Für Demonstrierende gäbe es eine ganze Reihe von Gründen sich zu bedecken. Dazu zählt Amnesty Bedenken hinsichtlich ihrer Identifizierung, den Schutz vor Tränengas oder das Tragen von Masken beispielsweise von Politiker:innen als Protestform.

Ein weiterer Grund sei Vermummung als Ausdruck von Religionsausübung. Pauschale Verbote von Gesichtsbedeckungen sind laut Amnesty „grundsätzlich unverhältnismäßig und diskriminierend“. Die Menschenrechtsorganisation sieht ein Vermummungsverbot höchstens dann als legitim an, wenn eine Demonstration unfriedlich würde.

Amnesty fordert im Bezug auf Überwachung unter anderem, dass die Anfertigung von Bildaufnahmen auf Demos durch die Polizei eingeschränkt wird und dass pauschale Vermummungsverbote aufgehoben werden. Gleichzeitig fordert die Menschenrechtsorganisation, dass biometrische Fernerkennung wie Gesichtserkennung auf Demonstrationen verboten wird. Auch sollen Menschen über ihre Überwachung auf Protesten informiert werden.

Gegen Blockaden von Klima-Aktivist:innen setzte die niederländische Polizei mehrfach deutsche Wasserwerfer ein. - Alle Rechte vorbehalten IMAGO / ANP Kritik an Umgang mit Klimaprotesten und zivilem Ungehorsam

Kritik hat Amnesty auch am Umgang mit Klimaprotesten. Hier sind immer wieder die Niederlande im Bericht genannt, wo im letzten Jahr Tausende Menschen im Rahmen einer Kampagne von Extinction Rebellion eine Autobahn besetzten, um gegen fossile Subventionen zu protestieren. Im Rahmen dieser Proteste haben die niederländischen Behörden entgegen der Gesetze die Militärpolizei eingesetzt, die Proteste gefilmt und darüber hinaus mit geliehenen deutschen Wasserwerfern eine friedliche Blockade aufgelöst. Teilnehmende und aufrufende Personen wurden mit mehrjährigen Haftstrafen bedroht. Verurteilt wurde am Ende niemand.

Harte Geschütze fuhren die Behörden auch in Deutschland gegen Klimaproteste der Gruppe „Letzte Generation“ auf. Gegen die mit friedlichen Mitteln des zivilen Ungehorsam agierende Gruppe wird wegen angeblicher „Bildung einer kriminellen Vereinigung“ ermittelt. Im Rahmen dieser Ermittlungen wurden zahlreiche Wohnungen durchsucht. Amnesty kritisiert zudem die gegen Klimaaktivist:innen eingesetzte Präventivhaft in Deutschland und die Polizeigewalt bei den Braunkohle-Protesten in Lützerath.

Überblick über Stand der Versammlungsfreiheit

Über diese und zahlreiche weitere Einschränkungen der Versammlungsfreiheit, über Menschenrechtsverletzungen, die Rechtslage und fragwürdige polizeiliche Praxen gibt der Amnesty-Bericht einen Überblick in den Ländern Österreich, Belgien, Tschechien, Finnland, Frankreich, Deutschland, Griechenland, Ungarn, Irland, Italien, Luxemburg, Niederlanden, Polen, Portugal, Serbien, Slowenien, Spanien, Schweden, Schweiz, Türkei und dem Vereinigten Königreich.

Der mehr als 200 Seiten starke englischsprachige Report (PDF) ist nicht nach Ländern, sondern nach Themen gegliedert. Das macht einen Ländervergleich schwierig.

Die Menschenrechtsorganisation fordert von allen Staaten, das für Demokratien elementare Grundrecht auf Versammlungsfreiheit mehr zu achten und Restriktionen zurückzunehmen. Sie kritisiert rechtliche Einschränkung der Versammlungsfreiheit in zahlreichen der untersuchten Staaten, auch in Deutschland, wo unter anderem in den Bundesländern Nordrhein-Westfalen und Hessen das Versammlungsrecht laut dem Bericht deutlich eingeschränkt wurde.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Telekommunikation: Was die Zivilgesellschaft von Bretons Zukunftsvisionen hält

10. Juli 2024 - 15:42

Der EU-Kommissar Thierry Breton trommelt für eine weitreichende Reform der EU-Märkte für Telekommunikation und holte dazu ein öffentliches Stimmungsbild ein. Wir haben uns angesehen, wie die Zivilgesellschaft die Deregulierungsfantasien des französischen EU-Politikers beantwortet hat.

Das Ressort des EU-Binnenmarktkommissars Thierry Breton muss nun umfangreiche Stellungnahmen zur Zukunft des Telekommunikations-Sektors sichten. – Alle Rechte vorbehalten IMAGO / IP3press

Seit Jahren drängt der EU-Binnenmarktkommissar Thierry Breton darauf, großen europäischen Netzbetreibern das Leben einfacher zu machen. Weniger Regulierung marktmächtiger Unternehmen, leichtere Firmenübernahmen und eine EU-weit harmonisierte Vergabe der Frequenznutzungsrechte für den Mobilfunk, um nur einige seiner Vorschläge zu nennen, sollen zu einem konsolidierten EU-Markt für Telekommunikation (TK) führen.

Auch wenn Breton den Begriff aus „semantischen“ Gründen nicht mehr in den Mund nehmen will: Am Ende sollen sich „europäische Champions“ – oder „europäische Leader“, was Breton bevorzugt – besser auf dem Markt und an der Börse behaupten können. Das soll mehr Investitionskapital freischaufeln, zu einem schnelleren Ausbau moderner Infrastruktur wie Glasfaser- und 5G-Mobilfunknetzen, sowie insgesamt dazu führen, dass die EU besser auf eine digitale Zukunft vorbereitet ist.

Deregulierung und Datenmaut

Bretons Vision mündete schließlich in ein Weißbuch, das sein Ressort im Februar vorstellte. Das umfangreiche Papier enthält teils detaillierte Zukunftsszenarien: So würden etwa Konnektivität und Datenverarbeitung zunehmend verschmelzen. Im anvisierten „3C-Netz“ (Connected Collaborative Computing) müssten deshalb alle Segmente, von Chipherstellern über Netzbetreiber bis hin zu Edge- und Cloud-Diensteanbietern, enger zusammenarbeiten – und gegebenenfalls gleich reguliert werden, etwa traditionelle TK-Anbieter auf der einen und Cloud- oder Messenger-Anbieter auf der anderen Seite.

Etwas handfester ist die sogenannte zweite Säule des Weißbuchs. Sie enthält die Vorschläge zur Deregulierung und nicht zuletzt einen verklausulierten Ansatz für eine Datenmaut: Da vor allem große Inhalteanbieter wie Netflix oder Facebook ihre Geschäfte auf der Infrastruktur der TK-Anbieter betreiben würden, sollten sie sich mehr an den Kosten beteiligen. „Fair Share“ nennen große Ex-Monopolisten wie die Telekom Deutschland das Konzept. Breton fand das gut, sollte aber spätestens bei einer Konsultation im Vorjahr festgestellt haben, dass es dafür sonst kaum Begeisterung gibt.

Ähnlich viel Skepsis schlägt nun seinem Weißbuch entgegen. Letzte Woche ging eine öffentliche Konsultation zu dem Papier zu Ende, über 350 Stellungnahmen aus der Zivilgesellschaft, der Forschung, der Branche, von Regierungen und Regulierungsbehörden wird die EU-Kommission nun auswerten müssen. Das passiert nicht ins Blaue hinein, letztlich könnten die Vorschläge in ein neues TK-Gesetz einfließen, einen möglichen Digital Networks Act (DNA), den Breton auch mit dem Weißbuch zur Debatte gestellt hatte.

Infrastruktur ganzheitlich denken

Manche der Stellungnahmen stoßen sich schon am (groß-)industriellen Framing der Vorschläge. Zwar sei es erfreulich, schreibt etwa Paul Keller für die Denkfabrik Open Future, dass sich die EU-Kommission aktiv um die Zukunft der digitalen Infrastruktur kümmere. Auch sei es richtig, wiederholt auf die EU-Erklärung für Digitale Grundrechte zu verweisen, so Keller.

Doch „viele der in der Erklärung verankerten Rechte und Prinzipien können in einer digitalen Umgebung, die auf einer digitalen Infrastruktur aufbaut, die fast ausschließlich von kommerziellen Unternehmen bereitgestellt wird, nicht gewährleistet werden“. Damit legt die Stellungnahme einen Finger in die Wunde.

Anstatt sich von vornehmlich aus den USA stammenden und weiter ausbreitenden „Big Tech“-Unternehmen abhängig zu machen, sollte die EU lieber kräftig in eine „alternative öffentliche digitale Infrastruktur“ investieren. Neben den physischen Leitungen brauche es dafür einen mehrschichtigen Ansatz: Der müsse auf dem Offenen Internet und Offener Software aufbauen, Interoperabilität und Standards-basierten Austausch garantieren, gemeinsame Komponenten für staatliche Dienstleistungen entwickeln („GovTech“) sowie kritische Online-Dienste für spezifische Industriesektoren bereitstellen. Ein Beispiel für einen solchen Ansatz sei der deutsche Sovereign Tech Fund, vor zwei Jahren vom Wirtschaftsministerium (BMWK) eingerichtet.

Für Offene Software sowie Offenlegung und Weiterverwendung von Code nach dem Motto „Public Money, Public Code“ setzt sich auch die Free Software Foundation Europe (FSFE) ein. Europa brauche Software, die Wahlfreiheit, Zugang und Wettbewerb garantiert. Dies würde öffentlichen Verwaltungen dabei helfen, die volle Kontrolle über ihre kritische digitale Infrastruktur zurückzuerlangen, sich von „Big Tech“-Unternehmen unabhängig zu machen und diese Unabhängigkeit künftig zu bewahren.

Auch darüber hinaus gebe es Vorteile: Eine strategische europäische Zusammenarbeit rund um das Freie-Software-Ökosystem könne das Wirtschaftswachstum und die wirtschaftliche Sicherheit erheblich vorantreiben, schreibt die FSFE. Dabei müsse die Zivilgesellschaft stärker einbezogen werden, und etwaige Fördermaßnahmen sollten sich eher auf fein abgestimmte Zuschüsse als auf große Pilotprojekte konzentrieren.

Fehlgeleitete Annahmen

Mehr mit der physischen Infrastruktur beschäftigt sich die Stellungnahme der Digital-NGO epicenter.works. Das Weißbuch Bretons gehe von der „fehlerhaften Annahme einer Konvergenz zwischen Konnektivität und Cloud-Diensten“ aus, zwei Bereichen, die sich sowohl technologisch als auch im Marktkontext unterscheiden würden. Beide regulatorisch über einen Kamm zu scheren, könne Innovation und Wettbewerb ersticken. Weiter zielgerichtet sollte deshalb die Regulierung des TK-Sektors bleiben und vor allem kleinere Anbieter nicht aus den Augen verlieren. Insgesamt reflektiere das Weißbuch weitgehend die Perspektive großer Ex-Monopolisten. Künftige Regulierung sollte jedoch gleiche Wettbewerbsbedingungen sicherstellen.

Ausführlich geht epicenter.works mit dem im Weißbuch vorgeschlagenen Streitbeilegungsmechanismus ins Gericht, der eine Datenmaut durch die Hintertür einführen könnte. So ein Mechanismus erfordere „einen regulierten Preis für den Interconnection-Markt, der das europäische Internet zurück zum Konzept des Terminierungsmonopols aus der Telefonie-Ära bringen würde“, so die Stellungnahme. Gefährdet wäre zudem die Netzneutralität, denn potenziell könnte der Mechanismus dazu führen, dass Online-Dienste, die es sich leisten könnten, besser behandelt würden.

In eine ähnliche Richtung geht die NGO Internet Society (ISOC), die maßgeblich am Funktionieren des Internets beteiligt ist und etwa über Internet-Standards wacht. Auch sie wundert sich über die ohne Not in den Raum gestellte, angebliche Konvergenz von Netzen und darauf laufenden Diensten. Zwar lasse sich tatsächlich ein Trend in Richtung „Softwareisierung“ und „Virtualisierung“ beobachten.

Regulierungsbehörden müssten aber eher damit verbundene Gefahren wie „Lock-In“-Effekte über Schnittstellen oder veränderte Bedingungen in vorgelagerten Herstellermärkten entschärfen, so die ISOC. Ein „fundamentales Rütteln“ am TK-Kodex, der seit einigen Jahren EU-weit die groben Rahmenbedingungen im TK-Sektor vorgibt, sowie ein einheitliches Regulierungsregime würde dies jedenfalls nicht rechtfertigen.

Dumme Leitungen sind nicht „das Ding“

Wie viele andere, wenn nicht die allermeisten Stellungnahmen lehnt die ISOC eine Datenmaut jeglicher Art ab, schon allein, weil es keine Anzeichen für ein Marktversagen gebe. Mit Verweis auf einschlägige Untersuchungen europäischer Regulierungsbehörden, unter anderem des EU-weiten Gremiums BEREC, sowie die recht eindeutig verlaufene Konsultation im Vorjahr, warnt die ISOC vor regulatorischen Eingriffen: Diese würden mit dem bisherigen, freiwilligen Interconnection-Modell des Internets kollidieren, die Zuverlässigkeit von Netzen untergraben und eine Fragmentierung des globalen Netzwerks riskieren.

Kein Blatt vor den Mund nimmt die an der Stanford-Universität lehrende Barbara van Schewick. Das Weißbuch lese sich wie ein „Fiebertraum“ eines TK-Managers, der in „Buzzwords“ verliebt sei und allzu zuversichtlich Prognosen über Technik abgebe, ohne sich auf belastbare Beispiele zu stützen. „Leidenschaftliche und atemlose Vorhersagen werden als Unvermeidlichkeiten dargestellt, obwohl es keinerlei Belege oder funktionierende Beispiele gibt“, schreibt van Schewick.

Dabei würde das Weißbuch schlicht nicht verstehen, wie und warum das Internet erfolgreich geworden ist. Seit den Anfängen des Internets habe sich das Ende-zu-Ende-Prinzip bewährt: Nicht die Leitungen seien „das Ding“, sondern die Dienste und Anwendungen, die sich darüber austauschen, so die Professorin. Solche Anwendungen auszuführen sei nicht die Aufgabe der Netze, dazu seien die Endpunkte da – wozu im Übrigen auch das viel beschworene Cloud Computing zählen würde. Genau dieses auf Netzneutralität aufsetzende Prinzip habe es erst ermöglich, dass beliebige Anbieter Anwendungen zu geringen Kosten entwickeln können, ohne dass sich die Netzbetreiber einmischen.

USA kein gutes Vorbild

Neben der von Breton zur Debatte gestellten „Datenmaut durch die Hintertür“ bekommen auch die Vorschläge zur Deregulierung und Marktkonsolidierung ihr Fett weg – insbesondere mit Blick auf den vergleichsweise desolaten TK-Markt in den USA, der von weniger Wettbewerb und höheren Preisen geprägt ist, wie die in Kalifornien lebende van Schewick ausführt. Den Weg in diese Richtung lehnen auch Verbraucherschutzorganisationen wie der deutsche VZBV oder die EU-Vertretung BEUC ab. Deregulierung und Konsolidierung seien „nicht die Antwort“, fasst etwa die BEUC-Stellungnahme zusammen.

Dies scheinen sich neben Breton ohnehin nur die TK-Branchengrößen zu wünschen, die etwa in der Stellungnahme des sie vertretenden ETNO-Verbands ähnliche Zukunftsvisionen wie der EU-Kommissar an die Wand malen. In unterschiedlichen Schattierungen ablehnend stellen sich hingegen kleinere Anbieter, Vertreter:innen von Online-Diensten und nicht zuletzt Regulierungsbehörden gegen die Pläne.

Ungewisse Zukunft Bretons

Die deutsche Bundesregierung gibt sich höflich skeptisch. Von einer Datenmaut will sie beispielsweise nur wenig wissen, kann sich aber eine „Prüfung“ auch der weithin geltenden Vorab-Zugangsregulierung vorstellen, ohne „bisherige Erfolge der Marktregulierung“ zu gefährden. Wie andere EU-Länder weist sie zudem auf unterschiedliche nationale Marktsituationen hin, die es zu berücksichtigen gelte. Argumente, die in der bevorstehenden EU-Debatte erfahrungsgemäß eine wichtige Rolle spielen dürften.

Wie diese weiter ablaufen wird, bleibt bis auf Weiteres offen. Es steht noch nicht einmal fest, ob Thierry Breton sein Ressort behalten oder überhaupt eine Rolle in der nächsten EU-Kommission spielen wird. Zwar würde ihn der französische Präsident Emmanuel Macron gern für eine weitere Amtszeit ins Rennen schicken. Nach den durchwachsenen Ergebnissen der jüngsten EU- und nationalen Parlamentswahlen wird er aber wohl Rücksicht auf die Nationalversammlung nehmen müssen – in der seine Fraktion die Mehrheit verloren hat.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

KI in Asylverfahren: Gefährlicher Tech-Populismus

10. Juli 2024 - 13:24

Scholz will mehr KI bei Asylverfahren. Man könnte seine Äußerung beim BAMF-Besuch als Innovations-Bingo abtun. Doch wenn es um Menschenleben geht, ist dieser Tech-Populismus ein Problem. Ein Kommentar.

Kritischer Blick auf Technik? Zumindest physisch kann Olaf Scholz das eigentlich ganz gut. – Alle Rechte vorbehalten IMAGO / Funke Foto Services

Der Bundeskanzler war in Nürnberg, um das Bundesamt für Migration und Flüchtlinge (BAMF) zu besuchen. Dort betrachtete er interessiert Registrierungsstationen für Asylsuchende und ließ, wie es sich für einen Kanzler gehört, wertschätzende Worte und Versprechungen da. Vor allem: mehr Geld, besonders natürlich für die Digitalisierung. Es soll ein „erstklassiges, unübertreffbares Management von irregulärer Migration nach Deutschland“ geben. Denn „die Aufgabe, vor der wir stehen, ist groß.“

Wie viel Geld, was für eine Aufgabe genau, wie groß? Das alles bleibt ganz scholzstaatlich eher nebulös. Wichtig für ihn: Asylverfahren sollen schneller werden. Und dabei helfen soll: Künstliche Intelligenz, oder „KI“, wie Scholz sagt. „Moderne“ Anwendungen sollen dazu beitragen, „Routineentscheidungen schnell und in großer Qualität“ zu treffen. Er raunt: Das werde schon „an vielen Stellen vorbereitet“.

Das unkonkrete Herumfloskeln des KI-nzlers in seinen Statements ist fatal, auch wenn er immerhin diesmal auf deplatzierte Comic-Wörter verzichtet und sich die BAMF-Bazooka oder gar den Abschiebe-Wumms gespart hat. Denn entweder versucht Scholz hier eine längst laufende und teils gelaufene Entwicklung als Innovation zu verkaufen – das wäre unlauter -, oder er schlägt etwas besonders Gefährliches für die Zukunft vor.

Alter Wein oder Dammbruch?

Das BAMF hat ab 2017 vermehrt sogenannte IT-Assistenzsysteme eingeführt, etwa zur Auswertung von Datenträgern, zur einheitlichen Übertragung von Namen in arabischer in lateinische Schrift und zur automatisierten Dialekterkennung. Später kam dann unter anderem noch ein Projekt dazu, dass automatisch Anhörungsprotokolle rastert und nach Hinweisen für sicherheitsrelevante Dinge sucht. Einige dieser Systeme könnte man als KI bezeichnen. Vielleicht hätte man es auch 2017 schon getan, wenn der Hype bereits ausgebrochen wäre. Allen gemeinsam ist: Aus der Vorbereitungsphase sind sie längst herausgewachsen.

Oder stellt sich Scholz vor, dass tatsächlich eine „KI“ an den Entscheidungen beteiligt ist oder sie gar trifft? Das wäre dann tatsächlich ein Dammbruch und ein weiterer trauriger Höhepunkt der entmenschlichenden Asylpolitik der Ampel.

Noch vor einem Jahr sagten die Vize-Chefs des BAMF, KI dürfe niemals über Asyl entscheiden. Wiederholt antwortete das BAMF auch auf unsere Anfragen, dass die Ergebnisse der bisherigen automatisiert arbeitenden Systeme immer nur als Hinweise behandelt werden sollen – die Entscheidung soll – unter Berücksichtigung aller möglichen Aspekte – ein Mensch treffen.

Entscheidungen über Menschenleben sind niemals Routine

Dass auch mit den Systemen Probleme auftreten können, die lediglich assistieren sollen, haben Recherchen in der Vergangenheit gezeigt. Fehlerhafte Ergebnisse können zu unberechtigten Zweifeln an den Angaben der Antragstellenden führen und im schlimmsten Fall zu falschen Entscheidungen, die Leben zerstören.

Dass Scholz in diesem Kontext das Wort „Routineentscheidungen“ in den Mund nimmt, offenbart ein extrem problematisches Verständnis vom Recht auf Asyl. Denn jede Entscheidung betrifft einen Menschen und wird sein weiteres Leben fundamental beeinflussen. Wenn das zur Routine wird, zum Fließbandverfahren, läuft etwas schief in Sachen Menschenwürde.

Und wie sieht es um das Ziel aus, schneller zu entscheiden? Beziehungsweise: Wie lange dauert ein Asylverfahren momentan überhaupt? Eine aktuelle Antwort der Bundesregierung auf eine Kleine Anfrage der Bundestagsabgeordneten Clara Bünger (Linke) zeichnet ein uneinheitliches Bild: Während Asylverfahren von Personen aus Ländern mit geringer Anerkennungschance im BAMF sehr schnell entschieden werden – für Montenegro sind es beispielsweise durchschnittlich 1,6 Monate –, warten iranische Antragstellende etwa elf Monate. Geht es vor Gericht, dauert es nochmal mehr als doppelt so lange.

Die Dauer von Asylverfahren schwankt stark

Aber nicht nur die Herkunft der Schutzsuchenden hat Einfluss auf die Dauer der Verfahren. Es gibt auch große Unterschiede zwischen den Außenstellen der Asylbehörde. So müssen Menschen im Ankunftszentrum Heidelberg im Schnitt besonders lange auf eine Entscheidung warten – 12,6 Monate -, während es in Deggendorf mit 4,6 Monaten wesentlich schneller ging. Es liegt nahe, dass solche Abweichungen organisatorische Ursachen haben und nicht durch eine wie auch immer funktionierende magische KI beseitigt werden können.

Clara Bünger selbst sagt dazu, schnelle Verfahren seien im Interesse der Asylsuchenden. „Dies darf aber nicht zulasten der Qualität gehen.“ Sie hat Sorge, „dass angesichts des politischen Drucks insbesondere bei den pauschal zu sicheren Herkunftsstaaten erklärten Ländern nicht mehr genau hingeschaut und Schutzbedarf vielfach nicht erkannt wird.“

Dass Scholz solche Schutzbedarfe im Sinn hat, ist spätestens nach seinem Abschieben-im-großen-Stil-Outing eher unwahrscheinlich. Im besten Fall hat der Fortschrittskoalitionskanzler in Nürnberg nur einige blumige, unreflektierte und innovationssimulierende Worte abgeladen. Die hätte er sich besser gespart.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Aktionismus gegen Deepfakes: „Da würde eine neue Technik pauschal unter Strafe gestellt“

10. Juli 2024 - 8:46

Der Bundesrat legt ein Gesetz gegen Deepfakes vor. Es ist nur die aktuellste in einer Reihe hauptsächlich symbolischer, aktionistischer Regelungsbestrebungen. Aber selbst wenn dieses Gesetz nie verabschiedet wird: Ein Gesetz zum Thema Deepfakes wird kommen. Wir haben uns deshalb mit dem Entwurf auseinandergesetzt.

Deepfake für Deepfakes: Das kommt heraus, wenn man Midjourney nach einem Bild von Olaf Scholz mit einem „I love Deepfakes“-Schild fragt – Public Domain Midjourney

Der Bundeskanzler will die AfD verbieten, führt die Dönerpreisbremse ein, schlägt einen Passanten auf der Reeperbahn und spielt in einem Porno mit: Das alles ist in sogenannten Deepfake-Videos zu sehen. Sie sind ein Tor zu alternativen Realitäten. Sie zeigen Dinge und machen Aussagen hörbar, die so nie geschehen sind oder getroffen wurden.

Der Bundesrat hat gerade auf Initiative Bayerns einen Gesetzentwurf vorgelegt, der die Verbreitung von Deepfakes generell unter Strafe stellen würde. Dabei sind die mit sogenannter Künstlicher Intelligenz generierten Fotos, Videos und Sprachaufnahmen von der aktuellen Gesetzeslage bereits umfänglich abgedeckt. Auch für sie gelten das Persönlichkeitsrecht und das Urheberrecht und auch hier zieht der Betrugsparagraf aus dem Strafgesetzbuch. Es gibt bereits prominente Beispiele, wie Deepfakes auf Grundlage bestehender Gesetze aus dem Netz genommen wurden.

Der Gesetzentwurf passt somit zu weiteren Regelungsvorhaben aus dem Digitalbereich – der Forderung der Innenministerkonferenz vom Juni, Cybermobbing zu einem eigenen Straftatbestand zu erklären; oder der Verschärfung des Aufenthaltsgesetzes, die eine Ausweisung aufgrund eines falschen Likes ermöglicht – die alle eines gemeinsam haben: Die zugrundeliegenden Verfehlungen können auch mit bestehenden Gesetzen verfolgt werden. Es scheint, als würde die Unsicherheit im Umgang mit Digitalthemen in der Bundesregierung vor allem zu Aktionismus führen. Die Situation erinnert ein wenig an die panische Debatte um Social-Bots und Fakenews im Jahr 2016, bei der vieles durcheinander ging.

Die Begründung des neuen Gesetzentwurfs sieht in Deepfakes auf drei Ebenen ein Problem: Sie könnten Persönlichkeitsrechte verletzen, mit ihrer Hilfe können Straftaten begangen werden – wenn beispielsweise die Stimme einer unbeteiligten Person benutzt wird, um Geld anzufordern – und sie könnten auch als Desinformation den demokratischen Willensbildungsprozess stören.

Forderung: Bis zu fünf Jahre Haft für das Teilen eines Videos

Des Kanzlers angeblicher Wunsch nach einem AfD-Verbot stammt aus einem Video des Zentrums für politische Schönheit. Mit sogenannter Künstlicher Intelligenz konnten die Aktivist*innen ihn tun und sagen lassen, was sie wollten. Der Kanzler und seine Mitarbeiter*innen gingen gegen das Video vor, ließen es von zahlreichen Plattformen nehmen. Weil das Persönlichkeitsrecht von Olaf Scholz als Person des öffentlichen Lebens kaum geschützt ist, nutzte sein Team den Hebel des Markenrechts – denn Flaggenstab und Bundesadler, die auch im Video zu sehen sind, seien, obwohl verfremdet, als Insignien des Kanzlers durchaus geschützt. Was Olaf Scholz’ Team nicht konnte: Die Aktivist*innen mit Strafandrohungen belegen.

Das soll aber künftig möglich sein, zumindest wenn es nach dem Bundesrat geht. Der legte dem Bundestag gerade einen Gesetzentwurf vor, der für Verstöße gegen das Persönlichkeitsrecht mittels Deepfake-Technologie eine Freiheitsstrafe von bis zu zwei Jahren vorsieht. Ist der „höchstpersönliche Lebensbereich“ betroffen – zum Beispiel wenn es um Nacktbilder oder pornografisches Material geht – drohen sogar bis zu fünf Jahre Haft. Zwar gibt es Ausnahmen für Kunst und Wissenschaft, „aber bei besonderem öffentlichem Interesse könnte die Staatsanwaltschaft erstmal ermitteln – und erst später würde sich zeigen, ob das unter Satire fällt“, sagt Benjamin Lück, Jurist bei der Gesellschaft für Freiheitsrechte.

Gesetzesvorschläge des Bundesrats werden in den seltensten Fällen zu gültiger Rechtsprechung. Doch es wird ein Gesetz zum Thema Deepfakes kommen. Das erzwingt allein die EU-Richtlinie zur Bekämpfung von Gewalt gegen Frauen und häuslicher Gewalt, diese muss von den Mitgliedsländern bis 2027 in nationales Recht umgesetzt werden. Mutmaßlich arbeitet das Justizministerium bereits an der Ausarbeitung eines eigenen Entwurfs. Deshalb ist es interessant, was für eine Variante der Bundesrat hier zur Diskussion stellt. Auch wenn sie nie verabschiedet wird, ist sie die aktuellste Wortmeldung in einer schwelenden Debatte. Wir haben sie deshalb mit Lück einmal durchdiskutiert.

„Nicht die Strafbarkeit aktionistisch ausweiten“

„Deepfake ist ein Problem, das will ich nicht kleinreden“, sagt der Jurist Lück. Ihm und auch der Begründung der Bundesratsinitiative zufolge sind das Hauptproblem dabei nonkonsensual verbreitete Nacktaufnahmen und pornografisches Material – und deren Verbreitung ist jetzt schon weitgehend strafbar. Direkt vor dem Paragrafen 201b des Strafgesetzbuches, den der Bundesrat gerne neu einfügen würde, steht der Paragraf 201a. Absatz zwei sagt: „Ebenso wird bestraft, wer unbefugt von einer anderen Person eine Bildaufnahme, die geeignet ist, dem Ansehen der abgebildeten Person erheblich zu schaden, einer dritten Person zugänglich macht.“

Das stellt auch Deepfakes unter Strafe, wenn sie dem Ansehen der Betroffenen erheblich schaden. „Diese Relevanzschwelle vermisse ich im Bundesratsentwurf. Da würde eine neue Technik pauschal unter Strafe gestellt“, sagt Benjamin Lück von der Gesellschaft für Freiheitsrechte. Der Befund, das sehr vieles schon strafbar ist, findet sich auch in der Begründung des Bundesrats. „Dann sollte man dem auch Rechnung tragen und nicht die Strafbarkeit aktionistisch ausweiten wollen“, sagt Lück.

Persönlichkeitsrechtsverletzungen können, auch wenn sie dem Ansehen der Betroffenen nicht erheblich schaden, jetzt schon im Zivilrechtsweg verboten werden. „Eine generelle Strafbarkeit von Deepfakes könnte aber Auswirkungen auf die Notice-and-take-down-Verfahren der Plattformen haben, da diese Inhalte dann als illegal im Sinne des Digital Services Act gelten“, sagt Lück.

Er sieht in dem Bundesratsentwurf auch keine geeignete Option, die EU-Richtlinie zur Bekämpfung von Gewalt gegen Frauen und häuslicher Gewalt in nationales Recht umzusetzen. Denn nach dieser ist nicht nur die Verbreitung, sondern auch die Herstellung von manipuliertem Bildmaterial im Bereich von Nacktbildern und pornografischer Inhalte unter Strafe zu stellen. Die Herstellung bliebe aber nach dem Entwurf des Bundesrats legal.

Aktionistische Forderungen nach neuen Gesetzen

Problematisch sieht Lück auch die Verbreiterstrafbarkeit, die mit dem Bundesratsentwurf einherginge. Verboten wird damit nicht nur die Erstverbreitung, sondern generell, das Werk anderen zugänglich zu machen. „Da reicht eine Direktnachricht. Das wird zu Folgeproblemen und erheblichem Arbeitsaufwand führen, wenn die Strafverfolgungsbehörden einem viralen Deepfake nachgehen“, sagt Lück. Bei der Verschärfung der Strafbarkeit von Darstellungen, die sexualisierte Gewalt an Kindern zeigen, trat ein ähnliches Problem auf. Hier musste das Justizministerium zurückrudern, damit sich nicht Lehrer:innen, die solches Material entdeckten, strafbar machten.

Lück sieht den Gesetzesvorschlag zu Deepfakes ganz ähnlich gelagert wie den Wunsch der Innenministerkonferenz nach einem Straftatbestand Cybermobbing: „Die bestehenden Gesetze sind da schon recht weit. Die Frage wäre: Wenn sie nicht angewandt werden – warum ist das so?“ Das Problem sei eher eines der mangelnden Durchsetzung als fehlender Gesetzesgrundlagen. Auch das Cybermobbing könne bereits mit einer Reihe von Straftatbeständen bekämpft werden.

„Da kann es um Bedrohung gehen, um Nötigung, um Erpressung, um Beleidigung, um Stalking. Aber man hört selten, dass in diesen Bereichen angeklagt oder verurteilt wird, zum Teil findet es in Kontexten statt, wo die Täter*innen noch nicht strafmündig sind. Manche der Vorschläge wirken so eher wie gesetzgeberischer Aktionismus, als dass sie den Betroffenen von diesen Formen digitaler Gewalt real helfen.“

Auch die Aufenthaltsrechtsverschärfung, die ermöglicht, Asylsuchende aus Deutschland auszuweisen, die mit einem Like in sozialen Medien Terrorismus unterstützen, ist dementsprechend zu lesen. Denn bereits zuvor hatte die Bundesregierung die Möglichkeit, Menschen ohne Gerichtsurteil auszuweisen, wenn sie eine Straftat auch nur vermutet. Obwohl die geltende Rechtsprechung auch im Internet gilt, gibt es offensichtlich große Sorgen, dass dieser Raum ungenügend geregelt ist. Die Angst vor den digitalen Möglichkeiten sorgt dann für drakonische Gesetzespakete – die die Probleme nicht bei ihren Wurzeln greifen, dafür aber Grundrechte bedrohen und Menschen schaden können, die nicht dafür verantwortlich sind.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Online-Alterskontrollen: Banken oder Krankenversicherungen sollen Alter bestätigen

9. Juli 2024 - 15:12

Das Bundesfamilienministerium will mit einem Konzept für eine „datensparsame Altersverifikation“ in den Debatten um den Jugendschutz punkten und hat dazu ein System beauftragt. Fachleute kritisieren die Pläne als kurzsichtig und technisch nicht machbar.

Wenn die Bank das Okay für die Volljährigkeit gibt, öffnet sich die Tür zur Welt der Erwachseneninhalte. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Tür: Jan Tinneberg | Körper: Janosch Lino | Bearbeitung: netzpolitik.org

Stellen wir uns vor, Hamoudi, 13, will durch TikTok scrollen. Er öffnet die App auf seinem Handy, doch statt der bunten Clips in seinem For-You-Feed sieht er eine Aufforderung. Er soll sein Alter nachweisen und bekommt deshalb eine zufällige Zahl zugeteilt. Über den Browser wird er weitergeleitet an eine „zur Altersverifizierung berechtigte Stelle“ seiner Wahl. Das könnte etwa seine Bank sein, nur hat Hamoudi gar kein Konto. Auch das Einwohnermeldeamt kommt in Frage, seine Kinderärztin oder die Schule.

Wen auch immer er auswählt: Nachdem ihm diese Stelle digital bestätigt hat, dass er in der Altersgruppe 13 bis 16 ist, leitet er diese Information an ByteDance weiter, das Unternehmen hinter TikTok. Dann kann er endlich weiter durch seinen Feed scrollen.

TikTok kann jetzt sicherstellen, dass er eine kindgerechte Version der App bekommt. Sein Feed soll keine Gewalt oder andere für ihn verstörende Inhalte mehr anzeigen. Und Chatnachrichten von Erwachsenen kann er auch nicht bekommen.

Was das Familienministerium plant

So in etwa stellt sich das Familienministerium laut einem aktuellen Konzept eine neue und „datensparsame“ Form der Alterskontrolle vor. Bereits im Februar hatte Bundesfamilienministerin Lisa Paus (Grüne) das Projekt angekündigt, im Familienausschuss des Bundestags stellte das Ministerium Mitte Mai weitere Details vor. Welche Vorstellungen das Ministerium im Detail für dieses System hat, geht aus der Ausschreibung für das System hervor, die wir hier im Volltext veröffentlichen. Sie war bisher nicht öffentlich, bekommen haben sie nur einige wenige, die Angebote dafür abgeben sollten.

Das Ziel des Systems: Menschen aller Altersklassen sollen in Zukunft im Netz ihr Alter nachweisen können. Und das, ohne dafür einen Account eröffnen zu müssen oder einem Unternehmen ihr Geburtsdatum zu nennen. Das soll über einen sogenannten Zero-Knowledge-Proof passieren: Wer über eine Seite oder App bestimmte „risikobehaftete“ Inhalte anschauen will, bekommt vom Anbieter eine Zufallszahl mit seiner Alterskohorte. Da könnte dann drinstehen, „9 bis 13 Jahre“ oder auch „über 18“.

Mit dieser Zahl wendet sich die Person an eine „unabhängige Drittstelle“, die bereits das Geburtsdatum kennt und überprüfen kann, ob die Alterszuordnung stimmt. Die Person muss gegenüber dieser Stelle ihre Identität nachweisen, etwa „durch Bankkonto-Login, Krankenversicherungsnummer oder einen im Rahmen der Umsetzung des Onlinezugangsgesetzes (OZG) zu verwendenden Identitätsnachweis“. Danach versieht die Stelle die Zufallszahl mit einer digitalen Bestätigung.

Mit dieser Altersbestätigung kann die Person dann wieder zurück zu TikTok, Instagram oder auch zu Pornoseiten wie XHamster und Pornhub. Die wissen dann zum Beispiel: Ja, die Person ist volljährig. Ob sie gerade 18 geworden ist oder bereits Seniorin, erfahren sie nicht. Der Vorgang ist abgeschlossen und der Anbieter darf „den für die jeweilige Alterskohorte vorgesehenen Funktionsumfang bereitstellen“. Das heißt: Volljährige dürfen Pornos oder Splatterfilme schauen, Minderjährige müssen besonders geschützt werden.

Ein Schaubild aus dem internen Workshop: So stellt sich das Familienministerium die Alterskontrolle in Zukunft vor, etwa für den Besuch einer Pornoseite. „Demonstrator“ soll zeigen, dass es funktionieren kann

Um diese Idee zu entwickeln, hat das Ministerium im vergangenen Jahr zwei Workshops abgehalten: im April und im Juli. Mit dabei waren Fachleute für Medienrecht, Vertreter des Bundesinnenministeriums, aber auch der Kinderschutzbund, jugendschutz.net und die Stiftung Digitale Chancen. Das Logo der Stiftung ist auch auf den Unterlagen zu diesen Workshops abgebildet.

im Frühjahr hat das Ministerium dann den Auftrag für eine Ausarbeitung des Projektes vergeben. Den Zuschlag erhielt das Fraunhofer-Institut für Sichere Informationstechnologie SIT, das bereits in den Workshops dabei saß. Für 55.000 Euro soll es bis zum Herbst ein konkretes technisches Konzept vorlegen, wie sich die Wünsche der Ministeriums in die Tat umsetzen ließen.

Und es geht um noch mehr: „Nach der technischen Ausarbeitung ist es für das weitere Vorgehen wichtig, dass gezeigt wird, dass das bisher grob beschriebene und dann im ersten Schritt ausgearbeitete System auch tatsächlich funktionieren kann“, heißt es in der Leistungsbeschreibung weiter. Dazu soll das Fraunhofer SIT einen „Demonstrator“ entwickeln, mit dem man „nach außen – auch auf EU-Ebene – treten“ könne. „Es sollte danach klar sein, ob und wie das System für eine Vielzahl von Nutzer/Nutzerinnen verwendet und in Abläufe der Nutzung digitaler Dienste integriert werden kann.“

Ein Kritikpunkt ausgeräumt, viele bleiben

Auf den ersten Blick klingt die Idee plausibel. Hamoudi müsste ByteDance sein Geburtsdatum nicht nennen, keine Ausweispapiere hochladen, auch nicht sein Gesicht von einem Drittanbieter scannen lassen, der daraufhin sein Alter einschätzt. So überprüft derzeit etwa Instagram das Alter seiner Nutzer:innen. Stattdessen würde eine „neutrale Drittinstanz“, die sein Alter ohnehin kennt, bestätigen, dass er in der Altersgruppe der 13- bis 16-Jährigen ist.

Fachleute lehnen die Idee trotzdem vehement ab und weisen auf die vielen Fehler hin. „Das Ministerium versucht, in seiner Ausschreibung einen einzelnen Kritikpunkt an Altersverifikationssystemen auszuräumen“, sagt Felix Reda von der Gesellschaft für Freiheitsrechte, „nämlich dass Nutzende den Plattformen sensible Daten über sich preisgeben müssten, um ihr Alter zu verifizieren.“ Dadurch werde eine pseudonyme oder anonyme Nutzung von Seiten und Apps unmöglich, so die Kritik. Dieser eine Punkt ließe sich mit dem Konzept des Ministeriums entkräften, sagt Reda. Viele weitere erhebliche Risiken für Grundrechte würden aber bleiben.

Da ist etwa das Problem, dass das Alter nicht nur einmal überprüft werden muss, bei der Anmeldung etwa, sondern kontinuierlich. Das geht auch aus der Ausschreibung hervor. Dort steht, dass das System bei „Eröffnung eines Accounts oder Nutzung eines Dienstes“ zum Einsatz kommen soll. Denn das Vorhaben aus dem Ministerium, erklärt Reda, knüpft an ein anderes viel größeres politisches Projekt an: den Verordnungsvorschlag der EU-Kommission zur „Bekämpfung sexuellen Missbrauchs“, besser bekannt unter dem Stichwort „Chatkontrolle“.

Dieser Vorschlag aus Brüssel sieht vor, dass Dienste feststellen können müssen, welche ihrer Nutzer:innen aktuell minderjährig sind, um diese vor Kontaktaufnahmen durch Erwachsene zu schützen. Anders als bei einer einfachen Altersschranke, bei der Minderjährigen die Erstellung eines Accounts verweigert wird, müsste das Alter dafür aber kontinuierlich verifiziert werden. Denn Minderjährige werden irgendwann erwachsen und müssen dann laut Verordnungsvorschlag nicht mehr als potenzielle Opfer von Grooming behandelt werden. Grooming bezeichnet die Kontaktaufnahme zu Kindern aus sexuellen Motiven.

„Jeder einzelne übertragene Datenpunkt mag also anonym sein“, sagt Reda, „aber wenn eine Person einen Dienst regelmäßig nutzt, erfährt die Plattform deren genaues Alter trotzdem, wenn diese Person im Laufe ihrer Nutzung das 18. Lebensjahr erreicht.“

Deutschland stimmt gegen Chatkontrolle

Dass die geplante Chatkontrolle Aufhänger für den Vorschlag des Ministeriums ist, geht auch aus der Ausschreibung und internen Workshop-Dokumenten hervor. Doch gerade stagnieren die Pläne aus Brüssel. Nach jahrelangen Verhandlungen fand sich Ende Juni keine Mehrheit unter den EU-Staaten für den Vorschlag, auf der Suche nach inkriminierenden Bildern und Nachrichten die private Kommunikation von Millionen von Nutzer:innen zu durchleuchten.

Fast ein Jahr hatte die Bundesregierung über die deutsche Position zur Chatkontrolle gestritten. Die FDP-Ministerien waren strikt gegen die anlasslosen Durchsuchungen, das Bundesinnenministerium dafür. Schließlich einigte sich die Bundesregierung auf eine gemeinsame Position: kein Scannen von Nachrichten, dafür aber Alterskontrollen.

Das steht auch in den Ausschreibungsunterlagen für die „datensparsame Altersverifikation“: „In der deutschen Stellungnahme zum Entwurf der CSA-R wird u. a. betont, dass bestehende Verschlüsselungssysteme von Kommunikationsinhalten Bestand haben sollen und dass sich die Bundesregierung aktiv in die Entwicklung eines europaweit einsetzbaren Altersverifikationssystems einbringen wird. Altersverifikation wird im Kontext der CSA-R als eine Maßnahme zur Risikominderung erachtet. Sie soll daher dort zur Anwendung kommen, wo dies effektiv zur Minderung eines Risikos beitragen kann.“

Kontrolle müsste weltweit funktionieren

Der Aufhänger Chatkontrolle führt zu einer neuen Situation, laut Reda bringt gerade die Probleme mit sich. Die heute im Einsatz befindlichen Altersschranken dienten vor allem dazu, Kinder von Inhalten für Erwachsene fernzuhalten, etwa auf Pornoplattformen. Sie sollen sicherstellen, dass eine Person volljährig ist. Um vor Grooming zu schützen, muss man hingegen feststellen, dass es sich bei einer Person um ein Kind handelt.

Das vom Familienministerium ausgeschriebene Produkt, die Alterskontolle per Browser-Extension, müsse also beides können, erklärt Reda: einerseits sicherstellen, dass nur Erwachsene bestimmte Plattformen nutzen können, andererseits, dass nur Minderjährige bestimmte Funktionen von Plattformen nutzen dürfen.

Spätestens hier scheitere das Projekt aber an der internationalen Implementierbarkeit. Um zu verhindern, dass Minderjährige in der EU eine Altersschranke mit wenigen Klicks umgehen können, müsse das System überall funktionieren. Alle Länder, in denen man einen bestimmten Dienst nutzen kann, müssten es einsetzen. Das bedeutet auch: in all diesen Ländern müsste es „zur Altersverifizierung berechtigte Stellen“ geben, die Nutzer:innen eine Bestätigung ausstellen.

Keine Krankenversicherung, kein Zugang

Reda hält das für unrealistisch: „Weder Banken noch Krankenversicherungen sind international so vernetzt, dass eine flächendeckende Verfügbarkeit des Verifikationsmechanismus wahrscheinlich wäre.“ Das gelte auch für andere Stellen wie Kinderärzt:innen und Schulen, die das Familienministerium bei der Vorstellung des Konzepts zur Sprache gebracht hat.

Wenn das aber nicht der Fall ist, könnte etwa Hamoudi, 13, aus Deutschland mit Hilfe eines VPN-Dienstes so tun als wohnte er in Wirklichkeit in den USA – und so etwa auf YouTube weiter Videos für Erwachsene schauen, ohne sein Alter nachweisen zu müssen. Würde er auf Stripchat Menschen beim Entkleiden zuschauen wollen, könnte er das ebenso leicht tun. Das kann man derzeit in Texas und weiteren US-Bundesstaaten beobachten, wo neue Gesetze eine Alterskontrolle für Pornoplattformen vorschreiben – und Betroffene dies per VPN umgehen.

Hinzu käme das Problem, sagt Reda, dass bei weitem nicht alle Personen ein Bankkonto oder eine Krankenversicherung haben. „Auch wenn man sich bei der Auswahl der zur Altersverifikation berechtigten Stellen große Mühe gibt und das System für diese Stellen so weit automatisiert, dass sie in der Lage sind, unzählige Verifikationsanfragen ohne personellen Mehraufwand sofort zu bearbeiten, drohen wie so oft Personen, die ohnehin marginalisiert sind, ausgeschlossen zu werden“, sagt Reda. Geflüchtete beispielsweise haben oft keine Ausweispapiere, kein Konto und meiden Interaktionen mit dem Gesundheitssystem, weil sie Angst vor einer Abschiebung haben.

Anforderungen „technisch nicht umsetzbar“

„Das Konzept wirkt wenig durchdacht“, sagt auch Lilith Wittmann. Als Sicherheitsexpertin befasst sich Wittmann mit den Schwachstellen der deutschen Verwaltung. Im Konzept des Ministerium erkennt sie gleich mehrere solche Schwachstellen. Ein Problem sei vor allem, dass das System über ein Browser-Plugin funktionieren soll.

„Anscheinend leben die Menschen im Ministerium noch in einer Welt ohne Smartphones“, sagt Wittmann. Gerade junge Menschen nutzten eher Apps als Webseiten. Für sie sei das System, wie das Ministerium es beauftragt, wenig nutzerfreundlich. Gleichzeitig eröffne die Lösung über das Browser-Plugin gute Möglichkeiten, das System auszutricksen.

Denn damit sich Menschen nicht jedes Mal beim Besuch einer Ü-18-Webseite ausweisen müssen, müsste die Information zur Alterskohorte in diesem Plugin hinterlegt sein, erklärt Wittmann, oder auf anderen Wegen auf dem Gerät der Nutzerin gespeichert bleiben. „Alles andere käme einer Registrierungspflicht gleich.“ Das hieße, dass Nutzer:innen sich etwa auf Plattformen wie Pornhub anmelden müssten, die man derzeit auch ohne Account nutzen kann – was das Familienministerium erklärtermaßen vermeiden will. Die Ampelregierung hatte das bereits in ihrem Koalitionsvertrag ausgeschlossen.

Wenn die Information allerdings im Plugin hinterlegt ist, könne man auch ein Plug-in anbieten, dass für alle Nutzer:innen ein Alter ihrer Wahl nachweist – eine Art digitalen Dietrich, um die Tür aufzuschließen. „Meine Antwort darauf wäre, dass ich dann auch ein Browser-Plugin anbiete“, sagt Wittmann.

„Wie das Altersverifikationssystem eine Weitergabe von Zugängen ausschließen soll, erschließt sich mir aus der Ausschreibung noch nicht“, kritisiert sie. Allgemein wirkten die Anforderungen des Ministeriums technisch nicht umsetzbar.

Wir haben dem Familienministerium alle genannten Kritikpunkte vorab geschickt und gefragt, was es diesen entgegnet. Eine Antwort steht bisher aus.

Wie Alterskontrollen das Internet umkrempeln sollen

In guter Gesellschaft

Das Ministerium ist mit seinem Vorhaben in guter Gesellschaft. Zahlreiche Regierungen bringen derzeit Gesetze in Stellung, die Alterskontrollen zu etablieren, darunter die EU, aber auch die USA mit dem Kids Online Safety Act oder Großbritannien mit dem Online Safety Bill.

In Deutschland versuchte vor allem die Medienaufsicht, in den vergangenen Jahren zunehmend offensiv Alterskontrollen für Pornoseiten durchzusetzen, wie es deutsche Gesetze zum Jugendmedienschutz eigentlich vorschreiben. Diese widersetzen sich aber derzeit erfolgreich. Zu den von der deutschen Medienaufsicht empfohlenen Methoden gehören etwa Ausweiskontrollen und Gesichtserkennung – Methoden, die das Familienministerium mit seinem Konzept gerne ablösen würde.

Deutsche Position zur „Task Force“ der EU

Wie es mit dem Konzept weitergehen soll, wenn das ausgearbeitete Produkt im Herbst vorliegt? Im Ministerium will man sich noch nicht festlegen. „Das Konzept und der Demonstrator dienen zunächst internen und ergebnisoffenen Entscheidungsprozessen“, sagt eine Sprecherin. Geplant ist, „die datensparsame Methode zur Altersverifikation auch auf europäischer Ebene einzubringen“. In welcher Form, werde noch geprüft.

Die EU-Kommission hat Anfang des Jahres eine „Task Force Altersverifikation“ gegründet, ausgehend von einem weiteren EU-Gesetz, das Anbieter zur Altersprüfung bewegen könnte: der Digital Services Act (DSA). Im Gegensatz zum Vorschlag zur Chatkontrolle ist dieses Gesetz verabschiedet, jetzt soll es darum gehen, wie Mitgliedstaaten die Vorgaben umsetzen. „Ziel ist es, die Zusammenarbeit mit den nationalen Behörden der Mitgliedstaaten zu fördern, die über Fachwissen in diesem Bereich verfügen, um bewährte Verfahren und Standards für die Altersüberprüfung zu ermitteln“, schreibt die Kommission.

Für Deutschland sitzt neben dem Familienministerium auch das Digitalministerium mit am Tisch, außerdem der Bundesbeauftragte für den Datenschutz, die Landesmedienanstalten (LMA) und die Bundeszentrale für Kinder- und Jugendmedienschutz (BzKJ). In diesem Kreis wird derzeit auch an Eckpunkten für eine gemeinsame deutsche Position zur Alterskontrolle gearbeitet.

 

Leistungsbeschreibung zum Vergabeverfahren
Projekt „Datensparsame Altersverifikation“ A. Hintergrundinformation

Das Bundesministerium für Familie, Senioren, Frauen und Jugend (BMFSFJ) beabsichtigt im Rahmen einer Verhandlungsvergabe ohne Teilnahmewettbewerb nach § 8 Abs. 4 Nr. 1 und 3 i. V. m. § 12 Unterschwellenvergabeordnung (UVgO) zu vergeben.

Eine wirkungsvolle Altersverifikation ist ein zentraler Hebel, um Kinder und Jugendliche vor Risiken im Netz wie z. B. Cybergrooming zu schützen und ihnen geeignete Teilhabemöglichkeiten zu bieten. Derzeit wird seitens der Anbieter eine Vielzahl von Mechanismen zur Altersermittlung verwendet (hard identifiers, self-declaration, parental confirmation, behavioral profiling, facial image analysis).

Eine vereinheitlichte Herangehensweise führt zu besserer Handhabbarkeit seitens der Nutzerinnen und Nutzer und birgt für die Anbieter die große Chance von stärkerer Akzeptanz. Gleichzeitig gilt es, dem Prinzip der Datensparsamkeit (Datenminimierung) gerecht zu werden. Die Möglichkeit einer anonymen oder pseudonymen Nutzung der betroffenen Dienste muss gewahrt bleiben.

Die CSA-VO sieht bisher vor, dass Dienste, bei denen ein hohes Risiko für Grooming gegeben ist, verpflichtet werden, eine Altersverifikation durchzuführen. Damit bietet sie eine Chance, dieses Thema europaweit anzugehen und ein möglichst umfassendes, möglichst sicheres sowie möglichst datenschonendes, die Anonymität der Nutzenden wahrendes System der Altersverifikation zu erarbeiten.

Hierzu wurde ein erstes Konzept entwickelt, welches nun zunächst technisch genauer ausgearbeitet werden soll, und für welches in einem zweiten Schritt ein Demonstrator entwickelt werden soll.

Folgende Schritte sollen dabei abgebildet werden:

Schritt 1: Eröffnung eines Accounts oder Nutzung eines Dienstes durch eine Person.

Schritt 2: Der risikobehaftete Dienst fordert die Person auf, einen Altersnachweis zu erbringen. Dafür übermittelt der Diensteanbieter eine Zufallszahl an die nutzende Person, die die für den Dienst vorgesehenen Alterskohorten enthält, sowie ggf. den Nachweis des Diensteanbieters, dass er zur Abfrage der Altersverifikation berechtigt ist.

Schritt 3: Die Person reicht die Anforderung des Diensteanbieters zur Altersverifikation mit der Zufallszahl an eine durch sie ausgewählte und zur Altersverifizierung berechtigte Stelle weiter. Diese Zufallszahl soll so angelegt sein, dass sie fälschungssicher ist. Sie bleibt bis zum Abschluss des Vorgangs mit der Person verbunden. Die Person muss sich gegenüber der zur Altersverifikation berechtigten Stelle authentifizieren, bspw. durch Bankkonto-Login, Krankenversicherungsnummer
der einen im Rahmen der Umsetzung des Onlinezugangsgesetzes (OZG) zu verwendenden Identitätsnachweis.

Schritt 4: Die zur Altersverifikation berechtigte Stelle versieht anhand der bei ihr hinterlegten Personendaten die übermittelte Zufallszahl mit der Zuordnung zu einer der verfügbaren Alterskohorten und weist ggf. ihre Berechtigung zur Altersverifikation – etwa über eine digitale Signatur – nach. Dies wird an die nutzende Person gegeben.

Schritt 5: Die Person reicht die signierte Altersbestätigung mit Zufallszahl an den Diensteanbieter weiter. Damit ist der Vorgang der Altersverifikation abgeschlossen und der Diensteanbieter kann der nutzenden Person den für die jeweilige Alterskohorte vorgesehenen Funktionsumfang bereitstellen.

Dieses Verfahren zur Altersverifikation soll technisch im Rahmen einer Browserextension realisiert werden, was sehr nutzerfreundlich wäre. Es ist darauf zu achten, dass das Verfahren auch bei der Nutzung von Apps zur Anwendung kommen kann.

Ziele hinter diesem System sind:

  • Die Menge personenbezogener oder -beziehbarer Daten, die default bei Diensteanbietern gespeichert werden können, reduziert sich erheblich. Die Anonymität der Nutzenden wird trotz Altersverifikation regelmäßig gewahrt.
  • Bisher ist der Anreiz für Plattformbetreiber, derartige sichere und für die Zielgruppe attraktive Angebote zu schaffen, gering. Ist die Nachfrage jedoch groß genug, könnte ein Markt entstehen, der dem Interesse folgt, die Nutzer/Nutzerinnen früh an bestimmte Angebotsformen heranzuführen und zu binden.
  • Für jüngere Altersgruppen kann das Nutzungserlebnis erweitert werden, indem der Zugang zu bestimmten, ansonsten nicht zugänglichen Angeboten in einem durch altersgerechte Voreinstellungen abgesicherten Modus ermöglicht wird. Beispielsweise können Spieleplattformen, die aufgrund ihrer Interaktionsrisiken nur für höhere Altersgruppen freigegeben sind, mit altersdifferenzierenden Funktionalitäten einen abgesicherten Nutzungsraum für Jüngere schaffen.
B. Auftragsgegenstand

Auf der Grundlage bisher erarbeiteten Konzepts umfasst der Auftragsgegenstand die nachfolgenden Bereiche:

1. Schriftliche technische Ausarbeitung

Es sollte das oben beschriebene Konzept technisch genauer ausgearbeitet werden. Hier ist es vor allem von Interesse, dass bei allen dargestellten Schritten die aktuellsten Sicherheitsstandards einbezogen werden. Da das Projekt den Fokus auf Datensparsamkeit, Anonymität der Nutzenden und Wirksamkeit des Systems legt, muss aber auch sichergestellt sein, dass die Möglichkeit des Missbrauchs dieses Systems so gering wie möglich gehalten wird. Sowohl security- als auch privacy-by-design sollten von Anfang an mitgedacht und eingebaut werden.

Es ist daher besonders wichtig, dass der Bieter/die Bieterin eine besondere Expertise im Bereich der IT-Sicherheit mitbringt.

Gleichzeitig sollte aber auch bereits Vorwissen im Bereich des Jugendschutzes vorhanden sein. Da es hier um den Schutz von Kindern und Jugendlichen geht, sollte auch ein Verständnis für die besonderen Belange von Minderjährigen mitgebracht werden. Es wäre wünschenswert, wenn die Hintergründe des Vorschlags einer datensparsamen, die Anonymität der Nutzenden wahrenden Altersverifikation bekannt wären, d. h. auch bereits Expertise im Bereich der EU-Regulierung bei der Bekämpfung von
sexuellem Missbrauch im digitalen Raum vorhanden wäre.

Auch datenschutzrechtliche Kompetenz wird erwartet.

Darüber hinaus stellen wir uns folgende Aspekte vor:

  • Bei der Umsetzung sollte auch möglichst auf bewährte Verfahren – wie eine Lösung über eine Browserextension – zurückgegriffen werden, da diese Verfahren bereits erprobt sind.
  • Es sollte zudem ein möglichst nutzerfreundliches, auch für jüngere und/oder weniger geübte Nutzende leicht verständliches System geschaffen werden.
  • Durch Zeitbegrenzung der Gültigkeit der Zufallszahl sowie durch Wiederholungsanforderung der Verifikation zu zuvor nicht bekannten Zeitpunkten kann einer unzulässigen Weitergabe entgegengewirkt werden.
2. Implementierung eines Demonstrators

Nach der technischen Ausarbeitung ist es für das weitere Vorgehen wichtig, dass gezeigt wird, dass das bisher grob beschriebene und dann im ersten Schritt ausgearbeitete System auch tatsächlich funktionieren kann. Mit dem Demonstrator sollte man nach außen – auch auf EU-Ebene – treten können. Es sollte danach klar sein, ob und wie das System für eine Vielzahl von Nutzer/Nutzerinnen verwendet und in Abläufe der Nutzung digitaler Dienste integriert werden kann.

3. Kalkulation

Eine Aufteilung der Aufgaben ist sowohl im Rahmen einer Bietergemeinschaft als auch mit der Vergabe von Unteraufträgen möglich. Das Angebot soll einzelne, separat kalkulierbare Module enthalten. Die Vertragslaufzeit beginnt voraussichtlich ab Kalenderwoche 16 (2024).

Dem Angebot ist eine nachvollziehbare und aussagekräftige Kalkulation beizufügen, die den im Angebot beschriebenen Leistungsumfang vollständig abdeckt. Das finanzielle Angebot soll eine Darstellung der Gesamtkosten sowie eine detaillierte Aufgliederung der Kosten pro Leistungsbaustein enthalten.

Die USt. ist gesondert auszuweisen.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Transparenzbericht Juni 2024: Unsere Einnahmen und Ausgaben und eine gerissene Latte

9. Juli 2024 - 13:36

Die Bundesregierung duckt sich unter der rechten Welle weg und kommt nicht vom Fleck. Wir reißen zwar eine Latte, kommen aber um einiges voran. Und wir haben einiges in Planung. Denn: Ein großer Geburtstag steht an. Und ihr seid alle herzlich eingeladen!

Spaziergang über die Felsen von Pourville, gemalt von Claude Monet

Wir liegen etwas im Zeitplan zurück. Eigentlich wollten wir einen fließenden Übergang schaffen und unseren Transparenzbericht nun nicht mehr monatlich, sondern vierteljährlich veröffentlichen. Die Latte haben wir gleich zu Beginn gerissen.

Warum hat es länger gedauert? Seit Ende vergangenen Jahres haben wir eine neue Geschäftsführung und eine neue Finanzbuchhaltung. Die beiden stellen die Finanzauswertungen mittels einer veränderten Kostenzuordnung neu auf. Das alles erfolgt auch noch in Abstimmung mit unserem Steuerberatungsbüro. Diese Umstellung kostet etwas Zeit.

Daher erzählen wir euch in diesem Transparenzbericht alles Wichtige, was im ersten Halbjahr 2024 im Team passiert ist. Weiter unten folgen die Zahlen aus dem ersten Quartal. Der nächste Transparenzbericht kommt im August, dann vor allem mit den harten Zahlen aus dem zweiten Quartal.

Das erste Halbjahr 2024

Schauen wir also zurück auf das erste Halbjahr, in dem viel passiert ist. Im Januar begannen die Großdemonstrationen gegen die AfD. Über Wochen gingen hunderttausende Menschen auf die Straßen. Die Recherchen von Correctiv hatten die Proteste ausgelöst.

Inzwischen liegen die EU-Wahlen hinter uns – die AfD erzielte dort die befürchteten Zugewinne. Im September stehen dann in Thüringen, Sachsen und Brandenburg Landtagswahlen an. In allen drei Bundesländern führt die rechtsradikale Partei in den Umfragen.

In den vergangenen Monaten wurde viel über ein Parteiverbot diskutiert. Viel mehr ist jedoch nicht passiert. Die Ampel-Koalition hat den Protest der Straße politisch nicht aufgegriffen. Das Gegenteil ist der Fall: Die FDP blockiert das im Koalitionsvertrag vereinbarte Demokratiefördergesetz. Und in ihrem Koalitionsvertrag versprach die Ampel, das Gemeinnützigkeitsrecht zu reformieren. Auch davon sind bisher erst Ansätze zu erkennen. Warum kommt die Ampel gerade hier nicht aus dem Quark?

Podcast, Ticker, Chatkontrolle – und ein neuer Kollege!

Wir waren dafür umso fleißiger. Anfang April ging unser Ticker an den Start. Auf unserer Homepage und einer eigens eingerichteten Übersichtsseite findet ihr seitdem Links zu wichtigen, spannenden und interessanten Inhalten von anderen Medien und Webseiten. So wollen wir euch netzpolitisch noch besser auf dem Laufenden halten – auch wenn wir die verlinkten Texte selbst nicht geschrieben haben. Denn wir finden: Gute Inhalte auf anderen Seiten sind nicht schlecht, sondern toll.

Einen Monat später veröffentlichten wir dann die erste Folge unseres Podcasts „Systemeinstellungen“. Darin erzählen wir die Geschichten von Menschen, die plötzlich ins Visier des Staates geraten. Wir treffen unter anderem eine Klima-Aktivistin, die sich als 15-jährige vor der Polizei bis auf die Unterwäsche ausziehen muss, und eine engagierte Pfarrerin auf dem Land, die ihre Kirche für Geflüchtete in Not öffnet. Wenn Ihr es noch nicht getan habt – hört gerne rein!

Auch inhaltlich konnten wir Erfolge verbuchen. Denn durch die ganzen Monate hat uns ein Thema eng begleitet: die Chatkontrolle. Zum Ende der belgischen Ratspräsidentschaft wurde es noch einmal hochspannend. In buchstäblich allerletzter Minute wurde der entsprechende Punkt von der Tagesordnung genommen, weil die Ratspräsidentschaft keine Mehrheit gesehen hat.

Das ist ein wichtiger Etappensieg – doch das Thema ist damit noch nicht vom Tisch: Im Juli geht die Ratspräsidentschaft von Belgien an Ungarn. Ungarn hat in seinem Arbeitsprogramm angekündigt, die Verhandlungen zur Chatkontrolle voranzutreiben. Wir bleiben dran!

Seit dem 1. Juni haben wir außerdem einen neuen Kollegen. Martin hat schon für zahlreiche Medien gearbeitet, von ARD bis taz, und war zuletzt Redakteur bei Berliner Stadtmagazinen, wo er oft Digitalthemen aufgegriff. Erste Texte finden sich schon auf netzpolitik.org – und in Martins erstem Wochenrückblick könnt Ihr lesen, wie er uns fast auf den Tischen rumtanzt.

Konferenz „Bildet Netze!“ – 20 Jahre netzpolitik.org

Und damit zu den Dingen, die wir in den kommenden Monaten planen. Im Fokus steht dabei ein Jubiläum: netzpolitik.org wird 20! Zu diesem Anlass veranstalten wir am 13. September unter dem Motto „Bildet Netze“ eine große eintägige Konferenz in Berlin.

Wie verteidigen wir digitale Freiheitsrechte? Wie stellen wir technologischen Wandel in den Dienst der Gesellschaft? Welche Netze müssen wir spannen, um das Netz gemeinsam voranzubringen? Diesen Fragen wollen wir – 20 Jahre nach Gründung von netzpolitik.org – nachgehen. Und natürlich wollen wir auch mit euch feiern: Den Konferenztag lassen wir mit einer großen Geburtstagsparty ausklingen. Wir freuen uns auf euch! Weitere Informationen findet ihr hier: https://netzpolitik.org/bildet-netze.

All das ist nur möglich dank Eurer Unterstützung. Denn netzpolitik.org finanziert sich durch Spenden – und zwar durch die Spenden vieler, vieler einzelner Menschen. Rund acht Euro beträgt die durchschnittliche Einzelspende pro Monat.

Schon ein paar Euro im Monat helfen uns beim Kampf gegen Überwachung und für für mehr Transparenz, Datenschutz und digitale Freiheitsrechte. Wenn du diese Arbeit unterstützen willst, spende jetzt unter netzpolitik.org/spenden.

Die harten Zahlen: 1. Quartal

Und damit zu den harten Zahlen im ersten Quartal. Jeden Januar erreichen uns aus der Jahresendkampagne noch viele Spenden. Dadurch fällt das Spendenergebnis im ersten Quartal überdurchschnittlich erfreulich aus. In den Monaten Januar bis März lagen die Spendeneinnahmen bei insgesamt 211.641 Euro. Sie haben unsere im Budget kalkulierten Erwartungen für diesen Zeitraum damit um etwas mehr als 3.100 Euro übertroffen.

Erstmals wurde netzpolitik.org auch in einem Nachlass bedacht. Die Nachricht erhielten wir überraschend vor knapp zwei Jahren. Lange wussten wir nicht, welchen Betrag wir als eine von drei im Testament genannten Organisationen aus der Abwicklung der Erbschaft erhalten werden. Als vorsichtige Schätzung haben wir uns 40.000 Euro ins 2024er-Budget geschrieben, davon den größeren Teil in das zweite Quartal. Am Ende erhielten wir bis Ende März die Gesamtsumme von 55.000 Euro. Wir bedanken uns posthum bei dem Menschen, der sich mit der Möglichkeit des gemeinnützigen Vererbens beschäftigt hat und netzpolitik.org mit seinem Testament nachhaltig unterstützt hat.

Insgesamt belaufen sich unsere Einnahmen im ersten Quartal auf 269.877 Euro. Aus dem Merch-Store erhielten wir knapp 1.260 Euro, was dem üblichen Durchschnitt entspricht. Die sonstigen Erlöse in Höhe von 900 Euro zeigen die Kostenerstattungen des Bundes für den Platz im Rahmen des Bundesfreiwilligendienstes.

Bei den Ausgaben liegen die Personalkosten bei 184.940 Euro und damit 14.470 Euro unter den kalkulierten Ausgaben laut unserem Stellenplan. Das liegt vor allem an der späteren Besetzung einer Redaktionsstelle, die im Juni statt im März erfolgte, sowie an Auszeiten und Stundenreduzierungen. Außerdem planen wir bei allen Stellen den gesetzlichen Anspruch auf Entgeldumwandlung für eine betriebliche Altersversorgung (bAV) ein. Nicht alle Kolleg:innen schließen bAV-Verträge ab, können sich jedoch jederzeit – auch rückwirkend zum Jahresanfang – dazu entscheiden.

!function(){"use strict";window.addEventListener("message",(function(a){if(void 0!==a.data["datawrapper-height"]){var e=document.querySelectorAll("iframe");for(var t in a.data["datawrapper-height"])for(var r=0;r

In den Sachkosten haben wir knapp 64.400 Euro aufgewendet und damit circa 18.200 Euro weniger ausgegeben als im 1. Quartal geplant. Das liegt zum einen an den Raumkosten mit rund 11.000 Euro, in denen mit 9.500 Euro lediglich zwei Monatsmieten abgebildet sind. Die Januarmiete wurde bereits im Dezember des Vorjahres gezahlt und verbucht.

Zum anderen haben wir die Produktion der Podcastreihe Systemeinstellungen ins zweite Quartal verschoben. Die dafür im Budget eingestellten Kosten (1.250 Euro) waren entsprechend unserer Planung für das 1. Quartal eingestellt. Zudem budgetieren wir zeitlich unvorhersehbare Ausgabepositionen in Höhe des monatlichen Jahresdurchschnitts. So haben wir für die Teams im ersten Quartal Fortbildungskosten von ca. 3.705 Euro geplant, die im ersten Quartal nur in Höhe von 1.845 Euro abgerufen wurden. Ebenso verhält es sich mit den Ausgaben für Beratung und Gesundheitsschutz.

Unsere Spendeneinnahmen

Die Höhe der Fremdleistungen mit etwas mehr als 36.000 Euro ist höher als im Jahresdurchschnitt. Für die Finanzbuchhaltung haben wir erneut Arbeitszeit unseres Steuerberatungsbüros in Anspruch genommen rund 7.500 Euro. Die Summe fiel für den sorgfältigen Check der ersten selbständig gebuchten Monate der neuen Kollegin und für die Umstellung der Kostenzuordnung in der Finanzauswertung an.

Auch die Kosten des rechtsanwaltlichen Nachlassverwalters für die Abwicklung der Erbschaft sind mit etwa 6.500 Euro um 3.500 Euro höher ausgefallen als von uns erwartet. Der hohe zeitliche Aufwand der Veräußerungen aus dem Nachlass war vorher nicht absehbar.

Außerdem hat die datenaufbereitende Vorarbeitung für die Versendung der Spendenquittungen höhere Kosten verursacht als geplant (rund 1.400 Euro). In dem Posten Geldverkehr (circa 4.530 Euro) sind Gebühren für die halbjährliche Abwicklung der Spenden über unser Spendenformular enthalten.

!function(){"use strict";window.addEventListener("message",(function(a){if(void 0!==a.data["datawrapper-height"]){var e=document.querySelectorAll("iframe");for(var t in a.data["datawrapper-height"])for(var r=0;r

Die Aufwendungen für unseren Betriebsbedarf (rund 6.663 Euro) und aller weiterer Sachkosten sind unauffällig. Zusammen mit den Personalkosten hatten wir im 1. Quartal 2024 Ausgaben in Höhe von 252.185 Euro.

Aufgrund der Einnahmen aus dem Nachlass bereits im 1. Quartal und den Minderausgaben bei den Sachkosten beenden wir das erste Quartal mit einem Überschuss von etwas unter 17.700 Euro. Gerechnet hatten wir zum 31. März 2024 mit einem Verlust von knapp 60.360 Euro.

Viele von euch wissen, dass wir mit dem Polster aus der vorherigen Jahresendkampagne das "Spendental" ab Februar bis Mitte November überbrücken. Aufgrund der guten Entwicklung im ersten Quartal werden wir erst ab dem zweiten Quartal dieses Polster brauchen.

Noch eine Anmerkung zum Schluss dieses Berichts: Wir arbeiten daran, die Visualisierung unserer Ein- und Ausgaben noch übersichtlicher zu gestalten. Sobald wir das neue System der Kostenzuordnung und -auswertung aufgesetzt haben, wechseln wir die Darstellung. In der Visualisierung der Spendenziele in der obigen Grafik seht ihr daher hier noch zwei Modi: Für 2023 verwenden wir noch die alte Darstellung (Monat = Spenden im Jahresdurchschnitt), für die Spendenziele 2024 aber bereits die neue Darstellung (Monat = auf Basis der Einnahmen der gleichen Vorjahresmonate und mit der Erwartung laut Jahresbudget).

Danke für Eure Unterstützung!

Wenn ihr uns unterstützen wollt, findet ihr hier alle Möglichkeiten. Am besten ist ein Dauerauftrag. Er ermöglicht uns, langfristig zu planen:

Inhaber: netzpolitik.org e.V.
IBAN: DE62430609671149278400
BIC: GENODEM1GLS
Zweck: Spende netzpolitik.org

Wir freuen uns auch über Spenden via Paypal.

Wir sind glücklich, die besten Unterstützerinnen und Unterstützer zu haben.

Unseren Transparenzbericht aus dem Dezember 2023 findet ihr hier.

Vielen Dank an euch alle!

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Buchvorstellung mit Diskussion: Wie Hacker in Filmen dargestellt werden

9. Juli 2024 - 12:49

Eine Buchvorstellung mit Diskussion widmet sich am Donnerstag in Berlin den Hacker-Klischees in Filmen und Fernsehserien und der fiktiven Abbildung von Hackertätigkeiten. Buchautor William Mahan spricht und diskutiert über die Wechselwirkungen zwischen filmischer und realer Welt, denn Hacken ist politisch.

Der obligatorische Hacker im Kapuzenpullover.

Wenn man zum ersten Mal einen Hacker in einem Film sieht, dann unterstreicht die dargestellte Person oft gängige Klischees: Er hat eine Art Computer-Besessenheit, steht oft im sozialen Abseits und ist irgendwie ein Kellerkind in zumeist schwarzer Kleidung, hat aber quasi-magische technische Fähigkeiten, mit denen er virtuos und schnell umgehen kann und dadurch dann doch soziale Kontakte knüpft. Aber werden Hacker in deutschen Filmen anders dargestellt als es in Hollywood üblich ist? Und wenn ja, was ist anders?

Über die Darstellung von Hackern speziell in deutschen Filmen und Fernsehformaten hat William Mahan das Buch „Hackers as Heroes in German Film and Television“ geschrieben. Der Professor für Germanistik an der Northern Arizona University kommt nach Berlin und stellt es am Donnerstag in einer Lesung mitsamt Hackerfilm-Ausschnitten und Diskussion vor.

Geschichten des Widerstands

Unterhaltsame bis absurde Filmszenen

Hacken ist oft Subversion und auch politisch, ebenso natürlich Filme. Rainer Rehak vom Weizenbaum-Institut als einer der Veranstalter weist darauf hin, dass die filmische Darstellung von Hackern und ihren Aktivitäten „immense Auswirkungen für den politischen Diskurs über IT-Sicherheit, Datenschutz und Digitalpolitik“ hätte. Denn auch Politiker und andere Personen, die an der politischen Willensbildung mitwirken, lernen über Darstellungen in Film und Fernsehen ihr Alltagswissen über die Netzwelt und über das Hacken im engeren Sinne. So halten sich Mythen über Hacker oder können auch gebrochen werden.

„Dabei ist es inhaltlich und auch ästhetisch spannend, was in Filmen gezeigt und was gerade weggelassen wird“, sagt Rehak. Besonders das deutsche Kino hätte „eine besondere Art, unkonventionelle IT-Fachleute nicht als mächtige Überwesen mit nahezu magischen Fähigkeiten“ darzustellen, sondern als komplexe, politisch geprägte Personen. Mahans Buch bietet dazu eine „brillante filmwissenschaftliche, politische und technische Analyse“.

In der Diskussion nach der Buchvorstellung werden Caspar Mierau und Constanze Kurz ihre Perspektiven einbringen. Und das Publikum ist natürlich eingeladen, über Hacker-Klischees anhand von unterhaltsamen bis absurden Filmszenen zu diskutieren.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Beschwerde von noyb: Xandr verweigert jede Datenauskunft

9. Juli 2024 - 8:59

Nach einer Recherche von netzpolitik.org zur Werbedatenplattform Xandr wollten Datenschutzbehörden deren Praktiken untersuchen. Die NGO noyb macht nun Druck, damit etwas passiert, und reicht Beschwerde ein. Denn Xandr verweigere die Auskunft nach Datenschutzgrundverordnung.

Null: So viele Datenauskünfte hat Xandr im Jahr 2022 beantwortet. – Gemeinfrei-ähnlich freigegeben durch unsplash.com the blowup

Die Werbebranche weist Menschen Kategorien zu, um ihnen personenbezogene Werbung anzuzeigen. Ein bedeutender Akteur in diesem Markt ist Xandr, eine Plattform von Microsoft für Online-Werbung, die inzwischen einen anderen Namen hat. Im vergangenen Jahr enthüllte netzpolitik.org, welche Schubladen sich im Portfolio von Xandr befanden – von „Black Lives Matters Supporter“ bis „Moms who shop like crazy“. Auch das US-Medium „The Markup“ berichtete.

Datenschutzbehörden waren von der Recherche alarmiert und hatten angekündigt, die Tätigkeiten von Xandr und vieler weiterer Unternehmen zu prüfen. Die Datenschutzorganisation noyb nahm unsere Recherche zum Anlass für eigene Untersuchungen. Nun macht sie weiter Druck und hat bei der italienischen Datenschutzbehörde eine Beschwerde eingereicht.

Noyb kritisiert vor allem: Auch wenn die Werbekonzerne viel über uns zu wissen glauben, sie selbst geben nur ungern etwas über ihre Praktiken preis. So versuchte der italienische Beschwerdeführer, eine Auskunft von Xandr über die zu ihm gespeicherten Daten zu erhalten und diese löschen zu lassen. Das steht ihm nach den Artikeln 15 und 17 der Datenschutzgrundverordnung zu.

Keine Auskunft, keine Löschung

Aber Xandr lehnte die Auskunfts- und Löschersuchen ab, und das ist offenbar kein Einzelfall. Wie das Unternehmen selbst auf einer Website verzeichnet, hat es 2022 alle 1294 von 1294 Auskunftsersuchen abgelehnt. Ebenso wie alle 660 Löschanträge. Xandrs Begründung: Man habe die Identität der Antragstellenden nicht verifizieren können.

Noyb hält das für vorgeschoben. Der Anwalt Massimiliano Gelmi sagt dazu: „Xandrs Geschäft basiert offensichtlich darauf, die Daten von Millionen Europäer:innen zu speichern und sie gezielt anzusprechen.“ Dennoch gebe man zu, keinerlei Auskunfts- und Löschanfragen zu beantworten. Gelmi findet es „erstaunlich“, dass Xandr öffentlich zugänglich demonstriere, wie es gegen die DSGVO verstoße.

Das sind 650.000 Kategorien, in die uns die Online-Werbeindustrie einsortiert

Über einen Datenzulieferer von Xandr bekam der Beschwerdeführer dann aber doch eine Ahnung, in welchen Kategorien er einsortiert wurde. Nach langwierigen Anfragen bei rund 90 Partnern von Xandr erhielt er eine aussagekräftige Antwort: eine Liste mit 200 Werbe-Segmenten, in denen er gelandet war. Und die waren überraschend widersprüchlich: Er wurde unter anderem ebenso als männlich und weiblich eingestuft, als Student, arbeitssuchend und erwerbstätig.

Was erhofft sich noyb vom Ausgang der Beschwerde? Dass die italienische Datenschutzbehörde Xandr anweist, „seine Prozesse mit den Grundsätzen der Datenminimierung und -richtigkeit in Einklang zu bringen“. Außerdem schlägt noyb der Behörde vor, eine „wirksame, verhältnismäßige und abschreckende Geldbuße von bis zu 4 Prozent des Jahresumsatzes von Xandr zu verhängen“.

Bis sich zeigt, ob die Beschwerde erfolgreich ist, wird noch einige Zeit vergehen. Standardmäßig hat die Datenschutzbehörde nun neun Monate Zeit, den Fall zu prüfen und zu entscheiden.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Sexualdelikte zum Nachteil von Minderjährigen: Was die gestiegenen Fallzahlen bedeuten

8. Juli 2024 - 19:13

Liest man die heutigen Schlagzeilen über den Anstieg von Sexualdelikten zum Nachteil von Kindern und Jugendlichen, kann einem angst und bange werden. Doch was sagen die Zahlen wirklich aus? Wir geben Kontext zu einer Debatte, bei der mal wieder mehr Überwachung gefordert wird.

Bei Zahlen aus polizeilichen Kriminalstatistiken ist Kontext angebracht. (Symbolbild) – Alle Rechte vorbehalten IMAGO / Pond5 Images

Das Bundeskriminalamt (BKA) hat heute das Bundeslagebild „Sexualdelikte zum Nachteil von Kindern und Jugendlichen“ (PDF) vorgestellt. Aus diesem geht hervor, dass die Zahl erfasster Straftaten bei sexualisierter Gewalt an Kindern sowie die Verbreitung so genannter kinderpornografischer Inhalte gestiegen ist. Sowohl das Bundeskriminalamt sowie die Innenministerin Nancy Faeser nutzten die Vorstellung des Berichts ein weiteres Mal um eine Vorratsdatenspeicherung von IP-Adressen zu fordern.

Tatsächlich ist die Anzahl der polizeilich erfassten Fälle im Deliktfeld über mehrere Jahre hinweg nun ein weiteres Mal angestiegen. So stieg der sexuelle Missbrauch von Kindern und Jugendlichen im letzten Jahr um etwa fünf Prozent. Die Zahl der Fälle von Besitz oder Verbreitung von kinderpornografischen Inhalten stieg um etwa sieben Prozent, bei jugendpornografischen Inhalten gar um mehr als 30 Prozent.

Aufdeckung des Dunkelfeldes

Der Anstieg der erfassten Straftaten muss nicht heißen, dass diese Delikte insgesamt mehr werden, sondern es ist wahrscheinlicher, dass immer mehr Fälle aufgeklärt werden und der Fahndungs- und Ermittlungsdruck auf die Täter:innen steigt. Das BKA sagt selbst im Lagebild:

Grundsätzlich ist zu berücksichtigen, dass die Anzahl aufgedeckter Fälle stark mit polizeilicher Kontrolltätigkeit und dem Anzeigeverhalten korreliert. Insofern dürfte es auch aufgrund intensivierter polizeilicher Tätigkeiten im Deliktsbereich in den letzten Jahren zu einer Aufhellung des Dunkelfelds gekommen sein.

Das Bundeskriminalamt war in den letzten Jahren dafür kritisiert worden, dass es in Pressemitteilungen gestiegene Fallzahlen kommunizierte, ohne auf diesen Zusammenhang hinzuweisen. Bei der Vorstellung der polizeilichen Kriminalstatistik im April hatte der Vorsitzende der Innenministerkonferenz diese Zahlen erneut kontextlos präsentiert, um für die Vorratsdatenspeicherung zu werben.

Sehr viele Minderjährige als Tatverdächtige

Hinzu kommt, dass bei kinderpornografischen Inhalten knapp 40 Prozent der Tatverdächtigen selbst Minderjährige sind, bei jugendpornografischen Inhalten ist es sogar die Hälfte. Es dürfte sich vornehmlich um selbst erstelltes Bildmaterial handeln, das sie dann wiederum häufig an andere Minderjährige schicken.

Diese sexuelle Praxis von Minderjährigen wird Sexting genannt, dabei schicken sich Menschen einvernehmlich sexuelle Bilder. 14-Jährige, die etwa einvernehmliches Sexting mit Gleichaltrigen betreiben, machen sich in Deutschland derzeit strafbar. Fachleute kritisieren das seit langem als Fehlentwicklung. „Minderjährige im Rahmen ihrer gleichberechtigten sexuellen Entwicklung untereinander sollten nicht vom Strafrecht erfasst werden“, fordert etwa der Kriminologe Thomas-Gabriel Rüdiger.

Das Phänomen nennt das BKA „Selbstfilmer“. Hierbei nehmen Minderjährige pornografische Aufnahmen von sich auf, was legal ist – und verbreiten diese in sozialen Medien und über Messenger, was illegal ist. Das BKA stellt dazu fest: „Der Trend der „Selbstfilmer“ dürfte für den sprunghaften Anstieg der Fallzahlen in den letzten Jahren mitursächlich sein.“

Hohe Zahl an Fehlalarmen

Viele der Hinweise, die zu einer Strafverfolgung führen, erhält das Bundeskriminalamt über die US-Organisation NCMEC, welche gegen sexualisierte Gewalt gegen Kinder arbeitet. Unter anderem prüft NCMEC auch Hinweise von Internetanbietern und Serviceprovidern auf kinder- und jugendpornografische Inhalte – und leitet diese an die jeweils zuständigen polizeilichen Zentralstellen der Staaten weiter, in denen die Straftaten mutmaßlich stattgefunden haben sollen.

Aus dem Lagebild geht hervor, dass mehr als die Hälfte der etwa 180.000 Hinweise, die das Bundeskriminalamt durch die US-Organisation NCMEC erhält, nicht strafrechtlich relevant sind. Diese Zahlen waren schon im Juni bekannt geworden.

Der EU-Abgeordnete Patrick Breyer kritisiert diese Praxis. Er macht dafür eine „Rekord-Unzuverlässigkeit“ von Plattformen wie Meta verantwortlich, die angefangen hätten, Textchats nach Schlüsselwörtern zu scannen. „Die Zerstörung unseres Briefgeheimnisses nimmt immer dramatischere Ausmaße an“, kritisiert der Europaabgeordenete der Piratenpartei.

Mehr Medienerziehung und Prävention nötig

Trotz der vielen Fehlalarme sind für das BKA die Hinweise des NCMEC außerordentlich wichtig: „Die starke Zunahme polizeilich abgeschlossener Fälle von Herstellung, Verbreitung, Erwerb und Besitz kinder- sowie jugendpornografischer Inhalte dürfte im Wesentlichen auf das in den letzten Jahren stetig gestiegene Hinweisaufkommen durch das NCMEC zurückzuführen sein“, heißt es im Lagebericht.

In seiner Bewertung der Lage macht das BKA die Aussetzung der Vorratsdatenspeicherung dafür verantwortlich, dass es nicht noch mehr Fälle und Tatorte aufklären könne. Doch auch für die Polizist:innen in Wiesbaden ist klar, dass Strafverfolgung nur ein Element eines gesamtgesellschaftlichen Ansatzes beziehungsweise einer ganzheitlichen Bekämpfungsstrategie sein kann. „Eine kompetente Medienerziehung und fachkundige Begleitung von Kindern sowie adressatengerechte Präventionsmaßnahmen, die aktuelle Entwicklungen und Täterstrategien berücksichtigen, bilden neben der Einbeziehung verantwortlicher Internet-Dienstanbieter weitere wichtige Bausteine“, resümiert das BKA.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Nippelverbot: Facebook-Sperre von Filmwerkstatt Düsseldorf war rechtswidrig

8. Juli 2024 - 15:15

Das Landgericht Düsseldorf hat geurteilt, dass eine Facebook-Sperre der Filmwerkstatt Düsseldorf nicht in Ordnung war. Das Unternehmen Meta habe seine marktbeherrschende Stellung ausgenutzt. Es ging – wie bereits oft – auch um dargestellte Nacktheit.

Nippel haben es schwer, vor allem auf Facebook und Co. – Gemeinfrei-ähnlich freigegeben durch unsplash.com charlesdeluvio

2021 sperrte Facebook die dortige Seite der Filmwerkstatt Düsseldorf. Der Social-Media-Dienst von Meta störte sich mutmaßlich an sichtbaren Brustwarzen und die waren auf einer Abbildung zum Film „Der Schamane und die Schlange“ zu sehen. Die Filmwerkstatt nahm das nicht hin, beschwerte sich gegen die Sperrung und zog mit Unterstützung der Gesellschaft für Freiheitsrechte (GFF) und der Kanzlei Hausfeld vor Gericht – erfolgreich.

Das Landgericht Düsseldorf fällte nun ein Urteil: Meta habe in dem Fall seine marktbeherrschende Stellung ausgenutzt und die Kulturschaffenden behindert – noch dazu ohne direkt konkret zu begründen, weshalb die Sperrung erfolgte. Facebook hatte die Sperrung zwar schon vorher wieder aufgehoben, sich dafür aber anderthalb Jahre Zeit gelassen. „Nach eigenen Angaben kann der Konzern heute nicht mehr nachvollziehen, wie es zu der Sperrung kam“, heißt es in der Pressemitteilung der GFF.

Dass Meta zum Zeitpunkt der Sperrung keinen Grund für die Maßnahme nannte, machte es besonders schwer dagegen vorzugehen. Auch ob die Entscheidung aufgrund von automatisierten Filtern und Verfahren erfolgte, war unklar. Was hingegen klar ist: Bei einer vollständigen Sperrung gibt es hohe Hürden, wie das Oberlandesgericht Hamburg 2022 urteilte. Zudem erlegt der Digital Services Act großen Plattformen wie Facebook mittlerweile besondere Pflichten auf, auch was Informationspflichten und Widerspruchsrechte bei Moderationsentscheidungen betrifft.

Umkämpftes Nippelverbot

Im Filmwerkstatt-Fall lag die Vermutung nahe, dass die Sperr-Entscheidung aufgrund der entblößten Brustwarzen fiel. Meta ging schon häufig sehr restriktiv mit Nacktheit um: Sei es mit Bildern von stillenden Müttern, aber auch mit Darstellungen in historischen oder künstlerischen Kontexten – etwa beim Steinzeit-Kunstwerk „Venus von Willendorf“. Diese als Nippelverbot bezeichnete Praxis wurde in der Vergangenheit wiederholt kritisiert.

Da es im Filmwerkstatt-Fall um Kartellrecht geht, ist das Urteil besonders wichtig für Vereine wie die Filmwerkstatt und andere juristische Personen, die keine klassischen Verbraucher:innen sind. Andernfalls hätte die Filmwerkstatt vor ein irisches Gericht ziehen müssen, um sich gegen die Moderationsentscheidung zu wehren. Dies sollte nun geklärt sein.

„Das Urteil ist nicht nur ein Erfolg für die Kunstfreiheit. Es zeigt, dass Nutzer*innenrechte gegenüber internationalen Digitalkonzernen auch an deutschen Gerichten durchgesetzt werden können“, sagt dazu Jürgen Bering von der GFF.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Digital Services Act: „Wir wollen dafür sorgen, dass große Unternehmen die neuen Rechte einhalten“

8. Juli 2024 - 13:45

Wir sprechen mit Svea Windwehr von der Gesellschaft für Freiheitsrechte über die neuen Rechte durch den Digital Services Act. Wie wehrt man sich gegen regelwidrige Maßnahmen der Plattformen? Wo könnte der DSA auch missbraucht werden? Und Svea ruft euch dazu auf, sich bei der GFF zu melden, wenn Plattformen eure Inhalte oder euer Konto sperren.

Die EU-Kommission soll die ganz großen Tech-Unternehmen beaufsichtigen. – CC-BY 4.0 netzpolitik.org

Der Digital Services Act (DSA) verfolgt im Kern das Ziel, Online-Plattformen und Anbieter digitaler Dienste wie etwa Suchmaschinen dazu zu bringen, mehr gegen rechtswidrige Inhalte vorzugehen, die Grundrechte der Nutzer besser zu schützen und den Schutz von Minderjährigen höher zu priorisieren. Seit der DSA in Kraft ist, hat die Zivilgesellschaft Rückenwind: Denn sie kann und soll bei der Durchsetzung der EU-Verordnung mitwirken und den Online-Plattformen auf die Finger schauen.

Beschwerden über Verstöße gegen den DSA können bei der nationalen Koordinierungsbehörde eingereicht werden. Die deutsche Koordinierungsbehörde ist die Bundesnetzagentur, die bei systematischen und regelmäßigen Verstößen gegen den DSA tätig werden soll.

Svea Windwehr (Foto: Bernhard Leitner)

Das Center for User Rights der Gesellschaft für Freiheitsrechte (GFF) will die neuen Rechte aus dem DSA aktiv einfordern und durchsetzen. Wir sprachen mit Svea Windwehr darüber, was die Zivilgesellschaft nun konkret tun kann und wer sich wo beschweren kann.

Svea Windwehr ist Leiterin des Centers for User Rights, einem Projekt der Gesellschaft für Freiheitsrechte. Zuvor hat Svea bei Google Deutschland gearbeitet und dort Themen rund um die Regulierung von Plattformen und Inhalten sowie Künstlicher Intelligenz betreut. Frühere Stationen beinhalten die Electronic Frontier Foundation, das Bundesministerium für Arbeit und Soziales sowie der Generaldirektion CONNECT der Europäischen Kommission. Sie studierte Politikwissenschaft und internationale Beziehungen in Maastricht und Berkeley und erwarb einen Masterabschluss am Internet Institute der University of Oxford. Svea Windwehr ist Co-Vorsitzende von D64.

Die neuen Rechte einfordern und durchsetzen

Elina Eickstädt: Wir sprechen heute darüber, was passiert, wenn ein EU-Gesetzgebungsprozess abgeschlossen ist und wie ein Gesetz umgesetzt wird.

Constanze Kurz: Als Beispiel dient uns dafür der Digital Services Act (DSA). Und um die Durchsetzung von Nutzerrechten unter genau diesem DSA geht es dem Projekt Center for User Rights bei der Gesellschaft für Freiheitsrechte, das Svea Windwehr leitet. Was ist das Ziel des GFF-Projekts?

Svea Windwehr: Das Center for User Rights bündelt auf der einen Seite Projekte, welche die GFF im Bereich Plattform-Regulierung und Durchsetzung von Rechten schon länger am Laufen hatte. Ein neuer strategischer Fokus ist dabei die Durchsetzung von Nutzer:innen-Rechten unter dem Digital Services Act, dem großen neuen Rechtsrahmen für Online-Plattformen in der Europäischen Union, der vergangenes Jahr in Kraft getreten ist. Er hat die grundlegenden Haftungsregeln für Online-Plattformen upgedatet und vor allem viele neue Rechte für Nutzer:innen geschaffen. Und die möchten wir jetzt einfordern und durchsetzen.

Constanze Kurz: Die Durchsetzung von Rechten ist in vielen Bereichen eine Art Achillesferse des Gesetzgebers. Man hat vielleicht ein gut gemeintes Gesetz, egal ob auf der EU-Ebene oder in Deutschland. Aber nach ein paar Jahren stellt sich heraus: Die Durchsetzung der Rechte klappt nicht allzu doll. Man entdeckt Schwierigkeiten oder vielleicht auch Phänomene, die man vorher nicht antizipiert hat: Die Betroffenen, die bestimmte neue Pflichten haben, können sich vielleicht herauswinden oder Lücken ausnutzen. Was ist der Hauptfokus des Centers for User Rights beim Digital Services Act?

Svea Windwehr: Der Hauptfokus ist die Aufsichtsarbeit, die eigentlich die Aufsichtsbehörden erbringen müssten, also die Europäische Kommission und die nationalen Aufsichtsbehörden. Wir wollen die Fragen beantworten: Machen sie die Arbeit, die sie tun sollten? Ziehen sie große Tech-Unternehmen in die Verantwortung, die neuen Regeln, die es jetzt gibt, umzusetzen? Wir finden auch nicht alles am DSA im Detail positiv, aber wollen vor allem diese Aufsicht begleiten. Wir wollen dafür sorgen, dass die großen Unternehmen die neuen Rechte einhalten und Nutzer:innen in den Vordergrund stellen. Das ist natürlich eine Sisyphos-Aufgabe.

Ist der DSA gelungen?

Elina Eickstädt: Was passiert beim DSA, vielleicht auch beispielhaft für andere EU-Gesetze, wenn das Gesetz in Kraft tritt?

Svea Windwehr: EU-Verordnungen wie der DSA gelten in der Theorie sofort, aber tatsächlich nur in der Theorie. Denn es müssen Strukturen auf nationaler Ebene geschaffen werden, um sie überhaupt umsetzbar zu machen. Etwa die Frage: Wer ist denn die nationale Aufsichtsbehörde? Sie muss benannt werden. Dafür braucht es ein deutsches Gesetz. Das war in Deutschland das Digitale-Dienste-Gesetz, das mit ziemlich viel Verspätung in Kraft getreten ist. In diesen drei Monaten gab es keine Aufsichtsbehörde in Deutschland, niemand wusste, an wen man sich wenden konnte.

Constanze Kurz: Es geht beim DSA im Wesentlichen um Pflichten für Online-Plattformen und um neue Transparenzregeln. Es geht auch um Moderationsentscheidungen dieser Plattformen und die Widersprüche, die man dagegen einlegen kann. Für wie sinnvoll hältst du die Regelungen der Verordnung? Ist das ein gelungenes Gesetz? Und wo sind Schwächen, die du schon siehst, bevor ihr überhaupt die Arbeit richtig anfangen könnt?

Svea Windwehr: In den vergangenen Jahren gab es in den EU-Mitgliedstaaten relativ viele neue Gesetze, die versucht haben, damit umzugehen, dass Online-Plattform so wahnsinnig viel Macht entfaltet haben und auch so viel Einfluss auf Grundrechte wie die Meinungsfreiheit ausüben, zum Beispiel das deutsche NetzDG. Ein ähnliches Gesetz gab es in Frankreich, und es gab solche Gesetze in Österreich. In Dänemark wurde ebenfalls darüber nachgedacht. All diese Gesetze waren nicht ideal, es gab sehr viel Kritik daran aus verschiedenen Perspektiven. Aber es war klar: Hier muss was passieren.

Es ist besser, wenn das auf europäischer Ebene passiert und harmonisiert wird, als wenn die EU-Mitgliedstaaten ihre eigenen Süppchen kochen. Das war die Hauptmotivation für den DSA. Das Gesetz besteht aus vier Teilen.

Der erste Teil sind grundlegende Haftungsregeln. Zum Beispiel: Wann ist eine Plattform verantwortlich für Inhalte, die gepostet werden und die vielleicht illegal sind? Der zweite Teil sind grundlegende Sorgfaltspflichten, die alle erfüllen müssen. Das heißt zum Beispiel, dass Online-Plattformen oder Hosting-Anbieter Notice-and-Action-Verfahren anbieten müssen – also Meldeverfahren –, aber auch grundlegenden Transparenzvorschriften nachkommen müssen.

Der dritte Teil beschreibt besondere Pflichten für die allergrößten Plattformen, die am meisten Macht haben. Das sind sehr große Plattformen, die erheblichen Einfluss auf unsere Gesellschaft haben, auf unser Zusammenleben, auf demokratische Prozesse, aber eben auch auf Grundrechte oder Wahlen und so weiter. Der vierte Teil ist dann die Durchsetzung, die Aufsicht sozusagen.

Aus meiner Perspektive ist der DSA im Großen und Ganzen gut gelungen. Ich habe Kritik, was einige Artikel angeht: Das betrifft einige der Ermächtigungen für die Europäische Kommission oder die Aufsicht, insbesondere in Krisensituationen. Es gibt einen Krisenmechanismus, wo die Europäische Kommission recht stark eingreifen kann. Es ist klar, dass diese Ermächtigungen unter dem Eindruck des Krieges in der Ukraine und den Erfahrungen der Corona-Pandemie geschaffen wurden. Aber ich denke, da gibt es viel Missbrauchspotential.

Eine andere Sache, die sehr problematisch ist, kennen wir schon aus dem deutschen NetzDG: die Verpflichtung für Online-Plattformen, Nutzer:innen-Daten und -Inhalte proaktiv an Strafverfolgungsbehörden auszuleiten, wenn diese der Meinung sind, dass die Inhalte bestimmte Straftatbestände erfüllen könnten, also illegal sind. Aber es ist überhaupt nicht definiert, um was für Straftaten es geht.

Das sind Elemente, wo ich sagen würde, dass der DSA missbraucht werden kann und zum Teil eine Überwachungsgesetzgebung ist. Aber der Großteil des DSA, also vor allem die Nutzer:innen-Rechte, halte ich für sehr gelungen. Jetzt müssen wir natürlich ausprobieren, ob es in der Praxis funktioniert.

Elina Eickstädt: Du hast schon mehrfach die EU-Kommission erwähnt. Welche Rolle spielt die EU-Kommission in der Umsetzung von einem solchen Gesetz, speziell vom DSA?

Svea Windwehr: Die EU-Kommission ist die Aufsichtsbehörde für die allergrößten Plattformen, die am meisten Macht über unsere Leben haben. Das war aber so gar nicht vorgesehen. Ursprünglich sollten die EU-Mitgliedsstaaten, in denen die Plattformen gemeldet sind, die Aufsicht übernehmen. Das sollte ähnlich wie bei der Datenschutzgrundverordnung (DSGVO) geregelt werden. Bekanntlich sind die meisten der Plattformen in Irland gemeldet. Es gab dann den Gedanken: Moment mal, das war vielleicht nicht die beste Idee. Denn Irland ist im Kontext der DSGVO nicht so wahnsinnig viel tätig geworden, im Gegenteil.

Constanze Kurz: Das war die Untertreibung des Jahrzehnts. Die Iren gelten als Nullnummer bei ihren DSGVO-Aufsichtsbehörden.

Elina Eickstädt: Man sieht das immer wieder an den Klagen von noyb und Max Schrems, nämlich wie die Aufsicht der Iren einfach überhaupt nicht funktioniert. Anscheinend wurde daraus gelernt bei der Umsetzungsidee des DSA.

Svea Windwehr: Es war klar: Was bei der DSGVO passiert ist, sollte sich auf keinen Fall wiederholen. Es ist aber auch klar, dass es wahrscheinlich nicht die allerbeste Idee ist, wenn jetzt alle 27 EU-Staaten damit anfangen, die größten Plattformen, die in all diesen Märkten unterwegs sind, selbst zu beaufsichtigen. Deswegen war die Idee: Wir geben diese Aufgabe der Kommission. Das ist auf jeden Fall eine spannende Rolle, mit der die EU-Kommission – so glaube ich – ebenfalls nicht gerechnet hat.

Welche Rolle die EU-Kommission hat

Elina Eickstädt: Was ist die EU-Kommission als Institution eigentlich? Und warum ist das vielleicht eine gute Idee, nicht alle Länder die Aufsicht allein machen zu lassen, sondern durch die Kommission?

Svea Windwehr: Die EU-Kommission beschreibt sich selbst als die Hüterin der Verträge, als eine angeblich objektive Exekutive, die Gesetzesvorschläge macht und sie dann auch beaufsichtigt oder zum Teil umsetzt. Ich würde sagen, die Kommission ist eine zutiefst politische Institution, weit entfernt davon, objektiv zu sein. Sie ist sehr stark beeinflusst von der Agenda der größten EU-Mitgliedsstaaten, insbesondere Frankreich und Deutschland.

Die Hoffnung ist, dass die EU-Kommission in der Lage sein wird, die nötige Expertise für den DSA aufzubauen, diese zu bündeln und durchschlagskräftiger zu sein als nationale Aufsichtsbehörden.

Constanze Kurz: Es gibt eine Trennung zwischen Online-Plattformen auf der einen Seite und sehr großen Online-Plattformen auf der anderen. Welche sehr großen Plattformen sind das? Wie sind sie definiert? Und wie unterscheiden sich die Pflichten?

Svea Windwehr: Sehr große Online-Plattformen oder sehr große Suchmaschinen, die auch dazugehören, sind als Plattformen definiert, die mehr als 45 Millionen Nutzer:innen in der Europäischen Union haben. Das ist schon eine hohe Schwelle, die überschreitet man nicht zufällig. Das sind inzwischen knapp über zwanzig.

Dazu zählen zum Beispiel Google mit seinen verschiedenen Diensten oder die Meta-Plattform, also Instagram und Facebook, aber auch Twitter oder TikTok. Es sind aber auch Online-Marktplätze darunter wie etwa Amazon, Alibaba, Shein oder Temu. Recht neu sind auch die großen Porno-Plattformen, so ist etwa xHamster dazugekommen. Und auch Suchmaschinen wie die Google-Suche oder Bing sind dabei. LinkedIn fällt auch darunter, das zu Microsoft gehört.

Umgang mit systemischen Risiken

Constanze Kurz: Was ist mit dem Unternehmen OpenAI, bekannt für ChatGPT, die sich ja mit mehr als 90 Millionen Usern brüsten. Sind die dabei?

Svea Windwehr: Es ist nicht ganz klar, was das eigentlich für eine Form von Dienst ist: Hosting-Anbieter oder Online-Plattform oder eine Mischform.

Elina Eickstädt: Was muss die EU-Kommission jetzt leisten? Macht sie auch was oder redet sie nur viel darüber?

Svea Windwehr: Die EU-Kommission hat jetzt die Aufgabe, diese ganz großen Unternehmen zu beaufsichtigen. Dafür stehen ihr eine Reihe von Möglichkeiten und Werkzeugen zur Verfügung. Zum Beispiel müssen die Unternehmen bestimmte Berichte abliefern, wie sie zum Beispiel systemische Risiken bekämpfen. Das heißt, die Kommission bekommt eine bessere Informationslage.

Sie kann aber auch Informationen anfragen. Es geht sogar so weit, dass sie Durchsuchungen durchführen oder spezifische Informationen sicherstellen könnte.

Die EU-Kommission ist auch sehr schnell aktiv geworden. Man könnte vielleicht auch sagen: Sie ist aktivistisch unterwegs gewesen in den ersten Monaten. Nicht alles davon wurde sehr positiv gesehen.

Zum Beispiel gab es im Kontext des 7. Oktober Briefe des zuständigen EU-Kommissars Thierry Breton, die er über Twitter verteilt hat. Darin forderte er die großen Plattformen auf, den DSA durchzusetzen. Dabei hat er auf eine relativ problematische Art und Weise vermischt, um was es eigentlich geht. Geht es um illegale Inhalte oder geht es um Desinformation? Das ist ein recht frühes Beispiel, wo man das Gefühl hatte, dass hier auch politisch Einfluss genommen wird.

Abgesehen davon hat die EU-Kommission vor allem drei große Prioritäten festgelegt. Es geht einmal um das Thema illegale Inhalte: Wie gehen die Plattformen mit illegalen Inhalten um, was sind die Meldewege, wie gut funktioniert die Transparenz? Der zweite Bereich ist Kinder- und Jugendschutz, der für die Kommission sehr wichtig ist. Der dritte Bereich ist die Integrität von Wahlen und Desinformation.

Elina Eickstädt: Stellt die EU-Kommission für diese Arbeit ein neues Team oder eine neue Abteilung zusammen, die dann auch beständig arbeiten – im Gegensatz zu den Kommissarinnen und Kommissaren, die ja jetzt nach den Wahlen wechseln werden?

Svea Windwehr: Ja, es wurde eine Abteilung umstrukturiert und umgebaut, und zwar die Abteilung, in der das Team sitzt, das den DSA geschrieben und verhandelt hat. Da ist sehr viel Expertise im Bereich Online-Plattformen. Sie haben schon recht viel Leute eingestellt, zwischen 70 und 100 Menschen.

Es sind auch gerade noch Stellen offen. Die EU-Kommission hat recht lange gebraucht, um diese Stellen zu füllen und das Team aufzubauen. Die Kommission hat mit dem Team schon einige Untersuchungen losgetreten, ich glaube, über zehn Untersuchungen und noch einige Nachfragen, sogenannte Requests for Information. Als wir als GFF im Februar eine Beschwerde gegenüber LinkedIn eingereicht haben, hat die Europäische Kommission als ersten Schritt nach mehr Informationen bei LinkedIn gefragt.

„Die EU-Kommission hätte nichts machen müssen“

Elina Eickstädt: Was können wir als Zivilgesellschaft machen? Wie läuft eine Beschwerde an die Kommission? Kann ich das als Einzelperson auch tun? Kann sich einfach jeder beschweren oder muss man sich im eigenen Land an die Beschwerdestellen richten?

Svea Windwehr: Das ist eine der Lücken im DSA. Es gibt kein Beschwerderecht gegenüber der Europäischen Kommission. Theoretisch müssten wir uns alle an unsere nationale Aufsichtsbehörde wenden, der Digital-Services-Koordinator, also die deutsche Koordinierungsstelle. Da kann man quasi Beschwerden einreichen, wozu man möchte. Und wenn es sich dabei um sehr große Online-Plattformen handelt, dann hat diese nationale Aufsichtsbehörde die Verpflichtung, das an die EU-Kommission weiterzugeben.

Da es in Deutschland bis vor kurzem noch keine Aufsichtsbehörde gab, haben wir als GFF zum Beispiel unsere Beschwerde direkt bei der Kommission eingereicht. Auch wenn es keinen offiziellen Weg dafür gab, hat es in diesem Fall gut funktioniert, aber geht natürlich mit dem Problem einher, dass wir keinerlei prozessuale Rechte hatten. Die EU-Kommission hätte nichts machen müssen. Sie hätte sich auch einfach nie wieder bei uns melden können. Wir hätten keine rechtlichen Wege gehabt, dagegen vorzugehen.

Interviews Wir kommen gern ins Gespräch. Unterstütze unsere Arbeit!

Jetzt Spenden

Constanze Kurz: Ist es denn jetzt anders? Es gibt ja jetzt diesen Koordinator, das ist in Deutschland gesetzlich geregelt die Bundesnetzagentur. Müsst ihr euch mit ihnen nun ins Benehmen setzen oder wendet ihr euch direkt an die Bundesnetzagentur? Wie wird es jetzt laufen?

Svea Windwehr: Wir haben vor zwei Wochen eine weitere Beschwerde eingereicht. Wir wollten ausprobieren, wie jetzt der Weg ist. Denn inzwischen gibt es eine Webseite, über die man Beschwerden einreichen kann.

Constanze Kurz: Man kann aber nur fünf Bilddateien hochladen und man hat eine sehr begrenzte Zeichenzahl.

Svea Windwehr: Genau. Da sieht man schon ein wenig, von welchen Beschwerden sie ausgehen. Ich glaube, sie rechnen vor allem damit, von einzelnen Personen zu hören, was ihnen auf einer Plattform widerfahren ist, wo ihre Rechte nicht eingehalten wurden. Das, was wir als GFF dort einreichen wollten, nämlich Beschwerden gegen fünf verschiedene Unternehmen, das war so nicht vorgesehen. In dem Fall haben wir die Beschwerde wieder per E-Mail eingereicht, aber auch parallel an die Europäische Kommission, weil es um sehr große Online-Plattformen ging. Das wird letztlich sowieso bei der Kommission landen.

Die Bundesnetzagentur hat vor allem die Aufgabe, zu koordinieren und dann Beschwerden oder auch Untersuchungen an die Behörde weiterzugeben, die am ehesten dafür zuständig und dafür kompetent ist.

Hier kannst Du Dich beschweren

Constanze Kurz: Die Bundesnetzagentur betont auf der Webseite, dass es nicht um individuelle Beschwerden geht, dass sich also die Nutzer nicht wegen eines gesperrten Accounts beschweren sollen, sondern dass die Behörde über ihr Beschwerdeformular auf systematische oder regelmäßige Verstöße hingewiesen werden will.

Svea Windwehr: Deswegen ist unsere Arbeit in dem Bereich so wichtig. Denn das ist genau das Problem: Der DSA sagt sehr deutlich, dass einzelne Rechtsverstöße nicht das Problem sind. Aber systematische Rechtsverstöße können geahndet werden. Das heißt: Wenn etwa Facebook einmal was Falsches entscheidet, ist es schon okay. Das ist natürlich für einzelne Nutzer total unbefriedigend, weil die tatsächlich nicht unbedingt jemand haben, an den sie sich wenden können. Oder es ist mit sehr viel Aufwand verbunden.

Es gibt natürlich Vereine wie die GFF und auch Beratungsstellen für Betroffene von Hass im Netz, die helfen können. Aber es ist nicht offensichtlich, an wen man sich wenden kann. Es gibt noch die Verbraucherschutzzentralen, die auch hilfreich sind, aber die muss man auch erstmal kennen.

Constanze Kurz: Du hast vorhin erwähnt, dass der DSA auch die Pflichten in Bezug auf Meldungen für die großen Plattformen verbessern soll. Sie müssen jetzt bestimmte Beschwerdewege haben und auch reagieren – oder zum Beispiel auch nicht immer automatisiert reagieren. Im Prinzip ist der DSA vor allen Dingen dafür da, dass es diese Wege überhaupt gibt und zwar überall. Aufzuzeigen, wo diese Beschwerdestellen bei den großen Plattformen sind, wäre doch eigentlich eine Forderung, die man an die Bundesnetzagentur stellen könnte.

Elina Eickstädt: Ich glaube, das ist ein Klassiker, dass wir jetzt als Zivilgesellschaft wieder schauen müssen, dass alle Menschen ihre Rechte kennen, die sie jetzt auf einmal innehaben. Und wir müssen außerdem dafür sorgen, dass es eine Durchsetzung dieser Rechte gibt. Oder wie siehst du das?

Svea Windwehr: Auf der einen Seite ist das eine Rolle, welche die Zivilgesellschaft schon immer hatte: Watchdog sein. Aber ich würde auch sagen, es gibt auf der anderen Seite ein gewisses Spannungsfeld: Man kann nicht mit der Kommission zusammenarbeiten und den DSA durchsetzen und gleichzeitig die Kommission beaufsichtigen und Watchdog sein.

Hinzu kommt die ungeklärte Finanzierungslage für ganz viele Organisationen in Deutschland, genauso auch in anderen Ländern oder auf europäischer Ebene. Es gibt einfach viel zu wenig Geld für diese Arbeit. Aktuell würde ich schon sagen, dass es von Aufsichtsbehörden eine Erwartungshaltung gibt, insbesondere von der EU-Kommission an die Zivilgesellschaft. Nach dem Motto: Ihr wolltet diese Rolle, jetzt ist der DSA da – könnt ihr nun Beweise liefern, wo es schlecht läuft?

Das ist natürlich eine tolle und eine wichtige Aufgabe. Wir wollen uns natürlich auch beteiligen und hilfreich sein. Ich denke, aktuell ist es gut angelaufen. Aber es ist natürlich klar, dass früher oder später Konflikte auftauchen. Dann wird es spannend.

Mitglieder des Beirats bestätigt

Constanze Kurz: Bei der Bundesnetzagentur, also dem deutschen Koordinator, gibt es auch eine zivilgesellschaftliche Beteiligung. Sie ist in einem Beirat festgelegt, der sich zusammensetzt aus zur Hälfte Zivilgesellschaft, einem Viertel Wissenschaft und einem Viertel Wirtschaft. Ist schon bekannt, wer in diesem Beirat sein wird?

Svea Windwehr: Der Beirat wurde gerade benannt, ich gehöre ihm als Teil der Zivilgesellschaft an.

Constanze Kurz: Aus Sicht der GFF: Welchen Unternehmen wollt ihr euch widmen? Was sind die Themen, die euch unter den Nägeln brennen, wo wollt ihr aktiv werden?

Svea Windwehr: Das sind drei Bereiche. Der erste ist die Inhaltemoderation, also genauer die Durchsetzung und Wahrung von Grundrechten bei der Inhaltemoderation. Da sind wir darauf angewiesen, dass Menschen zu uns kommen und erzählen, was ihnen passiert ist.

Hier ist der Aufruf: Wurden eure Inhalte gesperrt oder euer Konto blockiert? Dann meldet euch gern, wenn ihr das Gefühl habt, dass das nicht rechtmäßig passiert ist. Wenn vielleicht auch bestimmte politische Inhalte zensiert wurden, dann sind wir erstmal neugierig und schauen uns das gern an.

Der zweite Bereich ist der Zugang zu Forschungsdaten. Das ist eine große Innovation, dass es ein relativ weitgehendes neues Recht für Forschende gibt, Zugang zu Plattformdaten zu bekommen. Das wollen wir durchsetzen mit Forschenden, also dafür kämpfen, dass sie die Daten auch bekommen.

Der dritte Bereich ist das, was ich Plattform-Design nenne, also die Aspekte des DSA, die nicht unbedingt auf einzelne Nutzerrechte abzielen, sondern das Design und die Gestaltung von Online-Plattformen angehen. Sie haben sehr großen Einfluss darauf, wie Nutzer sich dort bewegen können und was sie vorfinden.

In allen drei Kategorien muss aus meiner Sicht sehr viel überprüft werden. Gerade auch die Meldewege, da gibt es schon erste Beschwerden. Es ist klar, dass Meldewege auf allen Plattformen nicht besonders gut ausgestattet sind, nicht besonders gut funktionieren und nicht einfach zu nutzen sind.

Constanze Kurz: Du hast vermieden, irgendeine bestimmte große Online-Plattform zu benennen.

Elina Eickstädt: Was ist eigentlich mit TikTok? Setzen sie den DSA um, was ist dein Eindruck?

Svea Windwehr: TikTok fällt als eine sehr große Plattform unter den DSA. TikTok war unter den fünf Unternehmen, gegen die wir vor ein paar Wochen wegen ihrer mangelnden Umsetzung von Wegen, sich als Nutzer:in vertreten zu lassen, eine Beschwerde eingereicht haben. Aus meiner Erfahrung bemüht sich TikTok um Compliance. Ich glaube, TikToks generelle Strategie besteht darin, Gesetze umzusetzen, und es ist eventuell weniger fokussiert darauf, Grundrechte abzuwägen.

Wir schauen weniger auf konkrete Unternehmen als auf konkrete Themen. Bis jetzt haben wir gegen fast alle großen Plattformen, auf denen nutzergenerierte Inhalte geteilt werden, Beschwerden eingereicht.

„Desinformation ist meistens nicht rechtswidrig“

Elina Eickstädt: Der DSA war ein geprägt von den EU-Wahlen: Wir müssen irgendwas gegen Desinformation tun. Hast du das Gefühl, dass es jetzt in der Umsetzung des DSA zu gut überlegten Regelungen kommt?

Svea Windwehr: Der DSA ist schon ein Versuch, auf aktuelle Herausforderungen einzugehen – manchmal besser, manchmal schlechter. Ich glaube, dieser Krisenmechanismus, den ich vorhin erwähnt habe, ist ein Beispiel von eher nicht so gut gelaufen. Die Artikel zu systemischen Risiken, wo zum Beispiel auch Desinformation oder Schutz von Wahlen drin stehen, die ergeben schon mehr Sinn.

Für mich geht es um ein grundlegendes Missverständnis: Desinformation ist ja in den allermeisten Fällen nicht rechtswidrig. Die Inhalte, die verbreitet werden, sind meistens nicht rechtswidrig. Es ist falsch und es sind oft Dinge, die aus dem Kontext gerissen werden und in falschen Kontext gestellt werden. Aber es ist selten illegal. Der DSA reguliert aber in allererster Linie illegale Inhalte. Das heißt, es ist relativ begrenzt, was man unter dem DSA tun kann, um gegen Desinformation vorzugehen. Das wird manchmal ein bisschen übertrieben dargestellt. Aber es ist ein sehr komplexes Problem mit vielen verschiedenen Akteuren. Und einfach nur zu sagen, Plattformen sollen jetzt mehr Desinformation löschen, wird dem überhaupt nicht gerecht.

Das heißt, wir müssen vorsichtig damit sein, zu sagen, der DSA funktioniert nicht, er muss nachgeschärft werden – gerade in den ersten Monaten, vielleicht auch im ersten Jahr. Wir müssen erstmal Erfahrungen damit sammeln und herausfinden, was gut funktioniert, was schlecht funktioniert und uns gemeinsam der Herausforderung stellen, dass wir noch nicht alle Antworten haben.

Elina Eickstädt: Was kann der DSA eigentlich beim Kinder- und Jugendschutz tun? Hast du das Gefühl, dass es hier wieder so eine Erwartungshaltung an den DSA gibt, die gar nicht erfüllt werden kann?

Svea Windwehr: Der DSA sagt zum Kinder- und Jugendschutz, dass Plattformen sich Maßnahmen ausdenken müssen, um Kinder und Jugendliche zu schützen, und das quasi auf systemischer Ebene einbauen, überprüfen und bewerten müssen. Da bin ich sehr gespannt drauf. Die entsprechenden Risikoberichte werden im Laufe des Jahres veröffentlicht.

Wovor ich ein bisschen Sorge habe, ist die Diskussion, ob Altersverifizierung nicht doch ein notwendiges Werkzeug ist, um Kinder und Jugendliche im Netz zu schützen. Da habe ich große Bedenken und die Sorge, dass in irgendwelchen Arbeitsgruppen – fernab der Öffentlichkeit und des demokratischen Gesetzgebungsprozesses – die Altersverifizierungen über die Hintertür noch Schule machen könnte. Da sehe ich auf jeden Fall eine große Gefahr.

Constanze Kurz: Ich muss auf etwas zurückkommen, dass du zweimal explizit als Schwäche des DSA erwähnt hast: den Krisenmechanismus. Was ist dieser Krisenmechanismus, wo siehst du die große Gefahr?

Svea Windwehr: Kurz zusammengefasst sagt der Krisenmechanismus, dass die EU-Kommission nach Aufforderung der nationalen Aufsichtsbehörden in Fällen von Krisen, die weit definiert sind, etwa nationale Sicherheit oder Public Health, Krisenprotokolle unter Beteiligung betroffener Online-Plattformen ausarbeitet. Die Kommission kann so konkrete Maßnahmen zur Bekämpfung der Krise vorschlagen und ihre Anwendung überwachen.

Der Artikel dazu ist recht vage und lässt viele Spielräume. Am Beispiel der Corona-Pandemie haben wir gesehen, wie dynamisch solche Situationen sein können, und wie schnell sich auch verändert, was zum Beispiel als Desinformation wahrgenommen wird und was nicht. Da macht mir dieser Artikel und die Ermächtigungen, die der im Falle einer Krise erlaubt, Sorgen.

Constanze Kurz: Ich erinnere daran, dass mit Beginn des kriegerischen Ukrainekonflikts auch ganz drastische Zensurmaßnahmen in Europa durchgesetzt wurden, die bis heute bestehen in Bezug auf russische Sender. Du hast jetzt Desinformation erwähnt, aber eigentlich geht es ja um rechtswidrige Inhalte, nicht wahr?

Svea Windwehr: Ja, ich glaube, es wird auch oft verkürzt. Staatliche Akteure hätten einen direkten Weg, um Druck auch Unternehmen mit sehr großer Reichweite auszuüben, um bestimmte Maßnahmen umzusetzen. Da sehe ich Missbrauchspotential. Gleichzeitig ist auch klar, dass die Gesellschaft sehr wachsam ist.

Wir müssen abwarten, wie das in der Praxis laufen wird, aktuell ist es schwer zu bewerten. Aber ich glaube, es ist allen klar, dass dieser Mechanismus nicht ideal ist, dass es viele Fragezeichen gibt und dass man mit sehr viel Sorgfalt agieren muss.

Uns gegen Handlungen der Plattform wehren

Elina Eickstädt: Was sollte man grundsätzlich über den DSA wissen?

Svea Windwehr: Man sollte wissen, dass wir jetzt zum ersten Mal Rechte haben, um uns gegen Handlungen der Plattformen zu wehren. Die sollte man nutzen. Das geht am allerbesten, wenn man sich ein bisschen Hilfe sucht, zum Beispiel auf die GFF zukommt und uns anspricht.

Was auch wichtig ist: Es gibt neue Transparenz und neuen Zugang zu Daten. Jetzt müssen wir den Zugang auch nutzbar machen. Und deswegen hier ein Aufruf an alle, die forschen oder in irgendeiner Uni Lust dazu haben: Welche Daten wollt ihr eigentlich? Wie könnte man sie herkriegen? Da aktiv zu werden, das ist mein Appell.

Elina Eickstädt: Vielen Dank, Svea, dass du dir die Zeit für das Gespräch genommen hast!

Das etwa einstündige Gespräch mit Svea ist auch als Podcast verfügbar. Der Podcast „Dicke Bretter“ versucht zu erklären, wie Gesetzgebungen und Standards zustandekommen, wie die Willensbildung und die Durchsetzung in solchen Zusammenhängen verlaufen und welche Institutionen daran mitwirken.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Data Workers‘ Inquiry: The hidden workers behind AI tell their stories

8. Juli 2024 - 9:23

AI and content moderation would be impossible without the labor of millions of data workers. In a new project, these workers share their stories: from platform workers in Venezuela and Syria to employees of outsourcing companies in Kenya and content moderators in Germany.

A visualisation from the Zine „The Unknown Women of Content Moderation“ by Botlhokwa Ranta – Alle Rechte vorbehalten Marc Pohl

Today marks the launch of the Data Workers‘ Inquiry. This joint project between the Weizenbaum Institute, the Technical University of Berlin, and the Distributed AI Research Lab, features workers behind artificial intelligence and content moderation discussing their working and living environments. The inquiries come in various forms, from texts to videos, podcasts, comics, and zines.

We asked co-initiator Milagros Miceli what lessons can be learned from the Data Workers‘ Inquiry. Miceli is a sociologist and computer scientist who leads a team at the Weizenbaum Institute in Berlin. She has been researching the work behind AI systems for years, including data annotation, where people sift through, sort, and label data sets so that machines can understand them. For instance, before an image recognition system can identify a photo of a cat, humans must label a series of images with cats. AI systems can then be trained with such data sets.

„The workers are treated as disposable“

netzpolitik.org: How important are data workers for the functioning of the digital world?

Milagros Miceli: Data workers are essential to the development and maintenance of the most popular platforms and systems we use. There’s no AI without the labor that goes into data collection, cleaning, annotation, and algorithmic verification. Without the continuous work of content moderators, who make social media platforms, search engines, and tools like ChatGPT usable, we wouldn’t be able to navigate these systems without getting seriously scarred, psychologically speaking. Would we still use ChatGPT if all its answers were filled with slurs? Would we still be on social media if we routinely encountered violent images?

Researcher Milagros Miceli - Alle Rechte vorbehalten Petros Teka

netzpolitik.org: What role does outsourcing play in this industry?

Milagros Miceli: Human labor is a necessary part of the loop to generate and maximize surplus value. But for this, labor needs to be available and cheap. Hence, most tech giants rely on platforms and companies that provide an outsourced workforce, available 24/7 at low costs. The impressive advancement of AI technologies in the past decade or so correlates with the flourishing of data work platforms and companies that started with the creation of Amazon Mechanical Turk 20 years ago. The MTurk model made a large global workforce available at all times and at cheap prices.

netzpolitik.org: In the project, data workers report from very different work contexts and regions of the world—from platform workers in Venezuela or Syria to employees of outsourcing companies in Kenya and content moderators in Germany. Is there a universal experience that all of them share?

Milagros Miceli: These are the common realities of most data workers: they are paid for each task completed, not for their time; they receive meager hourly wages as low as 2 USD in Kenya or 1.7 USD in Argentina, and have no labor rights or protection; they are subject to surveillance and the arbitrariness of clients and platforms, and, in many cases, they carry permanent mental-health issues from the job. Most data workers are subject to NDAs that prevent them from talking to others about what’s going on. We have seen cases in which workers didn’t seek psychological or legal advice because they were told that would mean breaking the NDA.

Especially in the Global South, there are structural dependencies that leave workers with no option but to accept such working conditions. In places with high unemployment rates, the workforce remains constant, and workers are treated as disposable. The outsourcing model also helps companies avoid responsibility: when problems arise, nobody feels responsible for the workers‘ well-being, and they are left to suffer alone.

The workers themselves have their say

netzpolitik.org: The work of data workers behind AI and content moderation is often made invisible, which is why Mary Gray and Siddharth Suri also speak of Ghost Work. How does the Data Workers‘ Inquiry want to change this?

Milagros Miceli: Making this “ghost work” visible, shedding light on the problems faced by workers, and raising public awareness are important goals of our project. However, the Data Workers’ Inquiry embodies a commitment to go beyond just abstractly “raising awareness” in the sense of academics and journalists talking about the workers. Our approach is amplifying workers’ voices and political demands. Shifting away from us talking for and about the workers towards creating a platform where workers can talk for themselves and put things in their own words was very important to me in the conception of this project and methodology.

netzpolitik.org: What does this look like in practice?

Milagros Miceli: We invite the data workers to take the lead, both in deciding which topics and issues they consider pressing and in choosing the medium and format. The variety of the inquiries speaks for itself: there are podcasts, documentaries, animations, comics, zines, and essays. Most formats were decided upon specifically to reach wider audiences who don’t necessarily read academic papers.

Furthermore, we hope that the project’s dialogue and networking opportunities can strengthen workers’ organization efforts and lead to positive changes. So it is not only about workers informing us but also about workers talking to each other and organizing.

netzpolitik.org: The participating data workers act as „community researchers“ in the project. What exactly is their role?

Milagros Miceli: This means that they conduct research within their own worker communities or workplaces as community members themselves, that is, from an insider perspective. We center their experiences and recognize their unique knowledge. In my career, I’ve conducted around 100 interviews with data workers globally. Still, I will never know how it feels to be dependent on this work and mistreated by clients. This is something that only workers can know.

Each community researcher develops unique research questions, designs and conducts their inquiries, and prepares a presentation format for their findings. In the process, they talk to their co-workers and other data workers and are also in constant exchange with us. For instance, we offer advice on how to collect data and structure the process. Our job is to organize and provide a platform for these inquiries and to constantly evaluate their ethical and legal boundaries.

„The workers risk a lot“

netzpolitik.org: What effect does this have on the reports you publish?

Milagros Miceli: It already shows when the community researchers talk and interview other workers: they know what to ask and how, and they establish rapport and trust immediately through their shared experiences. Good examples of this are the podcasts and documentaries on our website. Also, the zine about African women in content moderation, in which experiences of psychological, economic, and sexual abuse endured by female migrant workers at the company Sama in Kenya are shared, and the heartbreaking report that explores the mental health struggles of Meta’s content moderators. These are good examples of supporting community members in telling their own stories and coming up with new insights and better research outputs in the process.

netzpolitik.org: As you already mentioned, data workers usually have to sign non-disclosure agreements (NDAs). In the Data Workers‘ Inquiry, however, many workers name their employers, and some even appear under their real names. What risk are they taking to inform the public about conditions in the industry?

Milagros Miceli: Breaking non-disclosure agreements can have very serious repercussions for the workers. Just last year, a content moderator at Telus International in Essen, Germany, suffered retaliation for testifying about working conditions at the Bundestag. This not only signifies the loss of their income but could also lead to the loss of visas for the many migrants who depend on this job for their legal status.

Despite all these possible repercussions, our community researchers decide to speak up. This shows how pressing the issues being reported are and how important it is for the authors to reach a large audience. They are incredibly brave for doing this, but they are also relying on public pressure for protection and they certainly hope that after taking such a risk, their stories won’t be ignored.

Their commitment to sharing their stories shows how much trust they have placed in us and the project. Of course, this is a big responsibility for us, one that we don’t take lightly. We have offered each community researcher the possibility of remaining anonymous or anonymizing the companies they work for. Some of them have decided to do so, but most authors have decided to publish under their real names and name the companies. We work hard on protecting the information they provide and protecting them. For this, we have actively sought legal advice both in Germany and internationally, and with the organizations that fund this project. In addition, we’re in constant exchange with data protection and research ethics experts.

„Workers can collectively build up a counter-power to the corporations“

netzpolitik.org: The Data Workers‘ Inquiry is inspired by a questionnaire that Karl Marx used in 1880 to investigate the situation of the French working class. To what extent does digitalization with its global division of labour make it more difficult for exploited workers to engage in joint labour struggles today? Or can digital tools even be helpful here?

Milagros Miceli: Seeing that the Data Workers’ Inquiry is also an academic project, this question has both a theoretical and political answer. Considering theoretical analyses, the global division of labor by means of digitalization necessitates an expansion of the orthodox Marxist framework, away from a focus on the white industrial worker and towards issues of societal reproduction, intersections of race, gender, and class, colonial perpetuation, and the far-reaching exploitation of natural resources that all sustain platform capitalism.

The key role of data workers for the smooth functioning of AI reminds us of the fundamental Marxist claim that only human labor can create surplus value, irrespective of attempts to reduce them to mere appendices to machines. Data work should consequently be analyzed as a mode of production that exacerbates alienation by physically separating the workers from their products, which counteracts data workers’ political power to organize and exercise control over the means of production they employ as a globally dispersed workforce.

netzpolitik.org: If that was the theoretical answer, what is the political one?

Milagros Miceli: Without political pressure and public solidarity, workers are at the mercy of reprisals from technology companies. However, they can only exert pressure if they create channels of solidarity and collectively build up a counter-power to the corporations. And only then can they fight for fair working conditions.

Many of the community researchers already belong to trade unions. However, they are grouped together in various labour groups, which undermines their political power. In addition, many of them are dissatisfied with the large traditional trade unions and want to form their own unions.

And the use of technology can also help them in this struggle. Technology is not bad per se. It can actually help workers to connect and organize. Furthermore, some of our community researchers argue that data workers could do their jobs better if technologies were not used unilaterally to monitor and increase efficiency, but if they were instead used to optimize communication and collaboration between workers.

Data workers need better conditions and more recognition

netzpolitik.org: Many see a continuation of colonial exploitation in the digital economy: Hard work under precarious conditions is often outsourced to countries in the Global South. The profits flow predominantly to the Global North, both to the clients and to the operators of BPO companies and outsourcing platforms.

Milagros Miceli: According to the World Bank, there are between 154 million and 435 million data workers globally, with many of them situated in or displaced from the World Majority. The numbers have grown exponentially in the last few years with no sign of slowing down.

The larger concentration of data workers per country is still in the US, but the overwhelming overall majority is located in the Global South if we count countries like India and the Philippines and regions like Latin America, with Venezuela and Brazil at the forefront.

Before the Data Workers’ Inquiry, I conducted several studies with data workers in Argentina, Venezuela, Bulgaria, and Syria. In all cases, the requesters were located in the US and the EU. This adds another level of hardship for the data workers who have to work odd hours to cater to the client’s time zones and often don’t understand why instructions formulated in English are given to Spanish-speaking workers, or why the images they have to label depict objects that are foreign to them, for instance.

In other cases I observed, the images were strangely familiar, such as when refugee data workers displaced by the war in Syria were tasked with labeling satellite images of what they suspected was their region to be used for surveillance drones. This case shows how data workers’ experience is leveraged as expertise and their misfortune is used to perfect the same technologies that have contributed to their displacement.

netzpolitik.org: What needs to change in the tech industry in terms of outsourcing and what can people, civil society, and politics in Germany/Europe do to support data workers?

Milagros Miceli: We want to offer employees a platform on which they can put forward their demands. And most of them do so very clearly. They want better wages and working conditions, more stable employment contracts, and more support. This also includes psychological support for hazardous occupations such as content moderation.

Many of our community researchers are proud to contribute to technological progress and a safer internet, but want to be better recognized for it. Of course, this includes fair compensation.

We should therefore also stop asking whether an hourly wage of 2 dollars in countries like Kenya and Venezuela is a lot of money. Instead, we should be asking why the tech giants, which generate billions in revenue every year, don’t pay their employees more. After all, they are essential to their business.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Data Workers‘ Inquiry: Die versteckten Arbeitskräfte hinter der KI erzählen ihre Geschichten

8. Juli 2024 - 9:23

Ohne Millionen Datenarbeiter:innen würden weder sogenannte Künstliche Intelligenz noch Content-Moderation funktionieren. In einem neuen Projekt erzählen sie ihre Geschichten: von Plattformarbeiter:innen in Venezuela und Syrien über Angestellte von Outsourcing-Firmen in Kenia bis zu Content-Moderator:innen in Deutschland.

Ausschnitt aus dem Zine „The Unknown Women of Content Moderation“ von Botlhokwa Ranta – Alle Rechte vorbehalten Marc Pohl

Heute startet die Initiative „Data Workers‘ Inquiry“, zu deutsch etwa: Datenarbeiter:innen-Befragung. In dem gemeinsamen Projekt vom Weizenbaum Institut, der Technischen Universität Berlin und dem Distributed AI Research Lab berichten Arbeitskräfte, die hinter sogenannter Künstlicher Intelligenz und Content Moderation stecken, von ihrer Arbeits- und Lebenswelt. Die Berichte umfassen Texte, Videos, Podcasts sowie Comics und Zines.

Wir haben Mit-Initiatorin Milagros Miceli gefragt, was sich aus den Befragungen lernen lässt. Miceli ist Soziologin und Informatikerin. Sie leitet ein Team am Berliner Weizenbaum-Institut und forscht seit Jahren zur Arbeit hinter KI-Systemen, unter anderem zur Datenannotation. So nennt man es, wenn Menschen Datensätze sichten, sortieren und mit Etiketten versehen, damit Maschinen sie verstehen. Bevor zum Beispiel eine Bilderkennung das Foto einer Katze erkennen kann, müssen Menschen reihenweise Bilder mit Katzen kennzeichnen. Mit solchen Datensätzen lassen sich dann KI-Systeme trainieren.

„Die Datenarbeiter:innen werden wie Wegwerfartikel behandelt“

netzpolitik.org: Was machen Datenarbeiter:innen eigentlich und welche Bedeutung haben sie für das Funktionieren der digitalen Welt?

Milagros Miceli: Datenarbeiter:innen sind unverzichtbar für die Entwicklung und Wartung der beliebtesten Plattformen und Systeme, die wir nutzen. Es gibt keine KI ohne die Arbeit, die in die Datensammlung, -bereinigung und -kommentierung fließt, und ohne algorithmische Überprüfung. Ohne die kontinuierliche Arbeit von Inhaltsmoderator:innen, die Social-Media-Plattformen, aber auch Suchmaschinen und Tools wie ChatGPT nutzbar machen, wären wir nicht in der Lage, diese Systeme zu nutzen, ohne ernsthafte psychologische Schäden davonzutragen: Würden wir ChatGPT noch einsetzen, wenn alle Antworten mit Beleidigungen gespickt wären? Wären wir noch in den sozialen Medien unterwegs, wenn wir regelmäßig auf Gewaltdarstellungen stoßen würden?

Forscherin Milagros Miceli - Alle Rechte vorbehalten Petros Teka

netzpolitik.org: Welche Rolle spielt Outsourcing in dieser Branche?

Milagros Miceli: Die menschliche Arbeit ist ein notwendiger Teil des Kreislaufs zur Erzeugung und Maximierung des Mehrwerts. Doch dafür muss die Arbeitskraft verfügbar und billig sein. Daher verlassen sich die meisten Tech-Giganten auf Plattformen und Unternehmen, die ausgelagerte Arbeitskräfte bereitstellen, die rund um die Uhr zu niedrigen Kosten verfügbar sind. Der beeindruckende Fortschritt der KI-Technologien, den wir in den vergangenen zehn Jahren erlebt haben, korreliert mit dem Aufschwung von Plattformen und Unternehmen für Datenarbeit. Der Aufschwung begann mit der Gründung von Amazon Mechanical Turk vor 20 Jahren. Das Mechanical-Turk-Modell machte eine große Anzahl von Arbeitskräften weltweit jederzeit und zu günstigen Preisen verfügbar.

netzpolitik.org: Im Data Workers‘ Inquiry berichten Datenarbeiter:innen aus ganz unterschiedlichen Arbeitskontexten und Weltregionen. Unter ihnen sind Plattformarbeiter:innen in Venezuela und Syrien, Angestellte von Outsourcing-Firmen in Kenia und auch Content Moderator:innen in Deutschland. Gibt es so etwas wie eine universelle Erfahrung, die alle von ihnen teilen?

Milagros Miceli: Die meisten Datenarbeiter:innen haben einiges gemeinsam: Sie werden nicht für ihre Zeit bezahlt, sondern nur für erledigte Aufgaben. Meist erhalten sie magere Stundenlöhne von gerade einmal 2 US-Dollar in Kenia oder 1,7 US-Dollar in Argentinien. Sie haben keine Arbeitsrechte oder sonstigen Schutz. Und sie sind der Überwachung und der Willkür von Auftraggeber:innen und Plattformen ausgesetzt. In vielen Fällen tragen sie auch dauerhafte psychische Probleme von der Arbeit mit sich. Die meisten Datenarbeiter:innen unterliegen Geheimhaltungsvereinbarungen, die sie daran hindern, mit anderen darüber zu sprechen, was vor sich geht. Wir haben Fälle erlebt, in denen Beschäftigte keine psychologische oder rechtliche Beratung in Anspruch genommen haben, weil ihnen gesagt wurde, dass dies einen Bruch der Geheimhaltungsvereinbarungen bedeuten würde, dass sie mit ihren Arbeitgebern abgeschlossen haben.

Vor allem im globalen Süden gibt es strukturelle Abhängigkeiten, die den Beschäftigten keine andere Wahl lassen, als solche Arbeitsbedingungen zu akzeptieren. Vor allem an Orten mit hoher Arbeitslosigkeit werden die Arbeitnehmer:innen wie Wegwerfartikel behandelt. Das Outsourcing-Modell erlaubt es den Unternehmen auch, sich aus der Verantwortung zu stehlen. Wenn Probleme auftreten, fühlt sich niemand für das Wohlergehen der Arbeitnehmer:innen verantwortlich, und sie werden allein gelassen.

Die Datenarbeiter:innen sollen selbst zu Wort kommen

netzpolitik.org: Die Leistung von Datenarbeiter:innen hinter KI und Content Moderation wird oft unsichtbar gemacht. Die Autor:innen Mary Gray und Siddharth Suri sprechen deshalb auch von „Ghost Work“. Wie will die Data Workers‘ Inquiry das ändern?

Milagros Miceli: Diese „Geisterarbeit“ sichtbar zu machen, die Probleme der Beschäftigten zu beleuchten und die Öffentlichkeit zu sensibilisieren, sind wichtige Ziele unseres Projekts. Die Data Workers‘ Inquiry verkörpert jedoch ein Engagement, das über eine abstrakte „Sensibilisierung“ im Sinne von Akademiker:innen und Journalist:innen hinausgeht, die über die Arbeiter:innen sprechen. Unser Ansatz besteht darin, die Stimmen der Arbeitnehmer:innen und ihre politischen Forderungen zu verstärken. Bei der Konzeption dieses Projekts und der Methodik war es mir sehr wichtig, dass wir nicht mehr für und über die Arbeiter:innen sprechen. Stattdessen wollten wir eine Plattform schaffen, auf der sie für sich selbst sprechen und ihre Anliegen in eigene Worte fassen können.

netzpolitik.org: Wie sieht das in der Praxis aus?

Milagros Miceli: Wir laden die Datenarbeiter:innen ein, die Führung zu übernehmen, sowohl bei der Entscheidung, welche Themen und Fragen sie für dringlich halten, als auch bei der Wahl des Mediums und des Formats. Deren Vielfalt spricht für sich selbst: Es gibt Podcasts, Dokumentarfilme, Animationen, Comics, Zines und Essays. Die meisten Formate wurden speziell ausgewählt, um ein breiteres Publikum zu erreichen, das nicht unbedingt akademische Abhandlungen liest.

Außerdem hoffen wir, dass der Dialog und die Vernetzungsmöglichkeiten des Projekts die Arbeitnehmerorganisation stärken und zu positiven Veränderungen führen können. Es geht also nicht nur darum, dass die Arbeitnehmer:innen uns informieren, sondern dass sie auch miteinander reden und sich organisieren.

netzpolitik.org: Die teilnehmenden Datenarbeiter:innen agieren in dem Projekt als „Community Researchers“. Was bedeutet das?

Milagros Miceli: Das bedeutet, dass sie in ihren eigenen Arbeitsgemeinschaften oder an ihren Arbeitsplätzen als Mitglieder der Gemeinschaft selbst forschen, das heißt: aus einer Insider-Perspektive. Wir stellen ihre Erfahrungen in den Mittelpunkt und erkennen ihr einzigartiges Wissen an. In meiner Laufbahn habe ich weltweit etwa 100 Interviews mit Datenarbeiter:innen geführt. Dennoch werde ich nie wissen, wie es sich anfühlt, von dieser Arbeit abhängig zu sein und von den Kund:innen schlecht behandelt zu werden. Das ist etwas, das nur die Arbeiter:innen wissen.

Alle Community-Forscher:innen entwickeln eigene Forschungsfragen, konzipieren und führen eigene Untersuchungen durch und bereiten Präsentationen ihrer Ergebnisse vor. Dabei sprechen sie mit ihren Kolleg:innen und anderen Datenbearbeiter:innen und stehen auch mit uns in ständigem Austausch. Wir beraten sie zum Beispiel bei der Datenerhebung und der Strukturierung des Prozesses. Unsere Aufgabe ist es, ihnen eine Plattform zu bieten.

„Die Arbeiter:innen riskieren viel“

netzpolitik.org: Wie macht sich dieser Ansatz in den Berichten bemerkbar, die ihr veröffentlicht?

Milagros Miceli: Wenn die Community-Forscher:innen andere Arbeiter:innen interviewen, wissen sie, was und wie sie fragen müssen. Durch ihre gemeinsamen Erfahrungen fassen sie sofort Vertrauen zueinander. Gute Beispiele dafür sind die Podcasts und Dokumentationen auf unserer Website. Oder das Zine über afrikanische Frauen in der Content-Moderation, in dem Wanderarbeiter:innen ihre Erfahrungen mit psychologischem, wirtschaftlichem und sexuellem Missbrauch bei der Firma Sama in Kenia teilen. Oder der herzzerreißende Bericht, der die psychischen Probleme der Content-Moderator:innen von Meta untersucht. All das sind gute Beispiele für die Unterstützung von Community-Mitgliedern, die ihre persönlichen Geschichten erzählen.

netzpolitik.org: Du hast es schon angesprochen: In der Regel müssen Datenarbeiter:innen Verschwiegenheitsklauseln unterschreiben, sogenannte Non-Disclosure-Agreements, kurz NDAs. Im Data Workers‘ Inquiry benennen jedoch viele Arbeiter:innen ihre Arbeitgeber, manche treten sogar unter Klarnamen auf. Welches Risiko gehen sie damit ein?

Milagros Miceli: Die Verletzung von NDAs kann für die Arbeitnehmer:innen sehr ernste Folgen haben. Im vergangenen Jahr wurde ein Moderator bei Telus International in Essen, Deutschland, wegen seiner Aussage über die Arbeitsbedingungen im Bundestag entlassen. Dies bedeutet nicht nur den Verlust ihres Einkommens, sondern könnte auch zum Verlust des Visums oder Aufenthaltstitels für die vielen Migrant:innen führen, die für ihren rechtlichen Status auf diese Arbeit angewiesen sind.

Dennoch melden sich unsere Community-Forscher:innen zu Wort. Das zeigt, wie wichtig es den Autor:innen ist, ein großes Publikum zu erreichen. Sie sind unglaublich mutig, und sie hoffen natürlich, dass ihre Geschichten gehört werden.

Ihr Engagement zeigt uns, wie viel Vertrauen sie in das Projekt haben. Die Verantwortung, die damit einhergeht, nehmen wir nicht auf die leichte Schulter. Wir haben allen Community-Forscher:innen angeboten, anonym zu bleiben und die Unternehmen, für die sie arbeiten, zu anonymisieren. Einige haben das Angebot angenommen, aber die meisten Autor:innen haben sich dafür entschieden, ihren richtigen Namen und auch die Unternehmen zu nennen.

Natürlich haben wir uns bemüht, alle wichtigen Vorkehrungen zu treffen, um alle Beteiligten wirksam zu schützen. Wir haben uns unter anderem rechtlich beraten lassen. Und wir stehen in ständigem Austausch mit Expert:innen für Datenschutz und Forschungsethik.

„Die Datenarbeiter:innen können eine Gegenmacht aufbauen“

netzpolitik.org: Lass uns noch einmal grundsätzlich über das Projekt sprechen. Die Data Workers‘ Inquiry ist inspiriert von einem Fragebogen, mit dem Karl Marx 1880 die Lage der französischen Arbeiterklasse untersuchen wollte. Inwiefern erschwert heute die Digitalisierung mit ihrer globalen Arbeitsteilung gemeinsame Kämpfe ausgebeuteter Arbeiter:innen? Oder können digitale Werkzeuge hierbei sogar hilfreich sein?

Milagros Miceli: Da die Data Workers‘ Inquiry auch ein akademisches Projekt ist, hat diese Frage sowohl eine theoretische als auch eine politische Antwort. Was die theoretischen Analysen betrifft, so erfordert die globale Arbeitsteilung durch die Digitalisierung eine Erweiterung des orthodoxen marxistischen Rahmens – weg vom Fokus auf den weißen Industriearbeiter und hin zu Fragen der gesellschaftlichen Reproduktion, der Überschneidungen von Race, Geschlecht und Klasse, der Fortführung des Kolonialismus und der weitreichenden Ausbeutung natürlicher Ressourcen, die alle den Plattformkapitalismus aufrechterhalten.

Die Schlüsselrolle der Datenarbeiter:innen für das reibungslose Funktionieren der KI erinnert an die grundlegende marxistische Annahme, dass nur menschliche Arbeit Mehrwert schaffen kann, ungeachtet der Versuche, sie auf bloße Anhängsel von Maschinen zu reduzieren. Datenarbeit sollte folglich als eine Produktionsweise analysiert werden, die die Entfremdung verschärft, indem sie die Arbeiter:innen physisch von ihren Produkten trennt. Das erschwert es den Datenarbeiter:innen, sich zu organisieren und die Kontrolle über ihre Produktionsmittel auszuüben.

netzpolitik.org: Wenn das die theoretische Antwort war, wie lautet die politische?

Milagros Miceli: Ohne politischen Druck und öffentliche Solidarität sind die Arbeitnehmer:innen den Repressalien der Technologieunternehmen ausgeliefert. Druck können sie aber nur dann ausüben, wenn sie Kanäle der Solidarität schaffen und kollektiv eine Gegenmacht zu den Konzernen aufbauen. Und nur dann können sie für gerechte Arbeitsbedingungen kämpfen.

Viele der Community-Forscher:innen gehören bereits Gewerkschaften an. Dort sind sie aber in verschiedenen Arbeitsgruppen zusammengeschlossen, was ihre politische Macht untergräbt. Außerdem sind viele von ihnen mit den großen traditionellen Gewerkschaften unzufrieden und wollen eigene Gewerkschaften gründen.

Und auch der Einsatz von Technologie kann ihnen in diesem Kampf helfen. Technologie ist nicht per se schlecht. Sie kann den Arbeitnehmer:innen tatsächlich dabei helfen, sich zu verbinden und zu organisieren. Außerdem, so argumentieren einige unserer Community-Forscher:innen, könnten Datenarbeiter:innen ihre Aufgaben besser erfüllen, wenn Technologien nicht einseitig zu Überwachung und Effizienzsteigerung eingesetzt würden, sondern wenn sie stattdessen dazu genutzt würden, die Kommunikation und Zusammenarbeit zwischen den Arbeitnehmer:innen zu optimieren.

Es braucht Anerkennung und bessere Bedingungen

netzpolitik.org: Viele sehen in der digitalen Ökonomie eine Fortsetzung kolonialer Ausbeutungsdynamiken: Harte Arbeit unter prekären Bedingungen wird oft in Länder des globalen Südens ausgelagert. Die Profite fließen hingegen überwiegend in den globalen Norden. Könnt ihr dieses Bild bestätigen?

Milagros Miceli: Nach Angaben der Weltbank gibt es weltweit zwischen 154 Millionen und 435 Millionen Datenarbeiter:innen, von denen viele in den Ländern der Weltmehrheit leben oder aus diesen vertrieben wurden. Die Zahlen sind in den vergangenen Jahren exponentiell gestiegen und eine Verlangsamung dieser Entwicklung ist nicht zu erkennen.

Die größte Konzentration von Datenarbeiter:innen in einem Land ist zwar immer noch in den USA zu finden. Doch globale gesehen lebt die überwältigende Mehrheit im globalen Süden, etwa in Indien und den Philippinen sowie in Venezuela und Brasilien.

Vor der Data Workers‘ Inquiry habe ich mehrere Studien mit Datenarbeiter:innen in Argentinien, Venezuela, Bulgarien und Syrien durchgeführt. In allen Fällen befanden sich die Auftraggeber:innen in den USA und der EU. Das prägt auch die Tätigkeiten der Datenarbeiter:innen. Sie müssen meist nachts arbeiten, weil bei den Kund:innen dann Tag ist. Und oft verstehen sie nicht, warum zum Beispiel spanischsprachige Mitarbeiter:innen englischsprachige Anweisungen erhalten. Oder ihnen sind die Objekte auf den Bildern fremd, die sie beschriften sollen.

Mitunter ist es aber auch umgekehrt und ihnen sind die Bilder seltsam vertraut. So musste eine aus Syrien vertriebene Datenbearbeiterin Satellitenbilder aus ihrer Heimatregion beschriften, die dann für Überwachungsdrohnen verwendet werden sollten. Der Fall zeigt, wie die Erfahrung von Datenarbeiter:innen auch als Fachwissen genutzt wird. Sie sollen dann mitunter ausgerechnet jene Technologien verbessern, die zu ihrer Vertreibung geführt haben.

netzpolitik.org: Was muss sich in der Tech-Branche in Bezug auf Outsourcing verändern und was können Menschen, Zivilgesellschaft und Politik in Deutschland oder in Europa tun, um Datenarbeiter:innen zu unterstützen?

Milagros Miceli: Mit unserem Projekt wollen wir den Arbeitnehmer:innen eine Plattform bieten, auf der sie ihre Forderungen vorbringen können. Und die meisten von ihnen tun das sehr deutlich. Sie wollen bessere Löhne und Arbeitsbedingungen, stabilere Arbeitsverträge und mehr Unterstützung. Dazu zählt auch psychologische Betreuung, wenn sie gefährliche Tätigkeiten wie Content Moderation übernehmen.

Viele unserer Community-Forscher:innen sind stolz darauf, etwas zum technologischen Fortschritt und einem sichereren Internet beizutragen, wünschen sich aber dafür mehr Anerkennung. Das schließt natürlich den Lohn ein.

Wir sollten daher auch nicht länger fragen, ob ein Stundenlohn von 2 Dollar in Ländern wie Kenia und Venezuela wenig oder viel Geld ist. Stattdessen sollten wir fragen, warum die Tech-Giganten, die jedes Jahr Milliardenumsätze machen, ihren Arbeitnehmer:innen nicht mehr Lohn zahlen. Schließlich sind die für ihr Geschäft unentbehrlich.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

DisplayEurope.eu: Eine föderierte europäische Öffentlichkeit

7. Juli 2024 - 9:31

DisplayEurope.eu verspricht „Europäische Nachrichteninhalte ohne Grenzen. In deiner Sprache.“ Dafür setzt das Portal konsequent auf föderierte Inhalte, Open-Source-Technologie und Creative-Commons-Lizenzen. Und es könnte Maßstäbe setzen für eine europäische Öffentlichkeit.

Viele Fahnen, viele Sprachen. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Lukas S

Auch mehr als dreißig Jahre nach Gründung der EU ist eine wirkliche europäische Öffentlichkeit nicht erkennbar. Das Portal DisplayEurope.eu will hier Abhilfe schaffen und zugleich zeigen, wie eine dezentrale mediale Informationsversorgung aussehen kann. Am vergangenen Donnerstag hat es einen umfassenden Relaunch erhalten.

Display ist zweierlei: zum einen ein journalistisches Portal und zum anderen eine technische Infrastruktur. Als journalistisches Portal richtete es sich vorrangig an Endnutzer:innen in der EU. Als technische Infrastruktur hat sich das Projekt offener und freier Technologie und den Creative Commons verschrieben.

Um die Inhalte der föderierten Partner zu übersetzen und zu kuratieren, kommt auch sogenannte Künstliche Intelligenz zum Einsatz. Sławek Blich, der Leiter des redaktionellen Produktteams, sieht Display daher als „erste KI-gestützte paneuropäische Plattform für das Kuratieren, Übersetzen, Entdecken und Empfehlen von europäischem Journalismus aus dem gesamten Kontinent“.

Zwei Arten von Inhalten

Die Inhalte auf DisplayEurope.eu stammen von zahlreichen Medienpartnern aus ganz Europa. Das sind zum einen Originals-Beiträge, die das Projekt selbst finanziert. Dazu zählt das Flaggschiff „Standard Time“, die wöchentliche Talkshow von Réka Kinga Papp, Chefredakteurin von Eurozine, einer Plattform europäischer Kulturzeitschriften. Weitere Originals stammen von dem polnischen Netzwerk Krytyka Polityczna in Warschau und dem Online-Medium Voxeurop, das pan-europäische Presseschauen beisteuert.

Dem Copyleft-Geist folgend sind die für Display Europe erstellten Originale unter Creative Commons BY lizenziert. Sie dürfen also umfassend weiterverwendet werden, sofern die Urheberin genannt wird. Auch die technische Umsetzung des Projekts erfolgt komplett mit Open-Source-Technologie. Software, die Display entwickelt, wird ebenfalls unter Open-Source-Lizenzen veröffentlicht.

Neben den Originals veröffentlicht Display kuratierte Inhalte aus einem föderierten Netzwerk. Inhalte-Partner sind entweder journalistische Outlets wie Eurozine und Okto-TV in Wien oder Aggregatoren wie CBA oder XRCB in Spanien.

Vom Cultural Broadcasting Archive zu Display

Wer aber sind die Macher des Projekts? Eine tragende Säule von Display ist CBA, das Cultural Broadcasting Archive. Die Plattform wurde 1999 in Wien ins Leben gerufen und ist Infrastruktur und Dienstleister in einem. Denn CBA stellt zum einen Sendungen von Freien Radios und anderen Community-Medien zum Download bereit. Zum anderen bietet das Archiv Radiostationen Webhosting und die Entwicklung von Software an.

Im Frühjahr 2023 erhielt CBA den Zuschlag bei einer Ausschreibung für Europäische Medienplattformen. Die Aktiven hinter dem Archiv konnten ihr Glück damals kaum fassen. Denn zuvor hatten die European Broadcasting Union (EBU), der Fernsehsender ARTE und ein Zusammenschluss von Nachrichtenagenturen den Zuschlag bekommen.

In der ersten Förderphase von Juli 2023 bis Juni 2024 erhielt das Display-Projekt eine Fördersumme in Höhe von insgesamt 2,5 Millionen Euro. Von dem Geld baute CBS ein Medienportal auf, das Inhalte in 15 verschiedenen europäischen Sprachen bereitstellte. Inwischen hat das Projekt die Zusage für eine weitere einjährige Förderphase erhalten, an deren Anfang der Relaunch des Portals vom vergangenen Donnerstag steht.

Inhalte werden in 15 Sprachen übersetzt

Die wichtigste Anforderung der EU-Ausschreibung lautet, dass alle Inhalte in 15 Sprachen ausgespielt werden. Die wichtigsten, eigens für Display produzierten Beiträge werden derzeit händisch übersetzt. Für alles andere hat das Display-Team im Vorfeld verschiedene Übersetzungssysteme wie Google Translate, Whisper und DeepL getestet.

Diese Systeme arbeiten zwar nicht fehlerfrei, doch das Projekt ist auf automatisierte Übersetzungen angewiesen. „Das ist anders nicht zu bewerkstelligen“, sagt Baratsits gegenüber netzpolitik.org. „Wenn es nicht nur ein paar Beiträge in der Woche gibt, sondern Tausende, skaliert das nicht.“ Auf dem Repositorium von Display liegen derzeit mehr als 224.000 Inhalte.

Daher arbeitet das Team daran, mithilfe von offenen, großen Sprachmodellen (LLM) ein eigenes Übersetzungssystem aufzubauen. Das soll dann auch für die sprachunabhängige Suche zum Einsatz kommen. Ingo Leindecker, der technischer Leiter von Display, sagt, dass Open-Source-LLMs die Kosten etwa um den Faktor zehn senken würden.

Der Datenraum hinter Display

Dass die Inhalte der zahlreichen Medienpartener auf Display veröffentlicht werden, dafür sorgt der Repco, der den Kern der Display-Infrastruktur bildet. Repco steht für „Replication & Collector“ und bildet den Aggregator und Datenraum von Display. Das System importiert automatisch die Inhalte, die Medienpartner auf ihren Websites veröffentlichen. In vielen Fällen erfolgt der Import einfach über RSS-Feeds.

Repco ist wie auch das Portal Display selbst als Instanz in einem dezentralen Netzwerk konzipiert. Andere Nutzer:innen können ebenfalls eigene Repco-Knoten betreiben und entscheiden, welche Inhalte sie veröffentlichen wollen und welche Moderationsregeln dort gelten.

Auf dem Weg zum automatisierten Vorschlagssystem

Was auf dem Portal als Volltext mit Übersetzung erscheint, muss derzeit von Community-Redakteur:innen manuell aus dem Repco geholt und eingepflegt werden. Dieses Verfahren soll in der zweiten Phase durch ein automatisiertes Vorschlagssystem ersetzt werden.

Trotz Algorithmus soll es aber auch weiterhin redaktionelle Eingriffsmöglichkeiten geben, etwa um nach bestimmten Themen oder nach Aktualität zu sortieren. „Alles, was den Algorithmus verfälschen kann, wollen wir zu einer bewussten User-Entscheidung machen“, sagte Leindecker gegenüber netzpolitik.org. „Der User soll die Kontrolle haben über die Personalisierung. Transparenz steht ganz oben.“

Pläne für die zweite Phase

Anlässlich des Relaunches kündigte Sławek Blich, der stellvertretende Chefredakteur von Krytyka Polityczna und neue Leiter des redaktionelle Produktteams von Display, außerdem an, die bisherige redaktionelle Strategie weiterzuentwickeln: Zum einen werde es weiter eigens für Display produzierte Inhalte geben. Zum anderen soll das Netzwerk föderierter Partner ausgebaut werden.

„Für sie werden wir eine einfach zu handhabende Lösung entwickeln, mit der ihre Inhalte syndiziert, entdeckt, gesucht, empfohlen, mit KI für internationale Zielgruppen kontextualisiert und in mehrere europäische Sprachen übersetzt werden können“ so Blich. „Und das Beste daran: Der Traffic kommt zurück auf die Website der Partner und diese erhalten Zugang zu einem ganz neuen Publikum, das sie sonst nie finden würde.“

Ein neuer Standard für europäische Medien?

Während Display seinen eigenen Datenraum ausbaut, wird es bereits Teil eines europäischen. Im Rahmen ihrer Datenstrategie hat die EU den Aufbau von 14 gemeinsamen europäischen Datenräumen für verschiedene Sektoren auf den Weg gebracht. Für den Mediensektor ist das der Trusted European Media Data Space (TEMS).

Display ist Teil von TEMS – als einer von 40 Partnern. Darunter sind Schwergewichte wie die Nachrichtenagentur AFP, die European Broadcasting Union (EBU) oder das französische Telekommunikationsunternehmen Orange. TEMS ist im Oktober 2023 gestartet und betreibt derzeit acht Pilotprojekte, unter anderem zu Nachrichten und Faktenchecks, Personalisierung und Empfehlungen, Produktion und Rechtemanagement sowie 3D und VR.

Aufgrund der Zusammensetzung zeichnet sich im TEMS ein Kultur-Clash ab: freie Inhalte und Software versus proprietäre Angebotsmodelle. So möchte die EBU ihre Sprach- und Empfehlungstechnologie im Datenraum unter einer proprietären Lizenz anbieten. Die sprachübergreifende Suche von Display kann hingegen frei genutzt werden.

Im besten Fall aber könnte aus der TEMS-Koalition auch eine europäische Medieninfrastruktur entstehen, die der Eurovision der EBU gleicht. Die Eurovision kennen viele nur vom Eurovision Song Contest. Tatsächlich aber ist es ein Netzwerk aus Satelliten, Kabeln, Standards und Vereinbarungen, über das die EBU-Mitglieder Nachrichten, Musik und Podcasts austauschen.

„Die Technologie dafür steht ja zur Verfügung,“ betont Baratsits. „Im Prinzip kann jeder eine Instanz hinstellen und dann bestimmen, welche Inhalte im Newsfeed-Format mit den jeweils gewünschten Features angeboten werden.“ Baratsits hofft, dass dies das der Standard für europäische Medien werden könnte – ein Standard, „der föderiert ist und den Bedarf nach vertrauenswürdigen Informationen decken kann.“

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker