«Und während Sie über Ungarn mal dies hören und mal das, sollten Sie besser schleunigst nach Brüssel sehen, wo von der Leyen das Projekt der Zweckentfremdung der EU, der Vergewaltigung der europäischen Verträge und der finalen Entmachtung der Nationalstaaten vorantreibt, als gäb’s kein Morgen. Ein Projekt, das nie etwas anderes als Ihre eigene Entmachtung, werter Bürger, war, die unter dieser Kommissionspräsidentin natürlich verlässlich aufs Hässlichste verschleiert ist.» (– Martin Sonneborn)
netzpolitik.org
Konferenz gegen Big Tech: Raus aus der Ohnmacht
Zur „ersten Bewegungskonferenz gegen Big Tech“ in Berlin kamen 750 Menschen zusammen. Bei „Cables of Resistance“ ging es um Protest, Betriebsräte und Widerstand gegen Rechenzentren. Die vielleicht radikalste Antwort der Aktivist:innen auf die Macht der Tech-Konzerne: Verweigerung.
Eine Ausstellung über den Protest gegen das Tesla-Werk in Grünheide – CC-BY-SA 4.0 Joschi WolfWas tun gegen Big Tech? Am vergangenen Wochenende kamen in Berlin deutsche und internationale Aktivist:innen, Gewerkschafter:innen, Forscher:innen und Künstler:innen zur Konferenz „Cables of Resistance“ zusammen, um über die Frage zu beraten, die derzeit so viele beschäftigt. Ihre Antwort: radikale Verweigerung, Protest und Widerstand.
Ins Leben gerufen wurde die „erste Bewegungskonferenz gegen Big Tech“ von den Gruppen Berlin vs. Amazon, Tesla den Hahn abdrehen und die Berlin Tech Workers Coalition. Mit ihrem tech- und kapitalismuskritischen Ansatz haben sie offenbar einen Nerv getroffen: Die Tickets waren schnell ausverkauft, mehr als 750 Menschen kamen nach Angaben der Veranstalter:innen in das Tagungshaus am Franz-Mehring-Platz.
Das überwiegend durch Einreichungen aus der Community bestückte Programm war geprägt durch kritische Analyse des Status Quo, internationale Vernetzung und Austausch über politische Strategien. In insgesamt neun Themen-Tracks ging es um Fragen von Stadtpolitik, Nachhaltigkeit, Militarisierung oder Arbeitskämpfe.
„Die Speerspitze der kapitalistischen Akkumulation“Die Ausgangslage beschreiben viele derzeit als düster. Angesichts der Übermacht der großen Tech-Konzerne kann man schon mal leicht verzweifeln. Ihre wirtschaftliche und politische Dominanz ist konkurrenzlos. Allein die fünf wertvollsten unter ihnen – Nvidia, Apple, Google, Microsoft und Amazon – strichen im letzten Jahr fast 500 Milliarden US-Dollar Gewinn ein. Ihr gemeinsamer Marktwert beträgt derzeit mehr als 18 Billionen US-Dollar – astronomische Zahlen.
Für die Veranstalter:innen steht fest: „Digitale Technologien sind die derzeitige Speerspitze der kapitalistischen Akkumulation und Zerstörung.“ Und: „Das digitale Kapital steht hinter dem Faschismus und ist sein bereitwilliger Handlanger.“ So heißt es im Entwurf für ein Manifest, das die Organisator:innen zu Beginn der Konferenz zur Debatte stellten und das sie im Nachgang weiterentwickeln wollen.
In den Diskussionsrunden war zwar hier und da Skepsis angesichts der vor Superlativen und historischen Referenzen strotzenden Wortwahl zu hören. Doch dass die Tech-Konzerne tief in die großen Krisen unserer Zeit verwickelt sind, das ist hier Konsens. Sie treiben den Klimawandel voran und lassen in kolonialer Manier Arbeitskräfte und Rohstoffe im Globalen Süden ausbeuten. Sie profitieren von Überwachung und Militarisierung. Mit ihren Lobby-Armeen nehmen sie Einfluss auf die Politik, mit ihren Milliarden gestalten sie unsere Städte um. Sie hofieren Donald Trump und normalisieren seine Politik.
Die vielleicht mächtigste Waffe der Tech-Konzerne: Sie bestimmen, wie die Zukunft aussehen soll – nicht nur technisch, sondern auch diskursiv. Dass mehr Innovation, mehr Technologie und allen voran mehr KI immer besser seien, sagen längst nicht mehr nur sie. Auch viele Politiker:innen wiederholen das Mantra vom vermeintlichen digitalen Fortschritt unhinterfragt. Big Tech hat nicht nur das Internet gekapert, sondern auch unsere Vorstellung davon, wie digitale Zukünfte überhaupt aussehen könnten.
Von Arbeitskämpfen bis Perma-Computing„Big Tech wird unseren Planeten mittel- bis langfristig zerstören“, so fasst Mitorganisatorin Aline Blankertz in einem Pressegespräch die Lage zusammen. Die Konferenz wolle deshalb Menschen zusammenbringen, „die für eine solidarische, selbstbestimmte, klimagerechte Zukunft kämpfen.“
Konkret ging es zum Beispiel um Arbeitskämpfe und die Rolle, die Angestellte von Tech-Konzernen spielen können, um diese zu verändern. Wie kann man solidarisch mit outgesourceten Datenarbeiter:innen hinter KI und Sozialen Medien sein? Wie können Kurierfahrer:innen Betriebsräte und faire Arbeitsbedingungen erkämpfen? Wie können sich Angestellte gegen die Beteiligung ihrer Arbeitgeber an militärischen Produkten wie dem Projekt Nimbus organisieren, mit dem Amazon und Google das israelische Militär und damit auch den Völkermord in Gaza unterstützen?
An anderer Stelle ging es um die globale Ausbeutung durch Tech-Konzerne und die sozial-ökologischen Kosten des KI-Hypes, um autoritäre und antifeministische Netzwerke. Es ging darum, wie man Protest gegen Palantir und Tesla organisiert, aber auch um Alternativen wie Perma-Computing mit Biomasse oder um Plattform-Kollektive im Besitz lateinamerikanischer Tech-Arbeiter:innen.
Rechenzentren als Symbole des KI-HypesEin zentrales, immer wiederkehrendes Thema waren Rechenzentren. Als physische Repräsentation der digitalen Welt und als Symbol für den KI-Hype sind sie in vielen Regionen der Welt bereits zum Kristallisationspunkt des Widerstands gegen Big Tech geworden. Der Protest gegen Rechenzentren dürfte bald auch in Deutschland stärker werden, denn sie nehmen viel Fläche ein, verbrauchen riesige Menge Strom und Wasser und werden gerne in ärmeren und marginalisierten Nachbarschaften gebaut, die dann unter der Lärm- und Umweltbelastung leiden.
In den vielen Vorträgen und Panel-Gesprächen zu dem Thema ging es um Aufklärung, Ansatzpunkte für Veränderungen an gesetzlichen Rahmenbedingungen wie dem Energieeffizienzgesetz, Aktionen des zivilen Ungehorsams und lokale Proteste, die die Ansiedlung von Rechenzentren verhindern.
Worum es nicht ging: Anschläge, Sabotage oder andere Formen eines vermeintlichen Ökoterrorismus.
Dass man das überhaupt klarstellen muss, liegt daran, dass das rechte Krawallmedium Nius die Konferenz offenbar zum Feind auserkoren hat, weil der Quantenphysiker Guido Arnold an einem Panel teilnahm. Im Januar hatten Nius und Spiegel Arnold und sein radikal Tech-kritisches Kollektiv „Capulcu“ mit dünner Begründung als Vordenker der „Vulkangruppe“ dargestellt. Der Vorwurf stützt sich vor allem darauf, dass die Vulkangruppe, die sich unter anderem zum Brandanschlag auf das Berliner Stromnetz Anfang des Jahres bekannte, ähnliche Begriffe nutzt, etwa den von Arnold geprägten Ausdruck des „technologischen Angriffs“.
Auch im Manifest der Konferenz findet sich der Begriff. Nius schickte einen Reporter, der Teilnehmende vor dem Gebäude abpasste und fragte, warum sie an einer Konferenz teilnehmen würden, die mit durchtrennten Kabeln werbe. Die ausbleibenden Antworten der genervten Besucher:innen schnitt Nius zu einem fünfeinhalbminütigen Video zusammen.
Nicht zum ersten Mal griff die Springer-Zeitung Welt die Vorlage von Rechtsaußen auf und titelte: „Wie linke Tech-Gegner in Berlin einen Angriff planen“. Eine Presseakkreditierung hatte Welt nach Angaben der Veranstalter:innen nicht beantragt.
Kann man Big Tech auf den eigenen Plattformen schlagen?Dabei gibt es durchaus Dinge, die man an der Konferenz kritisieren kann, ohne sich komplett lächerlich zu machen.
Zum Beispiel, dass kein einziger der neun Themenstränge Probleme der demokratischen Öffentlichkeit und von Sozialen Medien zum Thema machte. Die Frage, wie eine tech-kritische Bewegung, die von der Konferenz ausgehen soll, die narrative Hegemonie von Big Tech auf den Plattformen eben dieser Konzerne brechen soll, hätte man hier gut diskutieren können. Auch konkrete Alternativen wie das Fediverse mit seinen Stärken und Schwächen hätten gut auf die Konferenz gepasst. Einige Teilnehmende nahmen die Sache dann einfach selbst in die Hand und hingen Zettel aus, auf denen sie zumindest Mastodon-Handles austauschten.
Zudem waren die einzelnen Sessions teilweise so kurz, dass die ausgegebene Losung „Das ist keine Infoveranstaltung, sondern eine Kampfansage“, sich auf unfreiwillige Art und Weise bestätigte. Ein bisschen mehr Information wäre manchmal schon gut gewesen. Ebenso ein bisschen mehr Raum für Diskussionen über Widersprüchlichkeiten, die es notwendigerweise gibt, wenn unterschiedliche Bewegungen zusammenkommen.
Keine Zeit für ZukunftDoch wichtiger waren an diesem Wochenende Vernetzung, Inspiration und Motivation. „Wir werden Big Tech nicht weganalysieren“, gab Journalistin Nina Scholz bei ihrem Auftaktvortrag die Richtung vor. Es sollte ums Handeln gehen: Raus aus der Ohnmacht, rein in die Bewegung.
In diesem Sinne hätten es gerne auch noch mehr Programmpunkte zu konkreten Alternativen und positiven Zukunftsentwürfen sein dürfen. Lediglich eine Stunde stand für den Themenblock „Zukunft“ und Ideen wie die Vergesellschaftung von Plattformen, Digital Degrowth oder Hardwareproduktion außerhalb kapitalistischer Verwertungslogik zur Verfügung. Auch davon hätte es gerne noch mehr sein dürfen.
Aber womöglich ist das einfach der Moment, an dem wir gerade stehen: Für Zukunft ist hoffentlich später Zeit, jetzt geht es darum, das Schlimmste zu verhindern. Sich dem Hype zu verweigern, das Fortschrittsversprechen zu hinterfragen, bestimmte Entwicklungen auch ganz abzulehnen und Widerstand zu organisieren – das ist vielleicht nicht die visionärste Antwort auf Big Tech. Aber es könnte genau die Antwort sein, die es jetzt braucht.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Es ist nur ein kleiner Schritt von Alterskontrollen zur Massenüberwachung.
Liebe Leser*innen,
manchmal geht es so schnell, dass einem schwindlig wird. EU-Kommissionschefin Ursula von der Leyen stellt am Mittwoch die neue Alterskontroll-App vor. Nur einen Tag später lädt der französische Präsident Emmanuel Macron zu einem virtuellen Gipfeltreffen, an dem auch Bundeskanzler Merz teilnimmt.
Drumherum festigt sich ein Framing, das offenkundig rasch Fakten schaffen soll: Soziale Medien sind wie eine Pandemie, vor der Kinder geschützt werden müssen. Im gleichen Atemzug macht die Kommission klar, dass sie bei Online-Plattformen auf strenge Altersverifikation pochen werde.
Bei diesem atemberaubenden Tempo bleibt kaum Zeit dafür, die dargebotenen „Lösungen“ auszuloten und kritische Stimmen anzuhören. Dabei schafft die EU hier gerade eine Infrastruktur, die sich im Handumdrehen in einen Apparat für Massenüberwachung und Ausschluss umwandeln lässt, wie mein Kollege Sebastian schreibt.
Warum wir gerade beim Thema Alterskontrollen misstrauisch bleiben müssen, steht auch in unserem Ticker.
Kommt gut ins Wochenende
Daniel
Deepfakes, Doxing, Stalking: Mit Vorratsdatenspeicherung gegen digitale Gewalt
Die Justizministerin hat das lange erwartete Gesetz zum Schutz vor digitaler Gewalt vorgelegt. Betroffene sollen mutmaßliche Täter*innen leichter verklagen können. Für sexualisierte Deepfakes drohen bis zu zwei Jahre Haft. Im Entwurf steckt aber auch die Neuauflage der Speicherung von IP-Adressen.
Bundesjustizministerin Stefanie Hubig will schärfere Maßnahmen gegen digitale Gewalt – bis hin zur Speicherung von IP-Adressen. – Alle Rechte vorbehalten IMAGO / dts NachrichtenagenturBundesjustizministerin Stefanie Hubig (SPD) hat am heutigen Freitag einen Gesetzentwurf vorgestellt, der Betroffene digitaler Gewalt besser schützen soll. Digitale Gewalt sei ein „Massenphänomen“, sagte Hubig bei der Vorstellung der Pläne. „Im Zeitalter von KI, hochauflösenden Smartphone-Kameras und sozialen Netzwerken ist es einfacher als je zuvor, Menschen in aller Öffentlichkeit zu demütigen, zum Sexualobjekt herabzuwürdigen und in ihrer Intimsphäre zu verletzen.“ Millionen von Menschen seien betroffen, „besonders häufig Frauen“.
Der Referentenentwurf ist zu einem der meist beachteten Projekte des Ministeriums geworden, nachdem der Spiegel vor zwei Wochen erstmals die Vorwürfe der Schauspielerin Collien Fernandes gegen ihren Ex-Mann Christian Ulmen öffentlich gemacht hatte. Über seinen Anwalt geht er gegen die Berichterstattung vor; es gilt die Unschuldsvermutung. Die Staatsanwaltschaft Potsdam ermittelt.
Hubig hatte den Fall zum Anlass genommen, auf den bereits im Koalitionsvertrag beschlossenen, fast fertigen Gesetzentwurf hinzuweisen und angekündigt, ihn bald vorzustellen. Nun ist es soweit.
Zu „digitaler Gewalt“ zählt das Ministerium laut Entwurf ein breites Spektrum an Taten, unter anderem „Hate Speech“, also Beiträge, die andere bedrohen, abwerten oder zu Straftaten aufrufen. Ebenso zählt dazu das unerlaubte Veröffentlichen von Daten wie Adresse oder Telefonnummer („Doxing“), das unerwünschte Versenden pornografischer Bilder („Dickpics“), der gezielte Kontakt zu Kindern mit sexueller Absicht („Cybergrooming“), außerdem bildbasierte Gewalt, Cybermobbing, Cyberstalking und Identitätsmissbrauch, etwa wenn Fake-Profile einer anderen Person erstellt werden.
Heimliches Filmen und sexualisierte DeepfakesDer Entwurf basiert auf zwei Säulen. Die erste ist eine strafrechtliche Säule, die wir bereits Ende März veröffentlicht und analysiert haben. Darin vorgesehen sind drei neue Straftatbestände.
- Geplant ist demnach eine Überarbeitung des geltenden § 184k Strafgesetzbuch (StGB), der die Verletzung der Intimsphäre durch Bildaufnahmen regelt. Er soll künftig nicht nur das sogenannte Upskirting umfassen, sondern auch weitere Phänomene bildbasierter Gewalt, etwa das nicht-einvernehmliche Filmen in öffentlichen Saunen oder Umkleiden oder sexualisierte Deepfakes. Auch das Filmen bekleideter Körperteile wie Genitalien, Gesäß oder weiblicher Brust “in sexuell bestimmter Weise” soll verfolgt werden können. Strafmaß: bis zu zwei Jahre Haft.
- Mit einem neuen Paragrafen zur „Verletzung von Persönlichkeitsrechten durch täuschende Inhalte“ (§ 201b StGB) soll zudem das Erstellen und Verbreiten solcher Deepfakes unter Strafe gestellt werden, die “geeignet sind, dem Ansehen der dargestellten Person erheblich zu schaden”.
- Eine weitere neue Vorschrift soll außerdem das unbefugte digitale Tracken und Ausspionieren einer anderen Person unter Strafe stellen. Solches Verhalten war bislang schon im Rahmen von Nachstellung strafbar.
Neu und bislang unbekannt ist dagegen die zivilrechtliche Säule des Entwurfs. Die neuen Regeln sollen es für Betroffene von etwa beleidigenden und herabsetzenden Postings einfacher machen, selbst vor Gericht dagegen vorzugehen.
Betroffene sollen von Plattformen und Internetzugangsanbietern leichter als bisher Auskunft über die Identität einer Person hinter einem anonymen oder pseudonymen Account bekommen. Dazu sollen Anbieter künftig – sofern vorhanden – den Klarnamen und die Adresse herausgeben, wenn ein Gericht dies anordnet. Beides wird gebraucht, damit Betroffene etwa auf Unterlassung oder Schadensersatz klagen können.
Betroffene sollen eine solche Auskunft vor dem Landgericht beantragen können. Dazu müssen sie glaubhaft machen, dass eine unbekannte Person eine Rechtsverletzung begangen hat, und sie gegen diese Person zivilrechtliche Ansprüche geltend machen wollen. „Das Auskunftsverfahren ist insbesondere für Fälle gedacht, in denen die Rechtsverletzer ihre strafbaren Inhalte über einen anonymen Account in den sozialen Netzwerken verbreiten“, schreibt das Ministerium dazu.
Neu ist außerdem, dass sich Betroffene in einem Verfahren „durch zivilgesellschaftliche Organisationen als Bevollmächtigte vertreten lassen“ können, sofern das unentgeltlich – also kostenlos – geschieht. Auch das soll die Schwellen für Betroffene senken: Hilfsorganisationen könnten dann zumindest manchen Betroffenen die Kosten und Strapazen eines Gerichtsverfahrens abnehmen.
„Vorsorglich gespeicherte IP-Adressen“Der Entwurf soll auch die Vorratsdatenspeicherung zurückbringen. Das ist ein umstrittenes Verfahren zur Massenüberwachung im Netz, das in Deutschland seit 2017 ausgesetzt ist. Im Zuge des Auskunftsanspruchs für Betroffene richtet das Gesetz den Blick zu Plattformen und Zugangsanbieter wie Vodafone oder die Telekom. Sie sollen künftig durch eine beweissichernde Anordnung dazu verpflichtet werden können, “bereits bei ihnen vorhandene Daten” über mutmaßliche Rechtsverletzer*innen zu sichern. Dazu sollen sie auch „vorsorglich gespeicherte IP-Adressen” verwenden. Der aktuell diskutierte Entwurf für die Vorratsspeicherung sieht vor, dass IP-Adressen für voraussichtlich drei Monate gespeichert werden sollen.
Die Vorratsdatenspeicherung wurde in Deutschland erstmals 2007 eingeführt, nach einem Urteil des Bundesverfassungsgerichts jedoch wieder aufgehoben, weil sie gegen Grundrechte verstieß. Eine neue Regelung von 2015 wurde später durch Urteile des Europäischen Gerichtshofs faktisch gestoppt, weil eine anlasslose, flächendeckende Speicherung von Kommunikationsdaten gegen EU-Recht verstößt.
Auf die Frage, wie sich das Vorhaben für eine erneute Speicherung von IP-Adressen mit dem EU-Recht vereinbaren lasse, sagte Hubig, es gehe bei dem Entwurf, der kommende Woche im Kabinett vorgelegt werden soll, nicht um eine Vorratsdatenspeicherung, sondern lediglich darum, IP-Adressen und Portnummern für einen Zeitraum von drei Monaten zu speichern. Das sei in dieser reduzierten Form rechtskonform. Große Netzbetreiber und Verbände kamen in ihren Stellungnahmen zu anderen Einschätzungen.
In besonders schweren Fällen sollen Landgerichte darüber hinaus auch zeitweilige Account-Sperren verhängen können. So solle verhindert werden, das reichweitenstarke Accounts wiederholt schwere Persönlichkeitsrechtsverletzungen begehen können.
Kritik an hohen Kosten und massenhafter DatenspeicherungDie Organisation HateAid, die Betroffene von digitaler Gewalt berät, begrüßt die geplanten Reformen im Zivilrecht und auch, dass Plattformen und Zugangsanbieter nun IP-Adressen herausgeben sollen. Zugleich weist die Organisation darauf hin, dass die Auskunftsverfahren für die Betroffenen mit hohen Kosten verbunden seien. Sie müssten nicht nur ihre eigenen Kosten, sondern auch die Gerichtskosten und die Rechtsvertretung der Plattformen selbst zahlen.
Der Entwurf sieht hierfür eine Ausnahmeregelung vor, von der Gerichte nach Erfahrung der Organisation jedoch in der Regel keinen Gebrauch machten. HateAid hatte gefordert, Gerichtskosten pauschal zu regeln.
Sieben Köpfe gegen digitale Gewalt
Benjamin Lück, Rechtsanwalt bei der Gesellschaft für Freiheitsrechte, kommt zu einem kritischeren Urteil. Gut sei, dass das Ministerium mit Account-Sperren einen wirkungsvollen Mechanismus für Betroffene vorsehe.
Die in der Begründung des Entwurfs versteckte Verknüpfung der Auskunftsansprüche mit der geplanten IP-Vorratsdatenspeicherung lehnen wir dagegen ab. Solche anlasslosen, massenhaften Datenspeicherungen halten wir grundsätzlich für das falsche Mittel.
Im Vorfeld hatten sich bereits mehrere Fachleute für digitale Gewalt gegen Überwachungsmaßnahmen zum Schutz vor digitaler Gewalt ausgesprochen, darunter auch die Vorratsdatenspeicherung.
Bereits unter der Ampel angekündigtMit der Vorstellung des Entwurfs liefert Hubig nun etwas, das bereits ihr Vorgänger Marco Buschmann (FDP) zur Zeit der Ampel-Regierung vor fünf Jahren angekündigt hatte. Seine Pläne zum Schutz vor digitaler Gewalt umfassten allerdings nur das Zivilrecht und versandeten zum Ende der letzten Legislaturperiode.
Hubig betont nun, sie habe ein “Gesamtkonzept” vorlegen wollen, das sowohl das Zivilrecht als auch die Verschärfungen im Strafrecht umfasst.
Der Entwurf wird nun an Verbände und Bundesländer geschickt, die Gelegenheit zur Stellungnahme bekommen. Er muss noch im Kabinett abgestimmt werden und erreicht danach erst den Bundestag und Bundesrat.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
„Rechenzentren sind Vampire“: Wo sich lokaler Widerstand gegen den KI-Hype formiert
Der Bau von Rechenzentren boomt, in Deutschland und weltweit. Dadurch werden Strom und Wasser knapp, sagen Aktivist*innen und organisieren lokale Proteste. Auf der Konferenz „Cables of Resistance“ trafen sie sich zur Vernetzung.
Rechenzentrum der US-Firma CyrusOne in Frankfurt am Main. In der Stadt stehen die energiehungrigen Klötze dicht an dicht. – Alle Rechte vorbehalten IMAGO / Joko„Der Widerstand in Beringen lässt momentan noch zu wünschen übrig“, so beschreiben zwei Aktivist*innen die Stimmung in einem 5.000-Seelen-Dorf im nördlichsten Zipfel der Schweiz, in dem zwei riesige Rechenzentren entstehen sollen. Sie sind zur ersten Konferenz gegen Big Tech in Berlin, der „Cables of Resistance“-Konferenz angereist, um über den KI-Hype in der Schweiz zu berichten. Die Resignation der Bevölkerung werde weichen, wenn „Wasser und Strom vor der eigenen Haustür in einigen Jahren knapp werden“, prognostizieren sie.
Um das fast fertig gestellte Rechenzentrum in der Nähe von Zürich mit Wasser zu versorgen, müsse das Trinkwasser aus der Nachbargemeinde angezapft werden, berichten die beiden Aktiven von der Initiative „Aufstände der Allmende“. Allein dieses Rechenzentrum in Beringen habe einen Strombedarf von bis zu drei Viertel des Verbrauchs des gesamten Kantons Schaffhausen. In nur wenigen Kilometern Entfernung, in der Nachbargemeine Herblingen, soll nun mutmaßlich das dritte und noch größere Rechenzentrum des Kantons entstehen. Wie der Strombedarf dieser Anlagen gestillt werden soll, sei noch völlig unklar. „Eine Idee, die im Parlament diskutiert wird, ist der Bau neuer Atomkraftwerke“.
Im nahegelegenen Zürich ist die Dichte der Tech-Unternehmen höher als im Silicon Valley. Dass Rechenzentren in der Region aus dem Boden sprießen, liegt laut der Schaffhauser Nachrichten auch daran, dass der Kanton an der wichtigen Verkehrsachse Zürich – Stuttgart liegt. Auch Frankfurt am Main ist nicht weit weg, dort befindet sich einer der weltweit wichtigsten Internetknoten, mit dem sich Daten schnell übertragen lassen.
Kein Ende des Ausbaus in SichtIn der hessischen Metropole am Main sei das Stromnetz bereits am Limit, erklärt die Journalistin Indra Jungblut, die ebenfalls auf der Konferenz sprach. Bis 2030 sei kein größerer Anschluss an das Stromnetz mehr möglich. Die mehr als 100 Rechenzentren beanspruchen bis zu 40 Prozent des gesamten Strombedarfs der Stadt. In einigen Bezirken stehen die Serverfarmen dicht an dicht nebeneinander und haben massive Auswirkungen auf das Leben in der Stadt. Ihre Konzentration ist hier deutschlandweit am größten. Und trotzdem: „Ein Ende des Ausbaus ist nicht in Sicht“, sagt Jungblut.
Denn Rechenzentren-Entwickler*innen haben sich etwas einfallen lassen. Sie bauen eigene Anlagen zur Stromerzeugung, die sie mit fossilen Brennstoffen betreiben. Ein gut dokumentiertes Beispiel sei die US-amerikanische Firma CyrusOne: für den Betrieb des „FRA7“ Rechenzentrums in Frankfurt hat sie eine eigene Gasturbine gebaut. „Und das ist vermutlich kein Einzellfall“, sagt die Journalistin. Hersteller wie Siemens Energy jedenfalls kommen mit der Produktion neuer Gasturbinen, die vor kurzem noch als Auslaufmodell galten, nicht mehr hinterher.
„Strom wird zu einer knappen Ressource“Der Region Berlin-Brandenburg drohe ein ähnliches Schicksal wie Frankfurt, warnen die Stadtforscher*innen Niklas Steinke und Fabian Halfar in ihrem Vortrag. Hier sind Dutzende neue Rechenzentren geplant. In Berlin-Lichtenberg entsteht „Bluestar“ der Prea Group, das größte KI-Rechenzentrum der Stadt. Mit 100 Megawatt Anschlussleistung soll es mehr Strom verbrauchen als eine Stadt wie Potsdam. Schon bis 2024 seien in Berlin mehr Netzanschlüsse angefragt worden als das gesamte Berliner Stromnetz übertragen kann, vor allem für große Rechenzentren-Projekten.
Warum kommt Big Tech überhaupt nach Berlin? Großstädte wie Berlin und Frankfurt verfügen über eine Wasser- und Stromnetzinfrastruktur, die mit öffentlichen Geldern gebaut wurde. Die wollen die Tech-Firmen für sich nutzen, sagen die Forscher*innen und nennen das „Infrastukturextraktivismus“. Dieser sei neben dem bereits bekannten Abbau der Rohstoffe in ehemals kolonisierten Regionen und der Sammelwut großer Datenmengen eine neue Manifestation des KI-Hypes. „Im Rechenzentrum-Boom wird Strom zu einer knappen Ressource“, sagt Halfar. Bisher sei die Vergabe großer Netzanschlüsse nicht politisch aufgeladen. Das mache es den Rechenzentren-Betreiber*innen leichter, sich das Stromnetz innerhalb weniger Jahren anzueignen.
Hilfe bekämen sie dabei auch von klassischen Bodenspekulant*innen, die potenziell geeignete Flächen in der Stadt aufkaufen und darauf warten, dass Betreiber*innen von Rechenzentren auf sie zukommen. Denn eine Bewerbung für einen Anschluss zum Hochspannungsnetz setze eine Fläche voraus. „Wir müssen uns dringend darum kümmern, dass das Stromnetz aus der politischen Unsichtbarkeit austritt und eine demokratische Diskussion darüber stattfindet, wofür wir den Strom verwenden wollen“, schlussfolgert Halfar.
Bundesregierung knickt vor Big-Tech-Lobby einDie Bundesregierung sei dem globalen Wettrennen um KI-Kapazitäten im Glauben aufgesessen, dass sich mit Rechenzentren Wohlstand generieren lässt, sagte Julian Bothe, Experte für KI und Nachhaltigkeit bei AlogrithmWatch, in seinem Talk. Bis 2030 will sie die Rechenzentrumskapazitäten im Land mindestens verdoppeln und die Kapazitäten für Künstliche Intelligenz vervierfachen, wie es in der kürzlich vorgestellten Rechenzentrumsstrategie heißt. Dabei habe Deutschland schon jetzt die meisten Rechenzentren im europäischen Vergleich. Laut DataCenterMap sind es aktuell mehr als 500.
Die Pläne der Regierung bringen eine weitgehende Deregulierung zugunsten der Tech-Firmen und zulasten der Gesellschaft und der Umwelt mit sich, kritisiert Bothe. Ein starkes Beispiel hierfür sei die geplante Abschwächung des Energieeffizienzgesetzes. So sollen beispielsweise die bestehenden Transparenzstandards für Verbrauchswerte abgeschafft werden. Das würde den Betreiber*innen erlauben, den konkreten Energieverbrauch und die Energieeffizienz der Rechenzentren vor der Öffentlichkeit geheimzuhalten – mit dem Verweis auf Geschäftsgeheimnisse.
„Anstatt in Zeiten der Energiekrise endlich auf Energieeffizienz zu setzen, droht Wirtschaftsministerin Reiche erneut, vor den Lobby-Bemühungen der Tech-Giganten einzuknicken“, sagte Bothe anlässlich des Positionspapiers zur Gesetzesnovelle, das AlgorithmWatch mit anderen Organisationen vergangene Woche veröffentlicht hat. Die Forderung, Verbrauchswerte als Geschäftsgeheimnisse hinter Verschluss zu halten, komme von Microsoft. Das habe eine Recherche von LobbyControl und Campact ergeben.
Zugang zu sauberem Wasser steht auf dem SpielDas geplante Energieeffizienzgesetz müsse gestoppt werden, sagte Bothe. Denn Widerstand gegen schädigende Gesetzesvorhaben auf nationaler Ebene sei wichtig. Genauso notwendig sei aber auch lokaler Protest gegen geplante Rechenzentren vor Ort. Dass Protest wirksam sein kann, zeigt der Fall von Groß-Gerau. Die Stadtverordneten haben dort gegen den Bau des bislang größten Rechenzentrums in der Rhein-Main-Region gestimmt.
Dass Proteste bereits an vielen Orten auf der Welt stattfinden, haben zahlreiche Vorträge auf der Konferenz gezeigt. Immer wieder versuchen lokale Gruppen, die Ansiedlung neuer Rechenzentren zu verhindern. José Renato Laranjeira etwa berichtete vom Kampf der indigenen Anacé-Gemeinschaft in Brasilien. Durch den Bau von Rechenzentren sahen sie einen heiligen Fluss in Gefahr. Der Zugang zu sauberem Wasser stand für sie auf dem Spiel.
Neue Arbeitsplätze und Steuereinnahmen sind MythenWelche Erfahrungen Aktivist*innen im Kampf gegen Rechenzentren bereits gesammelt und welche Strategien sich als wirksam erwiesen haben, darum ging es in einem international besetzten Panel. Einerseits sei es wichtig, die lokale Bevölkerung zu involvieren und andererseits die Propaganda der Tech-Konzerne mit Fakten zu kontern, sagte Luis García Valverde von der spanischen Umweltschutz-NGO „Ecologistas en Acción“. Seine Organisation setzt sich gegen die Ansiedlung riesiger Amazon-Rechenzentren in der Region Aragon im Nordosten Spaniens ein, unter anderem mit einer Klage. García Valverde berichtete von Versuchen des Tech-Konzerns die Öffentlichkeit zu beeinflussen: etwa indem Amazon Anzeigen in lokalen Zeitungen schaltet, Fußballclubs in der Region sponsort oder die Namensrechte eines Stadiums kauft.
Auch Hacktivistin Eda von der französischen Organisation „La Quadrature du Net“ setzt auf Aufklärung. Im französischen Marseille habe die Ansiedlung von Rechenzentren etwa die geplante Elektrifizierung des Hafens verhindert. Von der Elektrifizierung würden die Menschen in der Stadt aber massiv profitieren. Wenn Kreuzfahrtschiffe im Hafen über Strom liefen, gäbe es weniger Luftverschmutzung. Genau solche Informationen müssten öffentlich gemacht werden, um die Menschen vor Ort aufzurütteln, sagte Eda.
Zudem müsse man Mythen über neue Arbeitsplätze und Steuereinnahmen entkräften, ergänzte Dylan Murphy von der irischen Gruppe „Not Here Not Anywhere“. Er berichete von der Überlastung des irischen Stromnetzes durch den gigantischen Ausbau der Rechenzentren im Land, der irgendwann sogar zu einem Moratorium, einem Baustopp, geführt habe. „Rechenzentren sind Vampire, die unseren Gemeinschaften Strom, Wasser, Land und Rohstoffe entziehen.“ Als physische Manifestation des KI-Hypes würden sie sich hervorragend für Mobilisierung eignen, pflichtete García Valverde aus Spanien bei. Plötzlich hätten Menschen das abstrakte Thema KI direkt vor der eigenen Haustür.
Ein großes Problem bei der Mobilisierung sei jedoch die Intransparenz der Betreiber*innen und teilweise auch der Gemeinden. Oft sei nicht einmal klar, wer wo genau baue und für wen. Teilweise bauen die großen Tech-Konzerne nicht mehr selbst, sondern mieten Kapazitäten bei Dritten, erzählte García Valverde.
Was tun gegen die KI-Blase?Um so ein Modell handelt es sich beim ersten Rechenzentrum im Schweizerischen Beringen. Seine Zukunft ist derzeit noch völlig offen. Es wird sich erst in einigen Jahren zeigen, welche Firmen die Fläche im Rechenzentrum mieten wollen und ob die Gemeinde Steuereinnahmen einnehmen wird. Außerdem ist die Frage nach der Abwärmenutzung noch ungelöst: das Rechenzentrum produziert deutlich mehr Abwärme, als ein kleines Dorf wie Beringen sinnvoll nutzen kann. Deshalb ist nun der Bau eines Erdbeckenspeichers – eines künstlichen Sees, der die Abwärme des Rechenzentrums im Sommer speichern soll – für rund 22 Millionen Euro im Gespräch. Platzt die KI-Blase, bleiben die Beringer*innen mit kostspieliger leerstehender Infrastruktur zurück.
Um auf die Situation einzuwirken und die öffentliche Diskussion über den Bau von Rechenzentren anzuregen, organisiert sich laut den Aktivist*innen von „Aufstände der Allmende“ derzeit ein Bündnis rund um die Kampagne „KI kurzschließen“. Vom 2. bis 9. Juli werde es in der Schweiz dazu ein Widerstandscamp geben.
Wie man sich hierzulande engagieren kann, erklärt die Bundestagsabgeordnete Sonja Lemke (die Linke). Sie empfiehlt Aktivist*innen und Bürger*inneninitiativen, auf der kommunalen Ebene anzusetzen, wo die Entscheidungen über den Bau von Rechenzentren getroffen werden: „Geht in die kommunalen Planungsausschüsse, schreibt Mails an eure Abgeordneten und stellt IFG-Anfragen.“
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Mit Merz und von der Leyen: Macron will Alterskontrollen für alle durchboxen
Der französische Präsident Emmanuel Macron schwört die EU auf Alterskontrollen ein. Dafür liegt er unter anderem Kommissionspräsidentin von der Leyen und Bundeskanzler Merz in den Ohren. Mit steigendem Tempo steuert die EU auf eine Ausweispflicht im Netz zu.
Emmanuel Macron leistet Überzeugungsarbeit – hier im März 2026. – Alle Rechte vorbehalten IMAGO / ABACAPRESSViele Spitzenpolitiker*innen wollen gerade Alterskontrollen und ein Social-Media-Verbot für Minderjährige. Der französische Präsident Emmanuel Macron will es ganz besonders. Medienwirksam treibt er das Vorhaben europaweit voran und versucht, andere Mitgliedstaaten auf Linie zu bringen.
Am gestrigen Donnerstag hat Macron zu einer Videokonferenz geladen. Dabei waren EU-Kommissionspräsidentin Ursula von der Leyen (CDU), Bundeskanzler Friedrich Merz (CDU), die italienische Ministerpräsidentin Giorgia Meloni und weitere hochrangige Vertreter*innen von EU-Mitgliedstaaten. Das Ziel: koordiniert vorgehen.
Auf Twitter-Nachfolger X sprach Macron von einer „Bewegung“. Ein von ihm veröffentlichter Videoclip zeigt eine Aufnahme des Bildschirms mit den zugeschalteten Gästen, darunter Bundeskanzler Merz. „Hier sind rund ein Dutzend Staaten vertreten“, so ein Schriftzug im Videoclip.
Über die Teilnahme des Kanzlers ist die französische Regierung offenbar besonders stolz. Im Vorfeld sagte ein Élysée-Sprecher, das sende ein „Signal“. Im Vergleich zu Frankreich ist die Position der Bundesregierung in Sachen Social-Media-Verbot nämlich noch verhalten.
Den Stein ins Rollen gebracht hatte im Dezember 2025 das Social-Media-Verbot für unter 16-Jährige in Australien. Dort dürfen große Plattformen wie TikTok, Instagram oder YouTube jungen Menschen keine Accounts mehr erlauben. Dafür sollen sie das Alter von Nutzer*innen prüfen. Nun drängen mehrere EU-Mitgliedstaaten auf ein ähnliches Modell.
Rechtssicher möglich wäre das jedoch nur mit einer EU-weiten Regelung. Deshalb erhöhen die Befürworter*innen Woche für Woche den Druck auf die EU-Kommission. Staats- und Regierungsschef*innen, etwa aus Spanien und Deutschland, stellen Forderungen auf oder schreiben der Kommissionspräsidentin dringliche Briefe. Mitgliedstaaten wie Frankreich und Griechenland bringen bereits nationale Gesetze auf den Weg. EU-Parlament und Rat beziehen Position.
Die gestrige Videokonferenz ist also nur der (bisherige) Gipfel der Bemühungen.
Ausweispflicht im Netz? Das droht konkretDer an den Tag gelegte Eifer könnte den Eindruck erwecken, Europa müsse auf eine plötzliche Katastrophe reagieren. Das ist aber nicht der Fall: Es gibt keine Hinweise, dass soziale Medien aktuell schädlicher wären als beispielsweise vor fünf Jahren. Die Forschungslage über gesundheitliche Gefahren sozialer Medien für Minderjährige ist nach wie vor unklar; Warnungen aus der Wissenschaft sind in der Gesamtschau eher vorsichtig.
Anders sieht jedoch das Bild aus, dass Spitzenpolitiker*innen zeichnen. Ursula von der Leyen hatte diese Woche die neue EU-Alterskontroll-App in ihrer Rede sogar mit der Einführung der Covid-App verglichen. Als wären soziale Medien eine Pandemie, die Europa überrollt und dabei vor allem Kinder und Jugendliche infiziert. Worauf genau steuert Europa da gerade zu?
Das in eine künstliche Drohkulisse gerahmte Vorhaben lässt sich auf vier Module herunterbrechen.
- Erstens geht es um ein EU-weites einheitliches Mindestalter für soziale Medien – ähnlich wie für einen Auto-Führerschein. Es könnte irgendwo zwischen 12 und 16 Jahren liegen. Frankreich will es bei 15 Jahren ansetzen. Schon jetzt geben Plattformen in ihren Nutzungsbedingungen ein Mindestalter vor: etwa 13 Jahre bei TikTok oder 16 Jahre bei YouTube. Für ein EU-weites Mindestalter allein wären die rechtlichen Hürden eher gering.
- Zweitens geht es um die Verpflichtung, dass Plattformen dieses Mindestalter mit strengen Alterskontrollen sichern müssen, etwa auf Basis von Ausweisdokumenten. Eine solche Pflicht gibt es bereits für Pornoseiten, die nur ab 18 Jahren erlaubt sind. Für soziale Medien dagegen gilt das Gesetz über Digitale Dienste (DSA), das strenge Alterskontrollen nur als eine von mehreren Optionen vorsieht. Möchte die EU also soziale Medien zu solchen Alterskontrollen verpflichten, müsste der DSA angepasst werden.
- Drittens geht es um die wirksame Durchsetzung einer möglichen Pflicht zu strengen Alterskontrollen. Das Beispiel von Pornoseiten zeigt: Nur weil eine strenge Ausweispflicht de jure gilt, heißt es noch lange nicht, dass Websites sich auch de facto daran halten. Eigentlich dürfte es in der EU keine frei zugänglichen Pornoseiten geben. Seit Jahren laufen dazu Rechtsstreitigkeiten. Social-Media-Seiten sind jedoch weniger rebellisch als Pornoseiten. Sie könnten sich entsprechenden Gesetzen beugen – in Australien tun sie es auch, zumindest widerwillig.
- Viertens geht es um einheitliche Methoden für strenge Alterskontrollen. Die EU hat hierfür jüngst eine Alterskontroll-App vorgestellt, die EU-weit ausgerollt werden soll. Später soll sie in der neuen digitalen Brieftasche (EUDI-Wallet) aufgehen. Nutzer*innen sollen in der App ein Ausweisdokument hinterlegen, das ihr Alter verrät. Die App soll dann lediglich weitergeben, ob eine Person eine bestimmte Altersschwelle überschritten hat. Rund um die App gibt es jedoch mehrere technische Unklarheiten und falsche Versprechungen.
Sobald alle vier Module wie Zahnräder ineinandergreifen, könnte ein mächtiger Kontrollapparat entstehen, der das Internet, wie wir es bisher kennen, umkrempelt. In diesem Szenario wäre es zwar weiterhin möglich, Alterskontrollen mit Tricks zu umgehen – etwa mit einem VPN-Dienst. Dennoch ist davon auszugehen, dass ein Großteil der Nutzer*innen lieber den offiziell gewünschten Weg geht und sich künftig mit einer Ausweis-App durchs Netz bewegt.
Zwei Updates könnten den Überwachungs-Apparat scharfstellenFür Anonymität im Netz ist das eine Gefahr. Aktuell setzt die Alterskontroll-App der EU auf Pseudonyme, auch wenn die EU-Kommission versucht, die Kontrollen als „komplett anonym“ zu verkaufen. Technische Systeme lassen sich allerdings mühelos verändern. Vom Kontrollapparat zum Apparat für Massenüberwachung wäre es – theoretisch – kein allzu großer Schritt mehr. Dafür bräuchte es nur zwei Updates:
- Ein technisches Update könnte die App von Pseudonymen auf Klarnamen umstellen.
- Ein juristisches Update müsste dafür die entsprechende Rechtsgrundlage schaffen.
Mit der Begründung, Kinder und Jugendliche zu schützen, erschaffen Emmanuel Macron, Ursula von der Leyen und weitere Befürworter*innen von Alterskontrollen also gerade eine neue Infrastruktur, um alle Menschen im Netz umfassend zu kontrollieren. Und diese Infrastruktur wäre nur zwei Updates davon entfernt, Anonymität im Netz weitgehend abzuschaffen.
Weiter wäre es mit diesem Kontrollapparat möglich, bestimmte Personengruppen systematisch aus digitalen Räumen auszuschließen, etwa weil sie eine bestimmte Altersgrenze nicht überschreiten oder weil sie keine erforderlichen Papiere besitzen. – Wie weit ist dieses Szenario entfernt?
Erste Hürde: Die Alterskontroll-App ist nicht fertigRund um Alterskontrollen gibt es eine auffällige Diskrepanz zwischen dem, was Befürworter*innen sagen, und dem, was der Fall ist. So hat Kommissionspräsidentin von der Leyen die Alterskontroll-App diese Woche für „technisch fertig“ erklärt. In einem nachgelagerten Pressebriefing betonte ein Pressesprecher mit gepresster Stimme, die App sei „fertig!“. Ein hochrangiger EU-Beamter sprach im selben Pressebriefing von einem „Goldstandard“.
Der Blick in den Code und die Spezifikationen zeigt jedoch: Die App ist nicht fertig. Einiges ist noch nicht abschließend geklärt. So braucht es je nach Nationalstaat und unterstützten Altersnachweisen eigene Umsetzungen der App. Dabei gibt es viele Spielräume, die am Ende mehr oder weniger Privatsphäre versprechen. IT-Sicherheitsexperten warnen bereits vor Lücken.
Deutschland wiederum will die Alterskontroll-App gar nicht erst einführen, wie jüngst ein Sprecher des Digitalministeriums gegenüber der Süddeutschen Zeitung (SZ) erklärte. Offenbar liegt der Fokus in Deutschland auf der digitalen Brieftasche.
Aus der Bundesagentur für Sprunginnovationen heißt es laut SZ: Die technischen Standards der Alterskontroll-App würden von jenen aus der Verordnung für die digitale Brieftasche abweichen, „ohne, dass dadurch ein Mehrwert entsteht“. Das deutet darauf hin: Der angebliche „Goldstandard“ könnte zum Rohrkrepierer werden.
Zweite Hürde: Der DSA steht im WegWeiter ist noch nicht entschieden, ob und inwiefern die EU-Kommission bereit wäre, Social-Media-Plattformen zu strengen Alterskontrollen zu verpflichten. Dafür müsste sie nämlich den DSA anfassen. Gibt es dafür einen politischen Willen? In ihren Äußerungen zur Videokonferenz mit Macron, von der Leyen und weiteren Spitzenpolitiker*innen hielt sich die EU-Kommission offenbar bewusst alle Türen auf.
Ursula von der Leyen schrieb auf Twitter-Nachfolger X: „Mit dem DSA haben wir EU-weite Regeln.“ Eltern sollten sich keine Sorgen machen. Das deutet darauf hin: Nein, es kommen keine neuen Gesetze, die über den DSA hinausgehen.
Am selben Tag allerdings sagte ein Kommissionssprecher dem Fachmedium Mlex: „Natürlich erwarten wir von Online-Plattformen, einschließlich sozialer Medien, dass sie angemessene Verfahren zur Altersverifikation haben, wenn für ihre Dienste Altersbeschränkungen gelten.“ Das wiederum deutet in eine andere Richtung: Die EU-Kommission könnte versuchen, bei der Durchsetzung des DSA auf strenge Altersverifikation zu pochen. Plattformen allerdings könnten sich dann rechtlich dagegen wehren und auf den Spielräumen beharren, die ihnen laut DSA zustehen.
Aktuell muss die EU-Kommission über das französische Social-Media-Verbot bis 15 Jahre entscheiden, und zwar im sogenannten Notifizierungsverfahren. Hier soll sich klären, ob das geplante nationale Gesetz mit EU-Recht vereinbar ist. Das könnte eng werden: In zwei Gutachten hatten die Wissenschaftlichen Dienste des Bundestags keine Spielräume für nationale Alleingänge bei diesem Thema gesehen.
Die Wissenschaftlichen Dienste arbeiten laut Selbstbeschreibung parteipolitisch neutral und sachlich objektiv. Als die französische Regierung jüngst in einem Pressebriefing auf deren juristisch fundierte Einschätzung angesprochen wurde, wollte sie davon nichts wissen. Ein Sprecher weigerte sich, zu kommentieren, was „irgendein“ deutsches Gremium sage.
Wissenschaft und Zivilgesellschaft im AbseitsÄhnlich wie die EU-Kommission hält sich Deutschland noch alle Türen auf. Zwar haben bereits Kanzler, Vizekanzler, die CDU und wichtige SPD-Politiker*innen Position bezogen – für ein Social-Media-Verbot für Minderjährige plus Alterskontrollen. Die CSU dagegen ist skeptisch. Und die Bundesregierung teilte jüngst mit, sie habe sich noch nicht festgelegt.
Mit zunehmender Ungeduld schielen die Befürworter*innen des Modells auf zwei Expert*innen-Kommissionen; eine auf Deutschland- und eine auf EU-Ebene. Dort sollen Fachleute bis spätestens Sommer Handlungsempfehlungen für Jugendschutz im Netz vorlegen. Ihnen dürfte allerdings bewusst sein, dass Politiker*innen auf höchster Ebene gerade Entscheidungen vorwegnehmen. Wie groß ist wohl das Interesse der Forschenden, den Staats- und Regierungschef*innen mit möglicherweise abweichenden Positionen in die Parade zu fahren?
Keinerlei politisches Gehör findet derweil eine breite interdisziplinäre Palette an Kritiker*innen aus den Bereichen Kinderschutz, Pädagogik und Wohlfahrt, aus Elternverbänden, aus Datenschutz und IT-Sicherheit bis hin zur Kirchen-Organisationen. Viele lehnen sowohl ein pauschales Social-Media-Verbot für Minderjährige ab als auch strenge Alterskontrollen für alle. Kinder und Jugendliche mit ihren Interessen und Bedürfnissen kommen in der politischen Debatte – wenn überhaupt – nur am Rande vor.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Sampling vor dem EuGH: Was ist eigentlich „Pastiche“?
Neigt sich die „unendliche Geschichte“ des Sampling-Streits zu „Metall auf Metall“ dem Ende zu? Der europäische Gerichtshof hat der Auseinandersetzung ein weiteres Kapitel hinzugefügt. Wir geben eine kurze Einschätzung zum Urteil, seiner Bedeutung für den Fall und für Sampling als Remix-Praxis allgemein.
Das Urteil zu „Metall auf Metall“ wird auch für die Zukunft der Remix-Kunst relevant sein. – Alle Rechte vorbehalten IMAGO / Sven GleisbergDer Gerichtsstreit „Metall auf Metall“ verhandelt weiterhin die Nutzung eines zwei Sekunden langen Musiksamples, das Moses Pelham dem Track „Metall auf Metall“ von Kraftwerk entnommen und bei der Produktion von Sabrina Setlurs Hiphop Song „Nur mir“ verwendet hat. Nach vielen Wendungen hatte das Oberlandesgericht Hamburg im Jahr 2022 drei rechtlich-historische Phasen zur urheberrechtlichen Bewertung dieser Nutzung unterschieden, von der die letzte Phase weiterhin in Streit steht. Mittlerweile geht es darum, ob Sampling in „Nur mir“ unter die urheberrechtliche Ausnahme („Schranke“) des Pastiche fällt.
Schranken im Urheberecht wie das Zitatrecht oder die Privatkopie erlauben unter bestimmten, eng abgegrenzten Voraussetzungen, ein Werk auch ohne Zustimmung des Rechteinhabers zu nutzen. Die Schranke des „Pastiche“ fand erst 2021 im Zuge der Umsetzung der EU-Urheberrechtsrichtlinie Eingang in das deutsche Urheberrecht, konkret in § 51a UrhG. Für „Nur mir“ stellt sich seither die Frage: Stellt die Nutzung des Samples ein Pastiche dar? Damit wäre zumindest seit 2021 die Verbreitung des Songs wegen dieser Ausnahme zulässig.
Nachdem das Oberlandesgericht Hamburg diese Bewertung in seiner Entscheidung von 2022 weitgehend gerechtfertigt hatte, legte der deutsche Bundesgerichtshof dem europäischen Gerichtshof Fragen vor, um die Schranke des Pastiche genauer auszulegen. Im Detail fragt der Bundesgerichtshof, ob Pastiche einerseits einen Auffangtatbestand für die künstlerische Auseinandersetzung mit einem vorbestehenden Werk darstellt und ob andererseits Pastiche die Intention zur Schaffung eines Pastiche in der Nutzerin voraussetzt, oder es ausreicht, dass es von informierten Personen als Pastiche erkannt wird.
Kein Auffangtatbestand: der „künstlerische oder kreative Dialog“Der europäische Gerichtshof sieht davon ab, mit dem Pastiche eine allgemeine Ausnahme für die künstlerische Auseinandersetzung mit einem vorbestehenden Werk zu schaffen. Entscheidend für ein Pastiche ist in erster Linie die offen erkennbare Nutzung von urheberrechtlich geschützten Werken. „Versteckte Imitationen“ oder auch die in der ersten Entscheidung des europäischen Gerichtshof von 2019 ausgeführte Nutzung in „nicht wiedererkennbarer Form“ werden nicht vom Pastiche umfasst. So schreibt Gerichtshof, dass Pastiche…
…Schöpfungen erfasst, die an ein oder mehrere bestehende Werke erinnern, gleichzeitig aber wahrnehmbare Unterschiede diesen gegenüber aufweisen, um mit diesen Werken eine als solche erkennbare Form des künstlerischen oder kreativen Dialogs aufzunehmen.
Dieser Dialog könne „verschiedene Formen annehmen“, das Gericht unterscheidet die Form einer „offenen Nachahmung des Stils dieser Werke, einer Hommage an sie oder einer humoristischen oder kritischen Auseinandersetzung mit ihnen“. Damit formuliert der europäische Gerichtshof eine nicht-abgeschlossene Liste konkreter Zwecke, die einen künstlerischen oder kreativen Dialog auszeichnen und erweitert die Taxonomie von „Karikatur, Parodie und Pastiche“. Mit dieser Auflistung bleibt der europäische Gerichtshof hinter dem Vorschlag des Generalanwalts von 2025 zurück. Dieser hatte formuliert, dass „der mit dieser offenen stilistischen Nachahmung verfolgte Zweck hingegen unerheblich [ist]“. Allerdings scheint die Auflistung offen für Erweiterungen aus der künstlerischen Praxis zu sein.
Intention zum Pastiche?Hinsichtlich der Frage nach der Intention der Nutzerin folgt der europäische Gerichtshof hingegen weitestgehend den Vorschlägen des Generalanwalts. Zur Gewährleistung der Rechtssicherheit, so das Gericht, müssten objektive Kriterien zur Prüfung der Absicht einer Nutzerin herangezogen werden. Insofern genügt…
… für eine Nutzung ‚zum Zwecke von‘ Pastiches im Sinne dieser Bestimmung, dass der Charakter als ‚Pastiche’ für denjenigen erkennbar ist, dem das bestehende Werk bekannt ist, dem diese Elemente entnommen sind.
Damit müssen Nutzerinnen nicht nachweisen, die Absicht gehabt zu haben, mit einem anderen Werk in einen Dialog zu treten. Es genügt, wenn eine mit dem genutzten Werk vertraute und über die Bedeutung von Pastiche informierte Person ein solches in dem neu geschaffenen Werk erkennt. Das könnte beispielsweise eine Musikgutachterin sein.
Was bedeutet das für den Fall „Metall auf Metall“?„Metall auf Metall“ verlässt nach der Entscheidung des EuGH nun wieder die europäische Bühne und wird weiter vor dem deutschen Bundesgerichtshof verhandelt. Zu klären dürfte noch sein, ob „Nur mir“ in einen künstlerischen oder kreativen Dialog mit „Metall auf Metall“ tritt. Das ist – zumindest vor dem Hintergrund der jetzt durch den europäischen Gerichtshof eingeführten Begrifflichkeiten – noch nicht in ausreichendem Maß geschehen.
Ausgeschlossen werden kann wohl die Einordnung als „humoristische Auseinandersetzung“, da ja bereits mehrfach Karikatur und Parodie als Schranken für Sampling in „Nur mir“ abgelehnt wurden. Auch die Einordnung als „offene Nachahmung des Stils“ für einen HipHop-Song wie „Nur mir“ muss wohl als unwahrscheinlich angesehen werden.
Weniger eindeutig ist das bei Punkten wie „kritischer Auseinandersetzung“ oder „Hommage“. Womit wir beim Kern der Frage angekommen sind: Ist Sampling im Fall von „Nur mir“ eine „erkennbare Form des künstlerischen oder kreativen Dialogs“ im Sinne des EuGH-Urteils? Und angesichts dessen, dass das Oberlandesgericht Hamburg in seiner Entscheidung von 2022 bereits eine „künstlerische Auseinandersetzung“ festgestellt hat, ist das in diesem konkreten Fall mit dem überaus bekannten Sample wohl zu bejahen.
Ist Remix-Kunst jetzt Pastiche?Pastiche als Auffangtatbestand für die Auseinandersetzung mit einem vorbestehenden Werk wäre hingegen einer noch weitreichenderen Legalisierung Remix-basierter Kunstformen gleichgekommen. Der europäische Gerichtshof hat sich gegen eine solche allgemeine Ausnahmeregelung entschieden.
Dennoch: Die weitreichenden Verschiebungen in diesem Urteil des europäischen Gerichtshofs sind bemerkenswert. Im Jahr 2019 urteilte der europäische Gerichtshof noch, dass allein die nicht-wiederkennbare Nutzung eines Samples ohne Zustimmung rechtlich erlaubt sei. Eine Einschätzung, die den Praktiken und Diskursen in der Remix-Kunst widersprechen.
Im neuen Urteil wird hingegen die Bedeutung der wahrnehmbaren Unterschiede und des Dialogs zwischen urheberrechtlich geschützten Werken für die Freiheit künstlerischen Schaffens in den Vordergrund gerückt. Das ist ein deutliches Signal für Remix-Kunst als Pastiche und für die Legalisierung von Remix-Kunst allgemein.
Abzuwarten bleibt allerdings, wie sich diese inklusive Auslegung des Pastiche-Begriffs in die digitale Praxis überführen lassen wird und welche Fallstricke die Konkretisierung der Dialogformen für Remix-Kunst und Sampling bereithält. So könnte die Verwendung besonders obskurer oder unbekannter Samples größeren Rechtfertigungsdruck erzeugen als die Nutzung weit verbreiteter Werke. Auch das graduelle Kriterium der „wahrnehmbaren Unterschiede“ bleibt noch unterspezifiziert und könnte zu Abgrenzungsschwierigkeiten führen, die auch zukünftig einer Einzelfallbewertung unterliegen.
Was passiert als nächstes?Mit dem vorliegenden Urteil des europäischen Gerichtshofs ist die unendliche Geschichte von „Metall auf Metall“ ein gutes Stück weitergekommen. Das nächste Kapitel spielt erneut am deutschen Bundesgerichtshof. Es liegt an ihm, ob Sampling in „Nur mir“ nach den Vorgaben des europäischen Gerichtshofs als Pastiche bewertet werden kann.
Die Geschichte könnte also bald zu Ende gehen. Denkbar ist allerdings auch, dass der Bundesgerichtshof für seine Entscheidung eine weitere Konkretisierung des Dialog-Charakters der in Streit stehenden Sample-Nutzung benötigt. Dann könnte sogar eine erneute Schleife über das Oberlandesgericht Hamburg eingeschoben werden.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Polizeiliche Kriminalstatistik: Mit Vorsicht zu genießen
Wenn die jährliche Statistik zur Kriminalität veröffentlicht wird, folgen oft rassistische Hetze und Rufe nach Strafrechtsverschärfungen. Dabei sagt die Statistik weniger darüber aus, wie die Sicherheitslage im Land wirklich ist, als viele vermuten.
Die Kriminalstatistik wird jährlich unter großem Interesse veröffentlicht. – Alle Rechte vorbehalten IMAGO / IPONJedes Jahr im Frühling veröffentlicht das Bundeskriminalamt die Polizeiliche Kriminalstatistik. Sie wird von Vielen wahrgenommen als genaues Abbild von Kriminalität im Land und dementsprechend oft auch politisch instrumentalisiert. Dabei ist die Polizeiliche Kriminalstatistik (PKS) zuallererst eine Art Arbeitsbericht der Polizei. Sie ist mit Vorsicht zu genießen.
In der PKS werden mutmaßliche Straftaten erfasst, welche die Polizei an die Staatsanwaltschaften weitergibt. Ob diese dann die Verfahren einstellen und ob jemand verurteilt wird, erfahren wir aus dieser Statistik nicht. Wir erfahren auch nicht, ob die Steigerung einer Kriminalitätsart darauf beruht, dass die Polizei ihren Schwerpunkt verlagert hat, die Ermittlungsmethoden besser wurden, das Dunkelfeld sich aufhellt oder Menschen bereitwilliger Straftaten anzeigen.
Zudem gibt es rassistische Einstellungen, die dazu führen, dass bestimmte Bevölkerungsgruppen von der Polizei stärker kontrolliert oder von der Mehrheitsbevölkerung öfter angezeigt werden, was deren Präsenz in der Statistik erhöht. Das alles verzerrt die Polizeiliche Kriminalstatistik.
Polarisierung und StigmatisierungDie Statistik steht wegen wegen ihrer Anfälligkeit zur Instrumentalisierung und auch rassistischen Stimmungsmache in der Kritik. „Die polizeiliche Kriminalstatistik ist als Instrument zur Bewertung der Sicherheitslage ungeeignet“, hieß es in einem offenen Brief (PDF), den zahlreiche Menschenrechtsorganisationen und Kriminolog:innen vergangenes Jahr unterzeichnet haben. Vielmehr trage die Statistik zur Polarisierung der Gesellschaft und Stigmatisierung bestimmter Bevölkerungsgruppen bei, so die Unterzeichnenden.
Das Medienhaus Correctiv hat nun beliebte Mythen und Instrumentalisierungen rund um die Kriminalstatistik einem Faktencheck unterzogen. Der Artikel weist zum Beispiel darauf hin, dass eine Verbindung von polizeilicher Statistik und Justizstatistiken überfällig wäre. Dann könnte man nachvollziehen, wie häufig aus der polizeilichen Erfassung als Straftat am Ende auch eine Verurteilung vor Gericht wird. Den wie Correctiv schreibt, wurden laut statistischem Bundesamt 60 Prozent der Ermittlungsverfahren eingestellt.
Der Faktencheck zeigt auch, dass die Zahl der Fälle mit dem Bevölkerungswachstum zu tun hat. Mehr Tatverdächtige heiße nicht notwendigerweise, dass auch prozentual mehr Menschen kriminell geworden seien. Der prozentuale Wert wird mittels der „Tatverdächtigenbelastungszahl“ statistisch erfasst. Correctiv hat nun diesen Wert angeschaut und kommt zum Schluss:
[..] obwohl die absolute Zahl der Tatverdächtigen in den vergangenen Jahren zwischendurch gestiegen ist (etwa zwischen 2013 und 2015 oder zwischen 2021 und 2023): Der Anteil der Menschen in der Gesellschaft, die von der Polizei eines Verbrechens verdächtigt wurden, ist seit 2009 insgesamt gesunken.
Ein anderes Feld im Bericht von Correctiv sind Straftaten gegen die sexuelle Selbstbestimmung. Diese sind in den vergangenen Jahrzehnten laut der PKS dramatisch angestiegen. Die Hintergründe sind dabei vor allem auch ein besserer gesetzlicher Schutz vor solchen Straftaten durch eine Erweiterung dessen, was überhaupt strafbar ist, sowie eine gestiegene Sensibilität, so dass mehr Menschen und vor allem Frauen sich trauen, solche Straftaten auch anzeigen. Dennoch ist das Dunkelfeld in diesem Gebiet immer noch groß, so kam kürzlich heraus, dass bei digitaler Gewalt etwa 97 Prozent aller Fälle nicht zur Anzeige kommen.
Demografische und soziale Aspekte ignoriertBeliebt in rassistischer Stimmungsmache, die ja derzeit von AfD bis zum Bundeskanzler Konjunktur hat, ist das Narrativ von kriminellen Migrant:innen. Die PKS erfasst keinen Migrationshintergrund, wer einen deutschen Pass hat, ist deutsch – egal, wo die Person geboren ist oder welche Nationalität die Eltern hatten. Die in der PKS erfassten Nicht-Deutschen hingegen sind nicht nur Geflüchtete oder hier lebende Menschen ohne deutschen Pass, sondern auch Tourist:innen. Wer also mit Fallzahlen aus der PKS hantiert, um rechte Stimmung zu machen, ignoriert nicht nur das, sondern auch, dass bei den Nicht-Deutschen die Altersstruktur jünger ist und jüngere Menschen, egal von wo sie kommen, in der Regel mehr Straftaten begehen. In Lagebildern erfasst das Bundeskriminalamt hingegen erst seit 2015 die Kriminalität von „Zuwanderern“, laut dem BKA Menschen, die ein Asylverfahren durchlaufen, einen Aufenthaltstitel oder eine Duldung haben oder abgeschoben werden sollen.
Rechtsradikale hantieren gerne mit der sogenannten „Messerkriminalität“, die angeblich seit dem Jahr 2015 explodiert sei. Das ist unseriös, wie Correctiv darlegt: Denn „Tathandlungen, bei denen der Angriff mit einem Messer unmittelbar gegen eine Person angedroht oder ausgeführt wird“ werden erst seit dem 1. Januar 2024 vollständig erfasst. 90 Prozent der erfassten „Messerkriminalität“ wird von Männern über 21 Jahren verübt. Tatsächlich sind dabei in der Statistik nicht-deutsche Täter überrepräsentiert. Neben demografischen und sozialen Aspekten gibt es zahlreiche weitere Faktoren, die dieses Ungleichgewicht begünstigen, wie die Kriminologin Gina Wollinger darlegt.
Verzerrte Wahrnehmung von KriminalitätDie Gefahr einer Verfälschung des Kriminalitätsbildes durch die polizeiliche Statistik wird verstärkt dadurch, dass sehr viele Menschen eine völlig von der Realität abgekoppelte Wahrnehmung der Kriminalität haben. In einer Befragung der Konrad-Adenauer-Stiftung (KAS) aus dem Jahr 2021 gingen fast zwei Drittel von einer starken bis sehr starken Zunahme der Kriminalität in den letzten fünf Jahren aus, während nur sechs Prozent der Befragten die Kriminalitätsentwicklung realistisch einschätzten.
Woher diese Fehlwahrnehmung kommt, ist nicht abschließend untersucht. Die Studie der KAS zeigte sich hier einigermaßen ratlos: Die Sorge vor einer Zunahme der Kriminalität lasse sich nicht mit sinkender tatsächlicher Kriminalität aus der Welt schaffen, stellten die Autor:innen damals fest.
Einen Anteil an diesem Phänomen haben vermutlich die Nachrichtenwertfaktoren Negativität und Nähe, die Medien dazu bringen, Berichte mit Schaden und Kriminalität in unserer Nähe als relevanter zu bewerten. So entsteht medial eine Schieflage, die nicht der realen Entwicklung entspricht. Diese Schieflage wird befeuert von einer Innenpolitik, die auf diese Fehlwahrnehmungen eingeht, was die Berichterstattung zum Thema Sicherheit weiter verstärkt. Hinzu kommt auch ein Altersfaktor, den die Studien bestätigen: Je älter die Befragten, desto mehr Angst haben sie vor Kriminalitätszunahme. In einer alternden Gesellschaft steigt also die Furcht und damit auch der politische Druck auf das Thema.
Eng gefasster SicherheitsbegriffDer Fokus des Sicherheitsbegriffs auf Delinquenz und Kriminalität trägt zudem zu einer weiteren Verzerrung und damit verschobenen politischen Prioritäten bei. Ein erweiterter Sicherheitsbegriff würde soziale Sicherheit hervorheben, dazu gehören Wohnraum, eine gerechte Vermögensverteilung, ein gutes Gesundheitssystem, einfache Mobilität sowie die Absicherung von Arbeitsplätzen. Ein noch weiter in die Zukunft gerichteter Sicherheitsbegriff würde auch die Gefahr von Kriegen, Umweltkatastrophen und Klimakollaps in den Fokus nehmen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Abschiebepolitik: Das Handy eines Mannes, der nirgendwo hinkann
Idris lebt seit mehr als 40 Jahren in Deutschland und soll nach Eritrea abgeschoben werden. Das gilt als praktisch unmöglich. Trotzdem durchsucht das Ausländeramt Köln sein Smartphone, während er im Gefängnis sitzt. Eine Geschichte über einen Kontrollapparat, der sich verselbstständigt hat.
Der Wachturm der JVA Köln Ossendorf: Hier saß Idris in Untersuchungshaft. – Alle Rechte vorbehalten IMAGO / Funke Foto Services / Andreas BuckWinter 2024. Idris ist gerade in der JVA Siegburg angekommen. Um seine Cracksucht zu finanzieren, war er in einen Kiosk und mehrere Gaststätten eingestiegen, hatte Parfum in einer Drogerie geklaut, war immer wieder erwischt worden. Weil er die Taten während laufender Bewährungszeiten begangen hatte, muss er jetzt für insgesamt fünf Jahre ins Gefängnis.
Ein Beamter reicht ihm die Gefängniskleidung und einem Umschlag mit seinen Wertsachen. Die Sachen sind aus der Untersuchungshaft überstellt worden, in der er vorher gewesen ist. Idris soll den Inhalt prüfen, bevor der Umschlag wieder verplombt und eingeschlossen wird. Im Umschlag liegt seine Halskette. Aber das Handy, das er beim Antritt der U-Haft Anfang des Jahres ebenfalls abgegeben hatte, fehlt.
Was damit passiert ist, erfährt er erst zwei Monate später, durch einen Brief der für ihn zuständigen Ausländerbehörde Köln. „Anbei übersende ich Ihnen den Datenträger des oben genannten Inhaftierten zurück“, heißt es darin und weiter in bestem redundanten Amtsdeutsch. „Der Datenträger wurde im Zuge einer Datenträgerauswertung ausgewertet“, er könne nun zurück in die Verwahrung.
Seit 40 Jahren geduldetIdris, der eigentlich anders heißt, lebt seit mehr als 40 Jahren in Deutschland. Er kam als Kind, hat hier die Schule besucht, einen Hauptschulabschluss gemacht, eine Schlosserlehre begonnen. Er hat auch früh eine Karriere als Kleinkrimineller begonnen, wie er selbst sagt. All das erzählt er vom Festnetztelefon des Gefängnisses aus, das er zu vorgeschriebenen Zeiten benutzen darf.
Eine Aufenthaltserlaubnis hat er nicht, sein Antrag auf Asyl wurde bereits 1987 abgelehnt. Seit Jahrzehnten lebt er mit einer Duldung im Land, doch damit ist jetzt Schluss. Nach seiner Entlassung soll er Deutschland verlassen, das hat ihm das Ausländeramt im Herbst mitgeteilt.
Das Problem: Das Land, aus dem er mit seiner Tante einst geflohen ist, der heutige Staat Eritrea, will ihn nicht. Eine Abschiebung dorthin ist ohnehin so gut wie unmöglich. Das Land gilt als eine der brutalsten Diktaturen der Welt, Abgeschobenen drohen Folter und willkürliche Haft. Als Geflüchteter aus der ehemaligen äthiopischen Provinz besaß Idris zudem nie eritreische Papiere, Eritrea erkennt ihn nicht als Staatsbürger an. „Ich bin faktisch staatenlos, seit über vierzig Jahren“, sagt Idris zu seinem Fall.
Den deutschen Verwaltungsapparat interessiert das nicht. Für das Ausländeramt Köln ist Idris ein ausreisepflichtiger Straftäter, in so einem Fall gilt ein besonders schwerwiegendes „Ausweisungsinteresse“. Das Amt muss alles dafür vorbereiten, dass er nach seiner verbüßten Haftstrafe abgeschoben werden kann. Dazu darf es laut Aufenthaltsgesetz auch seine Datenträger durchsuchen.
Vom Gefängnis in die IT-ForensikWährend Idris in einer Zelle sitzt, geht sein Handy deswegen auf Reisen. Aus dem Umschlag mit seinen persönlichen Dingen in der Gefängnisverwahrung gelangt es an das Ausländeramt in Köln, dieses schickt es mit einem Prüfauftrag weiter an die Zentrale Ausländerbehörde in Essen.
Die Behörde ist dafür zuständig, die Ämter in Köln und Düsseldorf bei Abschiebungen zu unterstützen. Dort arbeitet seit Herbst 2023 auch die „Stabsstelle Datenforensik“. Ihre Aufgabe: Die Datenträger von Menschen durchsuchen, die „ausreisepflichtig“ sind, um darauf nach Hinweisen für ihre Herkunft oder Identität zu suchen.
Diese Abteilung eingerichtet hat das von den Grünen geführte Fluchtministerium in Nordrhein-Westfalen. In einem Erlass, der damals an alle Ausländerbehörden im Land ging, heißt es dazu: „Demnach ist ein Ausländer, der keinen Pass oder Passersatz besitzt, verpflichtet, an der Beschaffung eines Identitätspapieres mitzuwirken und alle Dokumente oder Datenträger auf Verlangen der Ausländerbehörde vorzulegen, die für die Feststellung und Geltendmachung einer Rückführungsmöglichkeit in einen anderen Staat von Bedeutung sein können.“ Komme die betroffene Person dieser Mitwirkungspflicht nicht nach, könne die Behörde die Durchsuchung anordnen.
Die Ausländerbehörden werden in dem Schreiben gebeten, „sich bei Bedarf an einer Datenträgerauswertung“ mit der jeweils für ihren Regierungsbezirk zuständigen Zentralen Ausländerbehörde in Verbindung zu setzen. Weitere Informationen dazu finde man unter dem Reiter „Auswertung Datenträger“ im System.
Was ein Handy über Herkunft verraten sollWas in Essen mit seinem Handy geschieht, erfährt Idris nicht. Die Stadt Köln will dazu keine Auskunft erteilen. Ausgehend von dem, was ein Sprecher der Stadt mitteilt und was aus bisherigen Recherchen von netzpolitik.org bekannt ist, würde die Durchsuchung aber so ablaufen:
Die Abteilung soll auf Idris’ Handy nach Indizien suchen, die auf eine Staatsangehörigkeit hindeuten können. Im besten Fall – aus Sicht der Behörde – wären das Fotos von Papieren oder Passnummern. Im weniger guten Fall geht es um „sachdienliche Hinweise“: Anrufe in ein bestimmtes Land etwa, gespeicherte Kontakte oder Sprachen, die er in Chatnachrichten verwendet hat.
Um die Handys zu durchsuchen, schließen die Forensik-Fachleute die Geräte an einen Computer an, der alle Daten aus dem Gerät ausliest. Idris‘ Fotos, seine Nachrichten, wen er angerufen hat, was er auf Social Media postete – all das liegt nun bei der Behörde offen. Aus den relevanten Hinweisen, die sie in den Daten finden, erstellen Mitarbeiter*innen einen Bericht und schicken ihn zusammen mit dem Handy zurück an die Ausländerbehörde.
Dieser letzte Schritt, die Auswertung und der Bericht, werde von einer Person mit Befähigung zum Richteramt gemacht, schreibt ein Sprecher der Stadt. Letzteres schreibt das Aufenthaltsgesetz vor. Damit soll sichergestellt sein, dass keine Informationen aus dem sogenannten „Kernbereich“ der privaten Lebensgestaltung in den Akten landen.
„Was ist das für eine Verarscherei?“Formal ist das alles korrekt, rechtlich abgesichert. Ein Paragraf im Aufenthaltsgesetz erlaubt die Handydurchsuchung bereits seit mehr als zehn Jahren, wenn die Identität nicht mit anderen „milderen Mitteln“ geklärt werden kann, etwa durch die Vorlage einer Geburtsurkunde. Die Behörde darf in so einem Fall Datenträger einziehen, auch gegen den Willen der Betroffenen. In vielen Bundesländern ist das inzwischen Standard.
Nur: Was soll das im Fall von Idris bringen? Seine Abschiebung scheitert ja nicht daran, dass seine Identität oder Staatsbürgerschaft nicht bekannt wären. Die deutschen Behörden kennen seinen Namen, sein Geburtsdatum.
Idris kann nicht abgeschoben werden, weil die eritreische Botschaft ihm keine Papiere ausstellt. Das weiß auch die Ausländerbehörde. Was erhofft sie sich von der Durchsuchung? Und warum sammelt ein Staat überhaupt digitale Daten für eine Abschiebung, die diplomatisch unmöglich ist? Einfach, weil er es kann?
„Auf meinem Handy werden sie sicher nichts finden“, sagt Idris. Darauf seien Fotos seiner drei Kinder in Deutschland. Der älteste studiert, der jüngste ist gerade zwölf Jahre alt. Von der Mutter der beiden jüngeren lebt er schon seit Jahren getrennt. „In Eritrea kenne ich niemanden, habe da niemanden.“
Die Abschiebeanordnung im Herbst 2025 kommt trotzdem. „Was ist das für eine Verarscherei?“
Zugriff aus der HaftNordrhein-Westfalen wird seit 2022 von einer schwarz-grünen Koalition regiert. Ministerpräsident Hendrik Wüst (CDU) setzt auf eine harte Abschiebepolitik. Seit dem Anschlag von Solingen wurde die Linie noch weiter verschärft. Straftäter*innen sollen noch konsequenter abgeschoben werden. Nur wohin, wenn es keinen Zielstaat gibt? Für die Politik ist Idris ein Problem ohne Lösung.
Liegt es daran, dass die Ausländerbehörden im Land derzeit besonders viele Handys einziehen? Allein in Köln hat das Ausländeramt im vergangenen Jahr mehr als 130 Datenträger eingezogen und durchsuchen lassen, teilt ein Sprecher der Stadt mit.
„Sobald andere Maßnahmen zur Identitätsfeststellung ausgeschöpft oder nicht erfolgversprechend sind, wird der Person bei ihrer Vorsprache angeboten, den Datenträger freiwillig zur Durchsicht vorzulegen“, schreibt er. Weigert sie sich, darf sie auch durchsucht werden.
Bei Ausreisepflichtigen, die wie Idris in Haft sitzen, werde jeweils die zuständige Justizvollzugsanstalt angefragt. Seien dort Handys oder andere Datenträger in der Verwahrung, würden diese eingezogen.
Eigentlich hätte Idris über den Einzug seines Handys informiert werden müssen, die Ausländerbehörde stellt dafür eine Bescheinigung aus. Diese gehe in solchen Fällen an das Gefängnis, schreibt der Sprecher, mit der Bitte, den Gefangenen zu informieren. Ob das jedoch im Einzelfall geschieht, das „entzieht sich des Einflussbereichs der Ausländerbehörde“.
Öffentliche Zahlen, geheime WerkzeugeUm Smartphones wie das von Idris durchsuchen zu können, hat NRW einigen Aufwand betrieben. Die meisten Geräte sind heute mit Zugangscodes oder per Gesichtserkennung gesichert, nicht alle Betroffenen geben die Daten heraus, auch wenn das Aufenthaltsgesetz das vorschreibt. Die Behörde braucht dann ein Werkzeug, mit dem sie die Sicherungen überwinden und sich Zugang verschaffen kann.
Die „Stabsstelle Datenforensik“, die in Essen auch Idris‘ Handy durchsucht hat, arbeitet deswegen mit einer IT-forensischen Ausstattung, die die Zentrale Ausländerbehörde eigens dafür angeschafft hat. Solche Werkzeuge funktionieren wie ein Dietrich, mit dem sich die meisten Smartphones öffnen lassen, auch ohne Zugangsdaten.
Im Jahr 2024 hat die Stabsstelle auf diesem Weg die Datenträger von 114 Personen durchsucht und 93 Auswertungsberichte erstellt. Nur in zwei Prozent der Fälle scheiterten die Durchsuchungen. Das schreibt die Stadt Essen in ihrem Jahresbericht zur Arbeit der Zentralen Ausländerbehörde. Im Jahr darauf waren es bereits 254 durchsuchte Datenträger und 176 Berichte, teilt das zuständige Fluchtministerium auf Anfrage von netzpolitik.org mit.
Eine weitere solche Stelle arbeitet in der Zentralen Ausländerbehörde Bielefeld. Zusammengenommen hätten beide Stellen im Jahr 2024 205 Datenträger durchsucht. Im Jahr darauf waren es 402.
Die Kosten dafür trägt das Land NRW. Wie viel das kostet und von welchem Hersteller die Ausstattung stammt, das hält die schwarz-grüne Landesregierung allerdings geheim. „Aus Gründen des Datenschutzes“ will das zuständige Familienministerium auf Nachfrage keine Angaben machen.
In anderen Bundesländern, die vergleichbare Software für die Durchsuchungen nach dem Aufenthaltsgesetz einsetzen, ist hingegen dokumentiert, woher die Produkte stammen: vom Unternehmen Cellebrite. Es verkauft seine IT-forensischen Produkte unter anderem an Polizeibehörden, die damit in den Handys mutmaßlicher Straftäter nach Beweisen suchen, aber auch an Geheimdienste oder das Militär. Seit einigen Jahren gehören auch Ausländerbehörden in Deutschland zum Kundenkreis. (Hier ist eine Karte, die zeigt, wo Cellebrite bereits für die Durchsuchung der Handys von Ausreisepflichtigen eingesetzt wird.)
Stellt Cellebrite auch das Produkt, mit dem die Abteilung in Essen Handys durchsucht? Dafür gibt es keinen Beleg. Im bislang aktuellsten Jahresbericht der Stadt werden jedoch die Namen von zwei weiteren Cellebrite-Produkten genannt, die 2025 eingeführt werden sollten: Sie heißen Collector und Inspector und dienen dazu, die Festplatten von Computern zu durchsuchen. Auch das sind Datenträger und sie dürfen von den Ausländerbehörden ebenfalls eingezogen werden.
Auf die Nachfrage, ob diese Werkzeuge inzwischen im Einsatz sind, antworteten die Zentrale Ausländerbehörde Essen und das Ministerium nicht.
„Strafrechtlich relevante Zufallsfunde“Das Ministerium sieht in der Geheimhaltung offenbar auch eine Art ermittlungstaktischen Vorteil. „Konkrete Information über die verwendete Soft- und Hardware, die über Presseberichte an eine breite Öffentlichkeit gelangen, könnten den Erfolg zukünftiger digital-forensischer Maßnahmen gefährden“, schreibt es im Ablehnungsbescheid zu einer Anfrage nach dem Informationsfreiheitsgesetz.
Nur: Es handelt sich streng genommen ja um gar keine Ermittlungen. Die Betroffenen sind keiner Straftat verdächtig, die Zentrale Ausländerbehörde ist auch keine Strafverfolgungsbehörde. Sie soll lediglich nach Hinweisen auf eine Nationalität suchen.
Dass die Grenzen zwischen den Aufgaben von Ausländerbehörden und der Strafverfolgung hier zunehmend aufweichen, darauf deutet auch ein weiterer Satz aus dem Jahresbericht der Stadt Essen hin. In einem Abschnitt zu den „hervorragenden Ergebnissen“, die mit der Auswertung der Datenträger hätten erzielt werden können („In 87 Prozent der Fälle zumindest identitätsklärende Hinweise“), heißt es dort auch, „entdeckte und möglicherweise strafrechtlich relevante Zufallsfunde“ seien „an die zuständige Ausländerbehörde bzw. Strafermittlungsbehörde“ gemeldet worden.
Auf Nachfrage, wie häufig es in den vergangenen Jahren zu solchen Zufallsfunden mit entsprechender Meldung kam und auf welcher Rechtsgrundlage das geschieht, antwortet die Behörde nicht.
Eine Maßnahme ohne ZielDer Berliner Jurist Davy Wang koordiniert bei der Gesellschaft für Freiheitsrechte Fälle zu eingezogenen Handys von Geflüchteten. Er hält eine solche Weitergabe für rechtswidrig. Das Aufenthaltsgesetz erlaube den Zugriff auf Datenträger ausschließlich, um Identität und Staatsangehörigkeit festzustellen sowie eine Rückführung zu ermöglichen. „Eine Befugnis, dabei gefundenen Daten zu anderen Zwecken – etwa zur Strafverfolgung – an andere Behörden weiterzuleiten, enthält das Gesetz nicht. Eine solche Weitergabe ist damit unzulässig.“
Rechtswidrig sei auch das Vorgehen der Ausländerbehörde im Fall von Idris, sagt Wang. „Der Zugriff auf den gesamten Datenbestand des Handys stellt einen schwerwiegenden Eingriff in die Privatsphäre dar und darf nicht erfolgen, wenn damit der verfolgte Zweck überhaupt nicht erreicht werden kann.“
Das Aufenthaltsgesetz erlaube diesen Eingriff nur unter engen Voraussetzungen. Im Falle von Idris sei klar, dass der Zweck – das Ermöglichen einer Rückführung – nicht erreichbar sei: „Seine Rückführung scheitert an faktischen Hindernissen, die im Verantwortungsbereich der eritreischen Botschaft liegen.“ Durch das Auswerten der Handydaten könnten diese weder beseitigt noch beeinflusst werden.
„Solche Fälle zeigen, dass der Datenzugriff in der Praxis nicht als enges Ausnahmeinstrument gehandhabt wird, sondern als Routinemaßnahme“, sagt Wang, „auch dort, wo sie von vornherein nichts bewirken kann.“ Damit werde die Privatsphäre der betroffenen Personen jedoch strukturell ausgehöhlt. „Die Durchsuchung wird als Druckmittel zur Durchsetzung migrationspolitischer Ziele missbraucht.“
Clara Bünger ist fluchtpolitische Sprecherin der Linken im Bundestag. „Die Regierungen der letzten Jahre haben unter Beweis gestellt, dass sie in der Lage sind, sich immer wieder neue grenzwertige oder sogar offen rechtswidrige Maßnahmen auszudenken, die den alleinigen Zweck haben, ausreisepflichtige Personen unter Druck zu setzen und sie zur Ausreise zu drängen“, sagt sie. Das ändere aber nichts daran, dass manche Menschen nicht abgeschoben werden könnten, weil sie zum Beispiel staatenlos sind.
Auch wenn es am Ende nicht zur Abschiebung komme, hätten die Maßnahmen schwere Konsequenzen. „Häufig werden solche Grundrechtseingriffe zuerst an Geflüchteten oder anderen Gruppen mit geringer Beschwerdemacht getestet“, sagt sie. „Wenn Protest ausbleibt, werden sie später ausgeweitet.“
„Bundesgebiet unverzüglich verlassen“Idris sitzt weiterhin in Haft, inzwischen in der JVA Aachen. Er hofft darauf, dass er vorzeitig entlassen wird und einen Entzug machen kann, in einer christlichen Einrichtung für Suchthilfe. Dort war er schon einmal, bevor er rückfällig wurde.
Für ihn gilt allerdings weiterhin die Abschiebeanordnung aus Köln: „Sollten Sie aus irgendeinem Grund vorzeitig aus der Haft entlassen werden, haben Sie das Bundesgebiet unverzüglich, spätestens jedoch 14 Tage nach einer eventuellen Haftentlassung zu verlassen“, steht darin. Dass er das ohne Papiere nicht tun kann, ist klar.
Idris hat vor dem Verwaltungsgericht Köln Klage gegen seine Abschiebeanordnung eingereicht und bittet um eine Aufenthaltserlaubnis. Nur damit kann er eine von der Krankenkasse finanzierte Therapie machen. „Nach einer erfolgreichen Drogentherapie würde die Abkehr von meinen kleinkriminellen Aktivitäten wirklich näher rücken, die mir bislang nicht gelungen ist“, schreibt er. „Genau darin setze ich meine Hoffnungen. Diesen Weg möchte ich endlich gehen. Ich bin krank. Und ich möchte meine Krankheit überwinden.“
Das Schreiben hat er selbst mit Unterstützung verfasst, einen Rechtsbeistand hat er derzeit nicht.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Outsourcing und Ausbeutung: „Es gibt keine KI ohne Datenarbeit“
Hinter dem Erfolg von Künstlicher Intelligenz und Sozialen Medien stecken ausgebeutete Arbeiter:innen. Bei einem Fachgespräch im Deutschen Bundestag wurde heute diskutiert, wie ihre Lage verbesser werden kann. Die Botschaft der Sachverständigen war klar: Deutschland muss mehr Verantwortung übernehmen.
Die Welt durch die Brille der Daten-Annotation – CC-BY 4.0 Elise Racine / betterimagesofai.orgIm Bundestag wurde heute erstmals über die Arbeitsbedingungen von Datenarbeiter:innen hinter Künstlicher Intelligenz und Sozialen Medien diskutiert. Die Ausschüsse für Digitales und Arbeit hatten zu einem Fachgespräch zum Thema Data Labeling geladen. Die klare Botschaft der drei Sachverständigen: Wenn Deutschland auf KI setzt, dann muss es mehr Verantwortung für die Menschen im Maschinenraum der Technologie übernehmen.
Als Data Labeling oder auch Daten-Annotation bezeichnet man eine Tätigkeit, bei der Menschen zum Beispiel Bildmaterial mit Metadaten versehen, also mit Labels, die den Inhalt beschreiben. Das ist unter anderem für Machine-Learning-Systeme erforderlich, die hinter fast allem stehen, auf dem heute das Label „KI“ klebt. Die Arbeiter:innen sind selten bei den Tech-Konzernen selbst beschäftigt, sondern werden häufig unter ausbeuterischen Bedingungen bei Outsourcing-Firmen oder -Plattformen angestellt.
Seit Jahren bringen Whistleblower:innen, Aktivist:inen, Forscher:innen und Journalist:innen die unsichtbar gemachten Arbeitskräfte in die Öffentlichkeit. Auch wir auf netzpolitik.org berichten kontinuierlich darüber. Die Arbeitsbedingungen in der Branche haben sich aber kaum verbessert, weshalb Erwartungen an die Politik groß sind. Das heutige Fachgespräch, an dem sich Abgeordnete von Union, SPD, Grünen und Linkspartei beteiligten, könnte ein Anfang sein. An konkreten Ideen, wie sich die Lage der Arbeiter:innen verbessern lässt, mangelt es jedenfalls nicht.
„Sie sehen die KI, aber uns sehen Sie nicht“Die ehemalige Datenarbeiterin Joan Kinyua war virtuell aus der kenianischen Hauptstadt Nairobi zugeschaltet. Sie habe mehr als acht Jahre in der Branche gearbeitet hat, die „Künstlicher Intelligenz dabei hilft, die Welt zu verstehen“. Für unterschiedliche Anbieter habe sie unter anderem Bilder von Straßen mit Metadaten versehen, damit selbstfahrende Autos keine Unfälle bauen. Auch mit Straßenszenen aus Berlin habe sie arbeiten müssen (lest dazu mehr in unserem kürzlich veröffentlichten Interview mit Joan).
Später habe sie auch Bilder mit Gewaltdarstellungen klassifizieren müssen, sogar solche, die Gewalt an Kindern zeigten. Gleichzeitig habe sie selbst Daten für das KI-Training erzeugen sollen, indem sie Bilder ihrer Tochter zur Verfügung stellt.
Ausgeübt habe sie die Tätigkeit meist vom eigenen Computer zuhause, über sogenannte Microwork-Plattformen – „ohne Arbeitsvertrag, Sozialversicherung oder Gesundheitsversorgung“. Oft habe sie stundenlang auf neue Aufträge warten müssen, teilweise bis zu 20 Stunden am Tag auf Stand-By. Immer wieder hätten Auftraggeber:innen ihre Ergebnisse abgelehnt. Den Input hätten sie trotzdem behalten, sie selbst sei leer ausgegangen. So habe es Tage gegeben, an denen sie in fünf Stunden nur zwei Cent verdient habe. Im Schnitt würden Datenarbeiter:innen in Kenia 250 US-Dollar im Monat verdienen, was kaum zum Überleben reiche.
Von ihrer Arbeit habe sie außerdem Panik-Attacken und Angstzustände erhalten. Wie ihr gehe es vielen in der Branche, schildert Kinyua. Als Präsidentin der kenianischen Data Labelers Association vertrete sie inzwischen die Interessen von mehr als tausend Datenarbeiter:innen. Viele von ihnen litten unter posttraumatischen Belastungsstörungen.
„Sie sehen die KI, aber uns sehen Sie nicht“, so beschrieb Joan Kinyua den Abgeordneten ihre Lage. Es sei auch in der Verantwortung des Deutschen Bundestages, das zu ändern und für bessere Bedingungen zu sorgen. Unter anderem schlug die Kenianerin Mindeststandards für Datenarbeiter:innen in Deutschland und weltweit vor. Dazu zählt auch eine Obergrenze für die Arbeit an belastenden Inhalten. Zudem brauche es unabhängige Audits der Anbieter, sowie Register für KI-Arbeiter:innen und ganz grundsätzlich mehr Transparenz über Outsourcing und Lieferketten von Tech-Konzernen.
Milliarden-Profite dank PrekarisierungDr. Milagros Miceli von der TU Berlin berichtete von ihren Erkenntnissen aus fast einem Jahrzehnt Forschung zu Datenarbeit. Die von Joan Kinyua geschilderten Arbeitsbedingungen seien „kein Einzelfall, sondern ein konstantes Muster“. Oder genauer gesagt: das Geschäftsmodell einer milliardenschweren Branche.
Der von ihr geprägte Begriff der Datenarbeit umfasse mehr als das Labeling von Daten im engeren Sinne: Auch das Generieren und Sammeln von Daten zähle dazu, in zunehmendem Maße außerdem die Validierung des algorithmischen Outputs und das Korrigieren von Fehlern. Zudem müssten Arbeiter:innen immer wieder so tun, als seien sie eine KI.
Miceli ist eine der Initiator:innen des „Data Workers Inquiry“, in dem Datenarbeiter:innen von ihrer Wirklichkeit berichten. Kürzlich hat das Projekt die Geschichte einer Person veröffentlicht, die sich als AI Girlfriend ausgeben musste, also als Chatbot, der eine Liebesbeziehung mit seinen Nutzer:innen simuliert.
Die unterschiedlichen Formen der Datenarbeit seien essenzieller Bestandteil von KI-Produkten, einer Studie zufolge würde sie 80 Prozent der Entwicklungsarbeit von Künstlicher Intelligenz ausmachen. Miceli ist in ihrer Botschaft deshalb klar: „Ohne Datenarbeit und ohne Menschen wie Joan Kinyua gibt es keine KI“. Tech-Konzerne würden Milliarden damit verdienen „dass sie Arbeiter:innen durch Outsourcing und Plattformisierung prekarisieren und austauschbar machen“. Wenn Deutschland KI fördern wolle, müsse deshalb unbedingt für bessere Arbeitsbedingungen sorgen.
Viele der Arbeiter:inen seien hochqualifiziert, hätten Bachelor-Abschlüsse oder sogar promoviert, berichtet die Forscherin. Dabei sei wichtig, dass die Tätigkeit nicht auf Länder wie Kenia beschränkt ist, sondern auch in Deutschland und Europa viele Menschen in der Branche tätig seien. Wie viele genau, das könne man aufgrund der Intransparenz der Unternehmen nicht sagen.
Probleme bei Gesundheits- und DatenschutzBekannt ist, dass mehrere Tech-Konzerne und Outsourcing-Unternehmen in Deutschland große Zentren für die Moderation von Inhalten auf Social-Media-Plattformen unterhalten. Eine Tätigkeit, die die Sachverständigen ebenfalls zum Feld der Datenarbeit zählt und die bereits vor drei Jahren bei einem Fachgespräch im Bundestag Thema war. Julia Kloiber vom Superrr Lab war damals bereits dabei und wies heute erneut darauf hin, dass dabei oft Menschen in vulnerablen Lebenssituationen ausgenutzt würden.
Kloiber empfahl unter anderem besseren Schutz für Menschen, die mit schädlichen Inhalten arbeiten müssen. Bei der Polizei etwa, wo ebenfalls Menschen mit Darstellungen von Kindesmissbrauch arbeiten müssten, gebe es klare Expositionsbegrenzungen. Auch für Datenarbeiter:innen brauche es eine Obergrenze, die die Arbeit mit belastendem Material festlegt. Außerdem brauche es Trauma-Prävention und Zugang zu professioneller psychologischer Unterstützung.
Der fehlende Schutz habe nicht nur schwerwiegende Folgen für die Betroffenen, sondern auch für das Gesundheitssystem, schließlich könnten Menschen ein ganz Leben lang unter posttraumatischen Belastungsstörungen leiden. Manchmal könnten sie deshalb nicht mehr arbeiten. Die dadurch entstehenden Kosten würden von den Tech-Konzernen externalisiert und von der Allgemeinheit aufgefangen.
Kloiber wies zudem auf Datenschutzprobleme beim Outsourcing hin: Nicht nur würden die Datenarbeiter:innen selbst stark überwacht, bei ihnen landeten auch große Mengen personenbezogener Daten und sensibler Inhalte. Erst kürzlich hatten Datenarbeiter:innen als Whistleblower:innen darüber berichtet, dass sie Aufnahmen aus Meta-Brillen bearbeiten müssten und dabei auch Nacktaufnahmen und andere intime Szenen von Nutzer:innen zu Gesicht bekämen.
„Unsere digitale Zukunft darf nicht auf Ausbeutung fußen“Deutlich wurde bei dem Fachgespräch, dass auch deutsche Firmen davon profitieren, dass sie prekäre Arbeit an Menschen wie Joan Kinyua auslagern. Auch die Auto-Industrie, die Pharma-Branche oder Tech-Unternehmen wie Siemens gehörten zu den Kunden von Outsourcing-Unternehmen im Datenbereich, berichtete etwa Milagros Miceli.
Für Julia Kloiber ist klar, dass Deutschland deshalb auch Verantwortung übernehmen müsse. Eine Untersuchung des Fairwork-Projekt der Universität Oxford und Wissenschaftszentrums Berlin habe die Löhne von vier Outsourcing-Unternehmen untersucht. Nur zwei von ihnen hätten Mindestlohn gezahlt, keines den sogenannten Existenzlohn („Living Wage“), der nicht nur das bloße physische Überleben, sondern auch soziale und kulturelle Teilhabe ermöglicht.
Einen wichtigen Ansatzpunkt sieht die Geschäftsführerin des Superrr Lab deshalb in der Regulierung von Lieferketten. Hier drohe der hohe Standard des erst kürzlich eingeführten und dann schon wieder halb gecancelten deutschen Lieferkettengesetzes abgesenkt zu werden. Die Schwarz-Rote Koalition hatte sich darauf geeinigt, nicht über die – ebenfalls gerade ausgehöhlte – EU-Lieferkettenrichtlinie hinauszugehen.
Bei der Umsetzung der Richtlinie müsse Deutschland sicherzustellen, dass der Geltungsbereich nicht eingeschränkt werde. Die EU-Regeln sollen nur Unternehmen ab 5000 Beschäftigten und einem Umsatz von 1,5 Milliarden Euro gelten. In Deutschland würden dann 95 Prozent der Unternehmen von den Sorgfaltspflichten für ihre Lieferketten entbunden, so Kloiber.
Die Expertin brachte zudem ein Direktanstellungsgebot ins Spiel, wie es erst kürzlich gefeuerte und streikende TikTok-Angestellte in Deutschland gefordert hatten. Ganz grundsätzlich Kloiber eine realistischere Kosten-Nutzen-Rechnung, wenn in Deutschland KI ausgebaut und etwa in der Verwaltung eingesetzt werde. Soziale und auch ökologische Kosten dürften nicht länger ausgeblendet werden: „Unsere digitale Zukunft darf nicht auf Ausbeutung fußen.“
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
EuGH präzisiert: Sampling geht klar
Der legendäre Urheberrechtsfall „Metall auf Metall“ geht in die letzte Runde. Der Europäische Gerichtshof hat gerade nach weitläufiger Auffassung das Recht auf Remix und Sampling gestärkt. Jetzt muss noch der Bundesgerichtshof final entscheiden.
Kraftwerk live bei einem Konzert. Die Band hatte 1999 wegen eines Samples geklagt. – Alle Rechte vorbehalten IMAGO / Future ImageDer Europäische Gerichtshof hat eine Entscheidung präzisiert, die es ermöglicht, urheberrechtlich geschützte Werke ohne Zustimmung ihrer Rechtsinhaber:innen zu verwenden. Demnach müssen bestimmte Voraussetzungen zutreffen, damit ein Sample als erlaubtes „Pastiche“ gilt.
27 Jahre – so lange streiten sich der Musikproduzent Moses Pelham und die Band Kraftwerk bereits vor Gericht. Recht auf Sampling gegen Urheberrecht. Gestritten wird um einen zwei Sekunden langen Musikschnipsel aus dem Kraftwerk-Song „Metall auf Metall“. Der stammt aus 1977. Rund 20 Jahre später schnitt Pelham aus den zwei Sekunden die Dauerschleife für den Song „Nur mir“ von Sabrina Setlur. Kraftwerk klagte 1999 dagegen.
Das Oberlandesgericht Hamburg, der Bundesgerichtshof, das Bundesverfassungsgericht und der Europäische Gerichtshof – sie alle haben sich im letzten Vierteljahrhundert mit dem Fall beschäftigt. Derweil ist das Samplen gängige Kulturpraxis, nicht nur in HipHop und Techno.
Um eine Rechtsgrundlage zu schaffen, führte die EU 2019 eine „Pastiche-Regel“ ein, die 2021 im deutschen Urheberrecht verankert wurde. Dort heißt es in § 51a Karikatur, Parodie und Pastiche: „Zulässig ist die Vervielfältigung, die Verbreitung und die öffentliche Wiedergabe eines veröffentlichten Werkes zum Zweck der Karikatur, der Parodie und des Pastiches. Die Befugnis nach Satz 1 umfasst die Nutzung einer Abbildung oder sonstigen Vervielfältigung des genutzten Werkes, auch wenn diese selbst durch ein Urheberrecht oder ein verwandtes Schutzrecht geschützt ist.“
Wann ist Pastiche Pastiche?Nun hat der Europäische Gerichtshof sich zur Tragweite der Ausnahme für „Pastiches“ im Zusammenhang mit dem Sampling geäußert. Demnach sei entscheidend, ob die Neuschöpfung im Zuge des Samplings mit den urheberrechtlich geschützten Werken einen „erkennbaren künstlerischen oder kreativen Dialog“ führe, „gleichzeitig aber wahrnehmbare Unterschiede“ aufweise. Beispielsweise in Form einer offenen Nachahmung des Stils oder kritischer Auseinandersetzung. Auf diese Weise solle ein angemessener Rechts- und Interessenausgleich zwischen Rechteinhaber:innen und der Kunstfreiheit gesichert werden. Eine Nachahmung ohne erkennbare Auseinandersetzung mit dem Original sei demnach kein zulässiges Pastiche.
Nach weitläufiger Interpretation hat der Europäische Gerichtshof damit das Recht auf Remix und Sampling gestärkt – und damit geht der Fall „Metall auf Metall“ in die letzte Runde und zurück an den Bundesgerichtshof in Karlsruhe: Dieser muss nun entscheiden, ob Pelham sich in dem Song von 1997 in einem ausreichenden Dialog mit „Metall auf Metall“ befindet und wahrnehmbare Unterschiede bestehen.
Das Oberlandesgericht Hamburg hatte bereits festgestellt, dass die Rhythmussequenz trotz leichter Abwandlung in „Nur mir“ als Anspielung auf das Original erkennbar bleibe – darauf weist der Europäische Gerichtshof hin. Fraglich ist jetzt, ob der Bundesgerichtshof dieser Auffassung folgen wird.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Gesichtsscan und Handy-Zwang: Von der Leyen erklärt Alterskontroll-App für „fertig“
Mit einer Handy-App für iOS und Android sollen Menschen in der EU künftig ihr Alter gegenüber Plattformen nachweisen. Doch der Nutzen zum Schutz von Kindern und Jugendlichen ist fraglich. Nutzende sollen zudem ihr Gesicht scannen lassen.
Ursula von der Leyen verspricht mehr, als die Alterskontroll-App (derzeit) kann. – Alle Rechte vorbehalten IMAGO / Andalou ImagesEU-Kommissionspräsidentin Ursula von der Leyen (CDU) und Digitalkommissarin Henna Virkkunen haben heute die neue Alterskontroll-App der EU vorgestellt. Mit ihr sollen Menschen in der EU ihr Alter gegenüber altersbeschränkten Online-Diensten nachweisen können.
Von der Leyen zufolge sei die App „technisch fertig“ und funktioniere auf „jedem“ Gerät. Allerdings soll es die App zunächst nur für iOS und Android geben. Auf den üblichen App-Marktplätzen ist sie zudem noch nicht verfügbar. Das heißt, die App ist noch nicht fertig und läuft nicht auf jedem Gerät.
Vielmehr sollen nun Entwickler*innen den Code nutzen, um daraus eigene Versionen der App zu bauen und auf den Markt zu bringen. Die EU-Kommission hofft sogar darauf, dass die App ein weltweiter „Goldstandard“ werde, wie ein Kommissionsbeamter in einem nachgelagerten Pressebriefing erklärte.
Alterskontrollen sind einerseits eine Option, mit der Plattformen Minderjährige schützen sollen; Grundlage ist das Gesetz über digitale Dienste (DSA). Andererseits sind verpflichtende Alterskontrollen eine Kernforderung für die Durchsetzung eines Social-Media-Verbots für Minderjährige, auf das mehrere EU-Mitgliedstaaten derzeit drängen.
Nutzende sollen ihr Gesicht scannen lassenBereits vor einem Jahr hatte die EU ein Konzept für die App vorgestellt; wenig später folgte ein Prototyp mit Google-Bindung. In der App sollen Nutzer*innen zunächst ihr Ausweisdokument hinterlegen können. Dann sollen sie per Handy-Kamera ihr Gesicht scannen lassen, wie ein neues Werbevideo der EU-Kommission zeigt.
Die App soll daraufhin prüfen, ob das gescannte Gesicht mit dem Foto auf dem Ausweis übereinstimmt. Dabei kommt offenbar ein biometrischer Vergleich zum Einsatz. Einmal eingerichtet soll die App einem Online-Dienst mitteilen können, ob man bereits 18 Jahre alt ist oder nicht – ein Klarname soll nicht übermittelt werden.
Bist du’s wirklich? Video der EU-Kommission zeigt Gesichtserkennung in der Alterskontroll-App. - Alle Rechte vorbehalten EU-KommissionDass die App auch das Gesicht der Nutzer*innen scannen soll, war zuvor nicht Thema. Selbst in ihrer Rede zur Vorstellung der App betonte von der Leyen: Man wolle nicht, dass Plattformen Gesichter scannen. Ein Scan durch die Alterskontroll-App dagegen ist für die EU-Kommission offenbar in Ordnung.
Für die Akzeptanz in der Bevölkerung könnte das ein Problem sein. Gegenüber netzpolitik.org sagte etwa Anja Treichel, Geschäftsführerin des Vereins „Bundeselternnetzwerk der Migrantenorganisationen für Bildung & Teilhabe“, im März:
Viele Familien – insbesondere solche mit Flucht- oder Migrationserfahrungen und solche, die in Diktaturen/ autoritären Regimen aufgewachsen sind – sind sensibel gegenüber staatlicher oder kommerzieller Datenerfassung. Biometrische Verfahren können Vertrauen in digitale Angebote untergraben. Alterskontrollen sollten daher möglichst datensparsam und freiwillig gestaltet sein.
Von der Leyen nennt irreführende Gründe für AlterskontrollenDie Rede der Kommissionspräsidentin zur neuen Alterskontroll-App ist an mehreren lückenhaft oder irreführend. Zunächst listet von der Leyen eine Reihe von Risiken und Gefahren für Minderjährige auf, die sich angeblich mithilfe der Alterskontroll-App bekämpfen lassen sollen:
- Cybermobbing
- suchtfördernde Designs
- personalisierte Inhalte
- Bildschirmzeit
- schädliche und illegale Inhalte
- Grooming, also die sexuelle Anbahnung von Kontakten durch Erwachsene
Für einen Großteil dieser Gefahren erweisen sich Alterskontrollen jedoch als Scheinlösung.
Cybermobbing erleben junge Menschen in großen Teilen im Umfeld aus Gleichaltrigen, oftmals sogar Mitschüler*innen – Alterskontrollen können dagegen nichts ausrichten.
Suchtfördernde Designs und personalisierte Inhalte lassen sich durch das Gesetz über digitale Dienste und möglicherweise den kommenden Digital Fairness Act abmildern oder gänzlich verbieten. Das schützt nicht nur Minderjährige, sondern alle. Es wäre im Vergleich dazu weniger zielführend, lediglich jüngere Menschen von betroffenen Plattformen auszuschließen.
Bei der Bildschirmzeit junger Menschen in Deutschland wiederum spielt laut KIM-Studie 2024 Fernsehen eine dominante Rolle. Alterskontrollen für Online-Dienste dürften daran wenig ändern. Die drei häufigsten Freizeit-Aktivitäten von unter 14-Jährigen in Deutschland sind der Studie zufolge: Freund*innen treffen, Fernsehen, Hausaufgaben. Erst weiter hinten kommen „Videos, Filme und Serien online“ – noch hinter der Aktivität „Draußen spielen“.
Schädliche und illegale Inhalte suchen und finden junge Menschen auch gezielt auf Seiten, die sich nicht an Regeln halten. Eine Rolle spielen dabei unter anderem Neugier und Mutproben. Alterskontrollen dürften den Zugang hierzu nicht stoppen.
Beim Grooming suchen Erwachsene über Chats Kontakt zu Minderjährigen, gerade an digitalen Orten, wo sich viele junge Menschen aufhalten. Hier könnten nach Alter abgestufte Funktionen ein Baustein sein. So lassen sich Accounts von Minderjährigen etwa abhärten, sodass Fremde sie schwerer kontaktieren können. Denkbar wäre auch, Direktnachrichten von Erwachsenen an junge Menschen einzuschränken. Flächendeckende, ausweisbasierte Kontrollen bräuchte es dafür jedoch nicht; eine Alternative sind sichere Voreinstellungen.
Von der Leyen ignoriert Warnungen aus der WissenschaftDie zweite Leerstelle in von der Leyens Rede: Sie blendet fundamentale Bedenken an Alterskontrollen aus. Anfang März haben 400 Forscher*innen aus 29 Ländern in einem offenen Brief gefordert: Staaten sollen ihre Pläne für Alterskontrollen stoppen. Es fehle ein klares Verständnis für die Folgen der Technologie in Bezug auf „Sicherheit, Privatsphäre, Gleichberechtigung“ und die „Autonomie“ aller Menschen. Die Einführung von Alterskontrollen ohne weitere Forschung sei „gefährlich und gesellschaftlich nicht hinnehmbar“.
Durchblick statt Schnellschüsse Recherchen wie diese sind nur möglich durch eure Unterstützung. Jetzt SpendenEin zentraler Kritikpunkt an Alterskontrollen sind Einschnitte in die Grundrechte auf Teilhabe und Information von allen, die die neuen Hürden nicht überwinden können oder wollen. Es geht um allein in Deutschland schätzungsweise Hunderttausende Menschen, die keine Papiere haben – oder zumindest keine, die mit einer Ausweis-App kompatibel wären. Hinzu kommen Menschen, die ihre Ausweispapiere schlicht nicht digital scannen wollen oder kein (geeignetes) Handy haben.
Für sie müsste es also Alternativen geben. Eine bereits verbreitete Methode sind – einmal mehr – KI-basierte Gesichtsscans. Dann würde eine Software das Alter einer Person abschätzen. Die deutsche Medienaufsicht empfiehlt diese Technologie bereits für unter anderem Pornoseiten; in Australien kommt sie für altersbeschränkte Social-Media-Plattformen zum Einsatz. Einerseits ist solche Software fehleranfällig und diskriminierend, andererseits birgt die Technologie Risiken für Datenschutz und Privatsphäre.
Die App soll auf Google, Apple und Pseudonyme setzenAn mindestens zwei Stellen preist von der Leyen Fähigkeiten der App an, die nicht den online beschriebenen Funktionen entsprechen.
Erstens sei die App von der Leyen zufolge „komplett anonym“. Anonym bedeutet ohne Namen. Aktivitäten lassen sich niemandem zuordnen. In den App-Spezifikationen steht jedoch: „Es werden Domain-spezifische Kennungen oder Pseudonyme verwendet“. Das kann bedeuten: Je nach Online-Dienst erhalten Nutzer*innen ein Pseudonym, zum Beispiel für eine bestimmte Videoseite. Folglich wäre es möglich, dass diese Videoseite durchaus mehrere Aktivitäten diesem einen Pseudonym zuordnen kann.
Von einem Pseudonym zum Klarnamen wäre es dann mitunter nicht mehr allzu weit. Denn Website-Betreiber*innen könnten zur Unterscheidung von Nutzer*innen weitere Eckdaten heranziehen, etwa IP-Adresse und Browser-Einstellungen. Eine tatsächlich anonyme Alterskontrolle würde dagegen ohne ein solches Domain-spezifisches Pseudonym arbeiten. Nutzer*innen würden gegenüber Website-Betreibenden bei jeder Session als jemand anderes erscheinen.
Weiter erklärte von der Leyen, die App solle für „jedes“ Gerät verfügbar sein. Die Kommissionspräsidentin zählte daraufhin jedoch keine Betriebssysteme auf, sondern Hardware: „Handy, Tablet, Computer“. Das ist irreführend. Ausdrücklich erwähnt werden in den Spezifikationen der App nur die mobilen Betriebssysteme iOS und Android. Die Veröffentlichung einer Alterskontroll-App für andere Plattformen ist demnach nur optional. Freie und alternative Betriebssysteme wie Linux fallen unter den Tisch.
Auch Nachfrage von netzpolitik.org bestätigt ein EU-Beamter, dass sich die EU-Kommission bei der bisherigen Arbeit an der App auf iOS und Android fokussiert habe. Das heißt: Wer künftig sein Alter nachweisen will, muss ein entsprechend ausgestattetes Handy haben. Allerdings wolle man sicherstellen, dass zumindest in Zukunft „jedes“ andere System abgedeckt werde, so der Beamte. Dabei verwies er auf den „Markt“.
Der Markt dürfte hier allerdings keine große Hilfe sein. Gerade wenn es um nicht-kommerzielle Alternativen geht, die wenig finanzielle Anreize bieten. Bis auf Weiteres setzt die Alterskontroll-App also auf kommerzielle, von US-Konzernen kontrollierte Betriebssysteme – eine schlechte Nachricht für sogenannte technologische Souveränität.
Wer nicht mitmachen will, soll ein VPN nutzenWasserdicht sind die mit der App geplanten Alterskontrollen ohnehin nicht, das weiß auch die EU-Kommission. So fragte ein Journalist im Pressebriefing, ob sich auch Tourist*innen, etwa aus den USA, mit der App verifizieren müssten, falls sie ihren Urlaub auf Instagram begleiten wollten. Daraufhin erklärte der EU-Beamte: Ja, das müssten sie – oder aber sie nutzten einen VPN-Dienst.
Mit einem VPN-Dienst können Nutzer*innen gegenüber Online-Diensten einen anderen IP-basierten Standort vortäuschen. So lässt sich der Eindruck erwecken, sie riefen eine Seite nicht etwa aus der EU auf, sondern beispielsweise von einem anderen Kontinent. Die an einen EU-Standort gebundenen Alterskontrollen entfallen.
Der Trick mit dem VPN gilt jedoch nicht nur für US-Tourist*innen, sondern für alle, die Alterskontrollen umgehen möchten. Also auch für Minderjährige, die die EU-Kommission mit ihrer Alterskontroll-App angeblich vor unter anderem Mobbing oder suchtfördernden Designs schützen will.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
EU-Forschungsabteilung: Ein Internet ohne schädliche Anreize ist möglich
Soziale Netzwerke und ihre auf Überwachung und Personalisierung basierenden Geschäftsmodelle schaffen Anreize, die letztlich die Demokratie gefährden. Für die EU ist es höchste Zeit, dem etwas entgegenzusetzen, fordert eine umfassende Studie der Forschungsabteilung der EU-Kommission.
Blühende Orte, ob online oder offline, lassen sich schaffen, wenn politischer Wille vorhanden ist. (Symbolbild) – Alle Rechte vorbehalten IMAGO / imagebrokerEs ist schon eine Ansage: Die EU sollte in ihrem Streben nach digitaler Souveränität neue Geschäftsmodelle im digitalen Raum entwickeln, die besser mit der Demokratie vereinbar sind. Zu diesem Schluss kommt eine neue Studie der Gemeinsamen Forschungsstelle der EU-Kommission.
Der Titel der englischsprachigen Studie ist so alarmierend wie programmatisch: „Fractured reality – How democracy can win the global struggle over the information space“ (auf Deutsch: „Zersplitterte Realität – Wie die Demokratie den globalen Kampf um den Informationsraum gewinnen kann“). Verfasst haben sie ein Dutzend renommierter Forscher:innen zu dem Thema, darunter die Hauptautoren, der Kognitionspsychologe Stephan Lewandowsky und der Verhaltensforscher Mario Scharfbillig.
Aufmerksamkeitsökonomie unter der LupeIn der heutigen „Aufmerksamkeitsökonomie“ ist die Zeit und Aufnahmefähigkeit von Menschen begrenzt, schreiben die Autor:innen. Viele Online-Dienste, insbesondere soziale Medien, kämpfen geschickt um das kostbare Gut: Sie haben ihre personalisierten Produkte so gestaltet, dass Nutzer:innen möglichst lange auf ihrem Dienst bleiben. Dann können sie ihnen möglichst viele und passgenaue Werbeanzeigen einblenden.
Dies begünstige „strukturell – wenn auch unbeabsichtigt – Inhalte, die die Demokratie bedrohen, da die menschliche Aufmerksamkeit Informationen bevorzugt, die negativ, emotional und konfliktgeladen sind“, heißt es in der Studie. Zudem würden die Dienste den Weg zu Echokammern ebnen. In diesen würden sich Menschen gegenseitig unwidersprochen ihre Ansichten bestätigen.
Grundsätzlich neu sei dieses Phänomen zwar nicht, jedoch ermögliche Technologie eine zuvor ungekannte Vielfalt und Fragmentierung von Wahrnehmungen der Realität. Dies sei ein Problem: „Demokratische Institutionen und die Demokratie selbst können ohne ein gewisses Maß an gemeinsamer Realität nicht überleben.“
Wenn sich soziale Medien nun zunehmend zu einer wichtigen Informationsquelle entwickeln und sich strukturell bedingt Informationen minderwertiger Qualität schneller verbreiten, öffnet das die Tür für Falschnachrichten, ob unbeabsichtigt (Misinformation) oder bewusst gestreut (Desinformation). Inzwischen habe sich das Phänomen jedoch gewandelt: Es gehe nicht mehr darum, konkrete Behauptungen aufzustellen oder anzufechten, sondern darum, den Informationsraum zu überfluten („flooding the zone“).
Dominanter Fantasie-Industrie-KomplexWährend Informationsmanipulation früher auf „systematischen Lügen“ basierte, setze sich die heutige Situation aus einer Mischung aus Desinformation, Täuschung, irreführenden Informationen und wahren Kernen zusammen. Die Autor:innen beschreiben dies als „Fantasie-Industrie-Komplex“, der sich selbst organisiere und lose koordiniert sei.
Ziel der Informationsmanipulation sei es heute oft nicht, Menschen von bestimmten falschen Behauptungen zu überzeugen, sondern „abzulenken, Misstrauen zu schüren und antidemokratische Normen, autoritäre Instinkte und Verhaltensweisen zu aktivieren“. Dies sei ein systemisches Problem, betonen die Autor:innen. „Einzelpersonen für Fehlinformationen verantwortlich zu machen, verkennt die eigentliche Ursache.“
Mit diesem „Fantasie-Industrie-Komplex“ ist eine der Ko-Autor:innen allzu gut vertraut. Als Studentin hatte die heute an der Georgetown University lehrende Desinformationsforscherin Renée DiResta ein Praktikum beim US-Geheimdienst CIA absolviert. Daraus drehten ihr rechte und rechtsextreme US-Influencer:innen einen Strick: Unter anderem Elon Musk nutzte seinen Einfluss sowie die Tatsache, den Kurznachrichtendienst X zu besitzen, um mit vermeintlichen Enthüllungen über einen „Zensur-Industrie-Komplex“ politisch Stimmung zu machen.
Im Zentrum der Auseinandersetzung fand sich DiResta wieder. In einschlägigen Ecken des Internets als „CIA Renee“ verunglimpft, ging es ihren Widersacher:innen vor allem darum, ihre Glaubwürdigkeit und in weiterer Folge die des Stanford Internet Observatory (SIO) zu beschädigen. Zu dieser Zeit forschte DiResta dort zu Desinformation und landete im Visier von US-Republikanern. Denen gefiel nicht, dass das SIO ihre oft auf Lügen basierende Wahlkampftaktik offenlegte.
Republikaner hacken Forschung kurz und kleinDer konzertierte Angriff auf das SIO und eine Reihe anderer vergleichbarer Institute, der auch aus Anhörungen im republikanischen Repräsentantenhaus bestand, hatte schließlich Erfolg. Verträge wurden nicht verlängert, das Budget gekürzt, im Jahr 2024 machte die Stanford University das SIO ganz dicht – gerade noch rechtzeitig vor den US-Präsidentschaftswahlen im Herbst.
Auf den Druck von rechts reagierten neben US-Universitäten auch einige prominente soziale Netzwerke: Meta kündigte etwa öffentlichkeitswirksam an, zeitgleich zum Amtsantritt Donald Trumps seine Moderationsregeln auf Facebook und Instagram zurückzuschrauben. Im Sommer darauf zog auch YouTube still und heimlich nach. Solange Falschinformationen rund um Themen wie Impfungen, Minderheiten oder Wahlbetrug im „öffentlichen Interesse“ stehen, bleiben sie auf dem größten Video-Streamingportal der Welt unmoderiert stehen.
Vor dieser von der Realität weitgehend losgelösten Entwicklung warnen die Autor:innen der EU-Studie. „Demokratie braucht einen gesunden Informationsraum, der ausreichend genaue und überprüfbare Informationen enthält, eine politische Vielfalt an Meinungen und Stimmen zulässt, breit gefächerte Besitzverhältnisse im Medienbereich umfasst sowie ein geringes Maß an schädlichen Inhalten und Fehlinformationen aufweist, wenn wir ein gewisses Realitätsgefühl erhalten wollen“.
Abkehr von der AufmerksamkeitsökonomieUm dem etwas entgegenzusetzen, bringen die Autor:innen konkrete Empfehlungen mit. Zuvorderst müssten wir alternative öffentliche Räume schaffen, sowohl online als auch offline, die nicht von der Aufmerksamkeitsökonomie abhängen. Wir sollten uns auch vom Erfolg crowd-basierter und dezentraler Ansätze wie jenem der Online-Enzyklopädie Wikipedia inspirieren lassen.
Nutzer:innen sollten zugleich mehr Autonomie erhalten, etwa mit einer Verbesserung des Plattformdesigns durch Erkenntnisse aus der Verhaltensforschung. Beispielsweise durch Abkühlphasen – etwas, was der anstehende Digital Fairness Act der EU durchaus auf dem Schirm hat.
Verbesserungsmöglichkeiten macht die Studie auch bei Faktenchecks aus. Selbst wenn diese stattfinden, erreichen sie oft ihr Zielpublikum nicht. Das ließe sich durch angepasste Ausspiel-Mechanismen verändern. Zudem sollten ausgewiesene Verbreiter:innen von Falschinformationen demonetarisiert werden: „Solange Desinformation profitabel ist, wird sie nicht verschwinden“.
Indes weisen die Autor:innen darauf hin, dass keine dieser Maßnahmen ausreiche, wenn keine Alternativen zu den derzeitigen Geschäftsmodellen entstehen, die auf „Engagement“ basierten. Als Alternativen stellen sie unter anderem Abo-Modelle in den Raum, eine Besteuerung digitaler Werbeanzeigen, oder auch Gebühren für Online-Dienste, die besonders viel Falschinformationen verbreiten. Helfen könnten auch Auflagen zu Interoperabilität, mit der Nutzer:innen ihre Daten möglichst einfach von einem Anbieter zu einem anderen mitnehmen und umziehen könnten.
Papiertiger ohne europäische AlternativenBleibt aber immer noch das Problem, dass die meisten großen Online-Dienste derzeit nicht aus Europa stammen. Forschungsergebnisse deuten der EU-Studie zufolge darauf hin, dass Algorithmen von Plattformbetreibern zu deren Gunsten instrumentalisiert werden – was sich wohl am deutlichsten an dem zur rechten Propagandaplattform umgebauten X ablesen lässt.
„Die Informationsdiät der Europäer liegt somit in den Händen ausländischer Akteure, die möglicherweise nicht die europäischen demokratischen Werte teilen“, warnen die Autor:innen. Trotz der vorangegangenen Empfehlungen lassen sich diese Werte ohne digitale Souveränität und Autonomie der EU nicht vollständig schützen, schreiben sie.
Dabei dürfe die EU jedoch nicht in offenkundige Fallen tappen, warnt die Studie: „Es besteht derzeit die Gefahr, dass ein verstärktes Streben nach digitaler Souveränität auf Technologieebene die Chance auf einen besseren demokratischen Rahmen verspielt und ähnliche Probleme in Europa wiederholt, insbesondere wenn Geschäftsmodelle nicht mit demokratischen Prinzipien vereinbar sind.“
Mit demokratischen Modellen experimentierenUm die Stellung der EU im digitalen Raum zu stärken, sollte Europa in dezentrale System wie Atmosphere, Fediverse, Mastodon oder Eurosky investieren und zugleich eine europäische Cloud-Infrastruktur samt ausreichender Rechenkapazität schaffen. Damit ließe sich die Macht ausländischer Unternehmen schwächen, während die alternativen Dienste „demokratische Modelle in Echtzeit“ erforschen könnten. Neben finanzieller Förderung solcher Ansätze könnten etwa Verpflichtungen für öffentliche Einrichtungen und Behörden, die entstehenden Online-Dienste zu nutzen, anstatt auf X und Co. zu verharren, deren Attraktivität steigern.
Darüber hinaus sollte die EU bei der Forschung keine Kompromisse machen. „Das rasante Tempo des Wandels stellt die Forschung vor die Herausforderung, Schritt zu halten und Auswirkungen zu untersuchen, zumal Plattformdaten größtenteils privat bleiben“, heißt es in der Studie. Den im Digital Services Act (DSA) enthaltenen Zugang für die Wissenschaft, der bis heute noch nicht so recht vollständig umgesetzt ist, geht den Autor:innen augenscheinlich nicht weit genug.
Angesichts des Bedarfs an schnellerer Forschung und Evaluierung digitaler Strategien sei ein europäisches „CERN für Daten und Demokratie“ erforderlich, um die in Europa fragmentierten Kapazitäten für die kontinuierliche Plattformforschung im industriellen Maßstab zu bündeln. Trotz ihrer globalen Vorreiterrolle bei der Digitalregulierung sollte sich die EU lieber beeilen: „Ein globaler Innovationswettlauf ohne Berücksichtigung seiner gesellschaftlichen Folgen könnte die Fähigkeit der Gesellschaften überfordern, diese Veränderungen friedlich zu bewältigen.“
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Europarechts- und verfassungswidrig: Schwarz-Rot soll Pläne für biometrische Internetfahndung zurückziehen
Algorithm Watch stellt den Gesetzesentwürfen der Regierungskoalition ein fatales Zeugnis aus: Die Pläne, im Internet mit Biometrie nach jedweder Person zu suchen, verstoßen gegen Europarecht und gegen die Verfassung. Sie seien so unverhältnismäßig, dass nur ein Rückzug des Vorhabens angebracht sei.
Die schwarz-roten Gesetzespläne kommen einer Totalüberwachung des digitalen öffentlichen Raumes gleich. (Symbolbild) – CC-BY 4.0 Stefanie LoosDie Pläne der Bundesregierung, die digitalen Ermittlungsbefugnisse von Sicherheitsbehörden auszuweiten, sind nach Meinung der Organisation AlgorithmWatch europarechtswidrig und stehen im Konflikt mit verfassungsrechtlichen Mindestanforderungen und datenschutzrechtlichen Grundsätzen.
Dabei kommt AlgorithmWatch – wie auch schon zuvor die Gesellschaft für Freiheitsrechte (GFF) – zu dem Schluss, dass man dieses Gesetz nicht mit ein paar Änderungen verbessern könnte. Die verfassungs- und menschenrechtliche Unverhältnismäßigkeit lasse „ausschließlich die Empfehlung zu, die Gesetzentwürfe zurückzuziehen und ein grundsätzliches gesetzliches Verbot des Einsatzes biometrischer Massenerkennungssysteme für öffentliche und private Stellen einzuführen“, so die Zusammenfassung der Stellungnahme zum Gesetz (PDF).
„Flächendeckende Verfolgung aller Menschen im digitalen Raum“Die schwarz-rote Koalition plant in ihrem „Sicherheitspaket“ einerseits eine biometrische Massenfahndung im Internet zu erlauben sowie andererseits die Zusammenführung und Auswertung polizeilicher Daten mittels automatisierter Datenbankanalyse. Die Stellungnahme der Nichtregierungsorganisation fokussiert sich auf die biometrische Fahndung.
Diese biometrische Internetfahndung sieht die NGO sehr kritisch:
Der biometrische Abgleich ermöglicht die Identifizierung von Personen im öffentlichen Raum und im Internet auf Basis biometrischer Merkmale und schafft somit die technischen Voraussetzungen für eine flächendeckende Verfolgung aller Menschen im (digitalen) öffentlichen Raum.
Laut AlgorithmWatch berührt die Überwachungsmaßnahme zwangsläufig die Grundrechte aller Menschen, sie sei weder erforderlich noch verhältnismäßig. Betroffen seien dabei insbesondere die Grundrechte auf informationelle Selbstbestimmung und freie Meinungsäußerung.
Rückschlüsse auf politische EinstellungenDie NGO kritisiert, dass die Maßnahme heimlich erfolgt und eine extrem hohe Streubreite hat: Es seien einfach alle Menschen betroffen, deren Gesichtsbilder im Internet zu finden sind. Das ist heute ein großer Teil der Bevölkerung. Zudem gebe es erhebliche Diskriminierungsrisiken, wenn sensible Daten erfasst und verarbeitet werden, wie Aufnahmen von Demonstrationen, Parteiveranstaltungen, Pride-Events, Gewerkschaftskundgebungen oder Gottesdiensten. Solche Aufnahmen lassen Rückschlüsse zu auf politische Haltungen, Parteizugehörigkeit, sexuelle oder religiöse Einstellungen.
Darüber hinaus könnten durch die biometrische Internetfahndung auch Bilder aus dem Kernbereich privater Lebensführung ausgewertet werden wie etwa Kindergeburtstage oder private Familienfeiern. Dieser Kernbereich ist verfassungsrechtlich besonders geschützt. Die öffentliche Verfügbarkeit der Daten, die für einen Abgleich herangezogen werden, ändere nichts daran, dass Schutzbereiche der Grundrechte berührt sind.
In der Stellungnahme verweist AlgorithmWatch darauf, dass das Bundesverfassungsgericht bei Kfz-Kennzeichen, die deutlich weniger sensibel als biometrische Merkmale seien, hohe verfassungsrechtliche Anforderungen aufgestellt habe.
Auch seien die Anforderungen für die geplante massenhafte Verarbeitung biometrischer Daten zu unspezifisch sowie die Einsatzzwecke und Tatbestandsmerkmale zu breit und nicht gewichtig genug, als dass eine grundrechtskonforme Anwendung realistisch erscheine. Hier verweist die Organisation auf den Straftatenkatalog des § 100a Abs. 2 StPO , der regelmäßig erweitert und angepasst werde und sich deshalb nicht zur klaren Begrenzung der Maßnahmen auf schwerwiegende Straftaten eigne. Diese Kritik hatte auch die GFF geäußert.
Technische Ausgestaltung unklarDer Gesetzentwurf lege außerdem „völlig unzureichend“ dar, wie die Überwachungsmaßnahme technisch vonstattengehen soll. Einerseits sollen die die im Rahmen des biometrischen Abgleichs erhobenen und verarbeiteten Daten nach dessen Durchführung „unverzüglich” gelöscht werden, auf der anderen Seite bleibe der Gesetzentwurf schuldig, wie die Sache technisch funktionieren soll.
Klar ist: Für einen biometrischen Abgleich braucht es eine Datenbank, die mit einem gesuchten Bild verglichen werden muss. Bisherige Systeme von privaten Firmen zur Gesichtssuche im Internet wie beispielsweise PimEyes funktionieren so, dass sie meist illegal alle möglichen Gesichtsbilder aus dem Internet sammeln, auswerten und die biometrischen Merkmale sowie die Fundstellen und Metadaten und Zusatzinformationen dieser Bilder in einer Datenbank hinterlegen. Suche ich nun nach einem Gesicht, werden die biometrischen Merkmale dieses Gesichts mit den in der Datenbank hinterlegten Daten abgeglichen – und die jeweiligen Ergebnisse ausgespuckt.
Bundesregierung will biometrische Fotofahndung im Netz
Ein durch AlgorithmWatch beauftragtes Gutachten hat festgestellt, dass ein biometrischer Abgleich zwischen Bildern gesuchter Personen und im Internet verfügbaren Fotos ohne Verwendung einer Datenbank nicht sinnvoll umsetzbar ist. Für die NGO ist damit klar, dass das Vorhaben verboten ist, weil die KI-Verordnung der EU eine mittels Künstlicher Intelligenz erstellte Gesichterdatenbank verbieten würde.
Ein Gutachten der Wissenschaftlichen Dienste des Deutschen Bundestages kommt allerdings zu einem leicht anderen Schluss. Demnach verbiete die KI-Verordnung nicht den Aufbau einer Datenbank, sondern nur das „ungezielte Auslesen von Gesichtsbildern mittels KI […], da es die Privatsphäre und den Datenschutz der Betroffenen erheblich beeinträchtigt und das Gefühl ständiger Überwachung erzeugt“.
Das in der KI-Verordnung festgelegte Verbot gelte demnach nur dann, wenn die Strafverfolgungsbehörden die Datenbanken mit Hilfe von KI-Systemen erstellen. Werden dafür keine solchen Systeme verwendet, greife die Verordnung nicht. Genau dieses Schlupfloch könnte die Bundesregierung nutzen wollen, sie lässt aber offen, wie das technisch funktionieren soll.
Auslagerung an Private als Schlupfloch?AlgorithmWatch kritisiert, dass der Gesetzentwurf eine Art Auslagerungsbefugnis enthalte, für den Fall, dass Polizei- und Strafverfolgungsbehörden den Abgleich technisch nicht selbst durchführen können. Sie erlaubt ausdrücklich eine Übermittlung von Daten zum Zweck eines biometrischen Abgleichs an öffentliche Stellen und private Anbieter sowohl im Inland als auch im Ausland sowie innerhalb wie außerhalb der Europäischen Union.
Auch das könnte ein Schlupfloch sein. Die NGO sagt dazu: „Eine Erlaubnis für solch eine Auslagerung des biometrischen Abgleichs ins (Nicht-EU-)Ausland führt sämtliche durch die Gesetzestexte eingeführten Beschränkungen ad absurdum.“ Damit würde der in den Gesetzentwürfen beschriebene Vorgang des Löschens aller verarbeiteten Daten nach jeder einzelnen Suchanfrage zur theoretischen Fassade, heißt es in der Stellungnahme. „Aus diesem Grund, so die Vermutung, wird auf die Übermittlung von Daten an Dritte verwiesen, welche den Abgleich im Auftrag deutscher Behörden durchführen würden. Ins Spiel kommen könnten dann solche Anbieter wie PimEyes oder Clearview AI.
Der Staat dürfe aber, so die Stellungnahme, selbst keine rechtswidrigen Angebote Dritter nutzen. „Ein Delegieren der Umsetzung ins Ausland stellt entsprechend keine europa- und grundrechtskonforme Lösung dar.“ Dazu komme, dass derart schwerwiegende Grundrechtseingriffe nicht an private Unternehmen oder öffentliche Stellen in Drittstaaten ausgelagert werden dürften.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Degitalisierung: Das ruhmreiche Zaunweißen
KI-Unternehmen kreieren Mythen um sich und ihre Produkte. So entziehen sie sich der Verantwortung für Probleme, die sie selbst geschaffen haben. Und wir lassen es ihnen durchgehen. Mark Twain wäre das wohl nicht passiert.
Weiße Zäune sind fast wie weiße Westen. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Randy FathEs war einmal ein Junge, der hatte etwas ausgefressen, und als Strafe dafür wies ihm seine Tante eine besonders harte Strafe zu: Samstags, wenn die anderen Jungs im Fluss schwimmen durften, sollte er den riesigen Zaun vor dem Haus seiner Tante Polly streichen. Er hat eben missmutig mit der Arbeit begonnen, als sein Kumpel Ben vorbeikommt. Der verspottet ihn wegen der mühseligen Arbeit. Doch unser Junge ist schlau: „Das macht doch keine Mühe, das ist der reine Spaß! Wann kann man schon mal ganz allein solch einen großen Zaun streichen?!“
Da staunt Ben – denn Spaß will jeder haben. Statt Plackerei die reine Freude? Ben bettelt geradezu, mitmachen zu dürfen. Er zahlt sogar dafür. Einen saftigen Apfel. Und er streicht wie ein Verrückter, während unser Held im Schatten liegt. Nach und nach kommen noch mehr Willige, und sie alle geben einiges dafür, den Zaun Tante Pollys streichen zu dürfen. Abends ist unser Freund reich – seine Taschen sind voller kleiner Schätze.
Dieser Einstieg für die heutige Degitalisierung ist ein abgewandeltes Zitat eines Essays von Wolf Lotter aus einer Brand Eins von 2007 mit dem Titel Elementarteilchen [€]. Damals ging es um die Beschreibung der Funktionsweise des Web 2.0. User würden mehr oder weniger freiwillig sogar dafür bezahlen, die Arbeit anderer Leute machen zu dürfen.
Lotter greift einen Vorgang auf, den Mark Twain „Das ruhmreiche Zaunweißen“ nannte, ein lehrreiches Stück aus seinem Romanepos „Tom Sawyer“. Das war 1876. Heute ist 2026, und diesen Prozess, an dem sich im Wesentlichen nichts geändert hat, nennt man Künstliche Intelligenz.
Im Zeitalter der sogenannten Künstlichen Intelligenz ist das aber alles viel besser, oder? Agentische KI macht ja jetzt die Arbeit und wir können die Füße hochlegen, oder? Natürlich nicht. Die Genese heutiger Systeme künstlicher Intelligenz ist leider wieder nur eine andere Art des ruhmreichen Zaunweißens. Immer wieder. In dieser Episode geht es mehr oder weniger um die Schaffung eines Mythos – oder um den Mythos um Anthropics Mythos aus Anlass aktueller Ereignisse.
Militär und MavenDie Ereignisse, bei denen Menschen freudig und freiwillig die eigentliche Arbeit anderer machen, beginnen im Kontext Anthropic im Januar 2026 mit einem Streit zwischen Anthropic und dem amerikanischen Verteidigungsministerium. Dem vorausgegangen war eine vertragliche Vereinbarung von Googles Gemini für eine neue militärische KI-Plattform mit dem Titel GenAI.mil im Dezember 2025. Im Januar kam es dann zum Bruch von Anthropic und dem Pentagon, wegen der Weigerung Anthropics, seine Technologien für autonome Waffen oder Massenüberwachung freizugeben. Anthropics Technologien wurden dann zum Lieferkettenrisiko seitens des Pentagons erklärt und OpenAI sprang in die Bresche als neuer Technologielieferant.
Das erste ruhmreiche Zaunstreichen im Sinne Anthropics begann dann in der Folge dieser Ereignisse. Abos von OpenAIs ChatGPT wurden massenhaft gekündigt – Hashtag Cancel ChatGPT – und die Öffentlichkeit und Medien schwangen gleich freudig die Pinsel am Zaun mit. Man müsse jetzt gleich Abos bei OpenAI kündigen, forderte etwa der Guardian. Viele ehemalige OpenAI-Kund*innen wanderten ab zu Anthropic.
Das ist am Ende aber leider nur scheinheiliges Zaunstreichen für ein weiteres Big-Tech-Unternehmen, das nur auf eine andere Art problematisch ist. Kriegsführung ist inzwischen an vielen Fronten von KI-Technologie durchzogen, sei es in Gaza, in der Ukraine oder jetzt im Iran. Die Markierung und Auswahl von militärischen Zielen hat sich durch KI stark beschleunigt, es werden mehr Ziele schneller angegriffen und die Kollateralschäden in der Zivilbevölkerung nehmen damit eher zu.
Anthropic für Verantwortungsbewusstsein zu feiern beim Aufzeigen von Grenzen für die militärische Nutzung ist also etwas arg einfältig. Die militärische Initiative des Pentagons namens Maven, die KI mehr und mehr in militärische Operationen einbinden wird, basiert zwar im Kern auf Software von Palantir – Palantir hat aber Schwierigkeiten, Technologie von Anthropic nach dem Disput mit dem Pentagon wieder aus Maven zu entfernen. Weil Anthropics Claude eben schon sehr lange tief mit militärischen Anwendungsfällen verwoben ist und aktiv genutzt wird, etwa wohl auch bei der US-Militäroperation zur Festnahme des venezolanischen Präsidenten Nicolás Maduro.
Kein amerikanisches Big-Tech-Unternehmen kann also wegen seines Pazifismus gefeiert werden. Sie sind alle ähnlich tief in den Bereich des Militärs oder der Geheimdienste verstrickt, behaupten nur mehr oder weniger lautstark, zu den Guten zu gehören. Öffentlichkeit und Medien haben Anthropic aber aktiv geholfen, den eigenen Zaun weiß zu streichen beziehungsweise sich eine weiße Weste nach außen hin zu geben.
Mythos und MarketingInmitten dieser Melange aus Hype und verzerrter Außendarstellung kommt nun ein Mythos um ein neues KI-Modell namens Mythos. Das ist im Wesentlichen erst einmal im Kern ein neues Large-Language-Modell, wie so häufig, besser in diversen synthetischen Benchmarks. Aber besonders viel besser in der Fähigkeit, Sicherheitslücken in Software zu finden. Oder um es mit den Worten von Anthropic zu sagen: „strikingly capable at computer security tasks“.
Das Bemerkenswerte ist jetzt, ohne auf die eigentlichen Fähigkeiten eingehen zu müssen, der Hype um diese Ankündigung. IT-Security ist normalerweise ein Feld, in dem es eine konstante Bedrohungslage mit diversen Sicherheitsrisiken gibt, die im täglichen Arbeiten so negativ aufstoßen können. Datenleaks, DDoS-Angriffe, Zero-Day-Exploits, kann alles täglich passieren.
Daher ist es oftmals sinnvoll, nicht in Alarmismus zu verfallen, weil das Bedrohungen nicht weniger bedrohlich macht, sondern eher den Blick auf das Wesentliche verstellt und passende Gegenhandlungen wegen Hektik und Anspannung verlangsamt. Die Kommunikation um Mythos wird aber selbst zu einer Art Mythos erhoben. Da ist dieses mythische neue Sprachmodell, das ab morgen alle Computersysteme unsicher macht – überspitzt gesagt, aber nicht weit entfernt von der medialen Darstellung.
Claudia Plattner, Präsidentin des Bundesamtes für Sicherheit in der Informationstechnik, ließ sich zu einem Endorsement unter öffentlicher Nennung eines noch nicht neutral geprüftem Produkts eines kommerziellen, ausländischen Herstellers hinreißen, das für eine ansonsten eher um Neutralität bemühte Bundesbehörde doch eher selten ist: Das BSI nehme die Ankündigungen von Anthropic sehr ernst und erwarte „Umwälzungen im Umgang mit Sicherheitslücken und in der Schwachstellenlandschaft insgesamt“. Selbst wenn es so ist, tut das Feld der Informationssicherheit auch hier gut daran, nicht wieder den Zaun für andere zu weißen.
Die Kommunikation um die Security-Fähigkeiten von Mythos ist eher Doomsday-Marketing [€] und führt vor allem bei vielen für die IT-Sicherheit Verantwortlichen zum Kampf gegen FUD – Fear, Uncertainty und Doubt sowie eben Untergangsszenarien. Eigentlich gibt es schon länger entsprechend fähige KI-Modelle, die Lücken wie die von Mythos bisher wohl finden können, eventuell nur mit einem etwas spezifischeren Kontext und einem engeren Scope der automatisierten Analyse.
Und nicht jede der von Anthropic präsentierten Lücken ist gleich ein Riesenproblem, wie etwa Red Hat für den Linux-Kernel erklären muss. Die reißerische und mythische Kommunikation von Anthropic selbst blockiert also erst einmal Kapazitäten bei IT-Security-Expert*innen, die wesentlich besser im Absichern von Software und Prozessen zur Absicherung gebraucht werden können. Aber viele Medien pinseln lieber weiter am Zaun mit.
Gesetzt den Fall, der Hype um Mythos ist, sagen wir mal, auch nur zu einem Zehntel berechtigt, dann ist doch die Frage angebracht, wie wir mit der Situation umgehen sollten, damit kein globales IT-Sicherheitsdesaster droht. Auch hier geht vieles leider in Richtung Zaunweißen, weniger in eine faire Kooperation zur Verbesserung der IT-Sicherheit. Dieser Aspekt ist weniger in Technologie begründet, sondern eher in der soziologischen Wirkung von KI auf IT-Security und Programmierung.
Glasswing und HollowingAls besonders – aus Eigensicht – verantwortungsbewusstes KI-Unternehmen geht Anthropic mit Mythos ja sorgsam um. Mythos wird aus Sicherheitsgründen erst einmal nicht öffentlich zur Verfügung gestellt. Mit Project Glasswing wolle man Unternehmen und wichtigen Open-Source-Maintainern dabei helfen, durch geregelten Zugang auf Mythos-Systeme durch automatisierte Analysen auf Lücken prüfen und diese somit besser absichern zu können. Auffällig ist bei der Auswahl der Unternehmen ein gewisser Hang zu „America First“, da es sich hauptsächlich um Unternehmen mit Hauptsitz in den USA handelt wie Apple, Google, Nvidia, Broadcom und Microsoft. Indirekt findet hier durch eine Vorauswahl eines Privatunternehmens und der Regierung in den USA ja auch eine gewisse geopolitische Vorentscheidung statt. Sichere Software gibt es in Zukunft auch „America First“?
Wenn Erkenntnisse aus Glasswing auf eine Open-Source-Community treffen, ist aber nicht unbedingt mit Freudenschreien zu rechnen. Der gesamte KI-Hype in der Softwareentwicklung hat vielen Open-Source-Maintainern eher offensiv in die Fresse geschlagen, um das deutlich zu sagen.
Da ist zum Beispiel ein Stellenabbau von 75 Prozent bei dem Start-up hinter dem CSS-Framework Tailwind, auch wegen immer mehr Sprachmodellen, die bisher auskömmliche Zusatzangebote wie Servicedienstleistungen oder Premium-Abos zu Tailwind immer uninteressanter machen. Bug-Bounty-Programme, die kleine finanzielle Belohnungen für gemeldete Sicherheitslücken zahlen, müssen schließen wegen zu viel AI Slop, also schlechten oder sinnfreien Beiträgen. Beispiele dafür sind etwa das Schließen des Internet Bug Bounty oder des Bug-Bounty-Programms hinter curl, dort als Versuch, das „Terror Reporting“ einzudämmen. Dazu musste das größte Code-Repository der Welt, GitHub, jüngst eingestehen, dass die KI-Welle eine Art „Eternal September“ eingeläutet habe, also einer Menge neuer, aber eher ungeeigneter Beiträge auf der Plattform – nicht zuletzt durch die durch GitHub selbst bereitgestellten KI-Assistenten wie GitHub Copilot.
Dazu werden Open-Source-Lizenzen, im Open-Source-Bereich eine oftmals fast schon unantastbare Vereinbarung von Nutzungsbedingungen, aktiv durch sogenannte „Clean Room“-Neuentwicklungen wie bei chardet unterwandert.
Programmier*innen hingegen beginnen im Job durch wachsenden KI-Einsatz immer mehr auszubrennen, wie sich etwa auf Plattformen wie Reddit zunehmend kundtut. Im Arbeitsmarkt, etwa in der Schweiz, deutet sich bei Software-Entwickler*innen eine steigende Arbeitslosigkeit in bestimmten Altersgruppen an. Programmieren als Job durchläuft eine Phase des Hollowing-out – speziell wegen KI.
Genau in diese schwierige Phase, insbesondere für Open-Source-Maintainer, kommt nun also ein gehyptes Modell, das Hunderte neue Sicherheitslücken androht, die unbedingt ganz schnell gepatcht werden müssen. Sicherheit von Open-Source-Projekten ist schon immer eine undankbare Aufgabe, wie auch die in Project Glasswing eingebundene Linux Foundation schreibt. Soll nun dafür irgendwer dankbar sein, wenn eine Technologie erst die Grundlagen der etablierten Zusammenarbeit angreift und dann auch noch eine Flut von neuer Arbeit beschert?
Das ist in etwa so, als würde Tante Pollys Zaun von Tausenden Freiwilligen überrannt werden, die wild durcheinander versuchen, den Zaun zu weißen. Mit der Entspannung und dem Spaß wäre es dann auch für Tom Sawyer vorbei.
Mögliche Verbesserungen durch von KI generierte Patches sind eher schwierig an Open-Source-Maintainer heranzutragen, solange KI-Unternehmen nicht glaubwürdig mit der Open-Source-Community und deren Werten und Zielen übereinkommen. Bisher ist das gehörig gescheitert.
Dennoch stellt sich Anthropic selbst als besonders verantwortungsbewusstes Unternehmen dar, in etwa so, wie OpenAI das schon seit Jahren immer wieder tut.
Milliarden und VerantwortungOpenAI hat immer wieder in seiner Geschichte die PR-Strategie verfolgt, wie Anthropic es jetzt tut, und auf die Gefahren seiner neuen Produkte selbst hingewiesen – allerdings oft, um selbst einen Mythos um seine Produkte zu erzeugen.
Bei OpenAI war das beim Modell zum Klonen von Stimmen namens Voice Engine schon 2024 der Fall. Zu gefährlich, um es auf den Markt zu bringen, so die Eigenaussage.
Auch 2019 wurde der Release von GPT-2 von OpenAI mit einer „zu gefährlich“-PR-Strategie begleitet. Bemerkenswert ist dabei aus heutiger Zeit weniger das Kommunikationsmuster, sondern das, was im Juni 2019 im Repräsentantenhaus in einem Ausschuss anlässlich der Gefahr von Fake Media und KI von OpenAI-Vertretern zu den Akten gegeben wurde. Auch damals gab es bereits „staged releases“ in Form von kleineren Modellen, denen dann schrittweise größere Modelle folgten. Die Herangehensweise von Anthropic bei Mythos ist also nicht neu.
Interessant ist aber das damalige Eingeständnis, dass es schwer werden dürfte, KI-Technologie kontrollieren zu können.
In Bezug auf Stimm-Klon-Software etwa stellte OpenAI fest:
Viele der Kontrollmöglichkeiten sind weniger technischer Natur, im Gegensatz zu den Systemen, die die Technologie umgeben. (Eine Möglichkeit, sich zum Beispiel gegen Menschen zu schützen, die bei Telemarketing-Betrug KI-synthetisierte Stimmen einsetzen, besteht darin, es Kriminellen einfach schwerer zu machen, Telefonnummern zu fälschen.)
Stimmsynthesierungssoftware können wir natürlich voll funktionsfähig entwickeln, wir können sie jedoch nicht kontrollieren. Aber vielleicht löst mein Problem ja die Telefongesellschaft? – Wie sehr kann man sich aus der Verantwortung stehlen wollen?
Eigentlich sind aus Sicht von KI-Unternehmen die Kontrollmöglichkeiten somit gar nicht innerhalb der Technologie möglich, die sie mit viel Aufwand erschaffen, also vor allem mit viel, viel Geld. Das ist alles nicht möglich trotz in der Genese von KI bereitwillig ignorierten Problemen, die einer Art von Kontrolle unterliegen hätten können, wie etwa digitalem Kolonialismus, immensem Ressourcen- und Energieverbrauch, hoher Machtkonzentration, ungehemmter Datenkonsum, Wegbereitung des Faschismus, Plagiarismus und Desinformation. Alles Probleme, die bei der Schaffung von KI-Technologie ja bislang schweigend akzeptiert oder sogar erst geschaffen wurden. Alles nicht kontrollierbar? Falls aber mal jemand auf nur eines oder zwei dieser Probleme hinweist, wie etwa die Nutzung urheberrechtlich geschützter Inhalte im Falle der britischen Regierung, ist das dann alles zu teuer.
Das Grundproblem bislang jeglicher Technologie auf Basis von KI ist es immer wieder gewesen, die Technologie und die damit verbundenen Macher*innen selbst als unschuldig zu sehen. CEOs von KI-Unternehmen wie Sam Altman von OpenAI oder Dario Amodei von Anthropic tragen die Verantwortung für Multi-Milliarden-Unternehmen, scheren sich aber einen feuchten Kehricht um die Wirkung ihrer Technologien. Sie externalisieren ihre Probleme, internalisieren aber den Gewinn.
Jegliches Commitment zu „Sicherheit“ und „Verantwortung“ ist nicht mehr als ein PR-Stunt, bei dem viele Externe auch noch fleißig den Pinsel schwingen, um den Zaun zu weißen. Für Unternehmen, denen lange Jahre lang schon viel zu viel durchgehen gelassen wurde. Das ist bei Mythos nicht viel anders als bei all den vermeintlich guten, aber letztlich schädlichen „KI-Innovationen“ der Jahre zuvor.
Denn letztlich geht es KI-Unternehmen oft nur um ihr oftmals fragiles Ego. Wir sollten daher alle damit aufhören, ihnen auch noch freudig den Zaun zu weißen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
KW 15: Die Woche, in der es endlich Konsequenzen für die Datenindustrie geben muss
Die 15. Kalenderwoche geht zu Ende. Wir haben 17 neue Texte mit insgesamt 159.201 Zeichen veröffentlicht. Willkommen zum netzpolitischen Wochenrückblick.
– Fraktal, generiert mit MandelBrowser von Tomasz ŚmigielskiLiebe Leser:innen,
es war mal wieder eine „Databroker-Woche“ bei netzpolitik.org – und so langsam nervt mich dieser Satz, der regelmäßig in unserer Redaktion zu hören ist. Und das, obwohl ich selbst ständig über das Thema schreibe. Die ausufernde Tracking-Industrie, der unkontrollierte Handel mit unseren Daten, sie beschäftigen uns seit Jahren. Wir treiben die Debatte dazu voran wie wohl kein anderes deutschsprachiges Medium. Nur langsam frage ich mich: Soll das ewig so weitergehen?
Aber der Reihe nach. Eigentlich waren es ja drei begrüßenswerte Anlässe, aus denen wir diese Woche über das Thema berichtet haben.
Erstens haben unsere Kolleg:innen vom Bayerischen Rundfunk die sehr sehenswerte ARD- und Arte-Doku „Gefährliche Apps: Im Netz der Datenhändler“ veröffentlicht. Mein Kollege Sebastian und ich arbeiten seit mehr als zwei Jahren mit ihnen an den „Databroker Files“. Der Film erzählt von unseren Recherchen und den sehr konkreten Gefahren, die etwa von vermeintlich harmlosen Tracking-Daten ausgehen und unterschiedliche Menschen wie zum Beispiel eine Journalistin oder ukrainische Soldaten betreffen.
Zweitens schreiten Ermittlungen von Datenschutzbehörden gegen zwei deutsche Apps voran, die unsere Databroker-Files-Recherchen ausgelöst haben. Die Behörden sind sich inzwischen sicher, dass eine Wetter-App und eine Dating-App, beide mit Millionen Nutzer:innen, datenschutzwidrig genaue Standortdaten verarbeitet und an Dritte weitergegeben haben. Konsequenzen hat das bislang aber noch nicht, die Verfahren laufen noch.
Drittens haben das Citizen Lab, der Wiener Tracking-Forscher Wolfie Christl und der ungarische Journalist Szabols Panyi eine bemerkenswerte Recherche veröffentlicht. Sie können am Beispiel einer US-Überwachungsfirma detailliert aufzeigen, wie Daten aus dem Ökosystem der Online-Werbung für Geheimdienste und andere Behörden nutzbar gemacht werden. Und sie berichten, dass die Produkte dieser Firma nicht nur von Trumps paramilitärischer Abschiebetruppe ICE genutzt werden, sondern auch von der ungarischen Regierung angeschafft wurden. Dort finden am Sonntag Wahlen statt und Viktor Orbán kämpft mit allen Mitteln um den Machterhalt.
Ein komplettes Versagen von Datenschutz, Politik und MedienIch bin angesichts dieser Ereignisse diese Woche hin- und hergerissen. Einerseits freue ich mich über aufklärende Recherchen, Public-Value-Journalismus und konkrete Konsequenzen. Andererseits bin ich frustriert, dass es all das noch immer braucht. Wir haben doch eigentlich bei diesem Thema längst kein Erkenntnis-, sondern ein Umsetzungsdefizit.
Juristisch gibt es – soweit ich weiß – wenig Zweifel daran, dass das umfassende Tracking durch ein riesiges, undurchsichtiges Firmennetzwerk ebenso illegal ist wie der Handel mit den dabei erfassten Daten. Doch die Datenschutzbehörden kommen nicht hinterher.
Die Wissenschaftlichen Dienste des Bundestages haben zudem klargestellt, dass eine Nutzung solcher Daten durch staatliche Stellen im besten Fall auf wackeligen Füßen stünde, wahrscheinlich aber doch eher überwiegend ebenfalls illegal wäre. Doch die Bundesregierung schweigt einfach dazu, ob auch deutsche Sicherheitsbehörden kommerzielle Daten nutzen.
Wir erleben bei diesem Thema ein komplettes Versagen von Datenschutz, Politik und leider auch von vielen Medien.
Also was tun? Digitale Selbstverteidigung geht immer. Aber eigentlich müsste man das Problem ja politisch angehen. Doch Regulierung, womöglich sogar Verbote bestimmter Geschäftspraktiken, das ist momentan einfach nicht angesagt. Als wir im Sommer 2024 die ersten Storys der Databroker Files veröffentlichten, gab es große Bestürzung in allen demokratischen Parteien. Heute haben wir eine Bundesregierung, die sich in Brüssel dafür einsetzt, dass der Datenschutz möglichst mit dem Vorschlaghammer reformiert – also abgebaut – wird. Die Datenindustrie macht derweil munter weiter.
Deshalb machen auch wir weiter, decken auf und erzeugen Druck. Wir lesen uns also sicher bald wieder, wenn es mal erneut heißt: Databroker-Woche bei netzpolitik.org.
Danke für eure Unterstützung bei der journalistischen Sisyphusarbeit!
Euer Ingo
Ein Verbot sozialer Medien löst nicht die fundamentalen Probleme von Jugendlichen. Die Debatte ist vielmehr Ausdruck einer sozio-ökonomischen Krise – und könnte den Befürwortern an der Wahlurne sogar schaden. Von Vincent Först –
Artikel lesen
Versteckte Tracker, geteilte Clouds und überwachte Schul-iPads: Digitale Gewalt ist Alltag in Frauenhäusern. Isa Schaller erklärt, wie Tools missbraucht werden – und was es für einen besseren Schutz der Betroffenen braucht.
Von Sophie Tiedemann –
Artikel lesen
Erhoben zu Werbezwecken, verschleudert im Internet: Standortdaten aus der Werbe-Industrie können Menschen gefährden. Das zeigt die ARD-Doku „Gefährliche Apps“, die nun online ist. Sie beruht auf den Recherchen von netzpolitik.org und Bayerischem Rundfunk zu den Databroker Files. Von Sebastian Meineck, Ingo Dachwitz –
Artikel lesen
Genaue Standortdaten von Wetter-Online-Nutzer:innen – verkauft von Databrokern. Mehr als ein Jahr nach den ersten Berichten von netzpolitik.org und BR dauert das Verfahren gegen die populäre App noch an. Nun will die zuständige Datenschutzbehörde ein Bußgeld verhängen. Von Ingo Dachwitz, Sebastian Meineck –
Artikel lesen
Die Bundesregierung weiß nicht, ob ein Social-Media-Verbot für Minderjährige wissenschaftlich ratsam wäre. Sie weiß auch nicht, ob der Eingriff in Grundrechte verhältnismäßig wäre – oder ob sie das Verbot überhaupt will. Das zeigt die Antwort auf eine Kleine Anfrage der Linken. Von Sebastian Meineck –
Artikel lesen
Am Wochenende ist die Ausnahmeregelung für die freiwillige Chatkontrolle ausgelaufen. Doch große Tech-Unternehmen wie Google, Meta oder Microsoft wollen weiter massenhaft die private Kommunikation ihrer Nutzer:innen scannen. Von Markus Reuter –
Artikel lesen
Bevor das Recht auf einen zeitgemäßen Internetanschluss greift, springt wohl zunehmend der Satellitenanbieter Starlink ein. Doch wie oft das tatsächlich vorkommt, kann die Bundesregierung nicht beantworten. Von Tomas Rudl –
Artikel lesen
Das Bundesgesundheitsministerium will die Digitalisierung im Gesundheitswesen rasch voranbringen. Ein Gesetzentwurf definiert dafür die Rolle der elektronischen Patientenakte um, weitet die Nutzung von Gesundheitsdaten erheblich aus und gibt der Gematik neue weitreichende Befugnisse. Wir veröffentlichen den Gesetzentwurf. Von Daniel Leisegang –
Artikel lesen
Mit Hilfe von KI-Agenten sollen Einzelpersonen schon bald Unternehmen mit Milliardenbewertung aufbauen. Das klingt verführerisch, weil es einer prometheischen Sehnsucht nach totaler Souveränität schmeichelt. Allerdings wusste schon Franz Kafka, dass Ein-Personen-Unicorns mythische Wesen sind. Von Gastbeitrag, Anselm Küsters –
Artikel lesen
Die geplante „Vereinfachung“ der europäischen KI-Verordnung könnte den Schutz von Verbraucher:innen vor der Technologie erheblich schwächen. Ein breites Bündnis von 32 Organisationen warnt insbesondere vor Lücken bei Medizingeräten und Spielzeug. Von Anna Ströbele Romero –
Artikel lesen
Wir sprechen mit Thomas Zerdick und Robert Riemann, die beim Europäischen Datenschutzbeauftragten arbeiten. Sie berichten aus dem Inneren des Amtes, wie es in Gesetzgebungsverfahren einbezogen wird und warum die Kritik am Datenschutz eigentlich eine deutsche Kritik ist. Sie erklären auch, was sie sich für die Zukunft der Behörde wünschen. Von Constanze –
Artikel lesen
Die Kritik am Überwachungspaket der Bundesregierung reißt nicht ab. Die Gesellschaft für Freiheitsrechte warnt vor „Eingriffen in die Grundrechte aller Menschen“ und „mächtigen Überwachungsmaßnahmen“. Von Markus Reuter –
Artikel lesen
KI sei verfänglich für faschistische Ideologien und gehe mit autoritären Machtzentren einher. Große Plattformen wie ImmobilienScout24 und Doctolib machen Profit mit Grundbedürfnissen der Menschen. Zwei Aktivist*innen schlagen im Interview konkrete Schritte hin zu einer demokratischen digitalen Teilhabe vor. Von Timur Vorkul –
Artikel lesen
Eine populäre deutsche Dating-App hat genaue Handy-Standortdaten an Werbefirmen geschickt, selbst wenn Nutzer*innen nicht eingewilligt haben. Genau solche Daten fanden netzpolitik.org und BR im Angebot von Databrokern – eine große Gefahr für Nutzer*innen. Von Sebastian Meineck, Ingo Dachwitz –
Artikel lesen
Die US-Firma Penlink verkauft Überwachungstechnik, die auf Werbe-Tracking basiert. Nach Trumps Abschiebemiliz ICE hat offenbar auch die ungarische Regierung Lizenzen gekauft. Kurz vor der Wahl könnte sie damit gegen Opposition und Medienschaffende vorgehen. Von Ingo Dachwitz, Sebastian Meineck –
Artikel lesen
Prediction Markets sind in vielen Ländern illegal. Das Wetten auf zukünftige politische und gesellschaftliche Ereignisse wird aber immer populärer. Dabei sind die Wetten manipulationsanfällig und ethisch teilweise höchst fragwürdig. Von Denis Glismann –
Artikel lesen
Die Bereitschaft, sich an Debatten in Sozialen Medien und in Online-Kommentarbereichen zu beteiligen, sinkt. Ein zentraler Grund dafür ist die Diskursqualität, die zunehmend als negativ wahrgenommen wird, so das Ergebnis einer Studie der Medienanstalten. Von Denis Glismann –
Artikel lesen
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Studie der Medienanstalten: Debattenkultur im Netz erodiert
Die Bereitschaft, sich an Debatten in Sozialen Medien und in Online-Kommentarbereichen zu beteiligen, sinkt. Ein zentraler Grund dafür ist die Diskursqualität, die zunehmend als negativ wahrgenommen wird, so das Ergebnis einer Studie der Medienanstalten.
In Online-Debatten fliegen oft die Funken. – Alle Rechte vorbehalten IMAGO / DreamstimePlattformen-Nutzer:innen und Social-Media-Redakteur:innen sind sich offenbar gleichermaßen einig: Die Debattenkultur im digitalen Raum verschlechtert sich zunehmend. Zu diesem Ergebnis kommt die „Transparenz-Check“-Studie der Medienanstalten. Konstruktive Debatten seien online demnach „kaum noch möglich“ und würden zum Teil gar als unwillkommen wahrgenommen. Dennoch wünsche sich eine deutliche Mehrheit der Befragten einen konstruktiven Austausch.
Mit der als negativ wahrgenommenen Diskursqualität sinkt offenbar auch die Bereitschaft, in den Kommentarspalten mitzudiskutieren. Der häufigste Grund dafür sei die aggressive Stimmung. Dementsprechend werde der respektvolle Umgang miteinander als zentral dafür angesehen, sich mehr zu beteiligen.
Zur Meinungsfreiheit im digitalen Raum liegen bei den Befragten zwei gegensätzliche Wahrnehmungen vor. Eine Gruppe versteht darunter, ohne Sorge vor Hass und Abwertung sprechen zu können. Die andere Gruppe will dagegen grundsätzlich alles ungehindert sagen dürfen. Besonders Menschen, die der AfD zuneigten, hätten das Gefühl, in ihrer Meinungsäußerung eingeschränkt zu sein. Wähler:innen der Linken oder der Grünen gaben dagegen häufiger an, frei artikulieren zu können.
Vertrauen in Soziale Medien ist sehr geringDer Studie nach gibt es zwischen den Plattformen große Unterschiede. Im Vergleich zu Instagram würden Facebook und Twitter/X als wesentlich problematischer wahrgenommen – insbesondere von ehemaligen Nutzenden der Plattformen. Die schlechte Diskursqualität dort sei demnach einer der Gründe, warum Nutzende den Plattformen den Rücken kehren.
Facebook sei die Plattform, die am zweithäufigsten genutzt werde. Gleichzeitig ist sie die meistgenutzte Plattform, auf der Nutzende journalistische Beiträge lesen und kommentieren. Trotz Klarnamen werde die Atmosphäre dort aber als „toxisch“ wahrgenommen.
Das Vertrauen in die Sozialen Medien fällt insgesamt sehr gering aus. Dennoch gibt etwa ein Drittel der Befragten an, in den Kommentaren unter journalistischen Beiträgen bei Facebook, Instagram und YouTube mitzulesen.
„Vertrauen und Laune sinken nach dem Lesen von Kommentaren“Ein Viertel derer, die aktiv kommentieren, wollen zumeist nur ihre Meinung äußern; knapp ein Viertel von ihnen will andere überzeugen und etwa jede achte Person möchte lediglich ihren Ärger kundtun. „Insgesamt überwiegen die negativen Auswirkungen von Diskursen in den Sozialen Medien“, so ein Fazit der Studie. „Extreme Meinungen überwiegen, Vertrauen und Laune sinken nach dem Lesen von Kommentaren.“
Allerdings zeigten die durchgeführten Experimente, dass eine erkennbare Moderation entscheidend dafür sein kann, dass die Diskursqualität positiver wahrgenommen wird. Je strenger moderiert wird und je konstruktiver der Austausch ist, desto respektvoller und ausgewogener wird der Diskurs wahrgenommen. Allerdings sind die Ressourcen für ein konstruktives Community-Management oftmals knapp.
Bei den Befragten bleibt unterm Strich eine Grundskepsis: Sie bezweifeln, dass Online-Diskurse überhaupt funktionieren und Kommentare zu neue Perspektiven führen können. Eine Mehrheit hat laut Studie das Gefühl, dass Online-Diskussionen spalten.
Desinformation und BotsDie Anforderungen an das Community-Management sind in den vergangenen Jahren gewachsen. Verantwortlich dafür sind die steigende Zahl an Kommentaren und der zunehmend raue Tonfall. Zudem nehme der Anteil an Desinformation und Fake News zu.
Auch die Bedeutung von Bots hat die Studie unter die Lupe genommen. Insgesamt wurden vier Prozent der Kommentare als „wahrscheinliche Bot-Kommentare“ klassifiziert. Bei kontroversen Themen seien deutlich höhere Werte zu verzeichnen.
Eine Mehrheit der Befragten ist der Ansicht, aufgrund der Bot-Aktivität könnten sie sich im Netz inzwischen kaum noch mit echten Menschen austauschen.
Eine noch größere Rolle als die Bots spielen Trolle, Fake-Accounts und koordinierte Kommentar-Ströme. Diese würden laut den befragten Moderator:innen dazu genutzt, um den Verlauf von Diskussionen in Kommentarspalten gezielt zu beeinflussen.
Vorgehen der StudieDer „Transparenz-Check“ der Medienanstalten ist dreistufig aufgebaut: Inhaltsanalyse, qualitative Tiefeninterviews und quantitative repräsentative Befragung.
Die Inhaltsanalyse zur Ermittlung der Rolle von Bots beruht auf Tausenden von Kommentaren unter insgesamt 39 Beiträgen von Bild, Der Spiegel, Süddeutsche Zeitung, Die Zeit sowie auf den Plattformen Facebook, Instagram und YouTube.
Elf Tiefeninterviews haben die Forschenden mit Personen aus Social-Media-Redaktionen, aus dem Community-Management sowie mit weiteren Expert:innen durchgeführt. Die quantitative repräsentative Befragung fand mit mehr als 3000 Internetnutzenden statt.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Hype um Prediction Markets: Wetten, dass Jesus vor 2027 zurückkehren wird
Prediction Markets sind in vielen Ländern illegal. Das Wetten auf zukünftige politische und gesellschaftliche Ereignisse wird aber immer populärer. Dabei sind die Wetten manipulationsanfällig und ethisch teilweise höchst fragwürdig.
Ob er darüber mit den Augen rollen würde? – Gemeinfrei-ähnlich freigegeben durch unsplash.com Jose Manuel Esp„Die langfristige Vision ist, alles zu finanzialisieren und aus jeder Meinungsverschiedenheit ein Handelsgut zu machen“, sagt Tarek Mansour, Mitbegründer und Geschäftsführer von Kalshi. Plattformen wie Polymarket und Kalshi ermöglichen potenziell das Wetten auf jedes zukünftige Ereignis.
Laut Schätzungen von Similarweb verzeichnete Polymarket im März 2026 etwa 45,3 Millionen Besuche. Die zunehmende Popularität gilt mitunter den Ereigniswetten, also dem Wetten auf den Eintritt oder eben das Ausbleiben jener Ereignisse.
Die Nutzer:innen entscheiden selbst, auf welche Ereignisse sie wetten möchten. „Wird Jesus Christus vor 2027 zurückkehren?“ – die Chance steht laut Polymarket bei vier Prozent.
„Dystopischer Todesmarkt“In letzter Zeit häufen sich jedoch Berichte über weniger harmlose Wettangebote. Ereigniswetten betreffen beispielsweise auch den Beginn und das Ende von Kriegen – oder sogar den detaillierten Verlauf und konkrete Menschenleben.
„Ekelhaft“ nennt dies Seth Moulton, US-Kongressabgeordneter der Demokratischen Partei: Nachdem Iran ein US-Kampfflugzeug abgeschossen hatte und die Suche nach dem zweiten Piloten anhielt, hatten Nutzer:innen von Polymarket Wetten auf den genauen Tag seiner Bergung abgeschlossen. Polymarket hat das Wettangebot wenig später aufgrund von „Integritätsstandards“ zwar deaktiviert, doch Moulton konterte, es seien auf der Plattform weiterhin Hunderte solcher „Kriegswetten“ aktiv und Polymarket sei ein „dystopischer Todesmarkt“.
Das Wetten auf Raketeneinschläge ist ein Routine-Angebot auf Polymarket. Mitunter geht es um hohe Beträge. Die Wettenden gewinnen oder verlieren, wenn eine Rakete nicht abgefangen wird oder eben trifft. Das ist die definitorische Voraussetzung in der Rubrik „Militärschläge“: Es muss ein Treffer sein. Als Basis der Überprüfung dient, was in der Presse steht.
Emanuel Fabian, Journalist der Times of Israel, erfuhr dies auf unangenehme Weise. Er hatte im Laufe des 10. März 2026 ein „relativ unwichtiges Update“ zu einem bestätigten Raketentreffer veröffentlicht, sagt er dem Guardian. Kurz darauf erhielt er etliche Drohungen: „Dir bleiben noch 90 Minuten die Lüge zu korrigieren.“ Eine andere Person drohte laut dem Bericht: „Nachdem du uns 900.000 Dollar Verlust beschert hast, werden wir mindestens denselben Betrag investieren, um dich fertigzumachen.“
Die Spur der Drohungen führt auf Polymarket: Die Wetteinsätze für Raketeneinschläge, über die Fabian berichtete, beliefen sich am 10. März auf rund 23 Millionen US-Dollar. Drohungen dieser Art lassen laut Fabian die Prognose zu, dass Journalist:innen bald häufiger unter dem Druck stehen könnten, ihre Berichterstattung an das gewünschte Ergebnis von Wetten anzupassen. Denkbar ist, dass eine Beteiligung an Wetten eine falsche oder verzerrende Berichterstattung befördern könnte.
Manipulation und Insiderhandel schwer verhinderbar„Gesellschaftswetten“ haben analog zum klassischen Finanzmarkt aber nicht nur das Problem ethischer Grundsätze, sondern auch von Insiderhandel. Darunter versteht man, dass Menschen mit Vor- oder Insiderwissen dieses am Markt gezielt ausnutzen, um Gewinne zu machen.
Am Tag vor den ersten Angriffen der USA und Israels auf den Iran platzieren mehr als 150 Polymarket-Accounts hohe Wetten, mit denen sie den Angriff noch wenige Stunden vorher richtig „vorhersagen“. Ein besonders auffälliger Account konnte über den Verlauf mehrerer Wetten 93 Prozent der unangekündigten US-Militärschläge korrekt prognostizieren. Kurz vor Beginn des Waffenstillstandes zwischen den USA und Iran wiederholte sich das Muster: Mindestens 50 neu erstellte Polymarket-Accounts wetteten mit hohen Einsätzen, nur wenige Stunden davor. Ein ähnlicher Vorgang hatte sich bereits im Januar kurz vor der US-Militäraktion in Venezuela zugetragen. Ein Account „antizipierte“ die Gefangennahme Maduros und konnte damit innerhalb weniger Stunden mehr als 400.000 US-Dollar Gewinn einfahren.
In einem anders gelagerten Fall hat ein Account eine Million US-Dollar durch das Wetten auf Googles „Year in Search 2025“ gewonnen. Die Erfolgsrate dabei: 22 von 23 Malen richtig „geraten“. Auf die Wallet dieses Accounts wurden vorher drei Millionen US-Dollar eingezahlt und sofort hohe Wettsummen platziert. Auch Googles Freigabedatum von Gemini 3.0 Flash hatte derselbe Account zuvor richtig prognostiziert.
Wer diese mutmaßlichen Insider:innen sind, ist nur schwer nachverfolgbar. Alle Polymarket-Accounts können anonym betrieben werden. Zudem laufen sämtliche Trades über die Plattform-eigene Kryptowährung. Geldflüsse lassen sich auf diese Weise offenbar leicht verschleiern. Dennoch sah sich die Trump-Regierung dazu genötigt, eigene Mitarbeiter:innen vor Insider Trading zu warnen, berichtet das Wall Street Journal.
Polymarket – Der größte Prediction Market operiert mit seinem umstrittenen Wettangebot „offshore“. - Alle Rechte vorbehalten IMAGO / Charpaud Christopher / ABACAWir haben sowohl Polymarket als auch Kalshi Presseanfragen geschickt, auf die beide Unternehmen allerdings nicht reagiert haben.
In Deutschland verboten, in den USA GraubereichIn Deutschland sind sogenannte Gesellschaftswetten prinzipiell verboten, die Gemeinsame Glückspielbehörde der Länder (GGL) warnt vor der Teilnahme. In einer Mitteilung der Behörde heißt es:
Aufgrund der hohen Manipulationsgefahr sind solche Wetten laut § 3 Abs. 1 Satz 4 in Verbindung mit § 4 Abs. 5 des Glücksspielstaatsvertrags 2021 (GlüStV 2021) nicht genehmigungsfähig.
Wer bei Polymarket oder anderen Plattformen wettet, macht sich somit strafbar. Polymarket bietet ein deutsches User-Interface an, mit einer deutschen IP-Adresse lassen sich dort keine Wetten platzieren. Solches Geoblocking lässt sich allerdings technisch recht einfach umgehen.
In den USA ist die Rechtslage unübersichtlich. Die US-Aufsichtsbehörde „Commodity Futures Trading Commission“ (CFTC) untersagt im Prinzip das Wetten in Bezug auf Krieg, Terror und Attentate. Die US-basierte Plattform Kalshi hält sich daran, bei Polymarket zeigt sich jedoch ein anderes Bild. Die Wetten auf Kriegsereignisse laufen dort nicht über das US-Geschäft, sondern über die internationale Sparte des Anbieters. Sogenanntes „Offshore Trading“ macht es möglich.
Indes haben US-Kongressabgeordnete, darunter Chris Murphy (Demokratische Partei), neue Gesetzesvorschläge eingebracht. Das Wetten auf Regierungshandeln, Krieg, Terror und ähnliche Ereignisse soll demnach auf gesetzlicher Ebene verboten werden. Auch Ereignisse, die sich von Einzelnen leicht manipulieren lassen, sollen darunter fallen – beispielsweise, ob Trump im April das Wort „RINO“ verwenden wird.
Prinzipiell soll das gesetzliche Verbot von Insider Trading auf die Prediction Markets ausgeweitet werden. Eine Abgeordnetengruppe forderte die CFTC zudem dazu auf, bis zum 15. April eine Reihe von Fragen zu ihrer Aufsichtsrolle zu beantworten. Darunter auch, warum die Behörde nicht gegen kriegsbezogene Wetten vorgeht und ob es Interessenkonflikte zwischen Finanzmarkt-Akteuren und hochrangigen Regierungsmitgliedern gibt.
Aktuell ist jedoch mit wenig Gegenwind von US-Behörden zu rechnen. Während die Biden-Administration gerichtlich gegen Prediction Markets vorging, hat die Trump-Regierung die Untersuchungen gegen Polymarket einstellen lassen. Michael Selig, Vorsitzender der CFTC, sagte gar, unter seiner Leitung sei es den Predictions Markets möglich, in den USA „aufzublühen“.
Familie Trump will mitmischenIndes hat die Familie Trump Pläne für eine eigene Prognoseplattform: „Truth Predict“. Donald Trump Jr. ist zudem nicht nur als Berater für Polymarket und Kalshi tätig, sondern hat mit seiner Investmentfirma 1789 Capital auch direkt in Polymarket investiert.
Da die neuen Online-Plattformen auch im Sportwettengeschäft regulärer Wettanbieter mitmischen und wenig reguliert sind, seien klassische Sportwettenanbieter laut CNN besorgt. Eine anonym bleibende Person aus der Branche sagte demnach, die Beteiligung der Familie Trump an Prognosemärkten sei ein „entscheidender Faktor in dieser politischen Angelegenheit“.
Abgeordnete der Republikanischen Partei zögerten offenbar, sich in Washington in einen Streit einzumischen, der dem Geschäft der Familie Trump schaden könnte.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Vor Schicksalswahl: Orbán-Regierung soll neuartige Überwachungsprogramme angeschafft haben
Die US-Firma Penlink verkauft Überwachungstechnik, die auf Werbe-Tracking basiert. Nach Trumps Abschiebemiliz ICE hat offenbar auch die ungarische Regierung Lizenzen gekauft. Kurz vor der Wahl könnte sie damit gegen Opposition und Medienschaffende vorgehen.
Viktor Orbán droht bei der Wahl der Machtverlust. – Alle Rechte vorbehalten IMAGO / Anadolu Agency; Bearbeitung: netzpolitik.orgDie ungarische Regierung soll kürzlich Lizenzen für ein Überwachungsprogramm erworben haben, das Menschen mithilfe von Daten aus der Online-Werbeindustrie überwachen und verfolgen kann. Das hat am Donnerstag das ungarische Investigativmedium VSquare berichtet. Das Programm Webloc der US-Firma Penlink soll auf Daten von bis zu 500 Millionen Handys beruhen.
VSquare beruft sich auf eingesehene Dokumente und mehrere Quellen mit Verbindung zu ungarischen Geheimdienstkreisen. Die Enthüllung ist Teil eines größeren Berichts zu Penlink und Webloc, den gestern das Citizen Lab der Universität Toronto veröffentlicht hat.
In dem Bericht heißt es auf Englisch:
Unsere Untersuchungen zeigen, dass mittlerweile in mehreren Ländern weltweit Militär-, Geheimdienst- und Strafverfolgungsbehörden – bis hinunter zu lokalen Polizeieinheiten – äußerst invasive und rechtlich fragwürdige, werbebasierte Überwachungstechnik ohne richterliche Anordnung oder angemessene Kontrolle einsetzen.
Zu den bekanntesten Kunden von Penlink gehört die paramilitärische US-Abschiebebehörde ICE, die im Auftrag der Trump-Regierung massenhaft Menschen festnehmen und deportieren soll. Sie soll das werbebasierte Überwachungswerkzeug laut Medienberichten unter anderem nutzen können, um gezielt Menschen anhand ihrer Handy-Standorte aufzuspüren.
Laut VSquare und Citizen Lab steht Webloc Ungarn mindestens seit 2022 zur Verfügung; zuletzt habe 2026 eine ungarische Sicherheitsbehörde neue Webloc-Lizenzen erworben. Es wäre der erste bestätigte Kauf eines werbebasierten Überwachungstools durch eine europäische Regierung. Auf unsere Presseanfrage hat die ungarische Regierung bis zum Zeitpunkt der Veröffentlichung nicht reagiert.
Standorte und Interessen: Diese Daten soll Webloc nutzenDas Werkzeug Webloc ist offenbar eine Erweiterung für ein größeres Überwachungsprodukt namens Tangles. Das berichten die Forschenden des Citizen Lab mit Verweis auf gesammelte Dokumente und Verträge. Webloc soll demnach Zugang zu einem Datenstrom von bis zu 500 Millionen Handys weltweit bieten. Zu den verfügbaren Daten sollen unter anderem gehören:
- genaue GPS-Standorte,
- die einzigartigen Werbe-Kennungen eines Geräts (mobile advertising IDs, kurz: MAID),
- Eckdaten zum Gerät wie Betriebssystem und weitere installierte Apps,
- Eckdaten zur Person, die das Gerät nutzt, wie Alter, Geschlecht, Sprache sowie
- Interessen der Person, sogenannte Zielgruppen-Segmente aus der Werbe-Industrie, zum Beispiel Vorlieben für Basketball oder Luxusgüter.
Eine Presseanfrage von netzpolitik.org zur Datengrundlage von Webloc hat die US-Betreiberfirma Penlink (früher: Cobweb Technologies) nicht beantwortet. Wir können deshalb nicht mit Sicherheit sagen, ob die beschriebene Datengrundlage zutreffend oder aktuell ist.
Die Liste der verfügbaren Daten ist zumindest plausibel. Denn genau solche Daten lassen sich aus der Online-Werbe-Industrie gewinnen. Das zeigen unsere Recherchen zum Datenmarktplatz Xandr, die von Zielgruppen-Segmenten handeln, und zu den Databroker Files, die den Handel mit Standortdaten in den Fokus nehmen.
Solche Daten werden angeblich nur zu Werbezwecken erhoben, etwa beim Bieten auf digitale Werbeplätze, dem Real-Time-Bidding. Weitere Daten können über sogenannte SDKs abfließen; das sind Software-Pakete von Dritten, die Entwickler*innen in ihre Apps einbauen. Nicht alle Akteur*innen der Werbe-Industrie behandeln die Daten vertraulich.
Auf oftmals verschlungenen Wegen landen sie letztlich als Handelsware bei Databrokern – und von dort potenziell bei Unternehmen, die daraus Überwachungswerkzeuge bauen. Diese Form der Überwachung wird auch ADINT genannt, kurz für advertising-based intelligence, werbebasierte Aufklärung.
Bewegungsprofile: Das soll Webloc mit den Daten machenWebloc soll die Arbeit mit den Daten mithilfe einer grafischen Oberfläche einfach machen, wie aus dem Bericht der Forschenden hervorgeht. Demnach sollen Kund*innen etwa suchen können, welches Handy in einem bestimmten Gebiet – oder in mehreren Gebieten – unterwegs gewesen ist. Außerdem sollen sich Nutzer*innen das Bewegungsprofil einzelner Handys anzeigen lassen können.
Als Beispiel zeigen die Forschenden den Screenshot aus der Produktpräsentation eines Drittanbieters, der die Fähigkeiten von Webloc darlegen soll. Der Screenshot zeigt die angebliche Route eines Handy-Nutzers auf einer Karte, basierend auf 39 Ortungen: Die Reise soll demnach von Deutschland über Österreich nach Ungarn geführt haben.
Zu den Fähigkeiten der Software hat sich Penlink auf Anfrage nicht geäußert. Grundsätzlich lassen sich Handy-Nutzer*innen jedoch mithilfe von Standortdaten der Werbe-Industrie auf genau diese Weise ausspionieren. Das interne Recherche-Werkzeug, das netzpolitik.org und Bayerischer Rundfunk für die Databroker-Files-Recherchen genutzt hat, hatte im Kern die gleichen Fähigkeiten.
Mit einem Werkzeug wie diesem lassen sich gezielt Personen oder Gruppen ins Visier nehmen, etwa Besucher*innen einer politischen Demo; Menschen, die in bestimmten Grenzregionen unterwegs sind, die bestimmte Parteizentralen oder Redaktionen besuchen und vieles mehr. In einem autoritären Regime ist das eine besondere Gefahr unter anderem für Aktivist*innen, Oppositionelle, Journalist*innen oder Migrant*innen.
Achtung, Datenhandel! Lebensgefahr!
Orbán muss um seine Macht bangenDen Recherchen von VSquare und dem Citizen Lab zufolge gehörten mindestens drei ungarische Sicherheitsbehörden seit den frühen 2020er-Jahren zu den Kunden von Cobwebs Technologies, das inzwischen unter dem Namen Penlink firmiert: der Inlandsgeheimdienst Constitution Protection Office (AH), das für das Sammeln und Zusammenführen von Geheimdienstdaten zuständige National Information Center (NIC) sowie die Überwachungsbehörde Special Service for National Security (NBSZ).
Zum Portfolio von Cobwebs Technologies / Penlink sollen mehrere Werkzeuge gehören. NBSZ soll zuletzt im März 2026 Lizenzen für das werbebasierte Überwachungswerkzeug Webloc und weitere Programme erworben haben.
Die Enthüllungen kommen zu einem besonderen Zeitpunkt: Am kommenden Sonntag wählt Ungarn ein neues Parlament, und es sieht erstmals seit Langem so aus, als könnten Premier Viktor Orbán und seine Fidesz-Partei die Mehrheit verlieren. Umfragen sehen die TISZA-Partei von Herausforderer Péter Magyar deutlich vorne; nach 16 Jahren droht Orbán der Machtverlust.
Er und seine Fidesz-Partei haben das Land in den vergangenen Jahren zunehmend autoritär regiert. Die Regierung macht unabhängigen Medien und Nichtregierungsorganisationen die Arbeit schwer, hat Veranstaltungen wie die queere Pride-Demonstration in Budapest verbieten lassen und lässt kaum eine Gelegenheit aus, um Hetze zu verbreiten: etwa gegen die EU, die Ukraine, queere Menschen oder den jüdischen Philanthropen George Soros. Im Rahmen der Pegasus-Affäre kam 2021 ans Licht, dass mehrere ungarische Oppositionelle und Medienschaffende mit dem gleichnamigen Staatstrojaner überwacht wurden.
Brisant ist, dass die ungarische Regierung auch gegen den Journalisten Szabols Panyi vorgeht, der für VSquare zusammen mit dem Citizen Lab zu Penlink / Cobwebs Technologies in Ungarn recherchiert. Auch auf seinem Telefon wurde 2021 die Pegasus-Überwachungssoftware entdeckt. Kürzlich berichtete Panyi auf VSquare über zunehmenden russischen Einfluss auf Viktor Orbán – unter anderem soll Moskau ein Team des Militärgeheimdienstes GRU nach Ungarn geschickt haben, um den Wahlkampf mit Desinformation zu beeinflussen. Die Regierung wirft dem Journalisten Spionage für einen ausländischen Staat vor; die Polizei ermittelt gegen ihn.
Ein großes Arsenal digitaler WaffenNeben ungarischen Behörden soll nach Recherchen des Citizen Lab auch die Polizei in El Salvador Webloc erworben haben, wie der Bericht unter Berufung auf geleakte Dokumente und einen Medienbericht festhält. Das Land wird seit 2019 von Präsident Nayib Bukele regiert, ebenfalls zunehmend autoritär. Eine Presseanfrage von netzpolitik.org ließ die betroffene Polizeibehörde unbeantwortet.
Außerdem listet der Bericht zahlreiche US-Behörden auf, von der lokalen bis zur Bundesebene, die Tangles-Lizenzen erworben haben sollen.
Entwickelt haben soll das werbebasierte Überwachungssystem das israelische Unternehmen Cobwebs Technologies. Es wurde 2023 von der US-Investmentfirma Spire Capital erworben und mit der Überwachungsfirma Penlink fusioniert, unter deren Namen die Geschäfte seitdem weiter laufen.
Neben Webloc sollen Penlink und Cobweb offenbar weitere mächtige Werkzeuge zur digitalen Überwachung im Angebot haben. Das Hauptprodukt heißt dem Bericht des Citizen Lab zufolge Tangles. Es soll etwa Soziale Medien, Foren, Telegram-Gruppen und andere Orte im Netz überwachen können. Kunden können demnach etwa nach Namen, Telefonnummern oder E-Mail-Adressen suchen, um sich online verfügbare Informationen über eine Person anzeigen zu lassen. Dazu zählen auch Posts, Interaktionen mit anderen, besuchte Veranstaltungen oder Beziehungen zu anderen Nutzer*innen. Auch Gesichtserkennung und die automatisierte Analyse von Bildhintergründen, um Orte zu erkennen, sollen zum Produktumfang gehören.
Unsere Presseanfrage zu Tangles und weiteren Produkten ließ Penlink unbeantwortet.
Cobweb soll zumindest bis zur Fusion mit Penlink ein weiteres Produkt namens Trapdoor angeboten haben, berichtet das Citizen Lab. Das Programm wird als „Social-Engeneering-Plattform“ beschrieben, die Kund*innen bei Phishing-Angriffen unterstützen soll. Dem Bericht zufolge könne man mit dem Tool etwa Fake-Websites aufsetzen und Phishing-Links verschicken, um an Informationen und Zugangsdaten von Zielpersonen zu gelangen. Die Forschenden schlussfolgern, mit dem Werkzeug lasse sich die Installation von Malware auf dem Gerät eines Opfers erleichtern.
Das Citizen Lab beschreibt zudem das Cobwebs-Produkt Lynx, mit dem sich digitale Undercover-Operationen und Fake-Accounts in Sozialen Medien managen lassen sollen. Es soll unter anderem genutzt werden können, um sogenannte virtuelle Agenten zu steuern, mit denen Geheimdienste Gruppen im Netz infiltrieren. Auch für Lynx ist ungeklärt, ob es von Penlink übernommen wurde.
Keine Auskunft von der BundesregierungMithilfe von 94 Informationsfreiheitsanfragen wollten die Forscher*innen des Citizen Lab in Erfahrung bringen, welche anderen europäischen Behörden zu den Kunden von Penlink oder Cobwebs gehören. Dabei bissen sie weitgehend auf Granit: „Viele Anfragen wurden abgelehnt oder blieben unbeantwortet“, schreiben die Forschenden. „Europol bestätigte, über Informationen zu Webloc zu verfügen, weigerte sich jedoch, diese offenzulegen.“
In Deutschland hatte zuletzt die Bundestagsabgeordnete Donata Vogtschmidt (Die Linke) Ende 2025 im Rahmen einer Kleinen Anfrage von der Bundesregierung unter anderem wissen wollen, ob Bundesbehörden wie das BKA Produkte von Cobwebs oder Penlink nutzen. Die Bundesregierung verweigerte die Auskunft. Ähnlich äußerte sich das Innenministerium nun auf eine aktuelle Presseanfrage von netzpolitik.org:
Die Sicherheitsbehörden im Geschäftsbereich des Bundesministeriums des Innern (BMI) arbeiten zur Erfüllung ihrer gesetzlichen Aufträge auch mit kommerziellen Anbietern zusammen. Wir bitten um Verständnis, dass wir Ihnen zu Details der Beschaffung und des Einsatzes von entsprechender Software keine weiteren Auskünfte geben können.
Dass Deutschland für Penlink als Markt relevant sein könnte, darauf deutet ein weiterer Fund der Recherche des Citizen Lab: Seit 2020 unterhält Cobwebs in Deutschland ein Vertriebsbüro, das seit 2025 unter dem Namen Pen-Link GmBH firmiert.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Nach unseren Recherchen: Datenschutzbehörde findet gravierende Verstöße bei bekannter Dating-App
Eine populäre deutsche Dating-App hat genaue Handy-Standortdaten an Werbefirmen geschickt, selbst wenn Nutzer*innen nicht eingewilligt haben. Genau solche Daten fanden netzpolitik.org und BR im Angebot von Databrokern – eine große Gefahr für Nutzer*innen.
Liebe suchen, Standortdaten geben. – Smartphone: Unsplash / Viktor Talashuk; Auge: maxpixel.net/CCO; Montage: netzpolitik.orgEine bekannte Dating-App aus Hamburg verkuppelt Menschen auf Kontaktsuche mit anderen in ihrem Umkreis. Den Nutzer*innen dürfte klar sein, dass die App hierfür ihre Standortdaten verwendet. Den Zugriff darauf erlauben sie sogar bewusst – in der Hoffnung auf spannende Begegnungen. Was Nutzer*innen jedoch nicht wissen konnten: Ihre genauen Standortdaten flossen über die Dating-App offenbar auch dann an Werbefirmen, wenn sie dafür keine Einwilligung erteilt hatten.
So geht es aus dem Jahresbericht der Hamburger Datenschutzbehörde für 2025 hervor. Bei der Anwendung handelt es sich anscheinend um eine von Deutschlands beliebtesten Dating-Apps: Lovoo.
Die Behörde selbst nennt den Namen der App aus verfahrensrechtlichen Gründen nicht. Die Untersuchungen seien noch nicht abgeschlossen, schreibt sie auf Anfrage. Auch die Betreiber-Firma von Lovoo, der Online-Dating-Riese ParshipMeet, schweigt dazu. Auf mehrere Presseanfragen erhielten wir keine Antwort.
Dennoch erlaubt der Jahresbericht der Behörde einen Rückschluss auf Lovoo. Demnach haben die Datenschützer*innen die Dating-App nach der Veröffentlichung der „Databroker Files“ von netzpolitik.org und Bayerischem Rundfunk geprüft. Das sind die seit Februar 2024 andauernden Recherchen zum weitgehend unkontrollierten Handel mit Standortdaten aus der Werbe-Industrie. „Den journalistischen Recherchen war der Hinweis auf die App eines Anbieters mit Sitz in Hamburg zu entnehmen“, so die Behörde. Der Clou: In diesen Recherchen taucht nur eine Dating-App aus Hamburg auf – und zwar Lovoo.
Andere verdienen ihr Geld mit euren Daten, wir nicht! Recherchen wie diese sind nur möglich durch eure Unterstützung. Jetzt SpendenSie war eine von rund 40.000 Apps in einem Datensatz mit rund 380 Millionen Standortdaten aus 137 Ländern. Das Recherche-Team hat diese Daten von einem US-amerikanischen Databroker als kostenlose Vorschau für ein Abonnement erhalten. Zur Veröffentlichung unserer Recherche im Januar 2025 ließ uns ein Lovoo-Sprecher wissen, dass man Daten mit Drittparteien für Werbezwecke teile, wenn Nutzer*innen in die Datenschutzerklärung eingewilligt hätten. Lovoo verzeichnet allein im Google Play Store mehr als 50 Millionen Downloads.
Datenschutzbehörde macht „besonders schwerwiegende“ FundeIn ihrem Jahresbericht beschreibt die Datenschutzbehörde, wie Mitarbeiter*innen die – nicht näher benannte – Dating-App durchleuchtet haben. Demnach haben sie den Datenverkehr analysiert und die Erkenntnisse mit den Informationen abgeglichen, die Menschen zu sehen bekommen, wenn sie die App installieren und in die Datennutzung einwilligen.
Das Problem: „Soweit entsprechende Informationen erteilt wurden, stimmten diese nicht mit den tatsächlichen Datenflüssen überein.“ In diesen Datenflüssen konnte die Behörde „die Übermittlung von genauen Standortdaten an bestimmte Werbepartner eindeutig“ nachweisen. Wie uns die Behörde auf Anfrage erklärt, flossen die Standortdaten über eingebundene SDKs an Werbepartner. Das sind Software-Pakete von Dritten, die Entwickler*innen in ihre Apps einbauen.
Statt vorgeschriebener datenschutzfreundlicher Voreinstellungen „war die Erlaubnis zur Weitergabe von genauen Standortdaten an Werbedienste standardmäßig aktiviert“, so der Bericht weiter. Mehr noch: „Besonders schwerwiegend ist, dass die App – auch nach Entfernen des zuvor gesetzten Symbols zum ‚Akzeptieren‘ im eingesetzten Einwilligungsdialog – weiterhin genaue Standortdaten an Werbepartner übermittelte.“ Einfach ausgedrückt: Wer mithilfe der Dating-App andere Nutzer*innen im Umkreis gesucht hat, konnte wohl nicht verhindern, dass dabei die eigenen Standortdaten an Werbefirmen abfließen.
Kontrollverlust beim Online-DatingWo genau die Standortdaten der Dating-Interessierten gelandet sein könnten, ist kaum zu überblicken. Die Datenschutzbehörde spricht von einer „Komplexität und Vielzahl an beteiligten Akteuren“. Neben der Betreiberfirma der App gehörten dazu „verschiedene Werbepartner- und Netzwerke mit einer undurchschaubaren Menge von Beteiligten“.
Offenbar sind die Daten jedoch beim US-Datenhändler Datastream Group (heute: Datasys) gelandet. Er hatte sie zusammen mit weiteren Datensätzen als Gratis-Kostprobe dem Rechercheteam geschickt. Kontakt zu dem Datenhändler erhielten wir über den in Berlin ansässigen Datenmarktplatz Datarade.
Die Kontrolle über ihre Daten, so die Behörde, sei Nutzer*innen durch das Dating-Unternehmen „erschwert“ worden. Angesichts der laut Behörde „undurchschaubaren“ Menge von Beteiligten läge es jedoch viel näher zu sagen, dass Nutzer*innen die Kontrolle über ihre Daten und Privatsphäre komplett verloren haben.
Inzwischen soll die Dating-App den Hahn der sprudelnden Daten abgedreht haben. „Mit den Prüfergebnissen konfrontiert, hat die Anbieterin der App die Ursache der Weitergabe genauer Standortdaten an Werbepartner zügig identifiziert und mittlerweile unterbunden“, so der Bericht. „Zudem hat sie proaktiv Maßnahmen implementiert, mit welchen sie künftig Datenflüsse in der App überwachen und so den unzulässigen Abfluss an Werbenetzwerke unterbinden kann.“
Ob Daten etwa durch einen Konfigurationsfehler versehentlich abgeflossen sind oder das Unternehmen sich dessen bewusst war, lässt sich von außen nicht nachvollziehen.
Datenhandel gefährdet alleDie Databroker Files haben gezeigt, wie gefährlich solche Standortdaten aus der Werbe-Industrie sein können. Auf oftmals verschlungenen Wegen fließen sie über Handy-Apps und deren oftmals Hunderte Werbepartner zu Datenhändlern – und von dort in die Hände aller, die bei ihnen einkaufen. Wertvoll sind solche Daten etwa für Geheimdienste und Sicherheitsbehörden, aber potenziell auch für Kriminelle und Stalker*innen.
Achtung, Datenhandel! Lebensgefahr!
Dem Recherche-Team liegen inzwischen mehr als 13 Milliarden Standortdaten verschiedener Datenhändler vor. Allein die Daten aus Deutschland bedecken nahezu jeden Winkel des Landes. Weil die Daten mit einer einzigartigen Werbekennung versehen sind – eine Art Nummernschild fürs Handy – lassen sich daraus eindeutige Bewegungsprofile ablesen.
Solche Bewegungsprofile machen sichtbar, wo eine Person wohnt und zur Arbeit geht, wo sie spazieren geht, in die Kirche, ins Bordell oder ins Krankenhaus. Betroffen sind Privatpersonen ebenso wie Angestellte von Militär, Geheimdiensten und Regierungsbehörden. Mit ein paar Handgriffen können Interessierte jedoch ihre Standortdaten vor dem Zugriff durch Datenhändler weitgehend schützen.
Hier sind alle Veröffentlichungen von netzpolitik.org zu den Databroker Files und hier die auf Basis der Recherchen entstandene ARD-Doku „Gefährliche Apps – Im Netz der Datenhändler“.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Widerstand gegen Big Tech: „KI wollen wir in unserer befreiten Welt nicht haben“
KI sei verfänglich für faschistische Ideologien und gehe mit autoritären Machtzentren einher. Große Plattformen wie ImmobilienScout24 und Doctolib machen Profit mit Grundbedürfnissen der Menschen. Zwei Aktivist*innen schlagen im Interview konkrete Schritte hin zu einer demokratischen digitalen Teilhabe vor.
Milliardär und Gründer von Lidl und Kaufland Dieter Schwarz lässt in Heilbronn einen „Innovationspark für Künstliche Intelligenz“ bauen. (Archivbild) – Alle Rechte vorbehalten IMAGO / Arnulf HettrichKünstliche Intelligenz ist in aller Munde. Ihr wird nachgesagt, nicht nur Arbeitsprozesse zu vereinfachen und zu beschleunigen. Sie soll auch der Wirtschaft zu neuem Aufschwung verhelfen. Doch immer mehr kritische Stimmen greifen in die Debatte ein und beziehen eine klare Haltung gegen diese Technologie. Zwei von ihnen sind die Digitalexpert*innen Aline Blankertz und Malte Engeler.
Anlässlich der Konferenz „Cables of Resistance. Bewegungskonferenz gegen Big Tech“, die am Wochenende in Berlin stattfindet und mögliche Widerstandsstrategien gegen KI und große Plattformen ausloten möchte, haben wir mit ihnen gesprochen. Aline Blankertz ist angewandte Ökonomin und setzt sich für die demokratische Ausgestaltung von Wirtschaft ein, unter anderem im digitalpolitischen Kollektiv „Structural Integrity“. Sie ist an der Organisation der Konferenz beteiligt. Malte Engeler ist Jurist und Mitbegründer des digitalpolitischen Kollektivs.
Im Interview erklären sie, warum sogenannte KI besonders gut verfänglich für autoritäre Politiken ist, wie ihre Sabotage aussehen kann und wie die Gesellschaft wieder mehr demokratische Kontrolle über große Plattformen erreichen kann. Sie plädieren für eine politische Organisierung und die Vergesellschaftung von Plattformen, die solch essenziellen Bereiche der Daseinsvorsorge wie Wohnungssuche oder Arztterminbuchungen strukturieren.
„Künstliche Gebärmutter“ und KI haben den gleichen ideologischen Ursprungnetzpolitik.org: Was ist eigentlich eine “künstliche Gebärmutter”? Im Manifest der Konferenz ist die Rede davon.
Aline Blankertz: Die künstliche Gebärmutter ist eine Figur, die immer mal wieder rund um Elon Musk auftaucht. Dieser Idee des selektiven Pronatalismus liegt zugrunde, dass man stärker steuern möchte, wer Kinder bekommen darf. Die künstliche Gebärmutter ist das Mittel, um sich letztlich vom „weiblichen Körper“ lösen zu können. Es geht darum, aus einer weißen cis-männlichen Perspektive technisch steuern zu können, wohin es mit der Menschheit geht. Mein Verständnis ist, dass es diese künstliche Gebärmütter noch nicht technisch ausgereift gibt. Aber es laufen Forschungsprojekte, die das aktiv vorantreiben. Daneben existieren viele andere transhumanistische Projekte, wie zum Beispiel „Neuralink“, um menschliche Gehirne und Maschinen stärker miteinander zu verbinden.
In Europa ist es subtiler, aber viele dieser Entwicklungen hin zu solchen transhumanistischen Ideen ‒ also wie können Menschen mit technischen Upgrades besser gemacht werden ‒ sehen wir auch hier. Die künstliche Gebärmutter und die Brain-Computer-Interfaces unterscheiden sich zwar von KI, weil sie unmittelbarer auf die Ebene von Hardware und menschlichen Körpern setzen. Doch auch der KI-Diskurs hat den gleichen ideologischen Ursprung und wird technisch von denselben Menschen vorangetrieben.
„Diese Infrastrukturen kann niemand bei sich im Keller haben“netzpolitik.org: Ist das der Grund warum ihr KI fundamental ablehnt? Und was versteht ihr unter KI genau?
Malte Engeler: Wenn wir von KI reden, dann meinen wir die in der Gesellschaft aktuell sehr präsente Form von KI: große Datenmodelle, die aus vorhandenen Datenquellen zukünftige oder neue Ergebnisse berechnen. Wir meinen maschinelles Lernen, das Menschen dazu nutzen, um neue Texte, Bilder, Videos oder Ton zu erstellen. Die Modelle werden auch in sozialen Situationen eingesetzt, um neue Entscheidungspunkte zu generieren. Zum Beispiel in militärischen Aktionen, in Verwaltungsentscheidungen oder zur Benotung im Bildungswesen. Es geht also um eine Technologie, die auf Basis einer immensen Datenmenge Muster erlernt und neue Ergebnisse mit diesen Mustern produziert. Wir reden hier von ganz großen Modellen.
Dieser Technologie ist inhärent, dass sie besonders für autoritäre und faschistische Kräfte anknüpfbar ist. Das ist also kein technischer Fehler, sondern die Technologie ist schlicht und einfach so gebaut. Dazu gehört, dass diese gigantischen Modelle eine große Zentralisierung mit sich bringen. Die Infrastrukturen, die zum Training und Erhalt der Modelle nötig sind, kann niemand bei sich im Keller haben. Diese riesigen Rechenzentren können eigentlich nur zentralisiert betrieben werden. Politisch anknüpfbar für faschistische Politiken sind diese Infrastrukturen deshalb, weil sie autoritäre Machtzentren stark bevorzugen.
Zum anderen ist da diese Mustererkennung, die immer auf Daten aus der Vergangenheit trainiert wird. Sie überträgt deshalb notwendigerweise diese Vergangenheit in die Zukunft und vereinheitlicht diese Zukunft statistisch auf einen weiß-patriarchal geprägten Mittelwert. Laut diversen Theorien steckt im Kern des Faschismus die Idee, dass es eine Wahrheit, eine tiefes völkisches, echtes Leben in der Gesellschaft gibt, das zum Erblühen gebracht werden soll. Und diese Idee von einer Wiedergeburt der nationalen Stärke findet sich im technischen Prinzip wieder, massenhaft Daten zu sammeln und das vermeintlich Wahre aus diesen Daten wieder extrapolieren zu können.
„Wünschenswert, wenn Menschen KI nicht auch noch freiwillig nutzen“netzpolitik.org: Ist es aus antifaschistischer Sicht ein Problem, wenn Menschen ihre Suchanfragen nicht mehr in eine klassische Suchmaschine eingeben, sondern zum Beispiel in ChatGPT?
Aline Blankertz: Wir beschäftigen uns vor allem mit der kollektiven Dimension. Es ist nicht die einzelne Suchanfrage bei ChatGPT, die uns dem Faschismus näher bringt. Es sind eben die Zwänge, die an vielen Stellen bestehen. Beispielsweise, dass viele Menschen nun Dinge schneller machen müssen und es deswegen mit KI tun. Dass sie im Wettbewerb mit anderen stehen, um bessere Betriebsergebnisse hervorzubringen.
Es ist wünschenswert, wenn Menschen KI nicht auch noch freiwillig nutzen. Wenn sie es nur unterhaltsam finden, könnten sie sich eine andere Beschäftigung suchen, die weniger klimaschädlich ist und den KI-Hype nicht weiter am Leben hält. Aber das ist nicht das, womit wir antifaschistisch wirken können, indem wir einfach keine KI mehr verwenden.
„KI-Unternehmer*innen werden hierzulande glorifiziert“netzpolitik.org: Welchen konkreten Schaden seht ihr in Europa und in Deutschland durch KI bereits?
Aline Blankertz: Aktuell läuft die Debatte, dass man in der Verwaltung großflächig KI einsetzen möchte, etwa nach dem Vorbild von DOGE aus den USA. Das wird zwangsläufig dazu führen, dass mehr Menschen diskriminiert werden und dafür wiederum weniger Verantwortung übernommen wird. Das kennen wir beispielsweise aus Amsterdam, wo ein Algorithmus zur Folge hatte, dass vor allem sozial schwachen Familien Betrugsvorwürfe gemacht wurden. Oder aus England, wo Abiturergebnisse während der Corona-Pandemie insbesondere von Schüler*innen aus ärmeren Gegenden abgewertet wurden.
Ein anderer Aspekt ist, dass auch hierzulande KI-Unternehmer*innen als Heilsbringende glorifiziert werden. Ein starkes Beispiel hierfür ist Dieter Schwarz, dem die Schwarz-Gruppe mit Lidl und Kaufland gehört. Neben vielen Rechenzentren baut er so etwas wie eine Privatstadt in Baden-Württemberg auf und wird dafür gefeiert. Die CEOs von SAP und Telekom werden ebenfalls häufig gefragt, was für eine Gesellschaft sie sich wünschen. Ganz so, als ob sie gesellschaftliche Interessen im Blick hätten.
Außerdem beschleunigt KI die gesellschaftliche Spaltung nicht nur im Mediendiskurs, indem plausibel klingende Outputs ohne Anspruch auf Wahrheit eine demokratische Diskussionsbasis untergraben. Sie entwertet schon jetzt Arbeit. Menschen haben Angst, von sogenannter KI ersetzt zu werden, die Gewerkschaften fahren ihre Forderungen zurück. Gleichzeitig erwirtschaften diejenigen, die in Aktien investiert haben, umso mehr Gewinne. Die ökonomische Ungleichheit wächst also noch stärker durch KI.
„In den USA zünden Menschen autonom fahrende Autos an“netzpolitik.org: Was kann man dagegen tun?
Aline Blankertz: Wir können uns gegen KI wenden. Wir können uns verweigern. Wir können Trainingsdaten vergiften. Man kann auch so etwas wie Sabotage nach dem CIA-Sabotage-Manual betreiben. Es enthält einige inspirierende Ideen aus der Zeit des Zweiten Weltkriegs, wie Menschen den Faschismus verlangsamen können. Man kann Abläufe verringern, verlangsamen und weniger effizient machen. Man kann sich gegen Rechenzentren engagieren.
In den USA gibt es noch weitergehende Aktivitäten. Da zünden Menschen autonom fahrende Autos von Waymo an. Dort gibt es Roboter, die die Gehwege von Obdachlosen freihalten sollen. Menschen attackieren auch diese Roboter.
Um wirklich politisch wirksam sein zu können, müssen wir uns aber organisieren. Da führt kein Weg dran vorbei. Die Dienste im Individuellen zu wechseln reicht nicht. Zu sagen, „ich finde KI doof, reicht auch nicht“. Wir müssen uns politisch zusammenfinden und die Auswirkungen solcher digitalen Technologien stärker als Problem verstehen.
„Vergesellschaftung ist die Antwort“netzpolitik.org: Auf der Konferenz gebt ihr einen Talk darüber, dass Regulierung und Open-Source-Alternativen nicht ausreichen, um gegen die Macht der Tech Giganten anzukommen. Stattdessen schlagt ihr vor, große Tech Plattformen zu vergesellschaften.
Malte Engeler: Aktuell erleben wir eine autoritäre Wende. In Zeiten von Kipppunkten wie diesen ist Abwehrkampf ein ganz wesentlicher Teil. Gegen etwas zu kämpfen ist nicht so motivierend wie für etwas. Ich kann das für mich persönlich ganz klar sagen: mich motiviert nicht der Hass auf Big Tech. Mich motiviert der Wunsch nach einer besseren Welt. Wir brauchen konkrete Vorstellungen einer Realität, in der diese Technologien, die wir gerade bekämpfen, anders funktionieren. Und wie kommen wir dahin? Wie kann man eine Plattform, die uns jetzt ausbeutet und aus unseren Bedürfnissen Profit schlägt, in etwas Besseres verwandeln?
Die Antwort auf diese Fragen ist Vergesellschaftung: also die Überführung einer privatwirtschaftlich betriebenen kommerziellen Plattform in einen Zustand, in dem sie im Sinne des Gemeinwohls und der Bedürfnisbefriedung der Menschen demokratisch verwaltet wird.
„Mit kleineren Plattformen anfangen“netzpolitik.org: Welche Plattformen würdet ihr gern vergesellschaften?
Malte Engeler: Sich allein diese Frage zu stellen, ist sehr spannend. Das führt dazu, dass auch linke und progressive Kräfte auf einmal anfangen, darüber nachzudenken: Was ist unsere Vision? Was ist unsere Idee von einer digitalen Wohnungsvermittlung oder von einem Portal, auf dem man sich Arzttermine klicken kann? Was würden wir mit diesen Infrastrukturen machen, wenn sie nicht nach kapitalistischen Prinzipien betrieben werden würden?
Auf der „Cables of Resistance“ gibt es auch einen Talk von der Redscout24 Gruppe, in der Aline und ich beteiligt sind. Das ist ein ganz konkreter Versuch zu zeigen, wie ImmobilienScout24 anders aussehen könnte. Aber das ist nur ein Beispiel von vielen. Doctolib wäre ein anderes.
Die Frage der Vergesellschaftung zwingt uns aber auch dazu, uns zu positionieren, welche Plattformen wir vielleicht gar nicht wollen. Man kann vergesellschaften, um dann nur abzuschalten. KI ist ein Beispiel für eine Technologie, die wir in unserer befreiten Welt nicht haben wollen.
Aline Blankertz: Konkret plädieren wir dafür, mit den kleineren Plattformen wie ImmoScout24 und Doctolib anzufangen. Denn über sie läuft aktuell der Zugang zu für alle Menschen wichtigen Bereichen der Daseinsvorsorge wie Wohnungen und Gesundheitsversorgung. So können wir erst einmal lernen, wie die Umstellung auf Bedürfnisorientierung funktioniert. Mittelfristig können wir dann unseren Blick stärker auf digitale Infrastrukturen wie Rechenzentren und globale Plattformen richten.
Was wir durch Vergesellschaftung gewinnen, ist, dass wir überhaupt wieder gesellschaftlich gestalten können. Im Moment läuft es danach, wie am meisten Geld für die Anteilseignenden herausspringt. Wenn wir an Demokratie glauben, müssen wir auch daran glauben, dass wir gesellschaftliche Infrastrukturen danach gestalten können.
Da kann man sich gut bei „Deutsche Wohnen & Co enteignen“ umsehen, die für ihre Anstalt öffentlichen Rechts ‒ so unsexy das auch klingen mag ‒ sehr detailliert ausbuchstabieren, welche Gruppen wie an Entscheidungsprozessen beteiligt werden sollen. Gleichermaßen wäre das auch bei einer digitalen Wohnungsvermittlungsplattform, die auf die Bedürfnisse von Menschen zugeschnitten ist.
„ImmoScout24 vom Markt verdrängen“netzpolitik.org: Wie kann eine Bewegung oder ein Zusammenschluss von Bewegungen praktisch an ein Unternehmen wie ImmoScout24 herankommen?
Malte Engeler: Wir sollten nicht vergessen, dass es schon viele Strukturen gibt, die so organisiert sind. Man vergisst, dass wir das Rad nicht neu erfinden müssen. Bibliotheken zum Beispiel sind eine gut funktionierende öffentliche Infrastruktur. Sie haben einen gemeinsamen Datenbestand. Beispielsweise kann ich heute in der Staatsbibliothek Berlin ein Buch aus Heidelberg bestellen und es übermorgen abholen. Das sind auch keine privatwirtschaftlich betriebenen Informationszugangssysteme.
Es gibt verschiedene Wege zum Ziel. In einigen Gemeinden existieren noch kommunale Online-Plattformen zur Wohnungsverwaltung, auf denen sie den eigenen Wohnungsbestand anbieten. Sie stellen ihn nicht auf ImmoScout24 ein. Man könnte also festlegen: Wer Wohnraum hat und vermieten will, muss dafür die Plattform der Gemeinde nutzen. Bei einigen Infrastrukturen der Daseinsvorsorge wie Müllabfuhr oder Wasseranschluss gibt es schon ein ähnliches Prinzip, den sogenannten Anschluss- und Benutzungszwang.
Mit Aktivist*innen aus dem Fediverse, die viel Erfahrung mit dezentralen Strukturen haben, und Menschen, die solche Bibliotheken-Systeme bauen, könnte man ausloten, wie ein deutschlandweiter Katalog aussähe, mit dem man in jeder Kommune auf alle Wohnungen in Deutschland zugreifen kann.
Im Grunde verdrängt man ImmoScout24 auf diese Weise vom Markt und vergesellschaftet es gar nicht. Die Plattform wird so immer unwichtiger. Sie kann dann noch Eigentumswohnungen auf dem Land vermitteln, aber ist aus dem Mietraum raus. Das wäre bereits eine Errungenschaft.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
