• Landgericht München: GEMA setzt sich gegen OpenAI durch

    Gericht bejaht Urheberrechtsverletzung durch KI-Training und Textausgabe

    Das Landgericht München I hat mit Urteil vom 11. November 2025 (Az. 42 O 14139/24) entschieden, dass das Training und die Nutzung der Sprachmodelle GPT-4 und GPT-4o von OpenAI gegen deutsches Urheberrecht verstoßen, jedenfalls in dem konkret zu prüfenden Fall. Den Anträgen der GEMA auf Unterlassung, Auskunft und Schadensersatz wurde stattgegeben.

    Hintergrund des Verfahrens

    Die GEMA hatte geltend gemacht, dass von ihr vertretene urheberrechtlich geschützte Liedtexte deutscher Popmusik – darunter dem Song „Atemlos“ (Kristina Bach) und „Wie schön, dass du geboren bist“ (Rolf Zuckowski) – in den Sprachmodellen von OpenAI „memorisiert“ worden seien, d. h. inhaltlich von Trainingsdaten in die Parameter des Modells übernommen wurden. Nutzer konnten diese Texte durch einfache Eingaben wie „Wie lautet der Text von ‚Atemlos’“ nahezu wortgetreu abrufen. OpenAI bestritt eine konkrete Speicherung und verwies darauf, die Modelle würden nur Wahrscheinlichkeiten abbilden. Außerdem seien mögliche Urheberrechtsverstöße durch Nutzerprompts verursacht und im Übrigen von der Text-und-Data-Mining-Schranke (§ 44b UrhG / Art. 4 DSM-RL) gedeckt.

    Entscheidung des Gerichts

    Die 42. Zivilkammer folgte der Argumentation von OpenAI nicht. Deutsches Urheberrecht sei anwendbar, denn das Angebot richtet sich offensichtlich an Nutzer in Deutschland, wenn es um deutsche Liedtexte geht. Nach Auffassung der Kammer sind die Liedtexte jedenfalls in dem zu prüfenden Fall reproduzierbar in den Modellen enthalten und genau darin sieht die Kammer eine urheberrechtlich relevante Vervielfältigung (§ 16 UrhG, Art. 2 InfoSoc-RL). Diese Vervielfältigung sei durch keine gesetzliche Erlaubnis gedeckt. Insbesondere greife die gesetzliche Erlaubnis der Text-und-Data-Mining-Schranke (§ 44b UrhG) nicht. Die Schranke des § 44b UrhG solle lediglich vorübergehende Kopien zu Analysezwecken erlauben, nicht aber das dauerhafte Einprägen ganzer Werke in ein Modell. Die wiederholte Abrufbarkeit impliziere jedoch das permanente Vorhandensein in dem Modell.

    Auch das Ausgeben der Texte durch ChatGPT sei eine rechtswidrige Vervielfältigung und öffentliche Wiedergabe (§§ 16, 19a UrhG, Art. 3 InfoSoc-RL). OpenAI selbst – nicht der einzelne Nutzer – sei hierfür verantwortlich, da das Unternehmen das Modell konzipiert, trainiert und betrieben hätte. In der Haftungsfolge unterscheidet sich der zu beurteilende Fall daher ganz wesentlich von Rechtsstreitigkeiten, in denen User urheberrechtlich geschützte Inhalte auf Social-Media-Plattformen hochladen. Der Output von KI-Systemen werde somit zwar durch User-Prompts veranlasst, die Verursachung des Outputs und damit dessen öffentliche Zugänglichmachung wird jedoch dem Betreiber der KI zugerechnet, der damit in voller Verantwortung steht und haftungsrechtlich nicht wie in den Social-Media-Upload-Fällen privilegiert ist. Persönlichkeitsrechtsverletzungen durch OpenAI konnte die Kammer dagegen nicht feststellen.

    Das Urteil bejaht erstmals ausdrücklich eine urheberrechtliche Verantwortlichkeit von KI-Anbietern für die im Modell gespeicherten („memorisierten“) Trainingsdaten und die daraus generierten Ausgaben. Man könnte somit formulieren, nicht ChatGPT ist das Werkzeug des Nutzers, vielmehr verhält es sich vor dem urheberrechtlich relevanten Hintergrund geradezu umgekehrt. Es verdeutlicht, dass das bestehende Urheberrecht auch auf neue Technologien wie große Sprachmodelle anwendbar ist und dass die Text-und-Data-Mining-Schranke nur eng auszulegen ist.

    Praktische Folgen und Ausblick

    Das Urteil hat erhebliche praktische Folgen, jedenfalls wenn es dabei bleibt. Betreiber generativer KI-Modelle müssten die Nutzung urheberrechtlich geschützter Inhalte zu KI-Trainingszwecken lizenzieren oder verhindern, dass es zu Outputs von identischem urheberrechtlich geschütztem Inhalt kommt. Nicht deutlich genug kann man darauf hinweisen, dass der Fall sicher anders beurteilt worden wäre, wenn es sich um Output gehandelt hätte, der urheberrechtlich geschütztem Text lediglich ähnlich gekommen wäre. In diesem Fall hätte das Gericht in seiner Entscheidungslogik prüfen müssen, ob es sich bei dem Output um eine Bearbeitung (§ 23 UrhG) des Originals gehandelt hätte und falls ja, ob diese Bearbeitung gesetzlich erlaubt war, etwa wenn es sich um eine Parodie handelt. Mit anderen Worten, auf der zweiten Stufe wäre also eine klassische urheberrechtliche Bewertungsfrage vorzunehmen gewesen. Hätte die Kammer schließlich keine Bearbeitung im urheberrechtlichen Sinne feststellen können, hätte sie auch keine Rückschlüsse auf eine „Memorisierung“ treffen können. Die Ansprüche der GEMA wären somit an der individuellen Beweislast gescheitert.

    Vor diesem Hintergrund wird deutlich, wie zentral die politische Entscheidung sein wird, ob zukünftig davon gesetzlich ausgegangen werden soll, dass in Trainingsdaten ALLE Texte und ALLE Musik und ALLE Bilder eingeflossen sind, welche Transparenzpflichten Betreibern von KI-Modellen abverlangt werden und welche Konsequenzen an eine Vernachlässigung dieser Pflichten geknüpft werden.

    Bis dahin ist es allerdings noch ein weiter Weg, der zunächst über das Oberlandesgericht München führt. Das Urteil ist noch nicht rechtskräftig und eine Berufung vor dem Oberlandesgericht München wahrscheinlich. Bis zur Entscheidung des OLG München fließt noch eine Menge Wasser die Isar hinunter.

  • IfKI unterwegs: von Mainz bis ins Hamburger Rathaus

    In den letzten Wochen war das IfKI nicht nur in den eigenen vier Wänden aktiv. Zwei unserer Vorstandsmitglieder haben sich auch außerhalb der Institutsräume zu Wort gemeldet über KI, Urheberrecht und die Zukunft kreativer Arbeit diskutiert.

    Reinher Karl auf der Content Convention in Mainz

    Am 26. November 2025 war Reinher Teil der diesjährigen Content Convention in Mainz, einer der führenden Medienkonferenzen in Deutschland. Die Veranstaltung bringt Medien, Plattformen, Politik und Start-ups zusammen und erreicht jährlich über 1.200 Gäste vor Ort sowie mehr als 300.000 Teilnehmer im Livestream.

    Gemeinsam mit Jochen Wegner von der ZEIT diskutierte Reinher im Keynote-Talk über eine Frage, die uns alle umtreibt: „Reicht das Urheberrecht in Zeiten von KI noch aus? Der Titel seiner Rede deutet bereits an, worauf er hinauswollte: „Auf die Frage fallen mir eine ganze Reihe von Antworten ein. Die wenigsten haben mit Urheberrecht zu tun.“ Bei den Herausforderungen durch Künstliche Intelligenz für Kreativschaffende geht es nicht nur um verabschiedete Digitalgesetze, sondern um eine gescheiterte Durchsetzung. Wer sich Reinhers Keynote und die anschließende Diskussion anschauen möchte, findet sie hier auf YouTube (ab 1 h 21 min).

    Sebastian Sudrow in Hamburg: Revolution oder Raubzug?

    Am 5. Dezember 2025 war Sebastian bei einer Podiumsdiskussion der Linksfraktion in der Hamburger Bürgerschaft im Rathaus zu Gast. Der Titel der Veranstaltung brachte die Spannung auf den Punkt: „Revolution oder Raubzug? Wie KI die Kultur bedroht“.

    Gemeinsam mit Donata Vogtschmidt von der Linksfraktion im Bundestag, Lena Falkenhagen vom Verband deutscher Schriftstellerinnen und der Bürgerschaftsabgeordneten Marie Kleinert diskutierte Sebastian über die Auswirkungen künstlicher Intelligenz für den Kunst- und Kulturbetrieb und welche politischen und gewerkschaftlichen Antworten es auf die derzeit ungebremste digitale Entwicklung braucht.

  • KI-Zukunft können – Kreativität zwischen Automatisierung und Abhängigkeit

    Bei Kreativität denken viele zuerst an Kunst. Dabei ist Kreativität in weit mehr Bereichen zentral. Im Softwareengineering, auf dem täglichen Arbeitsweg, beim Improvisieren im Alltag oder beim Versuch, ein Möbelstück aufzubauen. Überall dort, wo etwas nicht nach Plan läuft, brauchen wir die Fähigkeit, anders zu denken.

    Im Zeitalter von KI und Robotik, in dem immer mehr dieser Tätigkeiten automatisiert werden, stellt sich die Frage nach Kreativität neu. Der Vortrag entwickelt die These, dass vieles von dem, was wir für kreativ halten, in Wahrheit routinierte Rekombination ist. Genau darin sind KI Systeme besonders gut.

    Gleichzeitig zeigen empirische Studien mit Kindern und Erwachsenen eine problematische Entwicklung.

    Kreativität verstärkt die digitale Kluft. Menschen mit hoher kreativer Kompetenz werden durch KI noch produktiver und ideenreicher. Wer damit Schwierigkeiten hat, profitiert deutlich weniger. KI gleicht diese Unterschiede nicht aus, sie kann sie sogar vergrößern.

    Der Vortrag fragt deshalb, was wir als Gesellschaft tun können, um dieser Entwicklung entgegenzuwirken. In Bildung, Wirtschaft, Kultur und im sozialen Bereich geht es darum, Kreativität nicht als Ausnahmebegabung zu behandeln, sondern als erlernbare Schlüsselkompetenz, ohne die Zukunft kaum gestaltbar ist.

    Wo? Palmaille 96, 22767 Hamburg (Nahverkehr: S-Bahn Königstraße/ Bus Behnstraße)

    Wann? 18:30 Uhr (Einlass 18 Uhr)

    Anmeldung

    Wenn Du an dem Abend dabei sein möchtest, melde Dich bitte über das nachfolgende Formular an.

  • Eröffnungsrede

    Wir dokumentieren nachfolgend die Eröffnungsrede in leicht gekürzter Form, die unser Vorstandsmitglied Sebastian Sudrow auf der IfKI-Auftaktveranstaltung am 09.10.2025 gehalten hat.

    Hallo und guten Abend. Ich begrüße Euch und Sie herzlich zur Eröffnung unseres Instituts für KI und demokratische Transformation – kurz IfKI. Mein Name ist Sebastian Sudrow. Ich bin Teil des Vorstands des gleichnamigen Vereins und darf den Auftakt übernehmen. (…)

    Beginnen möchte ich (…) – schon allein aus Transparenzgründen – mit den Personen hinter dem IfKI. Entstanden ist die Institutsidee in der Kanzlei BKP & Partner, die in der Etage über uns sitzt. Als Anwälte – und ich bin einer davon – setzen wir uns seit über 20 Jahren mit allen juristischen Facetten der Digitalisierung auseinander: vom Datenschutz bis zur Umsetzung von KI-Projekten. Zu unseren Mandantinnen und Mandanten gehören Kulturschaffende, Unternehmen, Verbände, NGOs und Start Ups, darunter auch „Datensklaven“ und „Datenfresser“, um zwei Bezeichnungen aus Buchtiteln von Constanze Kurz und Johannes Caspar zu zitieren.

    Wir sind aber nicht nur Anwälte. Wir sind auch und vor allem interessierte Menschen ohne Parteibuch, die über die aktuellen technologischen und gesellschaftlichen Umwälzungen nachdenken und dies nicht länger allein tun wollen. (…)

    Kommen wir nun zu einem kleinen Programmierfehler des IfKI. Unser Vorstand besteht derzeit aus vier älteren Männern. Dass er mit mir einen der jüngeren vorgeschickt hat, lenkt von dieser traurigen Tatsache leider nur mäßig ab. Dieser anachronistische Zustand wird allerdings nur von kurzer Dauer sein, das versprechen wir Euch und Ihnen.

    Worum geht es dem IfKI? Letztlich dreht sich unser Institut um das zwiespältige – früher hätte man gesagt: dialektische – Verhältnis von Technologie und Fortschritt. Alltagssprachlich ist oft vom „technologischen Fortschritt“ die Rede, als gehörten diese beiden Begriffe natürlich zusammen, als brächte Technik den Fortschritt oder drastischer, als erfordere Fortschritt Technologie. Historisch betrachtet ist das Verhältnis jedoch weitaus komplexer.

    Die Menschheit hat eine Reihe von Technologien hervorgebracht, die ihre jeweilige Epoche geprägt und die Zukunft nachhaltig verändert haben: zum Beispiel den Faustkeil, die Zähmung des Feuers, den Buchdruck, die Seefahrt, die Elektrizität, die industrielle Produktion, das Automobil, den Computer, die Atomkraft und das Internet. Ich weiß, diese Aufzählung ist unvollständig. Sie macht aber zwei Sachen deutlich.

    Das sind alles Errungenschaften, die das Leben in unseren Breitengraden angenehmer gemacht haben, die auf das Konto der sogenannten „Zivilisation“ einzahlten. Diese Technologien hatten und haben aber keineswegs ausschließlich positive Auswirkungen auf die Menschheit. Die Seefahrt brachte auch den Kolonialismus, die industrielle Produktion Ausbeutung und Klimakrise, das Automobil Unfälle und die Atomkraft Tschernobyl und die Atombombe.

    Und nun: künstliche Intelligenz. KI ist vielleicht unsere epochale Technologie. Sie ist wissenschaftlich beeindruckend und faszinierend. KI hilft bereits bei der Diagnose von Krankheiten und bei der Entwicklung von Medikamenten. Sie eröffnet Menschen mit Behinderungen neue Möglichkeiten der Teilhabe. Sie übersetzt in Echtzeit zwischen Sprachen und überwindet damit Verständigungsbarrieren.

    Aber ihr tatsächliches Potential ist gegenwärtig im doppelten Wortsinn Gegenstand von Spekulation. Im derzeitigen Hype scheint es so, als sei KI die Antwort auf alle Fragen, die Lösung für alle Probleme. Sie ist geopolitisch und wirtschaftlich die einzige große Wette auf die Zukunft.

    Ob KI all den überbordenden Verheißungen gerecht werden kann und ob sie irgendwann die Klimakrise oder den Fachkräftemangel löst, wie Technikoptimist:innen versprechen, wage ich zu bezweifeln.

    Large Language Models und generative KI sind nur eine mögliche Ausprägung dieser Technologie, die jedenfalls aktuell eine bemerkenswert enge Vorstellung davon aufweist, wie die Welt ist und wie sie sein sollte. Welche Form von KI entwickelt wird, welche Werte sie verkörpert und wessen Interessen sie dient – all das wird von wenigen Big-Tech-Unternehmen entschieden, von denen keines seinen Hauptsitz in Europa hat. Ihre Entscheidungen sind nicht altruistisch, sondern ideologisch und kommerziell motiviert.

    Auch der technologische Fortschritt, den wir mit KI sehen, muss in der Gesamtbilanz nicht zwingend ein gesellschaftlicher sein.

    Denn auch das ist KI: sie extrahiert alle irgendwie verfügbaren Daten und Inhalte als Rohstoff, ohne Zustimmung oder Kompensation. Sie lässt Menschen im globalen Süden als Clickworker zu Hungerlöhnen Trainingsdaten annotieren und furchtbarste Inhalte rausfiltern. KI verschlingt astronomische Mengen an Energie und Wasser für ihre Rechenzentren, während sie die ökologischen Kosten externalisiert.

    Vieles davon ist verschleiert oder unsichtbar. Aber ihre negativen Folgen für Demokratie, Rechtsstaatlichkeit, Bewusstsein, Weltverständnis, Umwelt, Bildung, Kunst oder Arbeit kündigen sich nicht an. Sie sind schon da.

    Wir brauchen nicht über AGI, Superintelligenz und langfristige Weltuntergangsszenarien zu reden, die von KI-Unternehmen in verdrehter Weise als Marketing an die Wand gemalt werden. Die Gegenwart genügt.

    KI erstellt schon heute überzeugende Phishing-Mails und Deepfake-Bilder. Sie führt zum Verschwinden von Arbeitsplätzen. Sie steuert Waffen und ausgeklügelte Überwachungssysteme.

    Sind wir wirklich bereit all das ungefragt in Kauf zu nehmen? Haben wir wirklich eine hinreichende Toleranz für all die Mittelmäßigkeit und die Fehler, mit denen die Technik den sozialen Raum flutet? Und hat Regulierung – zumal in einem fragilen geopolitischen Umfeld – überhaupt noch eine Chance?

    Über all das wollen wir im IfKI zusammen nachdenken und diskutieren. Wir haben uns überlegt, dies aus zwei Richtungen zu versuchen. Aus der Theorie mit öffentlichen Buchvorstellungen und Vorträgen und aus der Praxis mit Möglichkeiten zum Austausch im kleineren Kreis, mit Werkstattberichten und Seminaren.

    Das Institut ist dabei bewusst ein physischer Ort. Nicht aus nostalgischer Anhänglichkeit an vordigitale Zeiten, sondern aus der Überzeugung heraus, dass die Begegnung von Menschen Raum braucht. (…)

    Wir wünschen Euch und Ihnen heute Abend Erkenntnisgewinne und uns mit dem IfKI stets Offenheit und Kritikfähigkeit. Wir sind überzeugt davon, dass der Austausch von Ideen und Argumenten mehr ist als der Austausch von Datenpaketen. Diese These wollen wir heute Abend zum ersten Mal auf die Probe stellen. Vielen Dank.

  • Digitaler Kolonialismus

    Wir freuen uns, dass wir für unsere zweite Veranstaltung Ingo Dachwitz gewinnen konnten. Er wird im IfKI sein Buch „Digitaler Kolonialismus: Wie Tech-Konzerne und Großmächte die Welt unter sich aufteilen“ (C.H. Beck) vorstellen, das er zusammen mit Sven Hilbig geschrieben hat. Das Werk ist für den Deutschen Sachbuchpreis 2025 nominiert.

    Innovativ, mächtig, rücksichtlos – kaum eine Geschichte wird so oft erzählt wie die vom unaufhaltsamen Aufstieg der Tech-Konzerne an die Spitze der global vernetzten Welt. Nur ein Kapitel
    wird dabei ausgelassen: Der Preis, den der Globale Süden dafür bezahlt. Der Tech-Journalist Ingo Dachwitz und der Globalisierungsexperte Sven Hilbig beleuchten diesen blinden Fleck und zeigen die weltweiten Folgen des digitalen Kolonialismus sowie bestehende Ansätze für eine gerechtere Digitalisierung auf. Soviel steht fest: AI will not fix it.
    Das Versprechen der Digitalen Revolution ist die Heilserzählung unserer Zeit. Dieses Buch erzählt eine andere Geschichte: Die des digitalen Kolonialismus. Statt physisches Land einzunehmen, erobern die heutigen Kolonialherren den digitalen Raum. Statt nach Gold und Diamanten lassen sie unter menschenunwürdigen Bedingungen nach Rohstoffen graben, die wir für unsere Smartphones benötigen. Statt Sklaven beschäftigen sie Heere von Klickarbeiter:innen, die zu Niedriglöhnen in digitalen Sweatshops arbeiten, um soziale Netzwerke zu säubern oder vermeintlich Künstliche Intelligenz am Laufen zu halten. Der Kolonialismus von heute mag sich sauber und smart geben, doch eines ist gleichgeblieben: Er beutet Mensch und Natur aus und kümmert sich nicht um gesellschaftliche Folgen vor Ort. Im Wettkampf der neuen Kolonialmächte ist Digitalpolitik längst zum Instrument geopolitischer Konflikte geworden – der Globale Süden gerät zwischen die Fronten.

    Wo? Palmaille 96, 22767 Hamburg (Nahverkehr: S-Bahn Königstraße/ Bus Behnstraße)

    Wann? 18:30 Uhr (Einlass 18 Uhr)

  • Janosch Delcker „Der Gedanken-Code“

    „Hinter verschlossenen Türen versuchen Unternehmen und Forschende, den Code unserer Gedanken zu knacken.“ Mit diesem Satz auf den ersten Seiten beginnt Janosch Delcker seine inhaltliche Reise in eine Welt, die sich bislang weitgehend im Schatten der öffentlichen Aufmerksamkeit entwickelt hat. Während die Debatte um Künstliche Intelligenz meist um ChatGPT und Jobverluste kreist, richtet der Journalist und ehemalige „KI-Korrespondent“ von Politico und der Deutschen Welle seinen Blick auf etwas weitaus Intimeres: Technologien, die darauf abzielen, unser Innenleben zu entschlüsseln. Delckers „Der Gedanken-Code“ ist eine gut lesbare, reportagenhaften Tour, die von den Dächern von Paris über die Überwachungsmetropole Hyderabad bis ins patagonische Niemandsland von Cabo Raso führt. Der Autor beschreibt komplexe technische Zusammenhänge verständlich und webt sie in eine persönliche Erzählung ein. Dennoch bleibt das Buch trotz fünfjähriger Recherchen merkwürdig an der Oberfläche seines Gegenstands hängen.

    Die Anatomie des digitalen Geistes

    Die Stärke des Buches liegt in den Ausführungen zu „Mind Reading AI“. Delcker versteht darunter „Programme, die scheinbar aus dem Nichts verstehen, was wir denken und fühlen, woran wir glauben und wie wir sind – all die Eigenschaften, die zusammen das ausmachen, was im Deutschen oft als ‚Geist‘ und im Englischen als mind bezeichnet wird.“ Sein Buch handelt weniger vom allgemeinen KI-Hype, sondern einem bislang noch oft übersehenen Teilbereich, in dem der Autor die nächste Stufe der technologischen Evolution sieht.

    Die Reise beginnt bei den Algorithmen sozialer Medien. In Buenos Aires beobachtet Delcker an sich selbst, wie TikTok schon bei seiner Ankunft diverse persönliche Informationen über ihn zu wissen scheint, ohne dass er diese Informationen bewusst geteilt hätte. Die Plattformen beschreibt er als „Dopamin-Fabriken“, die mit ausgeklügelten Mechanismen unser Belohnungssystem kapern. „Was sich wie Gedankenlesen anfühlen kann, ist in Wirklichkeit ein statistisches ‚Gedanken-Schätzen‘“, die etwas mit unserem Gehirn macht. So schildert er das Suchtpotenzial digitaler Medien. Er zitiert die Psychiaterin Anna Lembke mit einer beunruhigenden Prognose: „Wenn man nun über eine direkte Verbindung das Dopamin-Belohnungssystem im Gehirn kybernetisch aktiviert, schaffen Sie die potenziell am stärksten süchtig machende Droge der Menschheit.“ Diese Verbindung zwischen harmlosen Apps und neurobiologischen Mechanismen sieht Delcker höchstens als Vorbote, für das was noch kommt. Wir stehen erst „am Anfang eines Zeitalters (…), in dem Technologie immer besser darin wird, auszuwerten, was wir denken und fühlen“. Von dort spannt er den Bogen zu Emotionserkennungssystemen, die in Smart Cities bereits eingesetzt werden, zu KI-gestützten Persönlichkeitsanalysen im Recruiting und schließlich zu den spektakulärsten Entwicklungen: Gehirn-Computer-Schnittstellen (BCI), die bereits heute gelähmten Menschen helfen, Prothesen mit Gedankenkraft zu steuern, und morgen vielleicht gesunden Menschen „Motivation auf Knopfdruck“ oder „verstellbare Stimmung“ bieten könnten. Im Zwang zur Selbstoptimierung wird eine solche Technik auch jenseits einer medizinischen Indikation vermutlich rasend um sich greifen – jedenfalls dann, wenn BCIs einmal ohne Operationen am Gehirn genutzt werden können. Delcker weist auch darauf hin, dass die Fortschritte in „Mind Reading AI“ eine umfassende Überwachung von Menschen durch Staaten und Unternehmen ermöglichen könnten. Die Behauptung „Die Gedanken sind frei“, die mit dem gleichnamigen Lied seit Mitte des 19. Jahrhunderts aufgestellt wird, dürfte bald nicht mehr zutreffen.

    Regulierung, statt digitalem Detox

    Das reguliert man am besten, bevor es soweit kommt, oder? Wie Regulierung entsteht und warum ihre Ergebnisse oft hinter den Erwartungen zurückbleiben, schildert Delcker anhand des europäischen AI Acts. Der Journalist berichtet von den ungleichen Lobbyschlachten zwischen Tech-Giganten und Zivilgesellschaft. Ihre Zugangs- und Machtasymmetrien führen auf den letzten Metern immer wieder zur Einführung von Änderungen „durch die Hintertür“ zugunsten von Big Tech.

    Warum Delcker das so stehen lässt, ist nicht nachvollziehbar. Wie ein Fremdkörper in seinem Buch, schließt er als Lösungsvorschlag mit seiner „RE∙C∙O∙DE-Methode“ – ein Akronym für „reflect, change, organize, detach“. Nach seinen Ausführungen über die systematische Unterwanderung unserer kognitiven Autonomie durch Konzerne und Algorithmen mutet es seltsam an, das Problem mit Ratschlägen wie „Push-Benachrichtigungen abschalten“ und „digitales Fasten“ zu adressieren. Mit den strukturellen Herausforderungen durch KI, oder speziell auch durch „Mind Reading AI“ wird man nicht fertig, indem man individuell digitalen Detox betreibt oder seine Kinder auf Smartphone-Nutzung vorbereitet. Hier hätte man sich eine konsequentere Fortführung der politischen Analyse gewünscht.

    Ein Anfang

    Trotz dieser Schwächen legt Delcker ein Buch vor, das sich so wegliest und ohne Vorkenntnisse auch für Nicht-Fachleute zugänglich ist. Neurotechnologie ist eines der zentralen Felder der KI-Entwicklung, das aktuell kaum eine breite öffentliche Aufmerksamkeit erfährt. Delckers journalistische Bestandsaufnahme ändert das hoffentlich.

    Janosch Delcker: Der Gedanken-Code. Wie künstliche Intelligenz unser Denken entschlüsselt und wir trotzdem die Kontrolle behalten. Verlag C.H.Beck, 2024, 206 Seiten

  • EDPB Statement 4/2025 zu den Mustervertragsklauseln zum Data Act

    Der Europäische Datenschutzausschuss (EDPB) hat am 8. Juli 2025 mit seinem Statement 4/2025 deutliche Kritik an den von der Europäischen Kommission vorgelegten Mustervertragsklauseln (Model Contractual Terms, MCTs) für Datensharing unter dem Data Act geübt. Die Stellungnahme zeigt vor allem auf, dass der Harmonisierungsprozess zwischen beiden Rechtsakten noch längst nicht abgeschlossen ist.

    Unterschiedliche Nutzer

    Das EDPB kritisiert, dass die vorgelegten MCTs offenbar primär für Geschäftsbeziehungen zwischen Unternehmen konzipiert wurden, ohne die komplexen datenschutzrechtlichen Implikationen bei Einbeziehung natürlicher Personen ausreichend zu berücksichtigen. Diese Kritik trifft den Kern der praktischen Anwendbarkeit der MCTs, denn der Begriff „User“ im Data Act umfasst sowohl juristische als auch natürliche Personen, wobei letztere nicht automatisch den Status einer „betroffenen Person“ im Sinne der DSGVO haben müssen.

    Besonders problematisch wird dies bei der Betrachtung vernetzter Geräte im privaten Bereich. Das EDPB führt das Beispiel von Smart-Home-Geräten an, die von verschiedenen Familienmitgliedern genutzt werden. Hier kann der formale „Nutzer“ eine Person sein, während die tatsächlich betroffenen Personen andere Familienmitglieder sind. Die MCTs in ihrer aktuellen Form bieten keine differenzierten Lösungsansätze für solche Konstellationen und lassen die Vertragsparteien mit erheblicher Rechtsunsicherheit zurück.

    Kompensationsmechanismen 

    Ein weiterer Kritikpunkt des EDPB betrifft die in den Anhängen II und III enthaltenen Kompensationsregelungen. Diese sind derzeit so allgemein formuliert, dass sie theoretisch auch auf personenbezogene Daten angewandt werden könnten. Das EDPB fordert kategorisch, dass Kompensationsmechanismen ausschließlich auf nicht-personenbezogene Daten beschränkt werden müssen. Das EDPB lehnt die Ansicht, dass personenbezogene Daten als handelbare Ware betrachtet werden können, strikt ab. 

    Diese Forderung hat weitreichende praktische Konsequenzen für Unternehmen, die Datensharing-Modelle entwickeln. Sie müssen bereits in der Konzeptionsphase strikt zwischen personenbezogenen und nicht-personenbezogenen Daten differenzieren und entsprechende technische und organisatorische Maßnahmen implementieren, um eine unzulässige Kommerzialisierung personenbezogener Daten zu verhindern. Dies erfordert nicht nur eine präzise Datenklassifizierung, sondern auch robuste Governance-Strukturen zur kontinuierlichen Überwachung der Datenverwendung. Das wird für die meisten Unternehmen eine Mammut-Aufgabe sein. 

    Rechtshierarchie als Kompass für die Praxis

    Das EDPB nutzt sein Statement auch dazu, die in Art. 1 Abs. 5 des Data Act normierte Vorrangregelung anzusprechen. Demnach lässt der Data Act das Datenschutzrecht unberührt, und bei Konflikten zwischen beiden Rechtsakten geht das Datenschutzrecht vor. Diese scheinbar klare Regel erweist sich in der praktischen Anwendung jedoch als hochkomplex, da sie eine detaillierte Einzelfallprüfung erforderlich macht, welche Bestimmungen als konfligierend zu betrachten sind.

    Für Praktiker bedeutet dies, dass sie bei der Vertragsgestaltung nicht nur die MCTs, sondern parallel dazu die vollständigen DSGVO-Anforderungen berücksichtigen müssen. Das EDPB stellt unmissverständlich klar, dass die bloße Einhaltung der MCTs keine DSGVO-Compliance gewährleistet. Vielmehr müssen zusätzliche Maßnahmen implementiert werden, etwa bei der Begründung von Rechtsgrundlagen für die Datenverarbeitung, bei Drittlandtransfers oder bei der Gewährleistung von Betroffenenrechten.

    Komplexitätszunahme als praktische Herausforderung

    Die vom EDPB geforderten Differenzierungen werden die Komplexität von Datensharing-Vereinbarungen erheblich steigern. Unternehmen müssen künftig möglicherweise verschiedene MCT-Varianten je nach Nutzerstatus anwenden und dabei stets prüfen, ob zusätzliche datenschutzrechtliche Safeguards erforderlich sind. Dies betrifft insbesondere internationale Datenübermittlungen, bei denen neben den MCTs zusätzliche Standardvertragsklauseln (SCC) nach Artikel 46 DSGVO erforderlich werden können.

    Besonders herausfordernd wird die Abgrenzung zwischen personenbezogenen und nicht-personenbezogenen Daten in der digitalen Praxis. Zum einen vertritt der EuGH ein sehr weites Verständnis vom Personenbezug. Zum anderen kann sich der datenschutzrechtliche Status der einzelnen Datenpunkte sehr schnell verändern. Ein ursprünglich anonymer Datensatz kann durch Verknüpfung mit anderen Datenquellen plötzlich personenbeziehbar werden, was eine kontinuierliche Neubewertung der anwendbaren rechtlichen Rahmenbedingungen erforderlich macht.

    Handlungsempfehlungen für die Praxis

    Angesichts der vom EDPB aufgezeigten Fragestellungen sollten Unternehmen zunächst mit der praktischen Anwendung der aktuellen MCT-Entwürfe zurückhaltend umgehen. Die Kritikpunkte könnten zu erheblichen Überarbeitungen der finalen Fassung führen.

    Unternehmen sollten bereits jetzt robuste Prozesse zur Datenklassifizierung etablieren, die eine zuverlässige Unterscheidung zwischen personenbezogenen und nicht-personenbezogenen Daten ermöglichen. Zudem sollten Unternehmen eine eigene Datenstrategie entwickeln, in der sie festlegen, zu welchen Zwecken sie selbst Produktdaten oder verbundene Dienstdaten nutzen wollen. 

    Zudem ist Unternehmen zu raten, einen „DSGVO-Layer“ bei allen Datensharing-Aktivitäten zu berücksichtigen. Dieser muss unabhängig von den MCTs alle datenschutzrechtlichen Anforderungen abdecken, insbesondere die Rechtmäßigkeit der Verarbeitung, die Einhaltung der Grundsätze nach Art. 5 DSGVO und die Gewährleistung von Betroffenenrechten. Besondere Aufmerksamkeit verdient dabei die Frage der Rechtsgrundlagen, da die MCTs deren Existenz nicht präsumieren dürfen.

    Die kontinuierliche Beobachtung der weiteren Entwicklung ist ebenfalls essentiell. Das EDPB hat bereits angekündigt, dass weitere Stellungnahmen zum Zusammenspiel zwischen Data Act und Datenschutzrecht folgen werden. 

    Ausblick: Harmonisierung als Dauerbaustelle

    Für die Praxis bedeutet dies, dass Datensharing-Projekte auch künftig einer differenzierten rechtlichen Würdigung bedürfen werden. Die MCTs können dabei als wichtiger Baustein dienen, ersetzen aber nicht die umfassende datenschutzrechtliche Compliance-Prüfung. Unternehmen, die sich frühzeitig auf diese komplexe Rechtslage einstellen und entsprechende Governance-Strukturen etablieren, werden einen entscheidenden Wettbewerbsvorteil im entstehenden europäischen Datenraum haben.

  • DSGVO-Reform 2025 – Der Vorschlag der Kommission

    Die Europäische Kommission hat am 21. Mai 2025 einen Verordnungsvorschlag zur Änderung der DSGVO vorgelegt. Unter dem Deckmantel des Bürokratieabbaus für Unternehmen mit bis zu 750 Mitarbeitenden wird die erhoffte Entlastungswirkung ausbleiben.

    Dokumentationspflicht im Fokus

    Die zentrale Reformbestrebung liegt auf eine Änderung des Art. 30 DSGVO, die zentrale Dokumentationspflicht des Verantwortlichen. Die geltende Vorschrift enthält bereits eine Privilegierung in Art. 30 Abs. 5 DSGVO. Diese Regelung ist tatsächlich missraten. Sie befreit Unternehmen mit weniger als 250 Mitarbeitenden nur dann von der Dokumentationspflicht, wenn es sich um eine gelegentliche Verarbeitung handelt, keine besonderen Datenkategorien betroffen sind und kein Risiko für Betroffene besteht. Die Voraussetzungen müssen kumulativ erfüllt sein, was so gut wie nie der Fall ist. Die Privilegierung läuft praktisch ins Leere.  

    Die Reform ersetzt diese kumulativen Tatbestandsmerkmale dadurch, dass Unternehmen mit bis zu 750 Mitarbeitenden nur noch dann ein Verzeichnis führen müssen, wenn ihre Verarbeitung „voraussichtlich zu einem hohen Risiko“ führt.

    Komplexitätsverlagerung statt echter Entlastung

    Die Reform bewirkt jedoch keine echte Vereinfachung, sondern verlagert die Komplexität. Unternehmen müssen künftig präzise Schwellenwertanalysen durchführen, um beurteilen zu können, ob ihre Verarbeitungen ein hohes Risiko darstellen. Diese Risikoanalysen müssen dokumentiert werden, da andernfalls gegenüber Aufsichtsbehörden nicht nachgewiesen werden kann, warum auf ein Verzeichnis verzichtet wurde.

    Paradoxerweise führt dies dazu, dass Unternehmen faktisch eine Art Verarbeitungsverzeichnis „light“ erstellen müssen, um überhaupt beurteilen zu können, ob sie zur Führung eines Verarbeitungsverzeichnisses verpflichtet sind.

    In der betrieblichen Realität wird es zudem nur in homöopathischen Größenordnungen vorkommen, dass ein Unternehmen mit mehreren hundert Mitarbeitenden tatsächlich keine einzige risikoreiche Verarbeitung durchführt. Verarbeitungsverzeichnisse werden somit für die KMU nicht verschwinden.

    Verpasste Chancen für echte Hilfe

    Statt dieser Scheinreform hätte die Kommission an wirklichen Schmerzpunkten ansetzen können. Nur beispielhaft hätte eine Regelung, die Anonymisierungen privilegiert und hierfür keine gesonderte Rechtsgrundlage erfordert hätte, echte Erleichterung geschaffen, insbesondere im Kontext mit besonderen Kategorien von personenbezogenen Daten, bei denen auf Art. 6 Abs. 1 lit. f) DSGVO nicht zurückgegriffen werden kann. Anonymisierte Daten fallen bereits jetzt nicht in den DSGVO-Anwendungsbereich, doch der Weg dorthin ist rechtlich oft unklar.

    Die Kommission hätte sich auch für den Weg entscheiden können, durch Standards Prozesse zu erleichtern. Im Trilogverfahren war seinerzeit die Möglichkeit der Konkretisierung durch delegierte Rechts- und Durchführungsrechtsakte vorgesehen. Der Vorschlag hat sich nicht durchgesetzt. Die Kommission lässt die Chance verstreichen, diesen Ansatz wieder aufzugreifen.

    Die Kommission verkennt zudem die Bedeutung des Verarbeitungsverzeichnises. In Unternehmen von der Leitung und Mitarbeitern teilweise als Hinderns wahrgenommen, schafft die Auseinandersetzung mit den Funktionalitäten und den Datenflüssen von IT-Anwendungen u.a. auch Transparenz für den Verantwortlichen.  

    Folglich ist der Vorschlag der Kommission bedauerlicherweise nicht mehr als Symbolpolitik.

  • Mustafa Suleyman/ Michael Bhaskar „The Coming Wave“

    Es gibt Bücher, die gut sind aber einen Beigeschmack zurücklassen. Mustafa Suleymans „The Coming Wave“, das er zusammen mit Michael Bhaskar verfasst hat gehört zu dieser nicht allzu seltenen Gattung. Mit der Gründlichkeit eines Untergangstheologen malt der ehemalige DeepMind-Mitgründer das Bild einer Welt, die von den Technologien überrollt wird, an deren Entwicklung er selbst nicht ganz unbeteiligt war. Man liest seine knapp 340 Seiten wie das fundierte Geständnis eines Brandstifters, der plötzlich die Feuerwehr ruft. Doch im Gegensatz zu anderen KI-Forschern, die der Industrie den Rücken gekehrt haben (allen voran Geoffrey Hinton) – und hier kommt der Beigeschmack – mischt Suleyman nach getaner Arbeit an dem für den Deutschen Wirtschaftsbuchpreis 2024 nominierten Werk wieder kräftig mit. Kaum hatte er vor den Gefahren unkontrollierter KI gewarnt, übernahm er als CEO die Führung von Microsoft AI – einem der zentralen globalen Akteure jener KI-Entwicklung. Das wird auch dadurch nicht glaubwürdiger, dass Suleyman mehr kritische und aktive Stimmen aus den Techunternehmen fordert. Aus einer solchen Perspektive kann man aus dem Buch die Hybris einer Selbstvermarktung von KI-Unternehmen herauslesen, die mit apokalyptischen Warnungen ihre Aktienkurse in die Höhe treiben. Selbstverständlich kritisiert Suleyman in dem Buch auch das.

    Dauerwellen?

    Der Autor greift für sein Zukunftsszenario zur Metapher der technologischen Welle. Die Menschheitsgeschichte, so seine These, lässt sich als Abfolge solcher Wellen verstehen, von der Landwirtschaft über die Industrialisierung bis zur Digitalisierung. Nun aber rolle die ultimative Welle heran, geboren aus der Vereinigung von Künstlicher Intelligenz, Robotik, Quantencomputern und synthetischer Biologie. Diese Metapher ist geschickt gewählt: Wellen sind Naturphänomene, sie kommen unweigerlich, man kann sie höchstens kanalisieren, nicht aufhalten.

    Doch die Naturmetaphorik verschleiert mehr, als sie erklärt. Hinter den kosmischen Kräften, von denen Suleyman schwärmt, stehen sehr irdische Entscheidungen von Vorstandsetagen, Risikokapitalgebern und Politikern. Die „kommende Welle“ ist weniger Naturgewalt denn Produkt bewusster menschlicher Gestaltung.

    Dennoch: Seine Analyse der KI als Allzwecktechnologie ist klar und illustrativ. Je nach Zählweise hat die Menschheit bislang 24 solcher fundamentalen Technologien hervorgebracht, vom Faustkeil, über den Buchdruck bis zum Internet. Jede dieser Allzwecktechologien brachten Zäsuren und Umwälzungen. Doch KI, so Suleyman, übersteigt alle Vorgänger.

    Die vier Reiter der digitalen Apokalypse

    Suleyman beschreibt vier Charakteristika, die die neue Welle von allen vorangegangenen unterscheiden: Asymmetrie, Hyper-Evolution, „Omni-Use“ und Autonomie. Hinter den technokratischen Begriffen verbirgt sich eine düstere Vision: Wenige können Vielen schaden (Asymmetrie), Entwicklungen beschleunigen sich exponentiell (Hyper-Evolution), dieselbe Technologie dient potentiell unzähligen Zwecken (Omni-Use) und die Systeme entziehen sich zunehmend menschlicher Kontrolle (Autonomie). Das macht Einhegung zu einer Sisyphos-Arbeit mit ungewissen Erfolgschancen.

    Welche Folgen das haben kann erläutert Suleyman an der Figur des „Gorilla-Problems“, das auf den KI-Forscher Stuart Russell zurückgeht:

    „Wir Menschen dominieren unsere Umwelt aufgrund unserer Intelligenz. Ein intelligenteres Wesen könnte folglich uns beherrschen. (…) Gorillas sind körperlich stärker und zäher als jeder Mensch, aber sie sind es, die vom Aussterben bedroht sind oder in Zoos leben; sie sind ‚eingedämmt‘. Wir mit unseren mickrigen Muskeln, aber großen Gehirnen sorgen für die Eindämmung. Indem wir etwas schaffen, das schlauer ist als wir, könnten wir uns selbst in die Lage unserer Vettern, der Primaten, versetzen.“

    Eindämmung ist kein Rastplatz

    Suleymans Antwort auf diese Herausforderungen ist ein Programm der „Eindämmung“ – ein Begriff, der nicht zufällig an die Containment-Politik des Kalten Krieges erinnert. Ein Bündel aus zehn Maßnahmen soll die technologische Bedrohung bannen: von technischer Sicherheit über internationale Allianzen bis zu neuen Formen der Unternehmensführung. Das Programm ist so umfassend wie fernliegend – ein „utopischer Traum“, wie der Guardian in einer Rezension treffend bemerkte.

    Doch Suleyman ist sich der Schwierigkeit bewusst. „Eindämmung ist kein Rastplatz“, schreibt er, „sie ist ein schmaler und nie endender Pfad.“ Hier wird der Technologie-Evangelist zum Existenzialisten: Die Eindämmung ist notwendig, aber unmöglich – also muss man sie trotzdem versuchen. Dabei bleibt die Einsicht, dass „die Frage der KI-Ausrichtung nicht nur einmal geklärt werden muss, sondern jedes Mal“. Das heißt eine Eindämmung, eine Auseinandersetzung mit der Technik ist niemals „fertig“, die Herausforderungen stellen sich immer von Neuem. Eindämmung wird zur permanenten Aufgabe, zum nie endenden Kampf gegen eine Katastrophe.

    Prophet in eigener Sache

    Suleymans Forderung, „die Technologie von Anfang an an die Menschen anzupassen“ ist schön und gut. Er analysiert mit der Kompetenz des Experten und der Dringlichkeit des Warnenden die Gefahren einer Entwicklung, die er – wenn auch wohl mit dem ernstgemeinten Wunsch nach Eindämmung – mit vorantreibt. Dies offenbart ein grundsätzliches Dilemma: Diejenigen, die am besten über die Risiken Bescheid wissen, sitzen nicht in der Politik, sondern in den Konzernen, die den größten Anreiz haben, diese Risiken einzugehen.

    Das Paradox des aufgeklärten Apokalyptikers

    Der „schmale Pfad“ der Eindämmung wird nicht nur durch technische Schwierigkeiten versperrt, sondern durch die Logik des Marktes und die Dynamik des geopolitischen Wettbewerbs. Lässt sich die Welle nicht brechen, bleibt nur der Versuch, sie zumindest ein wenig zu lenken. Suleymans Buch liefert Ideen, wo man ansetzen, wie man gegensteuern kann. In einer Debatte, die oft zwischen naivem Techno-Optimismus und vager Apokalyptik schwankt, bietet „The Coming Wave“ eine Analyse dessen, was potentiell auf uns zukommt – und wie es sich aufhalten ließe. Suleyman und Bhaskar schauen dabei aber weniger auf die Gegenwart, in der bereits konkrete Auswirkungen von KI spürbar werden, sondern konzentrieren sich eher auf die existenziellen Risiken der Zukunft.

    Suleyman, Mustafa / Bhaskar, Michael: The Coming Wave, Künstliche Intelligenz, Macht und das größte Dilemma des 21. Jahrhunderts, Verlag C.H. Beck.

  • Der Abbau von Rechtsschutz vor seinem Beginn

    Die digitale Transformation durch Künstliche Intelligenz vollzieht sich in einem rechtlichen Vakuum, das systematisch perpetuiert wird. Beispielhaft für die Verzwergung einer nur noch auf dem Papier existierenden demokratisch legitimierten Mitgestaltung der Bedingungen in denen wir zukünftig leben werden ist der Code of Practice für General Purpose AI. Noch bevor wirksamer Rechtsschutz für Urheber und Kreative etabliert werden konnte, wird er schon wieder abgebaut. Worum geht es?

    Art 56 KI-Verordnung

    Der Code of Practice zur EU-KI-Verordnung (Artikel 56) ist der Leitfaden zur Umsetzung ihrer Vorgaben. Er wird nach dem Inkrafttreten der Pflichten für Anbieter generischer KI-Modelle (August 2025) und der Verabschiedung verbindlicher europäischer Standards (voraussichtlich ab August 2027) ein zentrales Instrument sein. Obwohl der Code rechtlich nicht bindend ist, setzt er die Standards und definiert die Prozesse, an die sich KI Unternehmen zukünftig werden halten müssen.

    Entwickelt wird der Code in einem Multi-Stakeholder-Prozess, an dem wissenschaftliche und unabhängige Expertinnen und Experten, Anbieter generischer KI-Modelle, nachgelagerte Anwenderinnen und Anwender, Vertreterinnen und Vertreter der Zivilgesellschaft sowie weitere Interessengruppen beteiligt sind.

    Ein Schutzinstrument wird zur Legitimationshilfe

    Von Entwurf zu Entwurf scheint man sich jedoch von der gesetzgeberischen Absicht einer effektiven Regulierung weiter zu entfernen. Der Vergleich der drei Entwürfe des EU AI Code of Practice offenbart eine perfide Realität: Die KI-Industrie hat bereits gewonnen, bevor der Kampf um Rechtssicherheit überhaupt begonnen hat. Während seit Jahren KI-Modelle wie ChatGPT mit urheberrechtlich geschützten Inhalten ohne Zustimmung oder Kompensation trainiert werden, wird nun rückwirkend ein Rechtsrahmen konstruiert, der diese Praxis legitimiert.

    Die Entwicklung ist bezeichnend: Waren KI-Anbieter ursprünglich zur Veröffentlichung ihrer Urheberrechts-Policies verpflichtet, werden sie nun nur noch dazu „ermutigt“. Aus niemals existierenden echten Compliance-Verpflichtungen wurden unverbindliche „angemessene Bemühungen“. Die bereits unzureichenden Transparenzanforderungen wurden weiter verwässert – bis zur völligen Streichung der Berichtspflicht über Rechtsvorbehalte.

    Die robots.txt-Falle

    Besonders misslungen ist die Reduktion der Opt-out-Mechanismen auf das veraltete robots.txt-Protokoll. Diese bewusste Beschränkung schafft eine perfide Zwickmühle: Wer robots.txt nutzt, um KI-Crawler zu blockieren, riskiert damit gleichzeitig, dass seine Inhalte nicht mehr in Suchmaschinen gefunden werden, da robots.txt primär der Verwaltung des Crawler-Traffics für Suchmaschinen dient.

    Die Absurdität wird durch die Social Media-Realität noch verstärkt: Auf Plattformen wie Facebook entscheidet Meta darüber, ob Nutzerfotos für KI-Training verwendet werden dürfen – nicht die Nutzer selbst, da robots.txt nur vom Seitenbetreiber kontrolliert wird. Millionen von Urhebern, deren Werke auf GitHub, Instagram oder YouTube veröffentlicht sind, haben praktisch keine Kontrolle über die Opt-out-Einstellungen, die Dritte für sie treffen müssen. Zudem ignorieren bereits viele KI-Services die robots.txt-Regeln vollständig.

    Transatlantischer Deregulierungsdruck

    Diese Entwicklung folgt einer bewährten Strategie der Tech-Industrie: „Move fast and break things, don’t ask for permission, beg for forgiveness.“ – mit dem Zusatz, dass die Scherben nie zusammengekehrt werden müssen. Der transatlantische Deregulierungsdruck verstärkt diese Dynamik. Mit Trumps Executive Order „Removing Barriers to American Leadership in Artificial Intelligence“ vom Januar 2025 wurde Bidens vorsichtige KI-Regulierung vollständig aufgehoben.

    Wo Biden noch auf minimale Sicherheitsstandards und Transparenz setzte, propagiert Trump eine „clean slate“-Politik ohne jede Aufsicht. Diese Politik der vollendeten Fakten erzeugt enormen Druck auf europäische Regulierer: Wer zu spät kommt, den bestraft die KI-Geschichte.

    Die rechtliche Bankrotterklärung

    Wie weit man noch von effektivem Rechtsschutz entfernt ist, zeigt ein aktuelles Urteil des OLG Köln vom 23. Mai 2025. Das Gericht bestätigte Metas Recht, öffentliche Nutzerdaten für KI-Training zu verwenden, da die „angekündigte Verwendung der Daten für KI-Trainingszwecke sich bei vorläufiger Betrachtung auch ohne Einwilligung der Betroffenen als rechtmäßig darstellt“. Mit minimalen Maßnahmen wie einer vorherigen Ankündigung und der theoretischen Möglichkeit zum Widerspruch wurde eine DSGVO- und DMA-konforme Datenverarbeitung attestiert.

    Die Ironie ist offensichtlich: Während ein schwacher Code of Practice noch diskutiert wird, bestätigen Gerichte dass ohne vernünftige, durchsetzbare Regeln digital weiter das Recht des stärkeren – und schnelleren, gilt. Erlaubt ist, was geht.

    Der erwartbare Widerstand

    Der Widerspruch kommt erwartungsgemäß von denen, die am meisten zu verlieren haben: Eine Allianz aus über 40 europäischen Kulturorganisationen – vom European Writers Council über IFPI und IMPALA bis hin zu Verlegerverbänden – schlägt Alarm. Ihre gemeinsame Botschaft ist eindeutig: „Kein Code ist besser als der grundlegend fehlerhafte dritte Entwurf.“

    Diese Koalition repräsentiert genau die Branchen, deren wirtschaftliche Existenz durch die schrankenlose KI-Ausbeutung am direktesten bedroht ist – die kreativen Grundlagen der europäischen Wissensgesellschaft kämpfen erwartungsgemäß um ihr Überleben.

    Ihre Kritik trifft den Kern des Problems: Der Code of Practice untergräbt nicht nur die Ziele der KI-Verordnung, sondern widerspricht geltendem EU-Recht. Statt einem „robusten Rahmen für Compliance“ liefert er nur noch symbolisches Compliance-Theater. Doch selbst dieses Theater ist überflüssig geworden: Das OLG-Urteil zeigt, dass bereits heute mit minimalen Formalitäten praktisch jede Datenverarbeitung legitimiert werden kann.

    Kurzsichtigkeit als Geschäftsmodell

    Die gegenwärtige Entwicklung offenbart eine systematische Kurzsichtigkeit. Indem regulatorische Standards bereits vor ihrer Etablierung demontiert werden, entsteht eine KI-Ökonomie der Intransparenz und Straflosigkeit. Die vermeintlichen Effizienzgewinne erkauft sich die Gesellschaft durch die systematische Enteignung geistigen Eigentums und den Verlust, demokratischer Kontrolle über Schlüsseltechnologien und im schlimmsten Fall der Demokratie selbst.

    Diese Entwicklung ist nicht nur rechtlich verheerend, sondern auch wirtschaftlich selbstzerstörerisch. Eine KI-Wirtschaft, die sich wie ein Parasit von bestehenden kreativen Inhalten nährt, ohne deren Schöpfer zu informieren, zu fragen oder zu kompensieren, untergräbt ihre eigenen Fundamente. Das robots.txt-System verstärkt diese Problematik, indem es Urheber vor die Wahl stellt: Entweder Sichtbarkeit in Suchmaschinen oder Schutz vor KI-Training. Diese falsche Alternative ist kein Zufall, sondern Kalkül – sie macht Widerstand gegen KI-Training für die meisten Rechteinhaber praktisch unmöglich. Presseverlegern dürfte das bekannt vorkommen.

    Die Illusion der nachträglichen Regulierung

    Dabei gäbe es durchaus Alternativen zur bedingungslosen Kapitulation vor vollendeten Tatsachen. Moderne Rechteverwaltungssysteme, verpflichtende Lizenzierungsmodelle und echte Transparenzpflichten könnten Innovation und Rechtsschutz versöhnen – wenn sie denn von Anfang an mitgedacht würden. Doch all diese Lösungen kommen zu spät, wenn die Pferde bereits durchgegangen sind. Stattdessen inszeniert Europa ein regulatorisches Theater, während es faktisch dem amerikanischen Modell der Dereglierung folgt. Die Verschiebung der finalen Veröffentlichung des Code of Practice ist symptomatisch. 

    Fazit: Der Sieg der vollendeten Tatsachen

    Die Debatte um den AI Code of Practice ist paradigmatisch für die Ohnmacht des Rechtsstaats gegenüber der digitalen Disruption. Technologische Innovation wird nicht nur über rechtliche Standards gestellt – sie macht sie von vornherein unmöglich. Eine Gesellschaft, die ihre Normen erst definiert, nachdem sie bereits gebrochen wurden, hat die Kontrolle über ihre eigene Zukunft verloren.

    Die Wahrheit ist, Europa steht nicht vor einer Wahl zwischen Innovation und Regulierung. Diese Wahl wurde längst getroffen – von Tech-Konzernen. Europa ist in der Lage, wirtschaftliche Entwicklung sowie die Werte der Union – wie Grundrechte, Demokratie und Umweltschutz – insgesamt zu fördern. Sie ist in der Lage Innovation mit Verantwortung zu verbinden.