Wie Europas AI Code of Practice bereits in der Entstehung zur Farce wird
Die digitale Transformation durch Künstliche Intelligenz vollzieht sich in einem rechtlichen Vakuum, das systematisch perpetuiert wird. Beispielhaft für die Verzwergung einer nur noch auf dem Papier existierenden demokratisch legitimierten Mitgestaltung der Bedingungen in denen wir zukünftig leben werden ist der Code of Practice für General Purpose AI. Noch bevor wirksamer Rechtsschutz für Urheber und Kreative etabliert werden konnte, wird er schon wieder abgebaut. Worum geht es?
Art 56 KI-Verordnung
Der Code of Practice zur EU-KI-Verordnung (Artikel 56) ist der Leitfaden zur Umsetzung ihrer Vorgaben. Er wird nach dem Inkrafttreten der Pflichten für Anbieter generischer KI-Modelle (August 2025) und der Verabschiedung verbindlicher europäischer Standards (voraussichtlich ab August 2027) ein zentrales Instrument sein. Obwohl der Code rechtlich nicht bindend ist, setzt er die Standards und definiert die Prozesse, an die sich KI Unternehmen zukünftig werden halten müssen.
Entwickelt wird der Code in einem Multi-Stakeholder-Prozess, an dem wissenschaftliche und unabhängige Expertinnen und Experten, Anbieter generischer KI-Modelle, nachgelagerte Anwenderinnen und Anwender, Vertreterinnen und Vertreter der Zivilgesellschaft sowie weitere Interessengruppen beteiligt sind.
Ein Schutzinstrument wird zur Legitimationshilfe
Von Entwurf zu Entwurf scheint man sich jedoch von der gesetzgeberischen Absicht einer effektiven Regulierung weiter zu entfernen. Der Vergleich der drei Entwürfe des EU AI Code of Practice offenbart eine perfide Realität: Die KI-Industrie hat bereits gewonnen, bevor der Kampf um Rechtssicherheit überhaupt begonnen hat. Während seit Jahren KI-Modelle wie ChatGPT mit urheberrechtlich geschützten Inhalten ohne Zustimmung oder Kompensation trainiert werden, wird nun rückwirkend ein Rechtsrahmen konstruiert, der diese Praxis legitimiert.
Die Entwicklung ist bezeichnend: Waren KI-Anbieter ursprünglich zur Veröffentlichung ihrer Urheberrechts-Policies verpflichtet, werden sie nun nur noch dazu „ermutigt“. Aus niemals existierenden echten Compliance-Verpflichtungen wurden unverbindliche „angemessene Bemühungen“. Die bereits unzureichenden Transparenzanforderungen wurden weiter verwässert – bis zur völligen Streichung der Berichtspflicht über Rechtsvorbehalte.
Die robots.txt-Falle
Besonders misslungen ist die Reduktion der Opt-out-Mechanismen auf das veraltete robots.txt-Protokoll. Diese bewusste Beschränkung schafft eine perfide Zwickmühle: Wer robots.txt nutzt, um KI-Crawler zu blockieren, riskiert damit gleichzeitig, dass seine Inhalte nicht mehr in Suchmaschinen gefunden werden, da robots.txt primär der Verwaltung des Crawler-Traffics für Suchmaschinen dient.
Die Absurdität wird durch die Social Media-Realität noch verstärkt: Auf Plattformen wie Facebook entscheidet Meta darüber, ob Nutzerfotos für KI-Training verwendet werden dürfen – nicht die Nutzer selbst, da robots.txt nur vom Seitenbetreiber kontrolliert wird. Millionen von Urhebern, deren Werke auf GitHub, Instagram oder YouTube veröffentlicht sind, haben praktisch keine Kontrolle über die Opt-out-Einstellungen, die Dritte für sie treffen müssen. Zudem ignorieren bereits viele KI-Services die robots.txt-Regeln vollständig.
Transatlantischer Deregulierungsdruck
Diese Entwicklung folgt einer bewährten Strategie der Tech-Industrie: „Move fast and break things, don’t ask for permission, beg for forgiveness.“ – mit dem Zusatz, dass die Scherben nie zusammengekehrt werden müssen. Der transatlantische Deregulierungsdruck verstärkt diese Dynamik. Mit Trumps Executive Order „Removing Barriers to American Leadership in Artificial Intelligence“ vom Januar 2025 wurde Bidens vorsichtige KI-Regulierung vollständig aufgehoben.
Wo Biden noch auf minimale Sicherheitsstandards und Transparenz setzte, propagiert Trump eine „clean slate“-Politik ohne jede Aufsicht. Diese Politik der vollendeten Fakten erzeugt enormen Druck auf europäische Regulierer: Wer zu spät kommt, den bestraft die KI-Geschichte.
Die rechtliche Bankrotterklärung
Wie weit man noch von effektivem Rechtsschutz entfernt ist, zeigt ein aktuelles Urteil des OLG Köln vom 23. Mai 2025. Das Gericht bestätigte Metas Recht, öffentliche Nutzerdaten für KI-Training zu verwenden, da die „angekündigte Verwendung der Daten für KI-Trainingszwecke sich bei vorläufiger Betrachtung auch ohne Einwilligung der Betroffenen als rechtmäßig darstellt“. Mit minimalen Maßnahmen wie einer vorherigen Ankündigung und der theoretischen Möglichkeit zum Widerspruch wurde eine DSGVO- und DMA-konforme Datenverarbeitung attestiert.
Die Ironie ist offensichtlich: Während ein schwacher Code of Practice noch diskutiert wird, bestätigen Gerichte dass ohne vernünftige, durchsetzbare Regeln digital weiter das Recht des stärkeren – und schnelleren, gilt. Erlaubt ist, was geht.
Der erwartbare Widerstand
Der Widerspruch kommt erwartungsgemäß von denen, die am meisten zu verlieren haben: Eine Allianz aus über 40 europäischen Kulturorganisationen – vom European Writers Council über IFPI und IMPALA bis hin zu Verlegerverbänden – schlägt Alarm. Ihre gemeinsame Botschaft ist eindeutig: „Kein Code ist besser als der grundlegend fehlerhafte dritte Entwurf.“
Diese Koalition repräsentiert genau die Branchen, deren wirtschaftliche Existenz durch die schrankenlose KI-Ausbeutung am direktesten bedroht ist – die kreativen Grundlagen der europäischen Wissensgesellschaft kämpfen erwartungsgemäß um ihr Überleben.
Ihre Kritik trifft den Kern des Problems: Der Code of Practice untergräbt nicht nur die Ziele der KI-Verordnung, sondern widerspricht geltendem EU-Recht. Statt einem „robusten Rahmen für Compliance“ liefert er nur noch symbolisches Compliance-Theater. Doch selbst dieses Theater ist überflüssig geworden: Das OLG-Urteil zeigt, dass bereits heute mit minimalen Formalitäten praktisch jede Datenverarbeitung legitimiert werden kann.
Kurzsichtigkeit als Geschäftsmodell
Die gegenwärtige Entwicklung offenbart eine systematische Kurzsichtigkeit. Indem regulatorische Standards bereits vor ihrer Etablierung demontiert werden, entsteht eine KI-Ökonomie der Intransparenz und Straflosigkeit. Die vermeintlichen Effizienzgewinne erkauft sich die Gesellschaft durch die systematische Enteignung geistigen Eigentums und den Verlust, demokratischer Kontrolle über Schlüsseltechnologien und im schlimmsten Fall der Demokratie selbst.
Diese Entwicklung ist nicht nur rechtlich verheerend, sondern auch wirtschaftlich selbstzerstörerisch. Eine KI-Wirtschaft, die sich wie ein Parasit von bestehenden kreativen Inhalten nährt, ohne deren Schöpfer zu informieren, zu fragen oder zu kompensieren, untergräbt ihre eigenen Fundamente. Das robots.txt-System verstärkt diese Problematik, indem es Urheber vor die Wahl stellt: Entweder Sichtbarkeit in Suchmaschinen oder Schutz vor KI-Training. Diese falsche Alternative ist kein Zufall, sondern Kalkül – sie macht Widerstand gegen KI-Training für die meisten Rechteinhaber praktisch unmöglich. Presseverlegern dürfte das bekannt vorkommen.
Die Illusion der nachträglichen Regulierung
Dabei gäbe es durchaus Alternativen zur bedingungslosen Kapitulation vor vollendeten Tatsachen. Moderne Rechteverwaltungssysteme, verpflichtende Lizenzierungsmodelle und echte Transparenzpflichten könnten Innovation und Rechtsschutz versöhnen – wenn sie denn von Anfang an mitgedacht würden. Doch all diese Lösungen kommen zu spät, wenn die Pferde bereits durchgegangen sind. Stattdessen inszeniert Europa ein regulatorisches Theater, während es faktisch dem amerikanischen Modell der Dereglierung folgt. Die Verschiebung der finalen Veröffentlichung des Code of Practice ist symptomatisch.
Fazit: Der Sieg der vollendeten Tatsachen
Die Debatte um den AI Code of Practice ist paradigmatisch für die Ohnmacht des Rechtsstaats gegenüber der digitalen Disruption. Technologische Innovation wird nicht nur über rechtliche Standards gestellt – sie macht sie von vornherein unmöglich. Eine Gesellschaft, die ihre Normen erst definiert, nachdem sie bereits gebrochen wurden, hat die Kontrolle über ihre eigene Zukunft verloren.
Die Wahrheit ist, Europa steht nicht vor einer Wahl zwischen Innovation und Regulierung. Diese Wahl wurde längst getroffen – von Tech-Konzernen. Europa ist in der Lage, wirtschaftliche Entwicklung sowie die Werte der Union – wie Grundrechte, Demokratie und Umweltschutz – insgesamt zu fördern. Sie ist in der Lage Innovation mit Verantwortung zu verbinden.

