• Landgericht München: GEMA setzt sich gegen OpenAI durch

    Gericht bejaht Urheberrechtsverletzung durch KI-Training und Textausgabe

    Das Landgericht München I hat mit Urteil vom 11. November 2025 (Az. 42 O 14139/24) entschieden, dass das Training und die Nutzung der Sprachmodelle GPT-4 und GPT-4o von OpenAI gegen deutsches Urheberrecht verstoßen, jedenfalls in dem konkret zu prüfenden Fall. Den Anträgen der GEMA auf Unterlassung, Auskunft und Schadensersatz wurde stattgegeben.

    Hintergrund des Verfahrens

    Die GEMA hatte geltend gemacht, dass von ihr vertretene urheberrechtlich geschützte Liedtexte deutscher Popmusik – darunter dem Song „Atemlos“ (Kristina Bach) und „Wie schön, dass du geboren bist“ (Rolf Zuckowski) – in den Sprachmodellen von OpenAI „memorisiert“ worden seien, d. h. inhaltlich von Trainingsdaten in die Parameter des Modells übernommen wurden. Nutzer konnten diese Texte durch einfache Eingaben wie „Wie lautet der Text von ‚Atemlos’“ nahezu wortgetreu abrufen. OpenAI bestritt eine konkrete Speicherung und verwies darauf, die Modelle würden nur Wahrscheinlichkeiten abbilden. Außerdem seien mögliche Urheberrechtsverstöße durch Nutzerprompts verursacht und im Übrigen von der Text-und-Data-Mining-Schranke (§ 44b UrhG / Art. 4 DSM-RL) gedeckt.

    Entscheidung des Gerichts

    Die 42. Zivilkammer folgte der Argumentation von OpenAI nicht. Deutsches Urheberrecht sei anwendbar, denn das Angebot richtet sich offensichtlich an Nutzer in Deutschland, wenn es um deutsche Liedtexte geht. Nach Auffassung der Kammer sind die Liedtexte jedenfalls in dem zu prüfenden Fall reproduzierbar in den Modellen enthalten und genau darin sieht die Kammer eine urheberrechtlich relevante Vervielfältigung (§ 16 UrhG, Art. 2 InfoSoc-RL). Diese Vervielfältigung sei durch keine gesetzliche Erlaubnis gedeckt. Insbesondere greife die gesetzliche Erlaubnis der Text-und-Data-Mining-Schranke (§ 44b UrhG) nicht. Die Schranke des § 44b UrhG solle lediglich vorübergehende Kopien zu Analysezwecken erlauben, nicht aber das dauerhafte Einprägen ganzer Werke in ein Modell. Die wiederholte Abrufbarkeit impliziere jedoch das permanente Vorhandensein in dem Modell.

    Auch das Ausgeben der Texte durch ChatGPT sei eine rechtswidrige Vervielfältigung und öffentliche Wiedergabe (§§ 16, 19a UrhG, Art. 3 InfoSoc-RL). OpenAI selbst – nicht der einzelne Nutzer – sei hierfür verantwortlich, da das Unternehmen das Modell konzipiert, trainiert und betrieben hätte. In der Haftungsfolge unterscheidet sich der zu beurteilende Fall daher ganz wesentlich von Rechtsstreitigkeiten, in denen User urheberrechtlich geschützte Inhalte auf Social-Media-Plattformen hochladen. Der Output von KI-Systemen werde somit zwar durch User-Prompts veranlasst, die Verursachung des Outputs und damit dessen öffentliche Zugänglichmachung wird jedoch dem Betreiber der KI zugerechnet, der damit in voller Verantwortung steht und haftungsrechtlich nicht wie in den Social-Media-Upload-Fällen privilegiert ist. Persönlichkeitsrechtsverletzungen durch OpenAI konnte die Kammer dagegen nicht feststellen.

    Das Urteil bejaht erstmals ausdrücklich eine urheberrechtliche Verantwortlichkeit von KI-Anbietern für die im Modell gespeicherten („memorisierten“) Trainingsdaten und die daraus generierten Ausgaben. Man könnte somit formulieren, nicht ChatGPT ist das Werkzeug des Nutzers, vielmehr verhält es sich vor dem urheberrechtlich relevanten Hintergrund geradezu umgekehrt. Es verdeutlicht, dass das bestehende Urheberrecht auch auf neue Technologien wie große Sprachmodelle anwendbar ist und dass die Text-und-Data-Mining-Schranke nur eng auszulegen ist.

    Praktische Folgen und Ausblick

    Das Urteil hat erhebliche praktische Folgen, jedenfalls wenn es dabei bleibt. Betreiber generativer KI-Modelle müssten die Nutzung urheberrechtlich geschützter Inhalte zu KI-Trainingszwecken lizenzieren oder verhindern, dass es zu Outputs von identischem urheberrechtlich geschütztem Inhalt kommt. Nicht deutlich genug kann man darauf hinweisen, dass der Fall sicher anders beurteilt worden wäre, wenn es sich um Output gehandelt hätte, der urheberrechtlich geschütztem Text lediglich ähnlich gekommen wäre. In diesem Fall hätte das Gericht in seiner Entscheidungslogik prüfen müssen, ob es sich bei dem Output um eine Bearbeitung (§ 23 UrhG) des Originals gehandelt hätte und falls ja, ob diese Bearbeitung gesetzlich erlaubt war, etwa wenn es sich um eine Parodie handelt. Mit anderen Worten, auf der zweiten Stufe wäre also eine klassische urheberrechtliche Bewertungsfrage vorzunehmen gewesen. Hätte die Kammer schließlich keine Bearbeitung im urheberrechtlichen Sinne feststellen können, hätte sie auch keine Rückschlüsse auf eine „Memorisierung“ treffen können. Die Ansprüche der GEMA wären somit an der individuellen Beweislast gescheitert.

    Vor diesem Hintergrund wird deutlich, wie zentral die politische Entscheidung sein wird, ob zukünftig davon gesetzlich ausgegangen werden soll, dass in Trainingsdaten ALLE Texte und ALLE Musik und ALLE Bilder eingeflossen sind, welche Transparenzpflichten Betreibern von KI-Modellen abverlangt werden und welche Konsequenzen an eine Vernachlässigung dieser Pflichten geknüpft werden.

    Bis dahin ist es allerdings noch ein weiter Weg, der zunächst über das Oberlandesgericht München führt. Das Urteil ist noch nicht rechtskräftig und eine Berufung vor dem Oberlandesgericht München wahrscheinlich. Bis zur Entscheidung des OLG München fließt noch eine Menge Wasser die Isar hinunter.

  • Mustafa Suleyman/ Michael Bhaskar „The Coming Wave“

    Es gibt Bücher, die gut sind aber einen Beigeschmack zurücklassen. Mustafa Suleymans „The Coming Wave“, das er zusammen mit Michael Bhaskar verfasst hat gehört zu dieser nicht allzu seltenen Gattung. Mit der Gründlichkeit eines Untergangstheologen malt der ehemalige DeepMind-Mitgründer das Bild einer Welt, die von den Technologien überrollt wird, an deren Entwicklung er selbst nicht ganz unbeteiligt war. Man liest seine knapp 340 Seiten wie das fundierte Geständnis eines Brandstifters, der plötzlich die Feuerwehr ruft. Doch im Gegensatz zu anderen KI-Forschern, die der Industrie den Rücken gekehrt haben (allen voran Geoffrey Hinton) – und hier kommt der Beigeschmack – mischt Suleyman nach getaner Arbeit an dem für den Deutschen Wirtschaftsbuchpreis 2024 nominierten Werk wieder kräftig mit. Kaum hatte er vor den Gefahren unkontrollierter KI gewarnt, übernahm er als CEO die Führung von Microsoft AI – einem der zentralen globalen Akteure jener KI-Entwicklung. Das wird auch dadurch nicht glaubwürdiger, dass Suleyman mehr kritische und aktive Stimmen aus den Techunternehmen fordert. Aus einer solchen Perspektive kann man aus dem Buch die Hybris einer Selbstvermarktung von KI-Unternehmen herauslesen, die mit apokalyptischen Warnungen ihre Aktienkurse in die Höhe treiben. Selbstverständlich kritisiert Suleyman in dem Buch auch das.

    Dauerwellen?

    Der Autor greift für sein Zukunftsszenario zur Metapher der technologischen Welle. Die Menschheitsgeschichte, so seine These, lässt sich als Abfolge solcher Wellen verstehen, von der Landwirtschaft über die Industrialisierung bis zur Digitalisierung. Nun aber rolle die ultimative Welle heran, geboren aus der Vereinigung von Künstlicher Intelligenz, Robotik, Quantencomputern und synthetischer Biologie. Diese Metapher ist geschickt gewählt: Wellen sind Naturphänomene, sie kommen unweigerlich, man kann sie höchstens kanalisieren, nicht aufhalten.

    Doch diese Metapher verschleiert mehr, als sie erklärt. Die „kommende Welle“ ist weniger Naturgewalt denn Produkt bewusster menschlicher Gestaltung. Ihr liegen Entscheidungen in Vorstandsetagen, von Risikokapitalgeber:innen und Politiker:innen zugrunde.

    Dennoch: Seine Analyse der KI als Allzwecktechnologie ist klar und illustrativ. Je nach Zählweise hat die Menschheit bislang 24 solcher fundamentalen Technologien hervorgebracht, vom Faustkeil, über den Buchdruck bis zum Internet. Jede dieser Allzwecktechologien brachten Zäsuren und Umwälzungen. Doch KI übersteige alles davor.

    Die vier Reiter der digitalen Apokalypse

    Suleyman beschreibt vier Charakteristika, die die neue Welle von allen vorangegangenen unterscheiden: wenige können Vielen schaden (Asymmetrie), Entwicklungen beschleunigen sich exponentiell (Hyper-Evolution), dieselbe Technologie dient potentiell unzähligen Zwecken (Omni-Use) und die Systeme entziehen sich zunehmend menschlicher Kontrolle (Autonomie). Das macht Einhegung zu einer Sisyphos-Arbeit mit ungewissen Erfolgschancen.

    Welche Folgen das haben kann erläutert Suleyman an der Figur des „Gorilla-Problems“, das auf den KI-Forscher Stuart Russell zurückgeht:

    „Wir Menschen dominieren unsere Umwelt aufgrund unserer Intelligenz. Ein intelligenteres Wesen könnte folglich uns beherrschen. (…) Gorillas sind körperlich stärker und zäher als jeder Mensch, aber sie sind es, die vom Aussterben bedroht sind oder in Zoos leben; sie sind ‚eingedämmt‘. Wir mit unseren mickrigen Muskeln, aber großen Gehirnen sorgen für die Eindämmung. Indem wir etwas schaffen, das schlauer ist als wir, könnten wir uns selbst in die Lage unserer Vettern, der Primaten, versetzen.“

    Eindämmung ist kein Rastplatz

    Suleymans Antwort auf diese Herausforderungen ist ein Programm der „Eindämmung“ – ein Begriff, der nicht zufällig an die Containment-Politik des Kalten Krieges erinnert. Ein Bündel aus zehn Maßnahmen soll die technologische Bedrohung bannen: von technischer Sicherheit über internationale Allianzen bis zu neuen Formen der Unternehmensführung. Das Programm ist so umfassend wie fernliegend – ein „utopischer Traum“, wie der Guardian in einer Rezension treffend bemerkte.

    Doch Suleyman ist sich der Schwierigkeit bewusst. „Eindämmung ist kein Rastplatz“, schreibt er, „sie ist ein schmaler und nie endender Pfad.“ Die Eindämmung sei notwendig, aber unmöglich – also müsse man sie trotzdem versuchen. Dabei bleibt die Einsicht, dass „die Frage der KI-Ausrichtung nicht nur einmal geklärt werden muss, sondern jedes Mal“. Das heißt eine Eindämmung, eine Auseinandersetzung mit der Technik ist niemals „fertig“, die Herausforderungen stellen sich immer von Neuem. Eindämmung wird zur permanenten Aufgabe, zum nie endenden Kampf gegen eine Katastrophe.

    Prophet in eigener Sache

    Suleymans Forderung, „die Technologie von Anfang an an die Menschen anzupassen“ ist schön und gut. Er analysiert die Gefahren einer Entwicklung, die er – wenn auch wohl mit dem ernstgemeinten Wunsch nach Eindämmung – mit vorantreibt. Dies offenbart ein grundsätzliches Dilemma: Diejenigen, die am besten über die Risiken Bescheid wissen, sitzen nicht in der Politik, sondern in den Konzernen, die den größten Anreiz haben, diese Risiken einzugehen.

    Das Paradox des aufgeklärten Apokalyptikers

    Der „schmale Pfad“ der Eindämmung wird nicht nur durch technische Schwierigkeiten versperrt, sondern durch die Logik des Marktes und die Dynamik des geopolitischen Wettbewerbs. Lässt sich die Welle nicht brechen, bleibt nur der Versuch, sie zumindest ein wenig zu lenken. Suleymans Buch liefert Ideen, wo man ansetzen, wie man gegensteuern kann. In einer Debatte, die oft zwischen naivem Techno-Optimismus und vager Apokalyptik schwankt, bietet „The Coming Wave“ eine Analyse dessen, was potentiell auf uns zukommt – und wie es sich aufhalten ließe. Suleyman und Bhaskar schauen dabei aber weniger auf die Gegenwart, in der bereits konkrete Auswirkungen von KI spürbar werden, sondern konzentrieren sich eher auf die existenziellen Risiken der Zukunft.

    Suleyman, Mustafa / Bhaskar, Michael: The Coming Wave, Künstliche Intelligenz, Macht und das größte Dilemma des 21. Jahrhunderts, Verlag C.H. Beck.

  • Der Abbau von Rechtsschutz vor seinem Beginn

    Die digitale Transformation durch Künstliche Intelligenz vollzieht sich in einem rechtlichen Vakuum, das systematisch perpetuiert wird. Beispielhaft für die Verzwergung einer nur noch auf dem Papier existierenden demokratisch legitimierten Mitgestaltung der Bedingungen in denen wir zukünftig leben werden ist der Code of Practice für General Purpose AI. Noch bevor wirksamer Rechtsschutz für Urheber und Kreative etabliert werden konnte, wird er schon wieder abgebaut. Worum geht es?

    Art 56 KI-Verordnung

    Der Code of Practice zur EU-KI-Verordnung (Artikel 56) ist der Leitfaden zur Umsetzung ihrer Vorgaben. Er wird nach dem Inkrafttreten der Pflichten für Anbieter generischer KI-Modelle (August 2025) und der Verabschiedung verbindlicher europäischer Standards (voraussichtlich ab August 2027) ein zentrales Instrument sein. Obwohl der Code rechtlich nicht bindend ist, setzt er die Standards und definiert die Prozesse, an die sich KI Unternehmen zukünftig werden halten müssen.

    Entwickelt wird der Code in einem Multi-Stakeholder-Prozess, an dem wissenschaftliche und unabhängige Expertinnen und Experten, Anbieter generischer KI-Modelle, nachgelagerte Anwenderinnen und Anwender, Vertreterinnen und Vertreter der Zivilgesellschaft sowie weitere Interessengruppen beteiligt sind.

    Ein Schutzinstrument wird zur Legitimationshilfe

    Von Entwurf zu Entwurf scheint man sich jedoch von der gesetzgeberischen Absicht einer effektiven Regulierung weiter zu entfernen. Der Vergleich der drei Entwürfe des EU AI Code of Practice offenbart eine perfide Realität: Die KI-Industrie hat bereits gewonnen, bevor der Kampf um Rechtssicherheit überhaupt begonnen hat. Während seit Jahren KI-Modelle wie ChatGPT mit urheberrechtlich geschützten Inhalten ohne Zustimmung oder Kompensation trainiert werden, wird nun rückwirkend ein Rechtsrahmen konstruiert, der diese Praxis legitimiert.

    Die Entwicklung ist bezeichnend: Waren KI-Anbieter ursprünglich zur Veröffentlichung ihrer Urheberrechts-Policies verpflichtet, werden sie nun nur noch dazu „ermutigt“. Aus niemals existierenden echten Compliance-Verpflichtungen wurden unverbindliche „angemessene Bemühungen“. Die bereits unzureichenden Transparenzanforderungen wurden weiter verwässert – bis zur völligen Streichung der Berichtspflicht über Rechtsvorbehalte.

    Die robots.txt-Falle

    Besonders misslungen ist die Reduktion der Opt-out-Mechanismen auf das veraltete robots.txt-Protokoll. Diese bewusste Beschränkung schafft eine perfide Zwickmühle: Wer robots.txt nutzt, um KI-Crawler zu blockieren, riskiert damit gleichzeitig, dass seine Inhalte nicht mehr in Suchmaschinen gefunden werden, da robots.txt primär der Verwaltung des Crawler-Traffics für Suchmaschinen dient.

    Die Absurdität wird durch die Social Media-Realität noch verstärkt: Auf Plattformen wie Facebook entscheidet Meta darüber, ob Nutzerfotos für KI-Training verwendet werden dürfen – nicht die Nutzer selbst, da robots.txt nur vom Seitenbetreiber kontrolliert wird. Millionen von Urhebern, deren Werke auf GitHub, Instagram oder YouTube veröffentlicht sind, haben praktisch keine Kontrolle über die Opt-out-Einstellungen, die Dritte für sie treffen müssen. Zudem ignorieren bereits viele KI-Services die robots.txt-Regeln vollständig.

    Transatlantischer Deregulierungsdruck

    Diese Entwicklung folgt einer bewährten Strategie der Tech-Industrie: „Move fast and break things, don’t ask for permission, beg for forgiveness.“ – mit dem Zusatz, dass die Scherben nie zusammengekehrt werden müssen. Der transatlantische Deregulierungsdruck verstärkt diese Dynamik. Mit Trumps Executive Order „Removing Barriers to American Leadership in Artificial Intelligence“ vom Januar 2025 wurde Bidens vorsichtige KI-Regulierung vollständig aufgehoben.

    Wo Biden noch auf minimale Sicherheitsstandards und Transparenz setzte, propagiert Trump eine „clean slate“-Politik ohne jede Aufsicht. Diese Politik der vollendeten Fakten erzeugt enormen Druck auf europäische Regulierer: Wer zu spät kommt, den bestraft die KI-Geschichte.

    Die rechtliche Bankrotterklärung

    Wie weit man noch von effektivem Rechtsschutz entfernt ist, zeigt ein aktuelles Urteil des OLG Köln vom 23. Mai 2025. Das Gericht bestätigte Metas Recht, öffentliche Nutzerdaten für KI-Training zu verwenden, da die „angekündigte Verwendung der Daten für KI-Trainingszwecke sich bei vorläufiger Betrachtung auch ohne Einwilligung der Betroffenen als rechtmäßig darstellt“. Mit minimalen Maßnahmen wie einer vorherigen Ankündigung und der theoretischen Möglichkeit zum Widerspruch wurde eine DSGVO- und DMA-konforme Datenverarbeitung attestiert.

    Die Ironie ist offensichtlich: Während ein schwacher Code of Practice noch diskutiert wird, bestätigen Gerichte dass ohne vernünftige, durchsetzbare Regeln digital weiter das Recht des stärkeren – und schnelleren, gilt. Erlaubt ist, was geht.

    Der erwartbare Widerstand

    Der Widerspruch kommt erwartungsgemäß von denen, die am meisten zu verlieren haben: Eine Allianz aus über 40 europäischen Kulturorganisationen – vom European Writers Council über IFPI und IMPALA bis hin zu Verlegerverbänden – schlägt Alarm. Ihre gemeinsame Botschaft ist eindeutig: „Kein Code ist besser als der grundlegend fehlerhafte dritte Entwurf.“

    Diese Koalition repräsentiert genau die Branchen, deren wirtschaftliche Existenz durch die schrankenlose KI-Ausbeutung am direktesten bedroht ist – die kreativen Grundlagen der europäischen Wissensgesellschaft kämpfen erwartungsgemäß um ihr Überleben.

    Ihre Kritik trifft den Kern des Problems: Der Code of Practice untergräbt nicht nur die Ziele der KI-Verordnung, sondern widerspricht geltendem EU-Recht. Statt einem „robusten Rahmen für Compliance“ liefert er nur noch symbolisches Compliance-Theater. Doch selbst dieses Theater ist überflüssig geworden: Das OLG-Urteil zeigt, dass bereits heute mit minimalen Formalitäten praktisch jede Datenverarbeitung legitimiert werden kann.

    Kurzsichtigkeit als Geschäftsmodell

    Die gegenwärtige Entwicklung offenbart eine systematische Kurzsichtigkeit. Indem regulatorische Standards bereits vor ihrer Etablierung demontiert werden, entsteht eine KI-Ökonomie der Intransparenz und Straflosigkeit. Die vermeintlichen Effizienzgewinne erkauft sich die Gesellschaft durch die systematische Enteignung geistigen Eigentums und den Verlust, demokratischer Kontrolle über Schlüsseltechnologien und im schlimmsten Fall der Demokratie selbst.

    Diese Entwicklung ist nicht nur rechtlich verheerend, sondern auch wirtschaftlich selbstzerstörerisch. Eine KI-Wirtschaft, die sich wie ein Parasit von bestehenden kreativen Inhalten nährt, ohne deren Schöpfer zu informieren, zu fragen oder zu kompensieren, untergräbt ihre eigenen Fundamente. Das robots.txt-System verstärkt diese Problematik, indem es Urheber vor die Wahl stellt: Entweder Sichtbarkeit in Suchmaschinen oder Schutz vor KI-Training. Diese falsche Alternative ist kein Zufall, sondern Kalkül – sie macht Widerstand gegen KI-Training für die meisten Rechteinhaber praktisch unmöglich. Presseverlegern dürfte das bekannt vorkommen.

    Die Illusion der nachträglichen Regulierung

    Dabei gäbe es durchaus Alternativen zur bedingungslosen Kapitulation vor vollendeten Tatsachen. Moderne Rechteverwaltungssysteme, verpflichtende Lizenzierungsmodelle und echte Transparenzpflichten könnten Innovation und Rechtsschutz versöhnen – wenn sie denn von Anfang an mitgedacht würden. Doch all diese Lösungen kommen zu spät, wenn die Pferde bereits durchgegangen sind. Stattdessen inszeniert Europa ein regulatorisches Theater, während es faktisch dem amerikanischen Modell der Dereglierung folgt. Die Verschiebung der finalen Veröffentlichung des Code of Practice ist symptomatisch. 

    Fazit: Der Sieg der vollendeten Tatsachen

    Die Debatte um den AI Code of Practice ist paradigmatisch für die Ohnmacht des Rechtsstaats gegenüber der digitalen Disruption. Technologische Innovation wird nicht nur über rechtliche Standards gestellt – sie macht sie von vornherein unmöglich. Eine Gesellschaft, die ihre Normen erst definiert, nachdem sie bereits gebrochen wurden, hat die Kontrolle über ihre eigene Zukunft verloren.

    Die Wahrheit ist, Europa steht nicht vor einer Wahl zwischen Innovation und Regulierung. Diese Wahl wurde längst getroffen – von Tech-Konzernen. Europa ist in der Lage, wirtschaftliche Entwicklung sowie die Werte der Union – wie Grundrechte, Demokratie und Umweltschutz – insgesamt zu fördern. Sie ist in der Lage Innovation mit Verantwortung zu verbinden.

  • DSGVO vs. China: Wenn Datenpolitik zum geopolitischen Risiko wird

    Grenzüberschreitende Datenflüsse sind dem Internet immanent und in einer digitalisierten Welt eine alltägliche Aktivität. Die notwendige Digitalisierung multinationaler Unternehmen hat zu einem komplexen Geflecht grenzüberschreitender Datenflüsse geführt. Während sich die DSGVO als harmonisierter europäischer Rahmen etabliert hat, entwickeln Drittstaaten nationale Datenschutzgesetze mit teilweise diametral entgegengesetzten Ansätzen, was zu erheblichen Compliance-Konflikten für Konzerne führt.

    Diese regulatorische Fragmentierung stellt die auf dem „Brussels Effect“ basierende EU-Digitalpolitik vor grundlegende Herausforderungen. Der regulatorische Einfluss der EU stößt dort an Grenzen, wo andere Großmächte bewusst konkurrierende Ansätze verfolgen und über die wirtschaftliche Macht verfügen, diese durchzusetzen.

    Friktionen ergeben sich etwa aus dem Zusammentreffen europäischer Datenschutzanforderungen mit den umfassenden staatlichen Datenzugriffsrechten Chinas. Mit dem Cybersicherheitsgesetz (2017), dem Datensicherheitsgesetz (2021), dem Gesetz zum Schutz personenbezogener Informationen (2021) und dem Nationalen Nachrichtendienstgesetz (2017) hat China weitreichende Kooperationspflichten, die Kollisionen mit der DSGVO schaffen.

    Vor diesem Hintergrund kommt den am 04. Juni 2025 vom EDPB angenommenen Guidelines 02/2024 zu Artikel 48 DSGVO besondere praktische Bedeutung zu. Die Guidelines konkretisieren erstmals umfassend die Voraussetzungen für die Anerkennung von Drittstaatsbehördenentscheidungen und etablieren einen strikten Zweistufen-Test.

    Diese Guidelines verdeutlichen, ja sie verschärfen die Compliance-Herausforderungen, da sie faktisch eine Anerkennung chinesischer Behördenanfragen ohne internationale Abkommen ausschließen.

    Ein Fachaufsatz von Prof. Dr. Raji zeigt unterschiedliche Umgangsarten mit diesen Herausforderungen auf. Konkretere Angaben zur Erscheinung werden wir Ihnen mitteilen.

  • Eröffnungsveranstaltung

    Mitschnitt der IfKI-Eröffnungsveranstaltung vom 09.10.2025

    Das Institut für KI und demokratische Transformation (IfKI) öffnet seine Türen. Wir freuen uns, zur Eröffnung in unsere neuen Räume in der Palmaille 96 einladen zu können. Der Abend markiert einen Auftakt. Wir bieten in Hamburg einen physischen Raum für kritischen Dialog und Auseinandersetzung mit drängenden Fragen unserer Zeit, in dem über Künstliche Intelligenz (KI) und digitale Transformation geforscht, nachgedacht und diskutiert wird. Technologischer Fortschritt löst Probleme und schafft dadurch neue. Fortschritt war noch nie eine Einbahnstraße in eine glänzende Zukunft. Ist KI lediglich ein Hype oder ist KI gerade dabei, unsere Welt grundlegend zu verändern? Was wären die Folgen für Demokratie, Rechtsstaat, Bewusstsein, Umwelt, Bildung, Kunst, Arbeit, usw.? Welche Gestaltungsmöglichkeiten gibt es und wer hat sie? Wir freuen uns, am Eröffnungsabend gemeinsam mit unseren beiden Gästen Dr. Constanze Kurz und Prof. Dr. Johannes Caspar in zwei Impulsvorträgen und einer anschließenden Diskussion erste Perspektiven auf das Themenspektrum und Spannungsfeld zu werfen, das uns als IfKI beschäftigen wird.

    Dr. Constanze Kurz: Künstliche Intelligenz – zwischen Milliardeninvestitionen, Umweltfolgen und Risiken für die IT-Sicherheit

    Die sog. Künstliche Intelligenz ist in den Alltag eingezogen, besonders Software, Bilder und Filme werden massenhaft generiert. Vor allem in Anbieter generativer KI-Anwendungen pumpen Investoren Milliarden. Aber was können diese KI-Technologien leisten, wo sind ihre Grenzen? Welche KI-Systeme sind nützlich und mit überschaubarem Risiko nutzbar, welche müssen als potentiell gefährlich angesehen werden? Was sollen die neuen KI-Agenten können, von denen alle grade sprechen? Und was bedeuten die neuen KI-Sprachmodelle eigentlich für die IT-Sicherheit? Und nicht zuletzt: Wie ist der veritable KI-Rechenzentrumsboom unter Umweltgesichtspunkten zu sehen? Dr. Constanze Kurz wird in ihrem Input auch analysieren, welche ethischen Fragen nun zu diskutieren sind.

    Prof. Dr. Johannes Caspar: Der Große Transfer. Recht am Limit

    Prof. Dr. Johannes Caspar beleuchtet in seinem Input die immensen regulatorischen Herausforderungen der postdigitalen Moderne und gewährt einen schlaglichtartigen Einblick in eine Rechtswelt, die sich mit ihrer Hyperkomplexität an der Grenze zur Dysfunktionalität bewegt.

  • Die Gründung ist vollzogen – jetzt beginnt die Arbeit

    Am 28. März 2025 kamen die Gründungsmitglieder des Instituts für KI und demokratische Transformation in der Palmaille 96 in Hamburg zusammen. Was lange geplant war, fand nun seinen offiziellen Auftakt und seine juristische Form: als Verein, der sich mit dem Verhältnis von Technologie und Gesellschaft auseinandersetzen will.

    Die leeren Räume in der Palmaille warten nun auf Leben. Bald sollen hier jene Gespräche stattfinden, die in Hamburg mitunter vermieden werden – über Algorithmen als neue Machtstrukturen, über demokratische Kontrolle technischer Systeme, über die Frage, wem die Zukunft gehört. Das Institut will sich einmischen und Denkanstöße geben.

    Die Gründungsversammlung war der Startschuss. Nun beginnt die eigentliche Arbeit: Räume gestalten, Programme entwickeln, Netzwerke knüpfen. Hamburg bekommt einen Ort, an dem über die digitale Transformation gestritten werden kann – konstruktiv, fundiert, unbequem. Das Institut steht. Jetzt muss es sich bewähren.