• Landgericht München: GEMA setzt sich gegen OpenAI durch

    Gericht bejaht Urheberrechtsverletzung durch KI-Training und Textausgabe

    Das Landgericht München I hat mit Urteil vom 11. November 2025 (Az. 42 O 14139/24) entschieden, dass das Training und die Nutzung der Sprachmodelle GPT-4 und GPT-4o von OpenAI gegen deutsches Urheberrecht verstoßen, jedenfalls in dem konkret zu prüfenden Fall. Den Anträgen der GEMA auf Unterlassung, Auskunft und Schadensersatz wurde stattgegeben.

    Hintergrund des Verfahrens

    Die GEMA hatte geltend gemacht, dass von ihr vertretene urheberrechtlich geschützte Liedtexte deutscher Popmusik – darunter dem Song „Atemlos“ (Kristina Bach) und „Wie schön, dass du geboren bist“ (Rolf Zuckowski) – in den Sprachmodellen von OpenAI „memorisiert“ worden seien, d. h. inhaltlich von Trainingsdaten in die Parameter des Modells übernommen wurden. Nutzer konnten diese Texte durch einfache Eingaben wie „Wie lautet der Text von ‚Atemlos’“ nahezu wortgetreu abrufen. OpenAI bestritt eine konkrete Speicherung und verwies darauf, die Modelle würden nur Wahrscheinlichkeiten abbilden. Außerdem seien mögliche Urheberrechtsverstöße durch Nutzerprompts verursacht und im Übrigen von der Text-und-Data-Mining-Schranke (§ 44b UrhG / Art. 4 DSM-RL) gedeckt.

    Entscheidung des Gerichts

    Die 42. Zivilkammer folgte der Argumentation von OpenAI nicht. Deutsches Urheberrecht sei anwendbar, denn das Angebot richtet sich offensichtlich an Nutzer in Deutschland, wenn es um deutsche Liedtexte geht. Nach Auffassung der Kammer sind die Liedtexte jedenfalls in dem zu prüfenden Fall reproduzierbar in den Modellen enthalten und genau darin sieht die Kammer eine urheberrechtlich relevante Vervielfältigung (§ 16 UrhG, Art. 2 InfoSoc-RL). Diese Vervielfältigung sei durch keine gesetzliche Erlaubnis gedeckt. Insbesondere greife die gesetzliche Erlaubnis der Text-und-Data-Mining-Schranke (§ 44b UrhG) nicht. Die Schranke des § 44b UrhG solle lediglich vorübergehende Kopien zu Analysezwecken erlauben, nicht aber das dauerhafte Einprägen ganzer Werke in ein Modell. Die wiederholte Abrufbarkeit impliziere jedoch das permanente Vorhandensein in dem Modell.

    Auch das Ausgeben der Texte durch ChatGPT sei eine rechtswidrige Vervielfältigung und öffentliche Wiedergabe (§§ 16, 19a UrhG, Art. 3 InfoSoc-RL). OpenAI selbst – nicht der einzelne Nutzer – sei hierfür verantwortlich, da das Unternehmen das Modell konzipiert, trainiert und betrieben hätte. In der Haftungsfolge unterscheidet sich der zu beurteilende Fall daher ganz wesentlich von Rechtsstreitigkeiten, in denen User urheberrechtlich geschützte Inhalte auf Social-Media-Plattformen hochladen. Der Output von KI-Systemen werde somit zwar durch User-Prompts veranlasst, die Verursachung des Outputs und damit dessen öffentliche Zugänglichmachung wird jedoch dem Betreiber der KI zugerechnet, der damit in voller Verantwortung steht und haftungsrechtlich nicht wie in den Social-Media-Upload-Fällen privilegiert ist. Persönlichkeitsrechtsverletzungen durch OpenAI konnte die Kammer dagegen nicht feststellen.

    Das Urteil bejaht erstmals ausdrücklich eine urheberrechtliche Verantwortlichkeit von KI-Anbietern für die im Modell gespeicherten („memorisierten“) Trainingsdaten und die daraus generierten Ausgaben. Man könnte somit formulieren, nicht ChatGPT ist das Werkzeug des Nutzers, vielmehr verhält es sich vor dem urheberrechtlich relevanten Hintergrund geradezu umgekehrt. Es verdeutlicht, dass das bestehende Urheberrecht auch auf neue Technologien wie große Sprachmodelle anwendbar ist und dass die Text-und-Data-Mining-Schranke nur eng auszulegen ist.

    Praktische Folgen und Ausblick

    Das Urteil hat erhebliche praktische Folgen, jedenfalls wenn es dabei bleibt. Betreiber generativer KI-Modelle müssten die Nutzung urheberrechtlich geschützter Inhalte zu KI-Trainingszwecken lizenzieren oder verhindern, dass es zu Outputs von identischem urheberrechtlich geschütztem Inhalt kommt. Nicht deutlich genug kann man darauf hinweisen, dass der Fall sicher anders beurteilt worden wäre, wenn es sich um Output gehandelt hätte, der urheberrechtlich geschütztem Text lediglich ähnlich gekommen wäre. In diesem Fall hätte das Gericht in seiner Entscheidungslogik prüfen müssen, ob es sich bei dem Output um eine Bearbeitung (§ 23 UrhG) des Originals gehandelt hätte und falls ja, ob diese Bearbeitung gesetzlich erlaubt war, etwa wenn es sich um eine Parodie handelt. Mit anderen Worten, auf der zweiten Stufe wäre also eine klassische urheberrechtliche Bewertungsfrage vorzunehmen gewesen. Hätte die Kammer schließlich keine Bearbeitung im urheberrechtlichen Sinne feststellen können, hätte sie auch keine Rückschlüsse auf eine „Memorisierung“ treffen können. Die Ansprüche der GEMA wären somit an der individuellen Beweislast gescheitert.

    Vor diesem Hintergrund wird deutlich, wie zentral die politische Entscheidung sein wird, ob zukünftig davon gesetzlich ausgegangen werden soll, dass in Trainingsdaten ALLE Texte und ALLE Musik und ALLE Bilder eingeflossen sind, welche Transparenzpflichten Betreibern von KI-Modellen abverlangt werden und welche Konsequenzen an eine Vernachlässigung dieser Pflichten geknüpft werden.

    Bis dahin ist es allerdings noch ein weiter Weg, der zunächst über das Oberlandesgericht München führt. Das Urteil ist noch nicht rechtskräftig und eine Berufung vor dem Oberlandesgericht München wahrscheinlich. Bis zur Entscheidung des OLG München fließt noch eine Menge Wasser die Isar hinunter.

  • Wir geben uns auf. KI, Kultur und die Entwertung der Wissensarbeit

    Buchvorstellung mit Matthias Hornschuh zu seinem im Oktober 2025 bei Carl Auer erschienen Essay.

    Schöpferische Tätigkeit wird bei uns nicht als Arbeit anerkannt und daher nicht so behandelt: Schöpferische Arbeit ist unsichtbare Arbeit. Die Widerstandskraft an der Basis der Kultur- und Medienberufe ist längst verbraucht. Gerade in Kunst und Kultur aber sind Arbeit und Identität untrennbar miteinander verwoben, sodass sich die existenzielle Bedeutung aktueller, oft nur vermeintlich technologischer Entwicklungen tatsächlich auf individuelle, kulturelle wie auch volkswirtschaftliche Bereiche erstreckt. 

    Nun schmeißt die generative KI den Turbo an. Sie ist nicht Ursache, sondern Brandbeschleuniger für Prozesse, die seit Jahrzehnten laufen. Digitalpolitik ist Globalpolitik: Herrschaft über das Digitale bedeutet Kontrolle über Macht, Mittel und Meinung. Für Kunst und Kultur hat all das erhebliche Konsequenzen. Matthias Hornschuh zeigt die volkswirtschaftliche und existenzielle Bedeutung geistigen Schaffens auf, die in der schöpferischen Tätigkeit menschlicher Wissensarbeit gründet. Wollen wir digitaler Technologie den zentralen Platz in unserer gesellschaftlichen Kommunikation einräumen, die ohne menschlichen Geist gar nicht zu funktionieren vermag?

    Der Einschüchterung, ja Angst, die eine auf schnell erfassbare Oberflächenreize optimierte, hochkomplexe Welt hervorruft, setzt Hornschuh eine grundlegende Orientierung entgegen: Ideelle Wertschöpfung ist kein Luxus. Wir können und dürfen es uns nicht leisten, sie wie nebenbei aufzugeben, wenn wir uns nicht selbst aufgeben wollen.

    Wo? Palmaille 96, 22767 Hamburg (Nahverkehr: S-Bahn Königstraße/ Bus Behnstraße)

    Wann? 18:30 Uhr (Einlass 18 Uhr)

    Anmeldung

    Wenn Du an dem Abend dabei sein möchtest, melde Dich bitte über das nachfolgende Formular an.

  • Fachgespräch zu KI und Urheberrecht im Bundestag

    Am 25. Februar 2026 fand im Ausschuss für Kultur und Medien des Deutschen Bundestag ein Fachgespräch zum Thema „KI und Urheberrecht – Herausforderungen und Handlungsoptionen für den Schutz kreativer Inhalte“ statt. Unser Vorstandsmitglied Reinher Karl nahm an der Sitzung als Sachverständiger teil.

    Die Aufzeichnung der öffentlichen Sitzung und Reinher Karls Stellungnahme sind hier zu finden.

  • Lob der Überwachung

    Buchvorstellung und Diskussion mit Timo Daum zu seinem neusten Buch „Lob der Überwachung“ im Nautilus Verlag. Der Autor hält im Überwachungskapitalismus nicht die Überwachung sondern den Kapitalismus für das Problem. Timo Daum streitet für eine „positive Überwachungspolitik“.

    Überwachung und Datenerfassung genießen keinen guten Ruf. Ob durch staatliche Akteure oder Digitalunternehmen – sobald Informationen über uns gesammelt, gespeichert und verarbeitet werden, denkt man an Stasi, autoritäre Überwachungsdystopien, die Allmacht der Tech-Konzerne.

    Auch zivilgesellschaftlich werden Datenschutz und Privatsphäre hochgehalten und eine strenge Regulierung der Konzerne gefordert. Daum hingegen sieht Privacy und Datenschutz als bürgerliche Kategorien an, die letztlich ein Privateigentum im Digitalen konstituieren. Statt sich die Potentiale des digitalen Wandels progressiv anzueignen, tappe man in die Falle einer konservativen Kritik und der Vorstellung einzelner isolierter Datenbesitzer:innen.

    Timo Daum fordert stattdessen, Überwachung positiv zu denken – als Produktivkraft, als Form der Sorge, als Möglichkeit guten Regierens. Denn Überwachung könne auch bedeuten, Vermieter:innen und Eigentümer:innen an Preistreiberei zu hindern, Raser:innen im Straßenverkehr auszumachen, Finanz- und Steuerverbrechen aufzudecken – oder den Grundstein für ein postkapitalistisches, bedarfsorientiertes Wirtschaften zu legen.

    Daum möchte sein „Lob der Überwachung“ nicht als geschichtsvergessene Romantisierung autoritärer Systeme verstanden wissen, sondern als Versuch, die technischen Möglichkeiten, die der Überwachungskapitalismus geschaffen hat, für eine Zukunft ohne Kapitalismus nutzbar zu machen.

    Wo? Palmaille 96, 22767 Hamburg (Nahverkehr: S-Bahn Königstraße/ Bus Behnstraße)

    Wann? 18:30 Uhr (Einlass 18 Uhr)

    Anmeldung

    Wenn Du an dem Abend dabei sein möchtest, melde Dich bitte über das nachfolgende Formular an.

  • Künstliche Intelligenz und der neue Faschismus

    Buchvorstellung und Diskussion über KI und die autoritäre Wende.

    Elon Musk und Donald Trump kündigen massenhaft Verwaltungsmitarbeitern, um einen KI-Staat zu errichten. Tech-CEOs verkaufen künstliche Intelligenz als Heilsbringer für die größten Probleme der Menschheit, obwohl die entsprechende Industrie auf Ausbeutung und Menschenverachtung beruht.
    Warum lässt sich die Öffentlichkeit durch Spekulation über Erlösung oder Auslöschung durch KI von den erheblichen Schäden durch KI in unserer Gegenwart ablenken? Wie erkennen wir die zunehmend faschistischen Tendenzen, die sich im Zusammenspiel von Tech-Industrie und der neuen Rechten bilden?

    Rainer Mühlhoff entwickelt in seinem Buch „Künstliche Intelligenz und der neue Faschismus“ (Reclam, 2025) (taz-Rezension von Hendrikje Schauer) und auf unserer Veranstaltung Antworten und diskutiert Lösungsansätze.

  • KI-Recht und Datenschutz in der Praxis

    Im Februar wagen Christopher Schack aus der Behörde des Hamburgischen Beauftragten für Datenschutz und Informationsfreiheit und Prof. Dr. Behrang Raji einen juristischen Brückenschlag zwischen DSGVO und KI-Verordnung. Sie zeigen und diskutieren praxisnah, welche Regeln gelten und wie man sie umsetzt.

    Christopher Schack: Zwischen Datenminimierung und Verantwortungsdiffusion – gehen Datenschutz und KI zusammen?

    Bei Datenschutz denken viele zuerst an Cookie-Banner, bürokratische Hürden und lange Gesetzestexte. Dabei ist Datenschutz in einer digitalisierten Gesellschaft weit mehr: Es ist der Schutz unserer Autonomie und unserer digitalen Identität. Überall dort, wo wir digitale Spuren hinterlassen, entscheiden Algorithmen zunehmend über unsere Möglichkeiten.

    Im Zeitalter von ChatGPT und generativer KI stellt sich diese Machtfrage völlig neu. Der Vortrag zeigt auf, dass unsere etablierten Konzepte – wie das gezielte Löschen einzelner Datensätze – an der statistischen Realität moderner Sprachmodelle an ihre Grenzen stoßen. Ein neuronales Netz „vergisst“ nicht einfach auf Knopfdruck, und der enorme Datenhunger der Modelle steht in einem fast unlösbaren Spannungsverhältnis zum Prinzip der Datenminimierung.

    Gleichzeitig sehen wir in der Praxis eine gefährliche „Verantwortungs-Diffusion“. Wenn eine KI halluziniert und falsche Fakten über echte Personen generiert, zeigen Anbieter und Nutzer gerne aufeinander. Wer trägt die Verantwortung dafür, dass der Output über Menschen auch faktisch richtig ist?

    Der Abend widmet sich der Frage, wie wir dieses Dilemma auflösen, ohne die technologische Entwicklung abzuwürgen. Wir blicken hinter die abstrakten Rechtsnormen auf konkrete und kritische Fälle aus der aktuellen (Aufsichts-)Praxis. Ziel ist es, Datenschutz nicht als Innovationsbremse zu begreifen, sondern als notwendiges Design-Element für vertrauenswürdige KI-Systeme.

    Behrang Raji: Kontrollverlust vs. Compliance – warum es eine AI-Governance in Unternehmen braucht

    Künstliche Intelligenz ist heute für jeden verfügbar. ChatGPT, Claude und andere leistungsstarke KI-Systeme lassen sich ohne IT-Budget oder Freigabeprozess direkt über das Smartphone nutzen. Auch für dienstliche Zwecke. Diese niedrige Einstiegshürde führt dazu, dass KI längst in Unternehmen im Einsatz ist, auch wenn die Geschäftsleitungen dies nicht wissen oder wollen.

    Dies birgt auch für Unternehmen erhebliche Risiken. Durch diese Schatten-KI drohen Bußgelder wegen Datenschutzverstößen, Haftungsansprüche wegen Urheberrechtsverletzungen oder bald auch empfindliche Bußgelder wegen der Nichtbefolgung von regulatorischen Anforderungen der KI-Verordnung. Ein klarer Ordnungsrahmen für den Einsatz von KI – eine AI Governance – stellt Compliance sicher und ermöglicht zugleich Innovation.

    In diesem Vortrag beleuchtet Prof. Dr. Raji, wie kleine und mittlere Unternehmen dies praktisch und pragmatisch gelingen kann. Anhand der Darlegung von konkreten Schritten werden ausgewählte rechtliche Fragen und Herausforderungen näher gebracht.  

  • IfKI unterwegs: von Mainz bis ins Hamburger Rathaus

    In den letzten Wochen war das IfKI nicht nur in den eigenen vier Wänden aktiv. Zwei unserer Vorstandsmitglieder haben sich auch außerhalb der Institutsräume zu Wort gemeldet über KI, Urheberrecht und die Zukunft kreativer Arbeit diskutiert.

    Reinher Karl auf der Content Convention in Mainz

    Am 26. November 2025 war Reinher Teil der diesjährigen Content Convention in Mainz, einer der führenden Medienkonferenzen in Deutschland. Die Veranstaltung bringt Medien, Plattformen, Politik und Start-ups zusammen und erreicht jährlich über 1.200 Gäste vor Ort sowie mehr als 300.000 Teilnehmer im Livestream.

    Gemeinsam mit Jochen Wegner von der ZEIT diskutierte Reinher im Keynote-Talk über eine Frage, die uns alle umtreibt: „Reicht das Urheberrecht in Zeiten von KI noch aus? Der Titel seiner Rede deutet bereits an, worauf er hinauswollte: „Auf die Frage fallen mir eine ganze Reihe von Antworten ein. Die wenigsten haben mit Urheberrecht zu tun.“ Bei den Herausforderungen durch Künstliche Intelligenz für Kreativschaffende geht es nicht nur um verabschiedete Digitalgesetze, sondern um eine gescheiterte Durchsetzung. Wer sich Reinhers Keynote und die anschließende Diskussion anschauen möchte, findet sie hier auf YouTube (ab 1 h 21 min).

    Sebastian Sudrow in Hamburg: Revolution oder Raubzug?

    Am 5. Dezember 2025 war Sebastian bei einer Podiumsdiskussion der Linksfraktion in der Hamburger Bürgerschaft im Rathaus zu Gast. Der Titel der Veranstaltung brachte die Spannung auf den Punkt: „Revolution oder Raubzug? Wie KI die Kultur bedroht“.

    Gemeinsam mit Donata Vogtschmidt von der Linksfraktion im Bundestag, Lena Falkenhagen vom Verband deutscher Schriftstellerinnen und der Bürgerschaftsabgeordneten Marie Kleinert diskutierte Sebastian über die Auswirkungen künstlicher Intelligenz für den Kunst- und Kulturbetrieb und welche politischen und gewerkschaftlichen Antworten es auf die derzeit ungebremste digitale Entwicklung braucht.

  • KI-Zukunft können – Kreativität zwischen Automatisierung und Abhängigkeit

    Kreativität und KI mit Dorothea Winter vom 29.01.2026

    Bei Kreativität denken viele zuerst an Kunst. Dabei ist Kreativität in weit mehr Bereichen zentral. Im Softwareengineering, auf dem täglichen Arbeitsweg, beim Improvisieren im Alltag oder beim Versuch, ein Möbelstück aufzubauen. Überall dort, wo etwas nicht nach Plan läuft, brauchen wir die Fähigkeit, anders zu denken.

    Im Zeitalter von KI und Robotik, in dem immer mehr dieser Tätigkeiten automatisiert werden, stellt sich die Frage nach Kreativität neu. Der Vortrag entwickelt die These, dass vieles von dem, was wir für kreativ halten, in Wahrheit routinierte Rekombination ist. Genau darin sind KI Systeme besonders gut.

    Gleichzeitig zeigen empirische Studien mit Kindern und Erwachsenen eine problematische Entwicklung.

    Kreativität verstärkt die digitale Kluft. Menschen mit hoher kreativer Kompetenz werden durch KI noch produktiver und ideenreicher. Wer damit Schwierigkeiten hat, profitiert deutlich weniger. KI gleicht diese Unterschiede nicht aus, sie kann sie sogar vergrößern.

    Der Vortrag fragt deshalb, was wir als Gesellschaft tun können, um dieser Entwicklung entgegenzuwirken. In Bildung, Wirtschaft, Kultur und im sozialen Bereich geht es darum, Kreativität nicht als Ausnahmebegabung zu behandeln, sondern als erlernbare Schlüsselkompetenz, ohne die Zukunft kaum gestaltbar ist.

  • Eröffnungsrede

    Wir dokumentieren nachfolgend die Eröffnungsrede in leicht gekürzter Form, die unser Vorstandsmitglied Sebastian Sudrow auf der IfKI-Auftaktveranstaltung am 09.10.2025 gehalten hat.

    Hallo und guten Abend. Ich begrüße Euch und Sie herzlich zur Eröffnung unseres Instituts für KI und demokratische Transformation – kurz IfKI. Mein Name ist Sebastian Sudrow. Ich bin Teil des Vorstands des gleichnamigen Vereins und darf den Auftakt übernehmen. (…)

    Beginnen möchte ich (…) – schon allein aus Transparenzgründen – mit den Personen hinter dem IfKI. Entstanden ist die Institutsidee in der Kanzlei BKP & Partner, die in der Etage über uns sitzt. Als Anwälte – und ich bin einer davon – setzen wir uns seit über 20 Jahren mit allen juristischen Facetten der Digitalisierung auseinander: vom Datenschutz bis zur Umsetzung von KI-Projekten. Zu unseren Mandantinnen und Mandanten gehören Kulturschaffende, Unternehmen, Verbände, NGOs und Start Ups, darunter auch „Datensklaven“ und „Datenfresser“, um zwei Bezeichnungen aus Buchtiteln von Constanze Kurz und Johannes Caspar zu zitieren.

    Wir sind aber nicht nur Anwälte. Wir sind auch und vor allem interessierte Menschen ohne Parteibuch, die über die aktuellen technologischen und gesellschaftlichen Umwälzungen nachdenken und dies nicht länger allein tun wollen. (…)

    Kommen wir nun zu einem kleinen Programmierfehler des IfKI. Unser Vorstand besteht derzeit aus vier älteren Männern. Dass er mit mir einen der jüngeren vorgeschickt hat, lenkt von dieser traurigen Tatsache leider nur mäßig ab. Dieser anachronistische Zustand wird allerdings nur von kurzer Dauer sein, das versprechen wir Euch und Ihnen.

    Worum geht es dem IfKI? Letztlich dreht sich unser Institut um das zwiespältige – früher hätte man gesagt: dialektische – Verhältnis von Technologie und Fortschritt. Alltagssprachlich ist oft vom „technologischen Fortschritt“ die Rede, als gehörten diese beiden Begriffe natürlich zusammen, als brächte Technik den Fortschritt oder drastischer, als erfordere Fortschritt Technologie. Historisch betrachtet ist das Verhältnis jedoch weitaus komplexer.

    Die Menschheit hat eine Reihe von Technologien hervorgebracht, die ihre jeweilige Epoche geprägt und die Zukunft nachhaltig verändert haben: zum Beispiel den Faustkeil, die Zähmung des Feuers, den Buchdruck, die Seefahrt, die Elektrizität, die industrielle Produktion, das Automobil, den Computer, die Atomkraft und das Internet. Ich weiß, diese Aufzählung ist unvollständig. Sie macht aber zwei Sachen deutlich.

    Das sind alles Errungenschaften, die das Leben in unseren Breitengraden angenehmer gemacht haben, die auf das Konto der sogenannten „Zivilisation“ einzahlten. Diese Technologien hatten und haben aber keineswegs ausschließlich positive Auswirkungen auf die Menschheit. Die Seefahrt brachte auch den Kolonialismus, die industrielle Produktion Ausbeutung und Klimakrise, das Automobil Unfälle und die Atomkraft Tschernobyl und die Atombombe.

    Und nun: künstliche Intelligenz. KI ist vielleicht unsere epochale Technologie. Sie ist wissenschaftlich beeindruckend und faszinierend. KI hilft bereits bei der Diagnose von Krankheiten und bei der Entwicklung von Medikamenten. Sie eröffnet Menschen mit Behinderungen neue Möglichkeiten der Teilhabe. Sie übersetzt in Echtzeit zwischen Sprachen und überwindet damit Verständigungsbarrieren.

    Aber ihr tatsächliches Potential ist gegenwärtig im doppelten Wortsinn Gegenstand von Spekulation. Im derzeitigen Hype scheint es so, als sei KI die Antwort auf alle Fragen, die Lösung für alle Probleme. Sie ist geopolitisch und wirtschaftlich die einzige große Wette auf die Zukunft.

    Ob KI all den überbordenden Verheißungen gerecht werden kann und ob sie irgendwann die Klimakrise oder den Fachkräftemangel löst, wie Technikoptimist:innen versprechen, wage ich zu bezweifeln.

    Large Language Models und generative KI sind nur eine mögliche Ausprägung dieser Technologie, die jedenfalls aktuell eine bemerkenswert enge Vorstellung davon aufweist, wie die Welt ist und wie sie sein sollte. Welche Form von KI entwickelt wird, welche Werte sie verkörpert und wessen Interessen sie dient – all das wird von wenigen Big-Tech-Unternehmen entschieden, von denen keines seinen Hauptsitz in Europa hat. Ihre Entscheidungen sind nicht altruistisch, sondern ideologisch und kommerziell motiviert.

    Auch der technologische Fortschritt, den wir mit KI sehen, muss in der Gesamtbilanz nicht zwingend ein gesellschaftlicher sein.

    Denn auch das ist KI: sie extrahiert alle irgendwie verfügbaren Daten und Inhalte als Rohstoff, ohne Zustimmung oder Kompensation. Sie lässt Menschen im globalen Süden als Clickworker zu Hungerlöhnen Trainingsdaten annotieren und furchtbarste Inhalte rausfiltern. KI verschlingt astronomische Mengen an Energie und Wasser für ihre Rechenzentren, während sie die ökologischen Kosten externalisiert.

    Vieles davon ist verschleiert oder unsichtbar. Aber ihre negativen Folgen für Demokratie, Rechtsstaatlichkeit, Bewusstsein, Weltverständnis, Umwelt, Bildung, Kunst oder Arbeit kündigen sich nicht an. Sie sind schon da.

    Wir brauchen nicht über AGI, Superintelligenz und langfristige Weltuntergangsszenarien zu reden, die von KI-Unternehmen in verdrehter Weise als Marketing an die Wand gemalt werden. Die Gegenwart genügt.

    KI erstellt schon heute überzeugende Phishing-Mails und Deepfake-Bilder. Sie führt zum Verschwinden von Arbeitsplätzen. Sie steuert Waffen und ausgeklügelte Überwachungssysteme.

    Sind wir wirklich bereit all das ungefragt in Kauf zu nehmen? Haben wir wirklich eine hinreichende Toleranz für all die Mittelmäßigkeit und die Fehler, mit denen die Technik den sozialen Raum flutet? Und hat Regulierung – zumal in einem fragilen geopolitischen Umfeld – überhaupt noch eine Chance?

    Über all das wollen wir im IfKI zusammen nachdenken und diskutieren. Wir haben uns überlegt, dies aus zwei Richtungen zu versuchen. Aus der Theorie mit öffentlichen Buchvorstellungen und Vorträgen und aus der Praxis mit Möglichkeiten zum Austausch im kleineren Kreis, mit Werkstattberichten und Seminaren.

    Das Institut ist dabei bewusst ein physischer Ort. Nicht aus nostalgischer Anhänglichkeit an vordigitale Zeiten, sondern aus der Überzeugung heraus, dass die Begegnung von Menschen Raum braucht. (…)

    Wir wünschen Euch und Ihnen heute Abend Erkenntnisgewinne und uns mit dem IfKI stets Offenheit und Kritikfähigkeit. Wir sind überzeugt davon, dass der Austausch von Ideen und Argumenten mehr ist als der Austausch von Datenpaketen. Diese These wollen wir heute Abend zum ersten Mal auf die Probe stellen. Vielen Dank.

  • Digitaler Kolonialismus

    Digitaler Kolonialismus mit Ingo Dachwitz vom 27.11.2025

    Wir freuen uns, dass wir für unsere zweite Veranstaltung Ingo Dachwitz gewinnen konnten. Er wird im IfKI sein Buch „Digitaler Kolonialismus: Wie Tech-Konzerne und Großmächte die Welt unter sich aufteilen“ (C.H. Beck) vorstellen, das er zusammen mit Sven Hilbig geschrieben hat. Das Werk ist für den Deutschen Sachbuchpreis 2025 nominiert.

    Innovativ, mächtig, rücksichtlos – kaum eine Geschichte wird so oft erzählt wie die vom unaufhaltsamen Aufstieg der Tech-Konzerne an die Spitze der global vernetzten Welt. Nur ein Kapitel
    wird dabei ausgelassen: Der Preis, den der Globale Süden dafür bezahlt. Der Tech-Journalist Ingo Dachwitz und der Globalisierungsexperte Sven Hilbig beleuchten diesen blinden Fleck und zeigen die weltweiten Folgen des digitalen Kolonialismus sowie bestehende Ansätze für eine gerechtere Digitalisierung auf. Soviel steht fest: AI will not fix it.

    Das Versprechen der Digitalen Revolution ist die Heilserzählung unserer Zeit. Dieses Buch erzählt eine andere Geschichte: Die des digitalen Kolonialismus. Statt physisches Land einzunehmen, erobern die heutigen Kolonialherren den digitalen Raum. Statt nach Gold und Diamanten lassen sie unter menschenunwürdigen Bedingungen nach Rohstoffen graben, die wir für unsere Smartphones benötigen. Statt Sklaven beschäftigen sie Heere von Klickarbeiter:innen, die zu Niedriglöhnen in digitalen Sweatshops arbeiten, um soziale Netzwerke zu säubern oder vermeintlich Künstliche Intelligenz am Laufen zu halten.

    Der Kolonialismus von heute mag sich sauber und smart geben, doch eines ist gleichgeblieben: Er beutet Mensch und Natur aus und kümmert sich nicht um gesellschaftliche Folgen vor Ort. Im Wettkampf der neuen Kolonialmächte ist Digitalpolitik längst zum Instrument geopolitischer Konflikte geworden – der Globale Süden gerät zwischen die Fronten.