Diskurs
Dienstag, 22.07.2025
Erste Einschätzung des finalen Code of Practice
Code of Practice weiterhin unbefriedigend
Erste Bewertung des finalen Code of Practice aus Sicht von Urheber:innen und Künstler:innen (wie auch vielen Rechteinhaber) übt unter anderem Kritik an fehlender Verbindlichkeit der „Copyright Policy“, unzureichenden Regelungen zu TDM-Opt-Outs und vielem mehr.
1. Unzureichende Verpflichtung zur Offenlegung konkreter Trainingsdaten
Zwar sieht der Code gemäß Art. 53 Abs. 1 lit. d) AI Act eine verpflichtende Zusammenfassung der verwendeten Inhalte („Training Content Summary“) vor, die praktische Umsetzung bleibt jedoch unkonkret. Die Dokumentation beschränkt sich auf allgemeine Angaben zur Herkunft der Daten (z. B. „Web Crawling“) und zur Art des Inhalts (z. B. Text, Bild). Eine Verpflichtung zur Nennung konkreter Datensätze, Domains oder Quellen (z. B. URLs, ISBN, ISSN, ISCC, Werkdatenbanken) fehlt vollständig. Damit sind die bereitgestellten Informationen in tatsächlichen Rechtsstreitigkeiten praktisch nicht verwertbar (vgl. Measure 1.2 (Transparency)).
Folge: Rechteinhaber können weder feststellen, ob ihre Werke im Training verwendet wurden, noch Rechte auf Auskunft, Lizenzierung oder Unterlassung effektiv durchsetzen.
2. Keine Klarstellung zur Rechtsgrundlage der Datenverwendung
Es bleibt offen, ob sich Anbieter auf Art. 3 oder 4 der DSM-Richtlinie berufen. Dies ist besonders problematisch, da bei Nutzungen unter Art. 3 der DSM-Richtlinie (wissenschaftliche Zwecke) kein Opt-Out-Recht besteht.
3. Unzureichende Regelung zu TDM-Opt-Outs
Es fehlt eine Liste praktikabler, maschinenlesbarer Opt-Out-Methoden, an die sich Provider verbindlich halten müssen. Der Verweis auf robots.txt ist veraltet und unpraktisch; der weitere Verweis auf eine angekündigte Standardisierung anderer Methoden birgt das Risiko einer jahrelangen Schutzlücke zu Lasten der Rechteinhaber. Der Verweis auf bestehendes Recht hilft dabei wenig (Measure 1.3 (2)).
4. Weitreichende Open-Source-Ausnahme (Art. 53 Abs. 2 AI Act)
Die im AI Act angelegte Ausnahme für GPAI-Modelle, die unter einer Open-Source-Lizenz veröffentlicht werden, wurde im Code nicht praktisch anwendbar gemacht. Dies ermöglicht Anbietern, sich durch strategische Offenlegung ihrer Modelle pauschal von Transparenz- und Dokumentationspflichten zu befreien, selbst bei Verwendung urheberrechtlich geschützter Trainingsdaten. Vorschläge der Rechteinhaberverbände zur Einführung klarer Definitionen und Beweislastregeln wurden nicht berücksichtigt.
5. Fehlende Verbindlichkeit der „Copyright Policy“
Measure 1.1 (Copyright) verpflichtet GPAI-Anbieter zur Veröffentlichung einer sogenannten „Copyright Policy“, deren konkreter Inhalt aber noch nicht verbindlich geregelt ist. Es bestehen keine Mindestanforderungen hinsichtlich der Offenlegung von verwendeten Werken, Lizenzen, TDM-Opt-Outs oder konkreten Umgangsweisen mit urheberrechtlich geschützten Inhalten. Zudem muss diese Policy nicht öffentlich zugänglich gemacht werden, wie dies etwa bei Impressumspflichten oder anderen Pflichtinformationen gehandhabt wird. Damit bleibt die Copyright Policy ein freiwilliges Dokument ohne überprüfbare Substanz und ohne praktischen Nutzen für Rechteinhaber.
6. Keine Unterscheidung zwischen legal und illegal beschafften Trainingsdaten
Die Model Documentation Form verlangt Angaben zur „Data Provenance“ (z. B. öffentlich, privat, synthetisch, Web Crawl), ohne jedoch festzuhalten, ob diese Daten rechtmäßig verwendet wurden (z. B. lizenziert, gemeinfrei oder durch Schranken erlaubt). Maßnahme 1.2 (Copyright) verlangt lediglich, dass Websites, die wiederholt in kommerziellem Umfang Urheberrechtsverletzungen begehen und und dafür bei den EU-Behörden gelistet sind, vom Crawling ausgeschlossen werden müssen. Rechtlich relevante Informationen werden dadurch durch formale Herkunftskategorien ersetzt, ohne dass Rückschlüsse auf die tatsächliche Rechtmäßigkeit der Datennutzung möglich sind.
7. Mangelnde Nachvollziehbarkeit in Fine-Tuning-Szenarien
Die Transparenzpflichten für nachgelagerte Anbieter, insbesondere bei fine-tuned Modellen bleiben schwach: Es wird klargestellt, dass deren Dokumentationspflichten sich nur auf die Modifikationen beziehen. Es bleibt unklar, in welchen Fällen und durch welche Akteure geschützte Inhalte verarbeitet wurden. Die Verantwortlichkeit wird entlang der Modellkette fragmentiert, sodass Rechteinhaber letztlich keine haftbaren Ansprechpartner mehr identifizieren können, weil einer auf den anderen verweist – ein klassischer Fall des „St.-Florians-Prinzips“.
8. Keine effektiven Auskunftsrechte für Rechteinhaber
Weder Hinweise zur Durchsetzung von gesetzlichen Informationsansprüchen noch ein förmliches Beschwerdeverfahren beim AI Office sind vorgesehen. Die in Measure 1.5 vorgesehene Möglichkeit, sich an einen elektronischen Kontaktpunkt zu wenden, führt nicht zu durchsetzbaren Konsequenzen und kann folgenlos ignoriert werden.
9. Kritik am Entstehungsprozess („Drafting Process“)
- Problematische Besetzung der Leitungsgremien
Trotz formeller Anforderungen an Unabhängigkeit wurden mehrere Chairs und Vice-Chairs von US-amerikanischen Forschungseinrichtungen und mit enger Anbindung an KI-Anbieter berufen. Dies widerspricht dem europäischen Mandat und stellte Rechteinhaber aus der EU strukturell ins Hintertreffen. Rechteinhaber aus der EU mussten sich transparent mit Lobby-Nummern anmelden, Chairs und individuelle Experten dagegen nicht einmal Affiliationen offenlegen.
- Fehlende Offenlegung von Interessenbindungen individueller Experten
Ca. ein Drittel der Teilnehmenden traten als „individual experts“ auf, ohne ihre institutionellen oder finanziellen Bindungen offenlegen zu müssen. Nur ca. 6 % der Teilnehmenden vertraten explizit Rechteinhaber.
- Intransparente Sondertreffen mit KI-Anbietern
AI Provider erhielten Zugang zu bilateralen Sitzungen mit den Chairs der Arbeitsgruppen. Rechteinhabergruppen wurden von vergleichbaren Formaten ausgeschlossen.
- Unverhältnismäßige Beteiligung der Industrie bei gleichzeitig übergroßen Gruppen
Über 1.400 Teilnehmende im Drafting Prozess und durchschnittlich 255 pro Arbeitsgruppentreffen verhinderten einen substantiellen, ausgewogenen Dialog. Kleinere Organisationen und die Zivilgesellschaft wurden faktisch marginalisiert, deren schriftliche Stellungnahmen wurden inhaltlich kaum berücksichtigt.
- Keine unabhängige juristische und technische Prüfung
Trotz der Komplexität der Regelungen wurden weder unabhängige Rechtsgutachten noch strukturierte Machbarkeitsanalysen eingeholt. Argumente der Industrie zu technischen Hürden (z. B. Argumente zu angeblich nicht machbaren Auskünften) blieben unwidersprochen und wurden nicht überprüft.
Sabine Richly, MBA, LL.M.
Sabine.richly@medialaw.digital
21.7.2025
Initiative Urheberrecht (Authors‘ Rights Initiative)
katharina.uppenbrink@urheber.info | www.urheber.info
Köthener Straße 44 / 2. Etage | D-10963 Berlin
Tel.: +49 160 9095 4016
Rund 140.000 Urheber:innen und ausübende Künstler:innen – über unsere mehr als 40 Mitgliedsorganisationen: www.urheber.info
Pressekontakt: info@urheber.info
Mehr Diskurs
Montag, 18.03.2019
NewsManifest für die EU-Urheberrechtsreform und ein faires Netz
Update | Die Europaabgeordnete der Grünen, Helga Trüpel, hat gemeinsam mit 78 Abgeordneten des EU-Parlaments und mehreren hundert Kreativen ein „Manifest für ein offenes und faires Netz“ veröffentlicht ...
Weiterlesen
Donnerstag, 27.02.2025
NewsNew publication by Prof Dr Dornis and Prof Dr Stober in English
Generative AI, TDM and the phenomenon of training data memorization

This article highlights key findings on generative models, addresses copyright concerns related to training data memorization, and suggests how ISMIR can promote fair practices in generative AI for all stakeholders.
Weiterlesen