Direkt zum Inhalt springen

Diskurs

Mittwoch, 19.04.2023

Kommentar zur KI-Stellungnahme

Machines Don’t Give You Goose Bumps

Künstliche Intelligenz (KI) muss reguliert werden - im Sinne der Gesamtgesellschaft wie auch der schöpferisch Tätigen.

Die explosionsartige Entwicklung generativer Künstlicher Intelligenz (KI) überfordert die in der EU bislang auf den Weg gebrachten Regulierungsansätze. Während Berlin nach wie vor keinen Handlungsbedarf sieht, wurde der europäische Ansatz zu einem Zeitpunkt konzipiert, als Ausmaß, Neugier/Akzeptanz und Folgen generativer KI nicht absehbar waren. Inzwischen ist klar, dass die mittelbaren und unmittelbaren Folgen Anlass zu großer Sorge geben.

Durch die grundsätzlichen Prinzipien und die konkreten Erzeugnisse generativer KI werden gesellschaftlicher Zusammenhalt, die Konstruktion unserer Weltbeschreibungen und Wahrheitskonzepte und nicht zuletzt unsere Vorstellungen von schöpferischem Geist, Fantasie und Kreativität als Ausdruck menschlicher Identität infrage gestellt. Wirklichkeitsverzerrungsinstrumente in den Händen für europäische Regulierer kaum greifbarer nicht-europäischer Konzernstrukturen, ein Frontalangriff auf die Existenzgrundlagen der schöpferisch Tätigen unter missbräuchlicher Verwendung ihrer Gesamtrepertoires: KI wirft unangenehme Fragen auf; nicht wenige davon zurückzuführen auf die Frage nach dem wesenhaften Unterschied zwischen Mensch und Maschine, nach Identität und Intelligenz. Zentraler Gegenstand der KI-Regulierung muss daher die generative KI sein, Mensch und Gesellschaft müssen im Fokus jeder Bemühung stehen.

Zu unterscheiden ist zwischen Input, also den Trainingsdaten, und Output, also den KI-generierten Erzeugnissen. Der Inputlevel entspricht der technologischen Basis generativer KI, den sog. Foundation Models, auf denen die meisten konkreten Anwendungen aufsetzen. Die bedeutsamen Foundation Models befinden sich ausnahmslos im Besitz weniger Konzerne, darunter Microsoft und Google. Von ihnen hat nicht eines seinen Sitz in der EU; sie gehören zu den Unternehmen, die als digitale Gatekeeper bereits heute zentrale Strukturen des Netzes kontrollieren. Diesen Unternehmen muss die zentrale Verantwortung und Haftung für Input und Output generativer KI zugewiesen werden; es ist inakzeptabel, dass die Unternehmen diese Verantwortung auf KI-Entwickler, Nutzer:innen und Gesellschaft abwälzen.

Safety Disaster

Da das Trainingsmaterial, mit dem die Foundation Models gefüttert werden, nicht kuratiert oder auf seinen Wahrheitsgehalt überprüft ist, sondern alles abbildet, was im Netz zu finden ist, reproduziert es jede gesellschaftliche Unwucht und Ungerechtigkeit und birgt erhebliches Potenzial von Missbrauch im Sinne von Desinformation, Manipulation, Cybercrime und mehr. Nicht alle Risiken sind dabei in den Systemen selbst begründet; die Nutzer:innen neigen zu „Overreliance“, also unangemessen weit reichendem und mitunter bedenkenlosem Vertrauen zu digitalen Gegenständen aller Art.

Seit ChatGPT und Dall-E öffentlich zugänglich gemacht wurden, explodiert die Nachfrage. ChatGPT erreichte binnen drei Monaten 100 Millionen aktive User weltweit: beispiellos. Wer nun auch immer, aus Neugier oder um Kosten zu sparen, mit dem System arbeitet, trainiert es gleichzeitig und füttert es mit seinen persönlichen Daten. Die Risiken generativer KI wachsen mit dem Umfang der Nutzung bzw. mit dem daraus resultierenden Größenzuwachs der Foundation Models. Diese Risiken betreffen ganz unmittelbar auch die von der IU repräsentierten Urheber:innen und ausübenden Künstler:innen.

Die Trainingskorpora bestehen zwar nicht vollständig aus urheberrechtlich geschützten Werken und Aufnahmen, umfassen diese jedoch quasi vollumfänglich, jedenfalls soweit wie im Netz verfügbar - und das im Wesentlichen ohne Genehmigung und ohne Vergütung. Die Verwendung digitaler kultureller Güter als Trainingsdaten treibt folgerichtig die zweite Entwicklung voran, die für Urheber:innen und ausübende Künstler:innen und ihre administrativen Partner:innen existenzbedrohend ist: Der Output generativer KI konkurriert ab Erscheinen mit den Werken, die zu seiner Erzeugung herangezogen wurden. Schon bald wird es für die Unternehmen sehr viel günstiger sein, die Inhalte für die eigenen Plattformen selbst herzustellen als die Repertoires Dritter zu lizenzieren.

“No one should be expected or obliged to promote competition against himself.”

So entsteht eine Situation, in der wir unentgeltlich und ohne zugestimmt zu haben, die Maschinen trainieren, die uns mittelfristig die Existenzgrundlage rauben sollen und die Gesellschaft vor fundamentale Probleme stellen werden. Damit stellen sich zwingende Fragen nach Verantwortung und Haftung für KI-generierten Output sowie nach Provenienz und Legalität der Trainingsdaten (Input).

Auf europäischer Ebene liegt eine der Ursachen für die aktuelle Situation in der fehlgeleiteten Regelung zu Text and Data Mining (TDM), die die EU mit der Urheberrechtsrichtlinie von 2019 auf den Weg brachte. Längst ist klar, dass die Annahme, es handele sich bei dem ermöglichten Massenabgriff digitalisierter kultureller Güter um gemeinwohlorientierte Handlungen mit minimalem Schadenspotenzial, ein folgenschwerer Trugschluss war. TDM muss dem aktuellen Erkenntnisstand angepasst werden; Urheber:innen und ausübende Künstler:innen brauchen Erlaubnisvorbehalte, Lizenzierungen sind zu vergüten, nicht eingeräumte Nutzungsrechte müssen sanktionierbar sein, was eine Transparenz vonseiten der Anbieter voraussetzt.

Die gegen den erbitterten Widerstand der europäischen Urheberverbände verabschiedeten TDM-Regelungen treffen auf hanebüchene Annahmen über schöpferische Prozesse. Viele Menschen scheinen zu meinen, Werke, Interpretationen und Aufnahmen fielen vom Himmel.

Stellen Sie sich ein kulturelles Werk wie einen Eisberg vor: Die sichtbare Oberfläche ist ein winziger Teil des überwiegend unter der Oberfläche liegenden Bergs an unsichtbarer, teils lebenslanger Arbeit. Generative KI reproduziert lediglich die über der Oberfläche gelegenen Spitzen der ihr bekannten Berge. Sie ahmt nach, ohne zu verstehen; daher wird sie gelegentlich als „stochastischer Papagei“ bezeichnet. Thomas Höppner schreibt in seiner Stellungnahme für die IU:

While generative AI is based on predictions, the highest proportionalities, people's artistic and journalistic works stand out for their unpredictability: contextualisation, social and cultural location and highly individual attribution of meaning. Authors and performers add something new and unheard, unseen, unpredicted and untold to life and culture. In other words: machines don’t give you goose bumbs. But if they take over and monetize human works, there may soon not be many human creators left that do.“

Da offenbar das Wissen über unsere kreativen Prozesse ebenso unzulänglich ist wie das Bewusstsein für die Bedeutung der auf Basis unserer schöpferischen Prozesse stattfindenden materiellen und ideellen Wertschöpfung, reklamieren wir einen Platz am Verhandlungstisch für uns. Die schöpferisch Tätigen müssen eingebunden sein in die Entscheidungen über ihre eigene Zukunft.

Das kontinentaleuropäische Urheberrecht ist, anders als das angloamerikanische Copyright, an natürliche Personen gebunden; daher können die Erzeugnisse generativer KI keine „Werke“ im urheberrechtlichen Sinne sein: sie wurden nicht von Menschen geschöpft. Anders verhält es sich mit den Gegenständen, die lediglich unter Zuhilfenahme einer KI geschaffen werden; hier wird der „Prompter“, also derjenige, der die KI als Instrument nutzt, Urheber:in sein.

Zentrale Forderungen im Überblick:

Künstliche Intelligenz muss reguliert werden - im Sinne der Gesamtgesellschaft wie auch der schöpferisch Tätigen.

Sie muss JETZT reguliert werden, d.h. im Zuge der Arbeit am AI Act, denn das Zeitfenster für eine gelingende Regulierung wird sich bald schließen.

Gegenstand sinnvoller KI-Regulierung muss generative KI sein; im Mittelpunkt jeder Entscheidung müssen die Bürger:innen und die Gesellschaft stehen.

• Der Schutz des Geistigen Eigentums gehört zu den durch die Charta der Menschenrechte geschützten Grundrechten; daher muss das existierende Urheberrecht im Umgang mit Input wie Output von KI-Systemen berücksichtigt werden.

• Zu unterscheiden ist generative KI von „general purpose AI“, sowie Input von Output.

• Ein relevanter Teil der technischen Infrastruktur zum Training und zur Generierung von KI-Erzeugnissen sollte auf europäischem Boden verortet sein und europäischem Recht unterliegen.

INPUT-Regulierung:

• Etablierung eines gesetzlichen Vergütungsanspruchs gegenüber Entwicklern / Anbietern von generativer KI.

• Verbindliche Etablierung eines funktionalen und umfassenden Systems zur Verwaltung und granularen Kommunikation von Nutzungsrechten / Lizenzen.

•Transparenz: Sicherstellen und überprüfbar machen, dass sämtliche Trainingsdaten legal und legitim sind, d.h. weder gegen DSGVO noch gegen geltendes Urheberrecht verstoßen.

• Proporz: Die Anbieter der Foundation Models sollten hinsichtlich der Beschaffenheit der Trainingskorpora folgende Anteile garantieren:

- Mindestmenge europäischer Trainingsdaten;

=> Mindestmenge professionell geschaffener Werke und Interpretationen;

=> Mindestmenge davon unter der Bedingung redaktioneller Verantwortung.

OUTPUT-Regulierung:

• Grundsätzlich muss eine lückenlose Haftung für jedweden generierten Inhalt gewährleistet und zugewiesen sein.

• Die für eine die Erzeugnisse einer generativen KI konkret verwendeten Trainingsdaten sind transparent zu dokumentieren. Für jede solche Nutzung muss eine Vergütung an die Urheber:innen und ausübenden Künstler:innen der Vorlage fließen.

• Generativen KI-Systemen, die geeignet sind, die öffentliche Meinung zu beeinflussen, etwa durch Desinformation, müssen besondere Pflichten auferlegt werden.

• Die KI-Welt wird derzeit nach den Prinzipien bekannter Plattformsysteme entwickelt; dadurch sind Entscheidungsbefugnisse und Wertschöpfung an die (Upstream-) Betreiber der zugrundeliegenden Foundation Models gebunden, während sie versuchen, Verantwortung und Haftung auf die (Downstream-) KI-Entwickler abwälzen, die lediglich auf den Foundation Models aufsetzen. => Die grundsätzliche Haftung für generative KI muss daher bei den Upstream-Betreibern liegen; nur so ist die Effektivität der Regulierung zu gewährleisten.

• Trennung von Geistigem Eigentum und Plattformbesitz: Untersagung struktureller Bevorzugung KI-generierter Inhalte auf Plattformen für den Zugang zu Inhalten, die in der Kontrolle oder im Zugriff der Betreiber der Foundation Models liegen.

Wenn wir Leitplanken aufstellen, welche die gangbaren Wege ausweisen und die Grenzen des Zulässigen aufzeigen, wenn wir Verantwortung zuweisen und das Recht durchsetzbar gestalten, können wir als Gesellschaft einen Umgang mit der neuen Technologie finden. Im günstigsten Fall dient uns die Notwendigkeit, uns jetzt gemeinschaftlich über unsere Essentials zu verständigen, sogar als Impuls, unsere Zukunft wieder beherzter und im Sinne aller zu gestalten.

Matthias Hornschuh, Komponist, Sprecher der Kreativen in der Initiative Urheberrecht

(Fehlerbereinigte Textfassung vom 20.04.2023, mh)

Pressekontakt: info@urheber.info