Direkt zum Inhalt springen

Diskurs

Donnerstag, 15.06.2023

Gesetz über künstliche Intelligenz (AI Act)

EU-Parlament beschließt seine Verhandlungsposition

Am 14. Juni 2023 verabschiedete das Europäische Parlament seine Verhandlungsposition zum Gesetz über künstliche Intelligenz (AI Act).

Die Abstimmung erfolgte mit 499 Ja-Stimmen, 28 Nein-Stimmen und 93 Enthaltungen. Nun folgen Trilog-Verhandlungen mit den EU-Mitgliedstaaten über die endgültige Ausgestaltung des Gesetzes.

Die Regeln sollen sicherstellen, dass die in Europa entwickelte und genutzte KI in vollem Einklang mit den Rechten und Werten der EU steht, einschließlich menschlicher Aufsicht, Sicherheit, Privatsphäre, Transparenz, Nichtdiskriminierung sowie sozialem und ökologischem Wohlergehen, heißt es in der Pressemitteilung des EU-Parlaments.

Die Regeln folgen einem risikobasierten Ansatz und legen Verpflichtungen für Anbieter und diejenigen fest, die KI-Systeme einsetzen, abhängig vom Grad des Risikos, das die KI erzeugen kann. KI-Systeme, die ein unzumutbares Risiko für die Sicherheit von Menschen darstellen, wären daher verboten, etwa solche, die für das Social Scoring (Klassifizierung von Menschen anhand ihres Sozialverhaltens oder persönlicher Merkmale) eingesetzt werden.

Das EU-Parlament will, dass die Klassifizierung von Anwendungen mit hohem Risiko nun auch KI-Systeme umfasst, die einen erheblichen Schaden für die Gesundheit, Sicherheit, Grundrechte oder die Umwelt der Menschen darstellen. KI-Systeme zur Beeinflussung von Wählern und Wahlergebnissen sowie in Empfehlungssystemen von Social-Media-Plattformen (mit über 45 Millionen Nutzern) wurden in die Hochrisikoliste aufgenommen.

Anbieter von Basismodellen – einer neuen und sich schnell entwickelnden Entwicklung im Bereich der KI – müssten mögliche Risiken (für Gesundheit, Sicherheit, Grundrechte, Umwelt, Demokratie und Rechtsstaatlichkeit) bewerten und mindern und ihre Modelle in der EU registrieren EU-Datenbank vor ihrer Veröffentlichung auf dem EU-Markt.

Generative KI-Systeme, die auf solchen Modellen basieren, wie ChatGPT, müssten Transparenzanforderungen erfüllen (offenlegen, dass der Inhalt KI-generiert wurde, und dabei helfen, sogenannte Deep-Fake-Bilder von echten zu unterscheiden) und Schutzmaßnahmen gegen die Generierung illegaler Inhalte gewährleisten. Detaillierte Zusammenfassungen der für ihre Ausbildung verwendeten urheberrechtlich geschützten Daten müssten ebenfalls öffentlich zugänglich gemacht werden.

Pressekontakt: info@urheber.info