Vorschlag des Europäischen Parlaments zum Verordnungsvorschlag der Europäischen Kommission zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz
der Abgeordneten Barbara Benkstein, Eugen Schmidt, Edgar Naujok, Steffen Janich, Beatrix von Storch und der Fraktion der AfD
Vorbemerkung
Die EU-Kommission veröffentlichte im April 2021 einen Verordnungsvorschlag zu künstlicher Intelligenz (KI) (COM(2021) 206 final (Volltext unter eur-lex.europa.eu/resource.html?uri=cellar:e0649735-a372-11eb-9585-01aa75ed71a1.0019.02/DOC_1&format=PDF, im Folgenden „AI Act“ genannt), der einen einheitlichen Rechtsrahmen für die Entwicklung und Nutzung dieser Technologie in den Mitgliedstaaten der Europäischen Union etablieren möchte. Wesentliches Element des Vorschlags ist die Einstufung von KI-Systemen in verschiedene Risikoklassen entlang ihres mutmaßlichen Schädigungspotenzials. KI-Anwendungen, die einer unzumutbar hohen Risikoklasse zugeordnet werden, wie etwa Sozialkreditsysteme oder Anwendungen zur biometrischen Fernidentifizierung in Echtzeit, sollen dem Kommissionsvorschlag entsprechend nicht zugelassen werden. Der Verordnungsvorschlag ist Gegenstand der Trilogverhandlungen zwischen der EU-Kommission, dem EU-Parlament und dem EU-Rat (urheber.info/diskurs/eu-parlament-beschliesst-seine-verhandlungsposition); über Letzteren ist die Bundesregierung an den Verhandlungen beteiligt.
Die Veröffentlichung des Textgenerators Chat GPT der US-amerikanischen Firma Open AI im November 2022 hat nach Auffassung der Fragesteller die Verhandlungen über den AI Act einerseits intensiviert, andererseits verzögert. Speziell die Anwendungen generativer KI, zu denen Chat GPT zu zählen wäre, haben die Diskussion über die Chancen und Risiken künstlicher Intelligenz sowie ihrer Regulierung auf eine neue Ebene gehoben. Mit der Veröffentlichung von Chat GPT wird für die breite Öffentlichkeit erstmals nachvollziehbar, wozu KI-Algorithmen heutzutage bereits imstande sind. Zwischenzeitlich haben zahlreiche Informatiker zu einem Moratorium der Forschung an großen KI-Modellen aufgerufen; diese seien bereits heute so mächtig, dass sich die Menschheit Zeit zum Reflektieren ihrer Entwicklung nehmen müsse (futureoflife.org/open-letter/pause-giant-ai-experiments/).
Das EU-Parlament (EP) hat im Juni 2023 einen eigenen Kompromissvorschlag für den AI Act vorgelegt (www.europarl.europa.eu/news/de/press-room/20230609IPR96212/parlament-bereit-fur-verhandlungen-uber-regeln-fur-sichere-und-transparente-ki). Danach sollen Anwendungen zur Echtzeit-Fernidentifizierung generell verboten und auch KI-Anwendungen zur vorausschauenden Polizeiarbeit in der Strafverfolgung und beim Grenzschutz untersagt sein. Ebenso sollen KI-Anwendungen, die das Verhalten von Menschen am Arbeitsplatz auswerten, verboten sein. Ein gesondert aufgenommener Artikel 28b des EP-Vorschlags widmet sich Lösungen generativer KI (www.europarl.europa.eu/meetdocs/2014_2019/plmrep/COMMITTEES/CJ40/DV/2023/05-11/ConsolidatedCA_IMCOLIBE_AI_ACT_EN.pdf, S. 39–41, im Text auch „foundation models“ genannt). Hier wird eine Offenlegung für KI-generierte Inhalte gefordert, zudem soll urheberrechtlich geschütztes Material, das zum Training der Algorithmen verwendet wurde, detailliert aufgelistet werden.
Wir fragen die Bundesregierung:
Fragen12
Hat sich die Bundesregierung bereits eine Position zu generativer KI gebildet, die sie in den Trilogverhandlungen zum AI Act vertreten wird, und wenn ja, wie sieht diese aus (siehe Vorbemerkung der Fragesteller, bitte ausführen)?
Worin bestehen nach Auffassung der Bundesregierung mögliche Risiken bei Anwendungen speziell generativer KI, wie sie etwa durch die Software Chat GPT repräsentiert werden, sodass eine gesonderte Regulierung gerechtfertigt wäre (bitte ausführen)?
Hat die Bundesregierung Kenntnis vom vorgeschlagenen Forschungsmoratorium zu künstlicher Intelligenz, und wenn ja, teilt sie die in diesem Aufruf artikulierte Sorge vor einer potenziell zu mächtigen und unkontrollierbaren generativen KI (siehe Vorbemerkung der Fragesteller, bitte ausführen), und wenn ja, hält die Bundesregierung a) das vorgeschlagene Moratorium für einen geeigneten Weg, b) das angesprochene Moratorium weltweit für durchsetzbar?
Ist die Bundesregierung der Auffassung, dass der Vorschlag des EU-Parlamentes, speziell der neu vorgeschlagene Artikel 28b des AI Acts, die mutmaßlichen Risiken generativer KI angemessen und ausgewogen berücksichtigt und diesen mit geeigneten Maßnahmen begegnet (bitte ausführen)?
Wie schätzt die Bundesregierung die vorgeschlagene Verpflichtung ein, dass Produzenten generativer KI jene urheberrechtlich geschützten Dokumente, die sie zum Training ihrer Algorithmen benutzt haben, detailliert auflisten müssen (Vorschlag EU-Parlament, a. a. O., Artikel 28b, Absatz 4, Satz c)?
Ist die Bundesregierung der Auffassung, dass die im Vorschlag des EU-Parlamentes (a. a. O., Artikel 28b, Absatz 4, Satz a) bekräftigte (und bereits in allgemeiner Form in COM(2021) 206 final, Artikel 52, Absatz 1 enthaltene) Forderung nach einer Kennzeichnungspflicht für KI-generierte Texte, Bilder, Klangfolgen und Videos geeignet ist, das Vertrauen der Bevölkerung in KI-Algorithmen zu festigen (bitte ausführen)?
Ist die Bundesregierung der Auffassung, dass öffentlich zugängliche digitale Daten deutscher und europäischer Internetnutzer – etwa in Form von Tweets, Kommentaren, Forenbeiträgen, Anfragen, Blogtexten oder Videos –, die von Technologiekonzernen mutmaßlich zum Trainieren ihrer KI-Algorithmen verwendet werden, schützenswertes Eigentum der Internetnutzer seien und dass diese an der Monetarisierung ihrer digitalen Daten zu beteiligen wären (bitte ausführen)?
Ist die Bundesregierung der Auffassung, das mutmaßliche Risiko, das von Anwendungen generativer KI ausgehe, lasse sich differenzieren in ein Risiko durch Unzuverlässigkeit, ein Risiko eines Missbrauchs sowie systemische Risiken (zur Unterscheidung und ihren Kriterien siehe www.stiftung-nv.de/de/publikation/governing-general-purpose-ai-comprehensive-map-unreliability-misuse-and-systemic-risks, S. 3), und wenn ja, ist die Bundesregierung der Auffassung, dass der vorgeschlagene Artikel 28b des EU-Parlamentes zum AI Act dieser Risikodifferenzierung gerecht wird (siehe Vorbemerkung der Fragesteller, bitte ausführen)?
Wie steht die Bundesregierung zu der Vorstellung, in den neu vorgeschlagenen Artikel 28b des AI Acts die bisher nicht erhobene Forderung nach der Einrichtung von Schnittstellen für die unabhängige Forschung aufzunehmen, mit dem Ziel, über das dergestalt zu rekonstruierende Funktionieren der Algorithmen generativer KI das Vertrauen der Bevölkerung in diese Technologie zu stärken (siehe Vorbemerkung der Fragesteller, bitte ausführen)?
Wie steht die Bundesregierung zu der Vorstellung, das eigentliche Risiko, dem Deutschland in Bezug auf generative KI ausgesetzt sei, bestehe darin, dass die USA und China den dynamischen Markt für diese Technologie alsbald dominieren werden, wenn Deutschland nicht entschlossen in generative KI investiere (bitte ausführen)?
Ist die Bundesregierung der Auffassung, dass der vorliegende Artikel 28b des Vorschlags des EU-Parlamentes zum AI Act flexibel und zugleich konkret genug formuliert ist, um der zu erwartenden hoch dynamischen Entwicklung des Marktes für generative KI auch künftig Rechnung zu tragen (siehe Vorbemerkung der Fragesteller, bitte ausführen)?
Geht die Bundesregierung davon aus, dass die Trilogverhandlungen zum AI Act noch im laufenden Jahr 2023, also vor den Wahlen zum EU-Parlament im kommenden Jahr 2024, abgeschlossen sein werden (bitte ausführen)?