BundestagKleine Anfragen
Zurück zur Übersicht
Kleine AnfrageWahlperiode 21Beantwortet

Nationale und internationale Regulierung bei dem Einsatz von KI-Technologie, Drohnen und Loitering-Munition

(insgesamt 18 Einzelfragen)

Fraktion

AfD

Ressort

Bundesministerium der Verteidigung

Datum

01.04.2026

Aktualisiert

10.04.2026

BT21/471617.03.2026

Nationale und internationale Regulierung bei dem Einsatz von KI-Technologie, Drohnen und Loitering-Munition

Kleine Anfrage

Volltext (unformatiert)

Deutscher Bundestag Drucksache 21/4716 21. Wahlperiode 17.03.2026 Kleine Anfrage Abgeordneten Gerold Otten, Udo Theodor Hemmelgarn, Dr. Malte Kaufmann, Stefan Keuter, Heinrich Koch, Achim Köhler, Dr. Rainer Rothfuß, Uwe Schulz, René Springer, Diana Zimmer und der Fraktion der AfD Nationale und internationale Regulierung bei dem Einsatz von KI-Technologie, Drohnen und Loitering Munition Die Schaffung einheitlicher Standards für autonome Waffensysteme (LAWS), Drohnen und Loitering Munition stellt die deutsche Diplomatie vor große Herausforderungen. Im Rahmen der UN-Waffenkonvention (CCW) verhandelt die Group of Governmental Experts (GGE) über die Definition von LAWS und die Notwendigkeit strikter Verbote (https://disarmament.unoda.org/en/updates/briefing-chair-c cw-gge-laws-margins-first-committee). Doch der Prozess ist mühsam: Da Entscheidungen im Konsens getroffen werden müssen, führen Blockaden durch Staaten, die die Technologieführerschaft bei KI besitzen oder andere strategische Schwerpunkte setzen, dazu, dass der Entscheidungsfindungsprozess schleppend vorankommt. Im Fokus steht im Jahr 2026 die Ausarbeitung konkreter Elemente für ein rechtliches Instrument, das der siebten Überprüfungskonferenz vorgelegt werden soll. Parallel dazu hat sich mit der REAIM (Responsible AI in the Military Domain)-Serie eine agile Plattform jenseits der starren UN-Strukturen etabliert. REAIM konzentriert sich auf die Erarbeitung von Normen und Best Practices. Beim jüngsten Gipfel im Februar 2026 im spanischen A Coruña wurden die sogenannten Pathways for Action weiter konkretisiert (https://www.exteriores. gob.es/en/REAIM2026/Documents/REAIM%202026Prozent20Pathways%20to %20Action.pdf). Auffällig bleibt für die Fragesteller hierbei die Rolle der USA. Die aktuelle National Defense Strategie sowie die am 9. Januar 2026 publizierte Artificial Intelligence Strategy for the Department of War verabschieden sich wortwörtlich von einem utopischen Idealismus und setzen an dessen Stelle einen nüchternen Realismus (www.justsecurity.org/129936/third-reaim-summit/, hier auch beide Dokumente). Auf der Ebene der NATO steht weniger die Frage des Verbots als vielmehr die operative Handlungsfähigkeit im Vordergrund. Das „Data and AI Review Board“ (DARB) setzt verbindliche Standards für die Mitgliedstaaten, um die Interoperabilität von KI-Systemen, Drohnenschwärmen und Loitering Munition sicherzustellen. Ziel ist ein reibungsloser Datenaustausch im Netzwerk, der gleichzeitig den ethischen Leitplanken des Bündnisses entspricht (www.nato.in t/en/about-us/official-texts-and-resources/official-texts/2022/10/13/natos-data-a nd-artificial-intelligence-review-board). Die wirtschaftliche Dimension der Rüstungskontrolle wird primär über das Wassenaar Arrangement gesteuert (www.wassenaar.org). Als zentrales Instrument der Exportkontrolle regelt es den Transfer von Dual-Use-Gütern. Gleichwohl befindet es sich in seiner schwersten Krise seit der Gründung. Das einst schlagkräftige Instrument zur Kontrolle von Rüstungs- und Dual-Use-Gütern leidet unter einer gefährlichen Mischung aus diplomatischer Lähmung (Konsensprinzip) und technologischem Zeitdruck (Forschungssprünge bei Quantencomputing und Agentic AI). Wichtige Akteure wie die USA und die EU warten nicht mehr auf den internationalen Konsens. Sie haben 2025 begonnen, unilaterale Listen einzuführen (https://eur-lex.europa.eu/legal-content/DE/TXT/?uri= CELEX:32025R2003). Das Ergebnis ist nach Auffassung der Fragesteller ein regulatorischer Flickenteppich, der Unternehmen vor enorme bürokratische Hürden stellt. Die Europäische Union möchte sich als moralische Instanz und Akteur positionieren. Während die EU über den Europäischen Verteidigungsfonds (EDF) ethische Mindeststandards für geförderte Rüstungsprojekte durchzusetzen versucht, befindet sich der EU AI Act in der Umsetzungsphase (https://digital-strat egy.ec.europa.eu/en/policies/regulatory-framework-ai). Dieser verpflichtet die Mitgliedstaaten zur Wahrung von Menschenrechten und Rechtsstaatlichkeit beim KI-Einsatz – eine Vorgabe, die zunehmend auch die Beschaffung von Systemen für den Grenzschutz und die innere Sicherheit beeinflusst. Der Bereich der Verteidigung wurde bewusst ausgespart. Die kürzlich bekannt gegebene Beschaffung von Loitering Munition ist in den Augen der Fragesteller ein bemerkenswerter Schritt, da sich die vorigen Regierungskoalitionen über fast zwei Jahrzehnte sehr schwergetan haben, der Bundeswehr bewaffnete Drohnen zur Verfügung zu stellen (www.hartpunkt.de/loite ring-munition-bundeswehr/). Diese Beschaffung macht es für die Fragesteller nötig, Aspekte der deutschen KI-Strategie zu erfragen. Die bisherige Position ist in ihren Augen von Widersprüchlichkeiten geprägt. Einerseits strebt die Bundesregierung eine internationale Vorreiterrolle bei ethischen Standards an, andererseits erkennt sie die militärische Notwendigkeit an, im Wettbewerb mit Systemen aus Russland oder China nicht den technologischen Anschluss zu verlieren. Im nationalen Diskurs geht es um das Dogma der signifikanten menschlichen Kontrolle, also des „Human in the Loop“-Paradoxons (ethische Pflicht zur menschlichen Kontrolle bei gleichzeitig geforderter algorithmischer Geschwindigkeit, siehe Jeffrey Shaffer/ University of Cincinnati www.linkedi n.com/pulse/my-ai-diary-one-day-time-19-jeffrey-shaffer-uu5gc#:~:text=The% 20Paradox%20Unfolds:%20When%20Oversight,be%20more%20detrimental% 20than%20beneficial.), und einer Ethik- statt einer Counter-AI-Fokussierung. Das, gepaart mit der bürokratischen Trägheit (im Gegensatz zu den schnelllebigen KI-Zyklen), Forschungsengpässen (Zivilklauseln an Universitäten, finanzielle Förderung von Forschung und Entwicklung) und Datenarmut durch Datenschutz und mangelnder Digitalisierung, wird nach Ansicht der Fragesteller mittelfristig eine große Herausforderung darstellen. Wir fragen die Bundesregierung:  1. Gibt es auf Bundesebene Institutionen oder sind solche geplant, die ebenso wie in Frankreich die Agentur AMIAD (Agence ministérielle pour l' intelligence artificielle de défense) das vorhandene Know-how bündeln, um KI zu skalieren und für die Streitkräfte zu operationalisieren?  2. Wie stellt die Bundesregierung sicher, dass in künftigen, aber heute bereits absehbaren Szenarien (etwa dem massiven Ausbau von Drohnenschwärmen, bei denen die signifikante menschliche Kontrolle nicht mehr möglich ist), die Effizienz des Waffensystems zur Abwehr dieser Bedrohungen nicht leidet, ist diese Gefahr nach Auffassung der Bundesregierung gegeben, und wenn nein, warum nicht?  3. Wie nimmt die Bundesregierung ggf. Einfluss auf das Training von KI für Systeme, die in der Bundeswehr genutzt werden bzw. erprobt oder eingeführt werden sollen?  4. Wer trägt nach Ansicht der Bundesregierung die völkerrechtliche Verantwortung, wenn ein autonom agierendes System aufgrund eines Softwarefehlers oder „Halluzinationen“ der KI zivile Ziele angreift, ist dies nach Kenntnis der Bundesregierung im Völkerrecht hinreichend geklärt, und wer wird in solchen Fällen haftbar gemacht?  5. Wie wird gewährleistet, dass der Deutsche Bundestag beim möglichen künftigen Einsätzen KI-gestützter Systeme im Ausland (Krisenmanagement etc.) nicht nur über das Budget, sondern auch über die ethischen Einsatzregeln (Rules of Engagement) im Detail entscheidet?  6. Verlangt die Bundeswehr von Herstellern wie Helsing oder Rheinmetall die Offenlegung der Quellcodes, um sicherzustellen, dass keine versteckten Funktionen oder „Backdoors“ in der KI existieren?  7. Wie verhindert Deutschland ggf., dass KI-gestützte Software für Drohnen, die im Inland unter strengen Auflagen entwickelt wurde, durch „Dual Use“-Lücken oder Software-Updates im Ausland ohne Kontrolle für vollautonome Kriegsführung genutzt wird?  8. Welche Lehren zieht die Bundesregierung aus der jahrelangen Diskussion um die Bewaffnung von Drohnen mit Blick auf die heutigen Herausforderungen durch KI?  9. Nimmt die Bundeswehr regelmäßig eine Abwägung zwischen den Risiken einer Nutzung von KI und einer Nichtnutzung von KI vor, was sind die Leitlinien dieser Abschätzung? 10. Was sind die Eckpunkte der unverbindlichen „Best Practices“ bei der Regulierung von LAWS? 11. Welche der auf dem REAIM-Gipfel im Februar 2026 in Spanien verabschiedeten Punkte des „Pathways for Action“ will die Bundesregierung in nationale Gesetze oder Bundeswehr-Vorschriften überführen? 12. Wann wird die „Governance für AI“ in der Bundeswehr vorliegen, und in welchen Abständen wird diese Governance überprüft und aktualisiert? 13. Welchen Umfang (Seiten) wird dieses Dokument („Governance für AI“) im Vergleich zum entsprechenden US-Strategiepapier (https://media.defen se.gov/2026/Jan/12/2003855671/-1/-1/0/ARTIFICIAL-INTELLIGENCE- STRATEGY-FOR-THE-DEPARTMENT-OF-WAR.PDF) haben, und wenn es sich stark unterscheidende Umfänge geben sollte, warum dieser auffallende Unterschied in der Seitenzahl, und welche inhaltlichen Gründe gibt es? 14. Wie bewertet die Bundesregierung das Risiko, dass durch die massive Beschaffung von KI-unterstützter Loitering Munition durch NATO-Staaten eine neue Rüstungs- und damit eine potenzielle Eskalationsspirale in der ungesteuerten KI-Rüstung (z. B. mit China oder Russland) ausgelöst wird (https://wehrtechnik.info/loitering-munitions-kamikazedrohnen/)? 15. Werden die Trainingsdaten für KI-Algorithmen (z. B. von Helsing oder Stark Defence), die von den deutschen Streitkräften derzeit getestet oder künftig verwendet werden, innerhalb Deutschlands gespeichert und kontrolliert, oder fließen diese Daten in Cloud-Strukturen von Nicht-EU- Partnern ab? 16. Wie stellt die Bundesregierung sicher, dass durch die technische Angleichung an US-amerikanische oder britische KI-Standards die bisher angewandten nationalen ethischen Einsatzkriterien (z. B. das Verbot vollautonomer Angriffe) nicht technisch „ausgehebelt“ werden? 17. Durch wen wird Deutschland bei den Verhandlungen bei den UN (Group of Governmental Experts) sowie bei REAIM-Gipfeln sowie auf der NATO-Ebene vertreten, auf welcher Ebene sind diese Gespräche angebunden? 18. Wie stellen das Auswärtige Amt und das Bundesministerium der Verteidigung ein Höchstmaß an Kohärenz sicher, wenn Deutschland in Genf (UN) für Verbote eintritt, während man gleichzeitig auf Ebene der NATO technische Standards für genau diese autonomen Systeme mitentwickelt? Berlin, den 16. März 2026 Dr. Alice Weidel, Tino Chrupalla und Fraktion Gesamtherstellung: H. Heenemann GmbH & Co. KG, Buch- und Offsetdruckerei, Bessemerstraße 83–91, 12103 Berlin, www.heenemann-druck.de Vertrieb: Bundesanzeiger Verlag GmbH, Postfach 10 05 34, 50445 Köln, Telefon (02 21) 97 66 83 40, Fax (02 21) 97 66 83 44, www.bundesanzeiger-verlag.de ISSN 0722-8333

Ähnliche Kleine Anfragen