Deutsche Atlantische Gesellschaft e.V.

Sicherheitspolitische und strategische Bedeutung von KĂŒnstlicher Intelligenz (KI) und autonomen Waffensystemen

Am 26. 02. 2025 hielt Herr Generalleutnant a.D. Kurt Herrmann im Forum Mainz einen Vortrag zur sicherheitspolitischen und strategischen Bedeutung von autonomen Waffensystemen unter Einsatz von KĂŒnstlicher Intelligenz (KI).

Atlantic Talk Podcast abonnieren:
RSS-Feed Apple Podcast Spotify

Die technologische Entwicklung auf Feldern wie z. B. Werkstoffe, Sensorik oder Übertragungstechnik schafft neue Möglichkeiten mit erheblichen Folgen fĂŒr die Autonomie von Waffensystemen. Ihre Einordnung schwankt zwischen Wundermittel und Damoklesschwert.


Eine Differenzierung autonomer Waffensysteme kann nach der Rolle des Menschen erfolgen, der diese Systeme nutzt und einsetzt. Bei semi-autonomen Systemen ist der Mensch in den Entscheidungsweg zwingend eingebunden („in the loop“), bei ĂŒberwacht-autonomen Systemen kann der Mensch sich in den Entscheidungsweg einschalten („on the loop“) und bei komplett autonomen Systemen hat der Mensch keine Einwirkungsmöglichkeit mehr („out of the loop“), wobei hier das einschĂ€tzbare Funktionspotenzial und die entsprechende ZuverlĂ€ssigkeit der KI im System die Hauptprobleme darstellen. Denn die Rahmenbedingungen der KI sind durch unzureichendes KontextverstĂ€ndnis in komplexem Umfeld, fehlende Ethik und Uneindeutigkeit der auf nicht-deterministischen Algorithmen und Lernprozessen mittels verfĂŒgbarer Daten basierenden Systeme gekennzeichnet.


Semi-autonome Systeme finden sich heute bereits bei „Fire-and-forget-Waffen“, AufklĂ€rungsdrohnen und Drohnenbooten. Derartige Systeme sind mittlerweile zunehmend kostengĂŒnstig und prĂ€zise in ihrer Wirkung. Sie sorgen durch ihre AufklĂ€rungsfĂ€higkeit fĂŒr das „glĂ€serne Gefechtsfeld“ und ermöglichen auch EinsĂ€tze in hochriskanten Szenarien. Sie abzuwehren stellt die Verteidigung vor erhebliche Herausforderungen.


Überwacht-autonome Systeme kommen heute bereits dort zum Einsatz, wo die menschliche Reaktionszeit zu langsam ist und mit der Geschwindigkeit des Gefechts nicht mithalten kann. Dies ist besonders bei Luftverteidigungssystemen gegen schnellfliegende Raketen oder Massenangriffen der Fall, wo die autonomen Systeme selbstĂ€ndig Ziele suchen und identifizieren, der Mensch dann nur noch den letztendlichen Einsatzbefehl erteilt und die Waffen freigibt.


Komplett autonome Waffensysteme betreibt offiziell bisher keine Nation, es gibt jedoch deutliche Entwicklungen in diese Richtung, zumal sich die Grenzen zwischen den Kategorien autonomer Systeme zunehmend vermischen oder ĂŒberlappen.
Autonome Systeme gibt es auch im Cyber- und Informationsraum. Beispiele sind Trojaner, Viren und Bots, die autonom nach Schwachstellen suchen, sich ausbreiten und sehr schnell grenzĂŒberschreitend und massiv agieren. In ihrer destabilisierenden und sabotierenden Wirkung können sie sogar kinetische Waffen ĂŒbertreffen.
Die Entwicklung autonomer Systeme zielt auf Effizienzsteigerung: schneller, genauer, störfester. Im offensiven Einsatz können durch lĂ€ngere Verweil- und Beobachtungsdauer in Zielgebieten hochriskanter Szenarien „chirurgisch prĂ€zise“ WaffeneinsĂ€tze durchgefĂŒhrt, somit auch KollateralschĂ€den vermindert und eigene menschliche Verluste vermieden werden. Eine besondere Spezies stellt die „herumlungernde Munition“ (loitering munition) dar, also autonome „Kamikaze-Drohnen“.


Risiken liegen u. a. im Entstehen einer nahezu nicht kalkulierbaren VerantwortungslĂŒcke, der grundsĂ€tzlichen Gefahr einer Absenkung der Hemmschwelle, wachsender Proliferationsrisiken aufgrund Verwendung kostengĂŒnstiger Dual-Use Technologie, maliziöser Manipulation von Daten fĂŒr den notwendigen Lernprozess der KI-gestĂŒtzten Systeme und unzureichenden Verfahren zum Nachweis (Zertifizierung) der FunktionsfĂ€higkeit und ZuverlĂ€ssigkeit von verwendeter Software. Im Grunde ist eine durchgehende menschliche Kontrolle in allen Lebensphasen der Systeme, vom Planungs-/Entstehungsgang bis zum scharfen Einsatz, erforderlich. Angesichts einer dramatischen Zunahme von Geschwindigkeiten im operativen Geschehen können Menschen bei FĂŒhrung von EinsĂ€tzen kognitiv und hinsichtlich ihres Reaktionsvermögens an ihre Grenzen kommen. In Stresssituationen und unter Zeitdruck könnte das Einsatzpersonal dann im Zweifel Entscheidungen an autonome Systeme abgeben („automation bias“) und im Extremfall automatisierte Eskalationsspiralen („flash war“) auslösen.


Versuche, den Einsatz autonomer, KI-gestĂŒtzter Systeme durch völkerrechtliche Regelungen einzuhegen, waren bisher nicht erfolgreich. Insbesondere die konkrete operationelle Ausgestaltung des Prinzips der menschlichen Kontrolle, komplexe Herausforderungen bezĂŒglich einer wirksamen RĂŒstungskontrolle und Offenheit gegenĂŒber technologischen Innovationen waren dabei unĂŒberwindliche Stolpersteine. Bei den ethisch-moralischen Aspekten haben sich Forderungen nach gewisser zeitlicher und rĂ€umlicher NĂ€he zwischen letzter menschlicher Entscheidung und der konkreten, ggf. letalen Waffenwirkung sowie die weiterhin ungelöste Problematik eines zuverlĂ€ssigen Ethikmoduls in autonomen Systemen als Ă€ußerst schwierige Hindernisse erwiesen.


Die Bundeswehr verfĂŒgt bisher nur wenige autonome Systeme, wie z.B. AufklĂ€rungs-drohnen. Nach mehrjĂ€hriger Diskussion ĂŒber die Beschaffung bewaffneter Drohnen hat das Bundesverteidigungsministerium dem Deutschen Bundestag im Dezember 2024 zumindest GrundsĂ€tze fĂŒr den Einsatz derartiger Drohnen zugeleitet. Die Einsicht, dass bewaffnete Drohnen kĂŒnftig in sehr starkem Maße ein Kriegsbild bestimmen werden, kommt in unserem Land sehr spĂ€t. Es ist zudem unverkennbar, dass Deutschland gerade auch bei luftgestĂŒtzten Drohnen im Grunde noch ĂŒber keine hinreichenden AbwehrfĂ€higkeiten verfĂŒgt.


Die NATO hat bereits 2021 in ihrer Strategie zu KI-Leitlinien fĂŒr autonome Waffensysteme definiert. Letale autonome Waffensysteme unterliegen – wie alle anderen Waffensysteme – den geltenden Normen des humanitĂ€ren Völkerrechts (Art. 36 des Zusatzprotokolls der Genfer Konvention). Das gilt somit auch fĂŒr potenzielle EinsĂ€tze autonomer Systeme durch die Bundeswehr. Die jeweils von der Politik zu billigenden Einsatzregeln (Rules of Engagement, RoE) mĂŒssen diesen Vorgaben genĂŒgen.


Keine Armee der Welt kann es sich kĂŒnftig leisten, sich nicht mit dem Thema KI und autonome Waffensysteme zu befassen. Nach der Erfindung des Schießpulvers und der Atombombe können KI-gestĂŒtzte autonome Waffensysteme als dritte militĂ€rische Revolution angesehen werden. Nicht zuletzt durch die VerfĂŒgbarkeit umfĂ€nglicher Dual-Use-Technologie fĂŒr solche Systeme besitzen heute schĂ€tzungsweise bereits 95 Staaten und zudem auch terroristische Organisationen autonome Waffensysteme. Vor diesem Hintergrund mĂŒssen Deutschland und Europa kĂŒnftig auf jeden Fall in der Lage sein, Angriffe mit KI-gestĂŒtzten Waffensystemen wirksam abzuwehren.


Das BemĂŒhen um zuverlĂ€ssige Kontrolle, hinreichende Beherrschung der Technologie und angemessene Verantwortung fĂŒr den Einsatz autonomer Systeme bleibt auch weiterhin eine schwierige Daueraufgabe. Da die Algorithmik und Effizienz von KI-Systemen maßgeblich von Daten fĂŒr die Lernprozesse (auch fĂŒr das Nachtrainieren) der Systeme bestimmt werden, kommt vor allem auch dem MilitĂ€r – als Nutzer der Technologie – eine entscheidende Rolle zu.


Angesichts der sich inzwischen dramatisch verĂ€nderten internationalen Sicherheitslage besteht auch in unserem Land dringender Handlungsbedarf, die politischen, strategischen und operationellen Voraussetzung zur Integration KI-gestĂŒtzter autonomer Waffensysteme in die gesamtstaatliche Sicherheitsvorsorge zu schaffen.

Zu Gast:

Generalleutnant a.D. Dipl.-Inform. (univ.) Kurt Herrmann

Kurt Herrmann nahm in seiner aktiven Dienstzeit als LuftwaffenuniformtrĂ€ger vielfĂ€ltige Verwendungen in der Logistik, in den FĂŒhrungsdiensten und im militĂ€rpolitischen Bereich auf unterschiedlichen Stabs- und FĂŒhrungsebenen wahr. Insbesondere als Planer fĂŒr Informationssysteme im FĂŒhrungsstab der Luftwaffe, Referatsleiter fĂŒr RaumgestĂŒtzte AufklĂ€rung im FĂŒhrungsstab der StreitkrĂ€fte (FĂŒ S), Kommandeur des Kommandos Strategische AufklĂ€rung und Direktor der NATO CIS Services Agency hat er sich intensiv mit Themen des Cyber- und Informationsraums befasst. Als Planungsstabsoffizier fĂŒr StreitkrĂ€fteplanung bei SHAPE, Referent fĂŒr militĂ€rpolitische Angelegenheiten im FĂŒ S, Leiter der MilitĂ€rischen Verbindungsmission der NATO zur Russischen Föderation in Moskau und, nach seiner Pensionierung, als PrĂ€sident der Clausewitz-Gesellschaft e.V., erwarb er vielfĂ€ltige sicherheitspolitische Erfahrungen.

Weitere Informationen erhalten Sie von:

Michael Simon

BĂŒroleitung · Referent
Wenzelgasse 42 · 53111 Bonn
0228 – 62 50 31
0228 – 61 66 04

Elisabet Tsirkinidou M.A.

BĂŒroleitung · Referentin
LennĂ©straße 11 · 10785 Berlin
030 20649-134
030 20649-136
Bildnachweise fĂŒr diese Seite
 Copyright
IMG-20250227-WA0001 Markus Grubert und Oliver Wicklandt IMG-20250227-WA0001-scaled-e1741084470372-150x150.jpg
IMG-20250227-WA0021_A Markus Grubert und Oliver Wicklandt IMG-20250227-WA0021_A-150x150.jpg
IMG-20250227-WA0023 Markus Grubert und Oliver Wicklandt IMG-20250227-WA0023-150x150.jpg
IMG-20250227-WA0025_A Markus Grubert und Oliver Wicklandt IMG-20250227-WA0025_A-150x150.jpg
Michael Simon Leonhard Simon michael-simon-150x150.jpg
Foto ET 2023_1 Leo Simon foto-et-2023_1-150x150.jpg
CS Mitgliederversammlung 4 DAG / Andreas Schwarz CS-Mitgliederversammlung-4-150x150.png
FĂŒr Abbildungen, die hier nicht gelistet sind, ist kein Urheber-Nachweis notwendig, oder wir selbst sind der Urheber.
Double Opt-in by Forge12