Die technologische Entwicklung auf Feldern wie z. B. Werkstoffe, Sensorik oder Ăbertragungstechnik schafft neue Möglichkeiten mit erheblichen Folgen fĂŒr die Autonomie von Waffensystemen. Ihre Einordnung schwankt zwischen Wundermittel und Damoklesschwert.
Eine Differenzierung autonomer Waffensysteme kann nach der Rolle des Menschen erfolgen, der diese Systeme nutzt und einsetzt. Bei semi-autonomen Systemen ist der Mensch in den Entscheidungsweg zwingend eingebunden (âin the loopâ), bei ĂŒberwacht-autonomen Systemen kann der Mensch sich in den Entscheidungsweg einschalten (âon the loopâ) und bei komplett autonomen Systemen hat der Mensch keine Einwirkungsmöglichkeit mehr (âout of the loopâ), wobei hier das einschĂ€tzbare Funktionspotenzial und die entsprechende ZuverlĂ€ssigkeit der KI im System die Hauptprobleme darstellen. Denn die Rahmenbedingungen der KI sind durch unzureichendes KontextverstĂ€ndnis in komplexem Umfeld, fehlende Ethik und Uneindeutigkeit der auf nicht-deterministischen Algorithmen und Lernprozessen mittels verfĂŒgbarer Daten basierenden Systeme gekennzeichnet.
Semi-autonome Systeme finden sich heute bereits bei âFire-and-forget-Waffenâ, AufklĂ€rungsdrohnen und Drohnenbooten. Derartige Systeme sind mittlerweile zunehmend kostengĂŒnstig und prĂ€zise in ihrer Wirkung. Sie sorgen durch ihre AufklĂ€rungsfĂ€higkeit fĂŒr das âglĂ€serne Gefechtsfeldâ und ermöglichen auch EinsĂ€tze in hochriskanten Szenarien. Sie abzuwehren stellt die Verteidigung vor erhebliche Herausforderungen.

Ăberwacht-autonome Systeme kommen heute bereits dort zum Einsatz, wo die menschliche Reaktionszeit zu langsam ist und mit der Geschwindigkeit des Gefechts nicht mithalten kann. Dies ist besonders bei Luftverteidigungssystemen gegen schnellfliegende Raketen oder Massenangriffen der Fall, wo die autonomen Systeme selbstĂ€ndig Ziele suchen und identifizieren, der Mensch dann nur noch den letztendlichen Einsatzbefehl erteilt und die Waffen freigibt.
Komplett autonome Waffensysteme betreibt offiziell bisher keine Nation, es gibt jedoch deutliche Entwicklungen in diese Richtung, zumal sich die Grenzen zwischen den Kategorien autonomer Systeme zunehmend vermischen oder ĂŒberlappen.
Autonome Systeme gibt es auch im Cyber- und Informationsraum. Beispiele sind Trojaner, Viren und Bots, die autonom nach Schwachstellen suchen, sich ausbreiten und sehr schnell grenzĂŒberschreitend und massiv agieren. In ihrer destabilisierenden und sabotierenden Wirkung können sie sogar kinetische Waffen ĂŒbertreffen.
Die Entwicklung autonomer Systeme zielt auf Effizienzsteigerung: schneller, genauer, störfester. Im offensiven Einsatz können durch lĂ€ngere Verweil- und Beobachtungsdauer in Zielgebieten hochriskanter Szenarien âchirurgisch prĂ€ziseâ WaffeneinsĂ€tze durchgefĂŒhrt, somit auch KollateralschĂ€den vermindert und eigene menschliche Verluste vermieden werden. Eine besondere Spezies stellt die âherumlungernde Munitionâ (loitering munition) dar, also autonome âKamikaze-Drohnenâ.
Risiken liegen u. a. im Entstehen einer nahezu nicht kalkulierbaren VerantwortungslĂŒcke, der grundsĂ€tzlichen Gefahr einer Absenkung der Hemmschwelle, wachsender Proliferationsrisiken aufgrund Verwendung kostengĂŒnstiger Dual-Use Technologie, maliziöser Manipulation von Daten fĂŒr den notwendigen Lernprozess der KI-gestĂŒtzten Systeme und unzureichenden Verfahren zum Nachweis (Zertifizierung) der FunktionsfĂ€higkeit und ZuverlĂ€ssigkeit von verwendeter Software. Im Grunde ist eine durchgehende menschliche Kontrolle in allen Lebensphasen der Systeme, vom Planungs-/Entstehungsgang bis zum scharfen Einsatz, erforderlich. Angesichts einer dramatischen Zunahme von Geschwindigkeiten im operativen Geschehen können Menschen bei FĂŒhrung von EinsĂ€tzen kognitiv und hinsichtlich ihres Reaktionsvermögens an ihre Grenzen kommen. In Stresssituationen und unter Zeitdruck könnte das Einsatzpersonal dann im Zweifel Entscheidungen an autonome Systeme abgeben (âautomation biasâ) und im Extremfall automatisierte Eskalationsspiralen (âflash warâ) auslösen.
Versuche, den Einsatz autonomer, KI-gestĂŒtzter Systeme durch völkerrechtliche Regelungen einzuhegen, waren bisher nicht erfolgreich. Insbesondere die konkrete operationelle Ausgestaltung des Prinzips der menschlichen Kontrolle, komplexe Herausforderungen bezĂŒglich einer wirksamen RĂŒstungskontrolle und Offenheit gegenĂŒber technologischen Innovationen waren dabei unĂŒberwindliche Stolpersteine. Bei den ethisch-moralischen Aspekten haben sich Forderungen nach gewisser zeitlicher und rĂ€umlicher NĂ€he zwischen letzter menschlicher Entscheidung und der konkreten, ggf. letalen Waffenwirkung sowie die weiterhin ungelöste Problematik eines zuverlĂ€ssigen Ethikmoduls in autonomen Systemen als Ă€uĂerst schwierige Hindernisse erwiesen.

Die Bundeswehr verfĂŒgt bisher nur wenige autonome Systeme, wie z.B. AufklĂ€rungs-drohnen. Nach mehrjĂ€hriger Diskussion ĂŒber die Beschaffung bewaffneter Drohnen hat das Bundesverteidigungsministerium dem Deutschen Bundestag im Dezember 2024 zumindest GrundsĂ€tze fĂŒr den Einsatz derartiger Drohnen zugeleitet. Die Einsicht, dass bewaffnete Drohnen kĂŒnftig in sehr starkem MaĂe ein Kriegsbild bestimmen werden, kommt in unserem Land sehr spĂ€t. Es ist zudem unverkennbar, dass Deutschland gerade auch bei luftgestĂŒtzten Drohnen im Grunde noch ĂŒber keine hinreichenden AbwehrfĂ€higkeiten verfĂŒgt.
Die NATO hat bereits 2021 in ihrer Strategie zu KI-Leitlinien fĂŒr autonome Waffensysteme definiert. Letale autonome Waffensysteme unterliegen â wie alle anderen Waffensysteme â den geltenden Normen des humanitĂ€ren Völkerrechts (Art. 36 des Zusatzprotokolls der Genfer Konvention). Das gilt somit auch fĂŒr potenzielle EinsĂ€tze autonomer Systeme durch die Bundeswehr. Die jeweils von der Politik zu billigenden Einsatzregeln (Rules of Engagement, RoE) mĂŒssen diesen Vorgaben genĂŒgen.
Keine Armee der Welt kann es sich kĂŒnftig leisten, sich nicht mit dem Thema KI und autonome Waffensysteme zu befassen. Nach der Erfindung des SchieĂpulvers und der Atombombe können KI-gestĂŒtzte autonome Waffensysteme als dritte militĂ€rische Revolution angesehen werden. Nicht zuletzt durch die VerfĂŒgbarkeit umfĂ€nglicher Dual-Use-Technologie fĂŒr solche Systeme besitzen heute schĂ€tzungsweise bereits 95 Staaten und zudem auch terroristische Organisationen autonome Waffensysteme. Vor diesem Hintergrund mĂŒssen Deutschland und Europa kĂŒnftig auf jeden Fall in der Lage sein, Angriffe mit KI-gestĂŒtzten Waffensystemen wirksam abzuwehren.
Das BemĂŒhen um zuverlĂ€ssige Kontrolle, hinreichende Beherrschung der Technologie und angemessene Verantwortung fĂŒr den Einsatz autonomer Systeme bleibt auch weiterhin eine schwierige Daueraufgabe. Da die Algorithmik und Effizienz von KI-Systemen maĂgeblich von Daten fĂŒr die Lernprozesse (auch fĂŒr das Nachtrainieren) der Systeme bestimmt werden, kommt vor allem auch dem MilitĂ€r â als Nutzer der Technologie â eine entscheidende Rolle zu.
Angesichts der sich inzwischen dramatisch verĂ€nderten internationalen Sicherheitslage besteht auch in unserem Land dringender Handlungsbedarf, die politischen, strategischen und operationellen Voraussetzung zur Integration KI-gestĂŒtzter autonomer Waffensysteme in die gesamtstaatliche Sicherheitsvorsorge zu schaffen.










