Die technologische Entwicklung auf Feldern wie z. B. Werkstoffe, Sensorik oder Übertragungstechnik schafft neue Möglichkeiten mit erheblichen Folgen für die Autonomie von Waffensystemen. Ihre Einordnung schwankt zwischen Wundermittel und Damoklesschwert.
Eine Differenzierung autonomer Waffensysteme kann nach der Rolle des Menschen erfolgen, der diese Systeme nutzt und einsetzt. Bei semi-autonomen Systemen ist der Mensch in den Entscheidungsweg zwingend eingebunden („in the loop“), bei überwacht-autonomen Systemen kann der Mensch sich in den Entscheidungsweg einschalten („on the loop“) und bei komplett autonomen Systemen hat der Mensch keine Einwirkungsmöglichkeit mehr („out of the loop“), wobei hier das einschätzbare Funktionspotenzial und die entsprechende Zuverlässigkeit der KI im System die Hauptprobleme darstellen. Denn die Rahmenbedingungen der KI sind durch unzureichendes Kontextverständnis in komplexem Umfeld, fehlende Ethik und Uneindeutigkeit der auf nicht-deterministischen Algorithmen und Lernprozessen mittels verfügbarer Daten basierenden Systeme gekennzeichnet.
Semi-autonome Systeme finden sich heute bereits bei „Fire-and-forget-Waffen“, Aufklärungsdrohnen und Drohnenbooten. Derartige Systeme sind mittlerweile zunehmend kostengünstig und präzise in ihrer Wirkung. Sie sorgen durch ihre Aufklärungsfähigkeit für das „gläserne Gefechtsfeld“ und ermöglichen auch Einsätze in hochriskanten Szenarien. Sie abzuwehren stellt die Verteidigung vor erhebliche Herausforderungen.

Überwacht-autonome Systeme kommen heute bereits dort zum Einsatz, wo die menschliche Reaktionszeit zu langsam ist und mit der Geschwindigkeit des Gefechts nicht mithalten kann. Dies ist besonders bei Luftverteidigungssystemen gegen schnellfliegende Raketen oder Massenangriffen der Fall, wo die autonomen Systeme selbständig Ziele suchen und identifizieren, der Mensch dann nur noch den letztendlichen Einsatzbefehl erteilt und die Waffen freigibt.
Komplett autonome Waffensysteme betreibt offiziell bisher keine Nation, es gibt jedoch deutliche Entwicklungen in diese Richtung, zumal sich die Grenzen zwischen den Kategorien autonomer Systeme zunehmend vermischen oder überlappen.
Autonome Systeme gibt es auch im Cyber- und Informationsraum. Beispiele sind Trojaner, Viren und Bots, die autonom nach Schwachstellen suchen, sich ausbreiten und sehr schnell grenzüberschreitend und massiv agieren. In ihrer destabilisierenden und sabotierenden Wirkung können sie sogar kinetische Waffen übertreffen.
Die Entwicklung autonomer Systeme zielt auf Effizienzsteigerung: schneller, genauer, störfester. Im offensiven Einsatz können durch längere Verweil- und Beobachtungsdauer in Zielgebieten hochriskanter Szenarien „chirurgisch präzise“ Waffeneinsätze durchgeführt, somit auch Kollateralschäden vermindert und eigene menschliche Verluste vermieden werden. Eine besondere Spezies stellt die „herumlungernde Munition“ (loitering munition) dar, also autonome „Kamikaze-Drohnen“.
Risiken liegen u. a. im Entstehen einer nahezu nicht kalkulierbaren Verantwortungslücke, der grundsätzlichen Gefahr einer Absenkung der Hemmschwelle, wachsender Proliferationsrisiken aufgrund Verwendung kostengünstiger Dual-Use Technologie, maliziöser Manipulation von Daten für den notwendigen Lernprozess der KI-gestützten Systeme und unzureichenden Verfahren zum Nachweis (Zertifizierung) der Funktionsfähigkeit und Zuverlässigkeit von verwendeter Software. Im Grunde ist eine durchgehende menschliche Kontrolle in allen Lebensphasen der Systeme, vom Planungs-/Entstehungsgang bis zum scharfen Einsatz, erforderlich. Angesichts einer dramatischen Zunahme von Geschwindigkeiten im operativen Geschehen können Menschen bei Führung von Einsätzen kognitiv und hinsichtlich ihres Reaktionsvermögens an ihre Grenzen kommen. In Stresssituationen und unter Zeitdruck könnte das Einsatzpersonal dann im Zweifel Entscheidungen an autonome Systeme abgeben („automation bias“) und im Extremfall automatisierte Eskalationsspiralen („flash war“) auslösen.
Versuche, den Einsatz autonomer, KI-gestützter Systeme durch völkerrechtliche Regelungen einzuhegen, waren bisher nicht erfolgreich. Insbesondere die konkrete operationelle Ausgestaltung des Prinzips der menschlichen Kontrolle, komplexe Herausforderungen bezüglich einer wirksamen Rüstungskontrolle und Offenheit gegenüber technologischen Innovationen waren dabei unüberwindliche Stolpersteine. Bei den ethisch-moralischen Aspekten haben sich Forderungen nach gewisser zeitlicher und räumlicher Nähe zwischen letzter menschlicher Entscheidung und der konkreten, ggf. letalen Waffenwirkung sowie die weiterhin ungelöste Problematik eines zuverlässigen Ethikmoduls in autonomen Systemen als äußerst schwierige Hindernisse erwiesen.

Die Bundeswehr verfügt bisher nur wenige autonome Systeme, wie z.B. Aufklärungs-drohnen. Nach mehrjähriger Diskussion über die Beschaffung bewaffneter Drohnen hat das Bundesverteidigungsministerium dem Deutschen Bundestag im Dezember 2024 zumindest Grundsätze für den Einsatz derartiger Drohnen zugeleitet. Die Einsicht, dass bewaffnete Drohnen künftig in sehr starkem Maße ein Kriegsbild bestimmen werden, kommt in unserem Land sehr spät. Es ist zudem unverkennbar, dass Deutschland gerade auch bei luftgestützten Drohnen im Grunde noch über keine hinreichenden Abwehrfähigkeiten verfügt.
Die NATO hat bereits 2021 in ihrer Strategie zu KI-Leitlinien für autonome Waffensysteme definiert. Letale autonome Waffensysteme unterliegen – wie alle anderen Waffensysteme – den geltenden Normen des humanitären Völkerrechts (Art. 36 des Zusatzprotokolls der Genfer Konvention). Das gilt somit auch für potenzielle Einsätze autonomer Systeme durch die Bundeswehr. Die jeweils von der Politik zu billigenden Einsatzregeln (Rules of Engagement, RoE) müssen diesen Vorgaben genügen.
Keine Armee der Welt kann es sich künftig leisten, sich nicht mit dem Thema KI und autonome Waffensysteme zu befassen. Nach der Erfindung des Schießpulvers und der Atombombe können KI-gestützte autonome Waffensysteme als dritte militärische Revolution angesehen werden. Nicht zuletzt durch die Verfügbarkeit umfänglicher Dual-Use-Technologie für solche Systeme besitzen heute schätzungsweise bereits 95 Staaten und zudem auch terroristische Organisationen autonome Waffensysteme. Vor diesem Hintergrund müssen Deutschland und Europa künftig auf jeden Fall in der Lage sein, Angriffe mit KI-gestützten Waffensystemen wirksam abzuwehren.
Das Bemühen um zuverlässige Kontrolle, hinreichende Beherrschung der Technologie und angemessene Verantwortung für den Einsatz autonomer Systeme bleibt auch weiterhin eine schwierige Daueraufgabe. Da die Algorithmik und Effizienz von KI-Systemen maßgeblich von Daten für die Lernprozesse (auch für das Nachtrainieren) der Systeme bestimmt werden, kommt vor allem auch dem Militär – als Nutzer der Technologie – eine entscheidende Rolle zu.
Angesichts der sich inzwischen dramatisch veränderten internationalen Sicherheitslage besteht auch in unserem Land dringender Handlungsbedarf, die politischen, strategischen und operationellen Voraussetzung zur Integration KI-gestützter autonomer Waffensysteme in die gesamtstaatliche Sicherheitsvorsorge zu schaffen.
