Sicherheitspolitische und strategische Bedeutung von Künstlicher Intelligenz und autonomen Waffensystemen: Wundermittel oder Damoklesschwert? – RK WEST am 30.10.2023

Künstliche Intelligenz (KI) in ihren unterschiedlichen Spielarten beeinflusst bereits heute maßgeblich Wirtschaft und Gesellschaft. Auch im militärischen Bereich gewinnt KI zunehmend an Bedeutung und erlaubt u.a. die Entwicklung autonomer Waffensysteme. Es war daher überfällig, sich im RK WEST mit diesem Phänomen zu befassen. Im ersten Vortrag zu dieser Thematik hat Generalleutnant a.D. Kurt Herrmann, ehem. Präsident der Clausewitz-Gesellschaft, die sicherheitspolitische und strategische Bedeutung dieser Technologien dargestellt und einen breitgefassten Überblick über deren Potenziale vermittelt.

Begriffsdefinitionen

Der Referent stellte die Definitionen der Begriffe „Künstliche Intelligenz (KI)“, „Automatisierte Systeme“ und „Autonome Systeme“ und deren Abgrenzungen an den Anfang seiner Ausführungen. Dabei unterschied er – mit etlichen Beispielen unterlegt – zwischen schwacher KI, deren Algorithmen und Lernverhalten auf die Lösung konkreter Anwendungsfälle spezialisiert sind, und starker KI, die über vergleichbare intellektuelle Fähigkeiten wie der Mensch verfügt und logisches Denken, Lernen, Planen und Kreativität imitieren kann. KI schafft die Grundlagen sowohl für automatisierte als auch für autonome Waffensysteme.

Der Begriff „Automatisierung“ bezeichnet einen selbständigen, aber vorher festgelegten technischen Vorgang. Auf unvorhergesehene Ereignisse können automatisierte Systeme, wie sie in vielfältiger Art auch im militärischen Bereich genutzt werden, jedoch nicht selbständig reagieren. Sie werden z.B. bei der zeitkritischen Erfassung und Auswertung großer Datenmengen aus unterschiedlichen Quellen eingesetzt. Sie ermöglichen schnelle Reaktionen auf Gefährdungen und Bedrohungen und liefern z.B. wichtige Entscheidungshilfen im Führungsprozess.

„Autonome Systeme“ dagegen sind in der Lage, in einer realen Umgebung selbständig ohne externe Kontrolle zu handeln. Lethal Automous Weapon Systems (LAWS) können nach Aktivierung ohne weitere menschliche Einwirkung Ziele selbständig erfassen und bekämpfen. Sie werden auch als die dritte Revolution in der Kriegsführung bezeichnet.
Bei autonomen Waffensystemen unterscheidet man zwischen semi-autonomen (human in the loop), bei denen die Zielauswahl und Aktivierung durch einen Menschen erfolgt (fire and forget), überwachten autonomen (human on the loop), die Zielauswahl und Bekämpfung selbständig vornehmen jedoch unter ständiger menschlicher Überwachung und komplett autonomen. Bei den letzteren erfolgen Zielauswahl und Bekämpfung eigenständig ohne direkte Eingriffsmöglichkeit durch einen Menschen. Künftige Systeme sollen dann auch durch “Erfahrung” lernen und so ihre Funktionsweise anpassen und ggf. erweitern.

Anhand konkreter Beispiele zeigte der Referent die unterschiedlichen Kategorien semi-autonomer und überwachter autonomer Waffensysteme auf. Vor allem im Bereich der Aufklärung hat es durch Drohnen einen gewaltigen Fortschritt gegeben, der dem „gläsernen Gefechtsfeld“ zumindest nahe kommt. Dennoch existiert derzeit noch keine verwendbare KI für den professionellen militärischen Einsatz.

Strategisch-operative Aspekte

Unter strategisch-operativen Gesichtspunkten können autonome Systeme bzw. Waffensysteme durchaus eine neue Gewichtung von Quantität vs. Qualität erzeugen. KI-unterstützte Fähigkeiten im Cyber- und Informationsraum sind in der Lage, sehr schnelle, grenzüberschreitende und massive Wirkung zu entfalten. Besonders in zeitkritischen intensiven Bedrohungsszenarien erweisen sie sich gegenüber menschlicher Steuerung als überlegen. Ihre besonderen Einsatzmerkmale sind Geschwindigkeit/Schnelligkeit, Präzision/Zielgenauigkeit und Reaktionsvermögen. Sie können militärische Einsätze effizienter gestalten und zugleich den Schutz der eigenen Truppen verbessern. Darüber hinaus bieten sie die Möglichkeit, exzessive Gewalt und Kollateralschäden zu vermeiden oder zumindest zu verringern.

Auf der anderen Seite sind mit autonomen Waffensystemen auch Risiken und Probleme verbunden. Befürchtet wird beim Verzicht auf menschliche Kontrolle eine ethische und juristische Verantwortungslücke, die zur Dehumanisierung des Krieges führen könnte. Auch hinsichtlich der technischen Zuverlässigkeit sind sowohl im Bereich der Hardware als auch der Software Fehler nicht auszuschließen. Bei Dual-Use-Systemen wachsen die Proliferationsrisiken. Und nicht zuletzt wird eine Entwicklungsdynamik befürchtet, die zu einer Eskalationsspirale führen könnte. Krisen könnten sich dadurch verschärfen, die Hemmschwelle zum Einsatz könnte sinken und bei technologischer Überlegenheit ein verstärkter Anreiz zu Präventivschlägen bestehen.

Sicherheitspolitische, rechtliche und ethisch-moralische Aspekte

Was sicherheitspolitische, rechtliche und ethisch-moralische Aspekte des Einsatzes von LAWS anbetrifft, hat sich die Haltung der Bundesregierung inzwischen leicht gewandelt, ist aber immer noch restriktiv in der Ablehnung kompletter LAWS, erlaubt aber die Bewaffnung von Drohnen unter Auflagen.

Die NATO erkennt die strategische Bedeutung disruptiver Technologien, betont aber in ihrem „Autonomy Implementation Plan“ von 2022:

  • Autonome Technologien sollen zur Stärkung von Abschreckung und Verteidigung sowie zur Erhöhung der Widerstandsfähigkeit genutzt werden.
  • Es soll Vorsorge gegen Risiken aufgrund leicht verfügbarer KI-Technologien für potenzielle Gegner getroffen werden.
  • Der Einsatz autonomer Systeme soll im Einklang mit Normen und Werten des Bündnisses; basierend auf dem Völkerrecht erfolgen.
  • Die Implementierung KI-gestützter autonomer Systeme muss im Einklang mit den NATO-Grundsätzen für den verantwortungsvollen Einsatz (PRUs) stehen.
  • Es sollen regelmäßig Übungen und operative Experimente durchgeführt und die Leitprinzipien zur Beschränkung des Einsatzes bestimmter konventioneller Waffen beachtet werden.


Sicherheitspolitische, rechtliche und ethisch-moralische Aspekte

Zu den rechtlichen und ethisch-moralischen Aspekten von LAWS ist anzumerken, dass sie selbstverständlich den Normen des humanitären Völkerrechts unterliegen, insbesondere auch dem Unterscheidungsgebot zwischen zivilen und militärischen Zielen. Sie haben das Prinzip der Verhältnismäßigkeit zu beachten und müssen erlauben, die Verantwortung für Einsätze zuzuordnen.
Zu prüfen ist, ob „Ethik-Module“ realisierbar sind und ob eine zeitliche und räumliche Nähe zwischen menschlichem Entscheider und Waffenwirkung gefordert werden soll. In jedem Fall muss es aber ein Konzept der „Verantwortbarkeit“ geben.
Die Frage ist auch, inwieweit es Möglichkeiten zur Rüstungskontrolle, Rüstungsbegrenzung oder Abrüstung autonomer Waffensysteme gibt. Bemühungen dazu sind bisher weitgehend gescheitert. Definitorische und Verifikationsprobleme, die Vereinbarungen auf diesem Gebiet erschweren, sind offenkundig.

Fazit

General Herrmann stellte als Fazit heraus, dass KI und autonome Systeme als disruptive Technologien ohne Zweifel einen Quantensprung in der Rüstungstechnik darstellen und als dritte waffentechnische Revolution gesehen werden können. Die Entwicklungsdynamik in diesem Bereich sei aufgrund des Dual-Use-Charakters dieser Technologie hoch und kaum zu bremsen. Natürlich sei sie mit erheblichen Herausforderungen verbunden – sicherheitspolitisch, (völker)-rechtlich und ethisch-moralisch. Es komme aber darauf an, die bisher eher emotionale Diskussion zu versachlichen. Die Technologie müsse beherrschbar sein, Kontrolle und Einsatzverantwortung seien zu regeln. Dazu müsse die Politik pragmatische Rahmenbedingungen schaffen. An den Möglichkeiten von KI und autonomen Waffensystem könne jedoch keine Armee vorbeigehen. Bei Beachtung der genannten Bedingungen könne aus dem „Damoklesschwert“ ein kontrollierbares Mittel moderner Kriegsführung werden.

Aussprache

Die anschließende ausführliche Aussprache deckte eine breite Thematik ab. Sie beinhaltete u.a. Fragen und kritische Anmerkungen

  • zur Transparenz der einer KI zugrundeliegenden Datenauswahl und der angewendeten Algorithmen,
  • zur Dual-Use-Problematik,
  • zum Stand der Forschung, Entwicklung und Umsetzung von KI und autonomen Waffensystemen in der Bundeswehr angesichts der langjährigen Ablehnung bewaffneter Drohnen durch die Bundesregierung,
  • zu den Möglichkeiten und Grenzen von Rüstungskontrolle, Rüstungsbegrenzung und Verifikation in diesem Bereich,
  • zur Notwendigkeit, der immer umfangreicheren Datenmengen mithilfe von KI Herr zu werden,
  • zur Möglichkeit, durch KI sparsamer mit der knappen Ressource „Personal“ umzugehen, sowie
  • zu der Gefahr allzu weit gefasster Prognosen zu technischen Entwicklungstendenzen und zum künftigen Kriegsbild bzw. zu wahrscheinlichen Konfliktszenarien.

Weitgehend einig war sich das Auditorium darin, dass ein reiner Cyberwar in überschaubarer Zukunft unrealistisch sei. Vielmehr komme es darauf an, die herkömmlichen Waffensysteme und die neuen technischen Möglichkeiten in Balance zu halten. Entscheidend in militärischen Auseinandersetzungen seien immer noch „boots on the ground“.

Abschluss

Der hochinformative Vortrag und die ergänzenden Aussagen des Referenten in der Aussprache sowie die fundierten Diskussionsbeiträge aus dem Auditorium gaben einen faszinierenden Ausblick auf das weite Feld von KI und autonomen Waffensystem, die ohne Zweifel das Potenzial besitzen, die Kriegsführung in vielen Bereichen zu revolutionieren. Es bietet sich daher an, diese Thematik in künftigen Vorträgen im RK WEST auf einzelnen Feldern, z.B. der Drohnenkriegsführung, zu vertiefen.

Jürgen Ruwe, Generalleutnant a.D.