Bundesregierung: Künstliche Intelligenz (KI) schöngeschrieben

Liest man die druckfrische Strategie der Bundesregierung für Künstliche Intelligenz sucht man vergeblich nach einem Beitrag des Verteidigungsministeriums. Kein Wort zur militärstrategischen Beurteilung der KI zu den künftigen bewaffneten Killerrobotern oder dem Einsatz der KI auf dem militärischen Schlachtfeld der Zukunft bis in den Bereich des Weltraums. Wieso war das Bundesheer nicht bei der Erstellung der KI-Strategie eingebunden oder wurde die Fachexpertise einfach durch die ÖVPGrüne Bundesregierung ignoriert? Für das Papier zeichnet das https://www.bmk.gv.at/ unter der Grünen Ministerin Leonore Gewessler, BA verantwortlich.

Folgende Anwendungsfelder der KI wurden in der KI Strategie beleuchtet und für wichtig befunden:

  • Bewältigung des Klimawandels
  • Digitalisierte Energiesysteme
  • Nachhaltige Mobilität
  • Landwirtschaft
  • Weltraumanwendungen
  • Sachgüterindustrie
  • Bausektor
  • Gesundheitswesen
  • Kunst, Medien- und Kreativwirtschaft
  • Bildung

Kein Wort zum Einsatz der KI im militärischen Bereich

Der Standard schreibt zum Themenbereich vor 2 Tagen: „Gezeigt wurde die Kombination aus Roboter und Waffe erstmals auf der Association of the United States Army’s 2021 Annual Conference vor einigen Tagen. Details zu der Kooperation zwischen Ghost Robotics und Sword wurden weder dort genannt noch auf einer der Webseiten. Sehr wohl bekannt ist, dass die Roboterhunde bereits vergangenes Jahr an Militäreinsätzen teilgenommen haben. In Florida nutzte eine Spezialeinheit den vierbeinigen Roboter bereits für diverse Einsätze, etwa die Überwachung der Basisgrenzen oder auch die Überprüfung von schlammigen Umgebungen, die „weder für Menschen noch für Fahrzeuge besonders erstrebenswert“ seien, sagte Ghost-Robotics-CEO Jiren Parikh zu „The Verge“.“

Das Bundesheer befasst sich seit Jahren mit dem Thema und wird nicht gehört

Reisner, Markus (2017) Robotic Wars
Dissertation, Universität Wien. Rechtswissenschaftliche Fakultät
Fachartikel können Sie hier nachlesen: https://zenith.me/de/writer/markus-reisner

Die technologischen Entwicklungen der letzten Jahre haben dazu geführt, dass eine Familie unterschiedlicher Unmanned Air, Ground und Maritime Systems geschaffen wurde. Deren Fähigkeiten führten zu einer Transformation der modernen Kriegführung. Bewaffnete Drohnen werden in hoher Zahl in allen Krisengebieten der Welt eingesetzt. Sie sind im Kampf gegen asymmetrische Kriegführung und Terrorismus für moderne Militärs die „Waffen erster Wahl“. Derartige Roboter sind billige Plattformen, welche ihre Aufträge in einem eintönigen, schmutzigen und gefährlichem Umfeld erfüllen. Sie liefern Präzision und Effizienz über einen langen Einsatzzeitraum und ohne Risiko für das eigene Personal. Die Entwicklung von militärischen Robotern nimmt daher zu, und die Entwicklung eines vollautonomen Systems scheint möglich. Das existierende Humanitäre Völkerrecht geht nicht im Speziellen auf autonome Waffen ein. Diese Situation führt daher zur weitverbreiteten Besorgnis, dass autonome Waffen ethische und moralische Probleme verursachen. Eine Waffe über eine weite Distanz abzufeuern, kann die Hemmungen des Bedieners verringern und die Schwelle zur Gewaltanwendung herabsetzen. Bei der Durchführung von Kampfhandlungen gelten für alle aktuellen und zukünftigen Waffensysteme Grundsätze wie Verhältnismäßigkeit und Unterscheidung. Unterschiedliche Stufen der Autonomie können als in the loop, on the loop und out of the loop definiert werden. Derzeit existierende unbemannte Waffensysteme können bereits einige Funktionen autonom durchführen. Sie können ein Ziel finden und verfolgen sowie eine geleitete Rakete abfeuern. Die Auslöseinstanz ist dabei immer noch der Mensch. Im Falle der Entwicklung eines out of the loop Systems ist es notwendig, exakt rechtliche Limitierungen, ethische Prinzipien und moralische Rahmenbedingungen zu definieren. Es sollte vermieden werden, dass die überragenden Leistungen und Fähigkeiten eines Roboters dazu führen, dass der Mensch als “Sklave der Maschine” endet. Das erwünschte Ergebnis darf nicht den Einsatz aller Mittel erlauben. Im Falle von Entscheidungen zwischen Leben und Tod, sollte die Freiheit eigenständig entscheiden zu können dem Menschen vorbehalten bleiben. Das heißt, dass es einem vollautonomen, mit Künstlicher Intelligenz ausgestatteten, System nicht erlaubt sein sollte darüber zu entscheiden ob ein Mensch getötet werden soll oder nicht.

Diplomarbeit Dr. Reisner ObstltdG https://othes.univie.ac.at/49204/

Teilautonome Systeme im Österreichischen Bundesheer

Die Konflikte im beginnenden 21. Jahrhundert werden zunehmend mit Waffensystemen geführt, deren Eigenschaften und Fähigkeiten bis vor wenigen Jahrzehnten noch unerreichbar schienen. Teilautonome unbemannte Aufklärungs- und Waffensysteme übernehmen bereits in nahezu allen Domänen der Kriegsführung vermehrt komplexe Gefechtsaufgaben. Man spricht bereits jetzt von einer neuen Revolution in der Kriegsführung. Die bisher gültigen Fähigkeitsfelder des Militärs werden laufend erweitert, und die Faktoren Kraft, Raum, Zeit und Information verschieben sich bzw. bekommen eine neue Bedeutung. Auch das Österreichische Bundesheer hat durch die Erprobung und den Einsatz von teilautonomen Systemen eine wesentliche Fähigkeitsergänzung erfahren. So befinden sich derzeit bereits mehrere Systeme in fortgeschrittener Erprobung bzw. im Einsatz. In Zukunft sollen sie einen wesentlichen Beitrag zum Schutz der Soldaten und der Bevölkerung leisten.

Moderne Streitkräfte definieren sich über das Vorhandensein einer spezifischen Anzahl von bestimmten Fähigkeitsbereichen. Die Capability Hierarchy von NATO und EU, an der sich auch das Österreichische Bundesheer (ÖBH) ausrichtet, nennt dazu folgende Entwicklungs- und Fähigkeitsziele:

  • Nachrichtengewinnung und Aufklärung (Inform),
  • Führung (Consult, Command & Control),
  • Einsatzvorbereitung (Prepare),
  • Wirkung und Einsatz (Engage),
  • Truppenschutz (Protect),
  • Projektion von Kräften (Project) sowie
  • Unterstützen und Durchhalten (Sustain).

Lesen Sie mehr dazu im „Truppendienst“ einem Magazin des Österreichischen Bundesheeres.
https://www.truppendienst.com/themen/beitraege/artikel/teilautonome-systeme-im-oesterreichischen-bundesheer/

Killer-Roboter: Microsoft, Amazon und Intel positionieren sich nicht zu autonomen Waffensystemen

Autonome Waffen können selbständig ein Ziel wählen, angreifen und töten. Ein neuer Bericht hat Tech-Unternehmen auf der ganzen Welt nach ihrer Haltung zu solchen Systemen befragt. Kaum eines bekennt sich klar gegen den Einsatz seiner Technologie für die automatisierte Kriegsführung. Amazon, Intel und Microsoft werden als besonders hohe Risiken eingestuft. Was macht unsere Bundesregierung wir begeben uns in Abhängigkeit zu den angeführten Firmen und Konzernen sowohl im Bereich der Bildung, der Cloudsysteme und des staatlichen KI Einsatzes in der Bundesverwaltung.

https://netzpolitik.org/2019/killer-roboter-microsoft-amazon-und-intel-positionieren-sich-nicht-zu-autonomen-waffensystemen/

Quellen zum Artikel:

https://www.derstandard.at/story/2000130472149/roboterhunde-bekommen-jetzt-waffen-umgeschnallt

https://www.faz.net/aktuell/wirtschaft/kuenstliche-intelligenz/wie-kriegsroboter-vollautomatisch-ueber-leben-und-tod-entscheiden-15609267.html

https://netzpolitik.org/2019/killer-roboter-microsoft-amazon-und-intel-positionieren-sich-nicht-zu-autonomen-waffensystemen/

https://www.spiegel.de/wissenschaft/technik/wettlauf-der-kampfroboter-a-3e1db4c9-8b1d-425c-b5f7-3996e44a7f83

https://www.wienerzeitung.at/nachrichten/politik/welt/2002305-Wenn-Killer-Roboter-aufeinander-schiessen.html

https://de.wikipedia.org/wiki/Milit%C3%A4rroboter

https://www.truppendienst.com/themen/beitraege/artikel/teilautonome-systeme-im-oesterreichischen-bundesheer/

Für alle Firmen, Institutionen, Personen und überhaupt „Jeden und „Alles“ gilt die Unschuldsvermutung. (hu) ++ende++


Herbert Unger – freier Journalist bei bkftv.at
herbert.unger@bkftv.at oder 06645344908
Meine Artikel: http://bkftv.at/author/hu/
Schreiben Sie mir zum Thema
Vertrauliche Kommunikation über:
Threema ID hcclnoname: WUU3ZJJV
Signal-Messenger oder persönliche Treffen: Face-to-Face
Share Button

Related posts