StartseiteKurseKI und Robotik
Amitai Etzioni und Oren Etzioni, „Vor- und Nachteile autonomer Waffen“

Sitzung 4

Amitai Etzioni und Oren Etzioni, „Vor- und Nachteile autonomer Waffen“

|
Sitzung 4

Zusammenfassung

Amitai Etzioni ist Professor für Internationale Beziehungen an der George Washington University und Autor von Außenpolitik: Querdenken (2016). Er war leitender Berater im Weißen Haus von Carter. Oren Etzioni ist CEO des Allen Institute for Artificial Intelligence und Professor für Informatik an der University of Washington. Er war der Gründer/Mitbegründer von Farecast (an Microsoft verkauft) und Decide (an eBay verkauft).

  1. Die Autoren „verstehen unter Autonomie, dass eine Maschine in der Lage ist, Entscheidungen auf der Grundlage der von der Maschine gesammelten Informationen zu treffen und auf der Grundlage ihrer eigenen Überlegungen zu handeln, die über die Anweisungen und Parameter ihrer Hersteller hinausgehen“.
  2. Es scheint „unvermeidlich“, dass autonome Systeme, einschließlich Bomber und Kampfflugzeuge ohne menschlichen Piloten, an Bedeutung gewinnen werden. „Dieser Geist hat die Flasche verlassen und wir sehen keine Möglichkeit, sie wieder zurückzustecken.“
  3. Für „langweilige, dreckige oder gefährliche Missionen“ sind Roboter besser als Menschen. Ein Langzeiteinsatz ist ein Beispiel für eine „langweilige“ Mission, der Kontakt mit radiologischen Materialien ist ein Beispiel für einen „schmutzigen“ Einsatz, und die Aufgabe der Entsorgung von Sprengkörpern ist ein Beispiel für einen „gefährlichen“ Einsatz.
  4. Wirtschaftliche Einsparungen könnten durch Militärroboter realisiert werden. Derzeit kostet jeder Soldat in Afghanistan 850.000 USD pro Jahr. Im Gegensatz dazu „kostet der TALON-Roboter — ein kleiner Rover, der mit Waffen ausgestattet werden kann — 230,00$“.
  5. Luftwaffensysteme werden weniger Ermüdung und emotionalem Stress ausgesetzt sein, und sie werden physische Belastungen, z. B. Manöver mit hohem G-Wert, besser aushalten können als menschliche Piloten.
  6. Autonome Militärroboter könnten durchaus ethischer handeln als menschliche Soldaten. Sie werden nicht unbedingt mit einem „Überlebensinstinkt“ programmiert sein und es ist daher weniger wahrscheinlich, dass sie „zuerst schießen, dann Fragen stellen“. Sie werden weniger Emotionen wie Wut, Angst, Feigheit und dem Wunsch nach Vergeltung oder Rache ausgesetzt sein.
  7. Durch den Ersatz menschlicher Kämpfer könnten „autonome Waffen die Wahrscheinlichkeit von Leid und Tod verringern“.
  8. Im Gegensatz dazu können Menschen besser unterscheiden, „wer ein Zivilist und wer ein Kämpfer ist“, sodass autonome Waffensysteme möglicherweise weniger in der Lage sind, wichtige Regeln bewaffneter Konflikte zu befolgen, das „Prinzip der Unterscheidung“.
  9. Eine wichtige Regel des humanitären Völkerrechts besagt, dass im Falle des Todes von Zivilisten eine Person zur Verantwortung gezogen werden kann. Bei vollautonomen Waffensystemen wäre dies jedoch schwierig oder unmöglich.
  10. Internationale Abkommen zu schließen, um auch nur einige Arten autonomer Waffen einzuschränken, könnte eine unmögliche Herausforderung sein. Es ist schon schwierig genug, eine klare „rote Linie“ zu ziehen, ebenso wie das Herbeiführen einer Einigung und eine angemessene Durchsetzung.

Lesen Sie den ganzen Artikel hier. Zusammenfassung von Stephen Hicks, 2020

Facebook logo iconYoutube logo icon
Abonnieren Sie unseren Newsletter für die neuesten Beiträge
Vielen Dank! Ihr Beitrag ist eingegangen!
Huch! Beim Absenden des Formulars ist etwas schief gelaufen.

Wir fördern den offenen Objektivismus: die Philosophie der Vernunft, der Leistung, des Individualismus und der Freiheit.