< Manchmal kommen sie wieder
30.09.2021 13:25 Alter: 25 days
Kategorie: Politik

Autonome Killerdrohnen im Einsatz?


Einem Bericht der Vereinten Nationen zufolge könnte es 2020 erstmals zu einem autonomen Angriff von Killerdrohnen auf Menschen gekommen sein. Der Vorfall ereignete sich in einer Bürgerkrietsregion in Libyen. Dem Bericht zufolge wurden bereits auf dem Rückzug befindliche Kämpfer der Libyschen Nationalarmee von Kargu-2-Drohnen „gejagt“.

Kargu-2 ist ein Quadcopter, der von der türkischen Rüstungsfirma STM entwickelt wurde. Er ist ausgerüstet mit einer Kamera und Künstlicher Intelligenz, die zu umfangreicher Objekt- und Gesichtserkennung befähigt sein soll.

Kargu-2 kann manuell von einem externen Drohnenpiloten gesteuert werden, aber auch autonom arbeiten. Dann geht die Drohne in eine

Art Kamikaze-Modus. Sobald ihre KI ein mögliches Ziel erkennt, stürzt sie sich darauf, wobei eine an Bord befindliche Sprengladung gezündet wird.

Der UN-Bericht beruht nach Auskunft eines Expertengremiums des UN-Sicherheitsrates auf einer „vertraulichen Quelle“. Die Vereinten Nationen haben bereits mehrfach versucht, Verhandlungen über eine Beschränkung oder ein Verbot autonomer tödlicher Waffen anzustoßen. Diese Versuche wurden von zahlreichen Nationen (darunter z. B. auch Großbritannien) verzögert, so dass diese Waffensysteme derzeit keinerlei Beschränkungen unterliegen.

Sollte der Vorfall in Libyen sich bewahrheiten, könnte es inzwischen für ein weltweites Verbot bereits zu spät sein. Unabhängig von ethischen

Erwägungen, inwieweit autonome tödliche Angriffe auf Kriegstruppen vertretbar seien, äußerten zahlreiche Experten auch Bedenken, ob die Gesichts- und Objekterkennungsfähigkeiten Künstlicher Intelligenz schon weit genug entwickelt sind, um Angriffe auf Unschuldige zu vermeiden.

Selbst menschliche Drohnenpiloten sind ja davon nicht frei, wie der versehentliche Beschuss einer afghanischen Hochzeitsgesellschaft zur Zeit der Obama-Präsidentschaft bewies.

Zak Kallenborn vom National Consortium for the Study of Terrorism and Responses to Terrorism im US-Staat Maryland erklärte, Forscher hätten herausgefunden, dass die derzeit verfügbaren Bildverarbeitungsalgorithmen zum Beispiel schon einmal irrtümlich eine Schildkröte für ein Gewehr gehalten hätten. Ein weiteres Problem ist es, dass im Nachhinein nicht sicher ermittelt werden kann, ob eine solche Drohne wirklich autonom oder manuell gesteuert war. Nur die Betreiber würden dies wissen. 

 

Angesichts der Tatsache, dass derartige Waffensysteme heute auch Staaten mit fragwürdiger politischer Führung (wie etwa der Türkei) zur Verfügung stehen, wird das Problem noch bedrohlicher. Noch dazu, da die Möglichkeit besteht, solche Drohnen an den Palantir-Gotham-Algorithmus anzukoppeln, sie also menschlichem Eingriff komplett zu entziehen.

 

Quelle: Matrix3000 Band 120

 

Matrix3000 Band 120 als E-Paper-Download