Killerroboter sind keine Roboter, sondern Menschen

Killerroboter sind bereits auf dem Schlachtfeld und erweisen sich als ziemlich zerstörerische Waffen. Wir sollten uns Sorgen machen, sehr besorgt. Da sie ihr tödliches Potenzial in den Kriegen in Gaza und der Ukraine unter Beweis gestellt haben, könnten die Folgen verheerend sein, wenn sie nachlässig damit umgegangen werden. Am 3. April veröffentlichte das israelische Magazin +972 einen Bericht über den Einsatz künstlicher Intelligenz durch Israel zur Identifizierung von Zielen in Gaza.

Das KI-System heißt Lavender und soll Tötungslisten mutmaßlicher Hamas-Mitglieder kuratiert haben, darunter auch solche, die in den unteren Rängen tätig sind. Wir haben keine Ahnung, wie genau die Listen waren, aber die besorgniserregendste Tatsache ist, dass sie dazu verwendet wurden, Militante ins Visier zu nehmen, selbst wenn sie sich in ihren Häusern mit ihren Familien, Kindern und vielen Zivilisten in der Nähe befanden. Die folgende Grafik zeigt die Zahl der Todesopfer und Verletzten bis zum 15. April.

Quelle: Statista .

Algorithmen sagen, wen man ansprechen soll

Wie aus der hohen Zahl ziviler Todesopfer und der massiven Zerstörung der Infrastruktur nach der israelischen Invasion im Gazastreifen hervorgeht, hat der Bericht bei Hilfsorganisationen, Regierungsbeamten und jedem vernünftigen Menschen auf der ganzen Welt und in den Vereinigten Staaten ernsthafte Besorgnis ausgelöst. Antonio Guterres, Generalsekretär der Vereinten Nationen, sagte, er sei „zutiefst beunruhigt“ und John Kirby, Sprecher des Weißen Hauses, sagte, dass „die Vereinigten Staaten den Bericht sorgfältig prüfen“.

Guterres zeigte sich mehr Sorge um die Opfer und sagte:

„Kein Teil von Entscheidungen über Leben und Tod, die ganze Familien betreffen, sollte der kalten Berechnung von Algorithmen überlassen werden.“

Quelle: Worldpoliticsreview .

Der Bericht wurde nach dem Vorfall veröffentlicht, bei dem Israel sieben westliche Helfer, darunter ehemalige britische Soldaten, gezielt tötete. Dies veranlasste Richter und Anwälte in ganz Großbritannien natürlich dazu, Waffenverkäufe an Israel aufgrund seiner Kriegsverbrechen und schwerwiegenden Verstöße gegen das Völkerrecht zu stoppen.

Eine andere Dimension des Nachdenkens über Killerroboter

Laut OCHA-Statistiken zeigte Aljazeera im November Szenen in Gaza. Quelle: Aljazeera .

Die Campaign to Stop Killer Robots äußerte ihre Besorgnis, sagte jedoch, dass es sich dabei nicht um das handele, wogegen sie seit 2012 kämpfe, da es sich ihrer Meinung nach um ein Datenverarbeitungssystem handele und die endgültige Entscheidung, zu schießen, in menschlichen Händen liege, so eine ihrer Aussagen bietet eine weitere Dimension zum Nachdenken. Die Erklärung kam nach der Veröffentlichung der Nachricht, wir lesen:

„Mangelnde menschliche Kontrolle und mangelnder Aufwand bei Entscheidungen zum Angriff auf empfohlene Ziele.“

Quelle: Worldpoliticsreview .

In dieser Erklärung wird das Wort „Mangel an sinnvoller menschlicher Kontrolle“ verwendet, was den bereits verurteilten künstlichen Intelligenzen und Killerrobotern eine weitere Ebene der Komplexität verleiht und den Aktivisten auch ein neues Anliegen gibt, das es zu verteidigen gilt.

Künstliche Intelligenz wird üblicherweise so dargestellt, als würde sie eines Tages möglicherweise den Planeten erobern und katastrophalen Schaden verursachen, sogar die Ausrottung der Menschheit. Noch besorgniserregender ist jedoch die Tatsache, dass die Streitkräfte, die sie einsetzen, bei der Zielerfassung weniger Vorsicht walten lassen, sie dadurch weniger rechenschaftspflichtig sind und in Kriegen unethische Entscheidungen treffen, wie wir bereits in Gaza gesehen haben. Letztendlich geht es also nicht darum, dass Roboter Entscheidungen gegen Menschen treffen, sondern darum, dass Menschen in solch heiklen Situationen, in denen es um Leben und Tod geht, Roboterentscheidungen treffen, ohne ihre kognitiven Fähigkeiten voll auszuschöpfen. Wie in dem Bericht eine Quelle erwähnt wird, heißt es:

„Die Maschine hat das cool gemacht.“

Quelle: +972mag.

Es gibt noch einen weiteren Aspekt: ​​Dies kann die Fähigkeit von Programmierern beeinträchtigen, effektiv mit Systemen der künstlichen Intelligenz zu kommunizieren, was zu Kriegsverbrechen führen würde.

Die Originalgeschichte ist hier zu sehen.