Auch der Krieg zwischen Israel und Hamas wird mit künstlicher Intelligenz geführt

Auch der Krieg zwischen Israel und Hamas wird mit künstlicher Intelligenz geführt

Israels Operation „Eiserne Schwerter“ gegen die Hamas nutzt künstliche Intelligenzsysteme, um Hamas-Kämpfer in Echtzeit zu identifizieren. Die Analyse von Francesco D'Arrigo, Direktor des italienischen Instituts für strategische Studien Niccolò Machiavelli

Letztes Jahr, nach dem Hamas-Angriff am 7. Oktober, schrieb ich, dass der Überraschungsangriff der Hamas auf Israel nicht nur auf ein großes Versagen der Geheimdienste zurückzuführen sei, sondern auch auf ein strategisches Versagen des gesamten politischen Systems und der Verteidigung Israels.

Die israelischen Verteidigungsstreitkräfte (IDF) blieben angesichts der Invasion von Hamas-Terroristen über die Südgrenze und des Abschusses Tausender Raketen untätig, obwohl modernste israelische Überwachungstechnologien weit verbreitet eingesetzt wurden. Die Fähigkeiten der entlang der „intelligenten Barriere“ zwischen Israel und Gaza eingesetzten Sensoren (Zäune, Sensoren, automatische Maschinengewehrtürme, Überwachungsdrohnen usw.) haben der Welt gezeigt, dass es sich um eine professionelle Militärmacht handelt, die sich vollständig auf ihre Wahrnehmung möglicher Bedrohungen verlassen hat und Verteidigungsfähigkeiten fast ausschließlich auf Technologie zurückzuführen.

Künstliche Intelligenz verändert die menschliche Natur der Kriegsführung

Der israelische Geheimdienst, der bis zu diesem Tag als einer der effizientesten und technologisch fortschrittlichsten der Welt galt und über konkurrenzlose HUMINT-, SIGINT- und Cyber-Abhörfähigkeiten verfügte, die das Westjordanland und den Gazastreifen abdeckten, blieb praktisch während des gesamten Angriffs blind und unfähig, zu reagieren.

Anscheinend führte nicht einmal dieser Misserfolg zu einer Änderung der Strategie der IDF beim Einsatz „intelligenter Systeme“. In diesen Tagen werden Einzelheiten über den Einsatz von KI-gesteuerten Systemen durch die israelischen Streitkräfte bekannt, wie zum Beispiel „Habsora“ (Evangelium), „Wo ist Papa?“ und „Lavender“ bringen die Verbündeten Israels zur Verzweiflung, führen dazu, dass Israels wichtigster Verbündeter – die USA – endgültig die Geduld verliert und vor allem die Hamas den Informationskrieg gewinnt.

In einem operativen Kontext des städtischen Guerillakriegs, bei dem sich Hamas-Terroristen unter der Zivilbevölkerung tarnen, handelt es sich um einen Entscheidungsprozess, der technologisch „intelligenten“ Waffensystemen anvertraut wird und die zu bombardierenden Ziele im Gazastreifen autonom identifiziert, ohne das Potenzial einzuschränken Die Sicherheit der Opfer führt zu einer untragbaren Zahl ziviler Opfer und zum Scheitern der Regierung von Ministerpräsident Benjamin Netanyahu sowohl aus strategischer als auch aus ethischer Sicht.

Das Lavender-System wurde entwickelt, um alle Verdächtigen zu identifizieren, die den Milizen Hamas und Palästinensischer Islamischer Dschihad angehören, und listete etwa 37.000 Palästinenser als potenzielle Ziele auf, die es zu eliminieren gilt.

Wie werden Ziele generiert?

Im Rahmen der Operation „Eiserne Schwerter“ beschloss die Armee, alle Mitarbeiter des militärischen Flügels der Hamas als menschliche Ziele zu identifizieren, unabhängig von ihrem Rang oder ihrer militärischen Bedeutung. Die Lavender-Software analysiert Informationen, die über ein Massenüberwachungssystem über die Mehrheit der mehr als zwei Millionen Einwohner des Gazastreifens gesammelt wurden. Eine Sammlung von Big Data in Bezug auf biometrische Daten und Gesichtserkennung, persönliche Informationen, Fotos, Handykarten, Social-Media-Verbindungen, Reiseinformationen, Internetverbindungen usw. Dann wird die Maschine mit Daten über bestehende Hamas-Aktivisten gefüttert, lernt, deren Eigenschaften zu erkennen und bewertet andere Palästinenser danach, wie ähnlich sie den Militanten sind, bewertet und bewertet die Wahrscheinlichkeit, dass eine bestimmte Person mit dem militärischen Flügel der Hamas oder auf jeden Fall zusammenarbeitet unterstützt seine Ziele.

Die Ziele beziehen sich auf die Häuser von Familien und Verwandten

Wie wir wissen, platziert die Hamas ihre Aktivisten und ihre militärischen Mittel im Herzen von Häusern im Gazastreifen, nutzt die Zivilbevölkerung systematisch als menschliche Schutzschilde und führt Kämpfe von innerhalb ziviler Strukturen aus, einschließlich sensibler Orte wie Krankenhäuser, Moscheen, Schulen und Logistik Kürzlich wurden auch Standorte und Personal der Vereinten Nationen entdeckt. Die IDF ist an internationales Recht gebunden und handelt nach diesem, indem sie ihre Angriffe nur auf militärische Ziele und Militäroperatoren richtet, aber Hamas-Kämpfer verstecken sich in zivilen Gebäuden und zeitgegrabenen Tresoren, in denen sie ihre Arsenale verstecken. Um sich fortzubewegen, nutzen sie unzählige zivile Fahrzeuge und sogar Krankenwagen. Daher argumentieren IDF-Führer, dass viele israelische Angriffe aufgrund dieser Hamas-Taktiken Zivilisten töten.

Um Hamas-Kämpfer in diesen Gebäuden in Echtzeit zu identifizieren, wurden verschiedene „intelligente“ automatische Software entwickelt. Diese Programme verfolgen Tausende von Personen gleichzeitig, identifizieren sie, wenn sie sich im Haus aufhalten, und senden eine automatische Warnung an das Zielsystem, das das Haus dann für einen Bombenanschlag markiert. Eine solche Tracking-Software heißt „Wo ist Papa?“ (Wo ist Papa?). In den ersten zwei Wochen des Krieges wurden zunächst „mehrere tausend“ Menschen von solchen Verfolgungsprogrammen angegriffen, darunter natürlich alle Mitglieder der Eliteeinheit der Hamas, der Nukhba, alle Panzerabwehr- und Raketenführer der Hamas. und alle, die am 7. Oktober nach Israel kamen.

Wahl des Waffensystems zum Treffen von Zielen und Bewertung des Kollateralschadens

Sobald die Ortungssoftware das Ziel in einem Haus identifiziert hat, besteht der nächste Schritt darin, das Waffensystem auszuwählen, mit dem es bombardiert werden soll, und die Anzahl der Zivilisten zu berechnen, die an dem Angriff beteiligt sein könnten. In den ersten Kriegswochen wurde die Höchstzahl der als Kollateralschaden akzeptablen Zivilisten, wie das Militär sie nennt, auf bis zu 15 festgelegt und galt pauschal für alle mutmaßlichen Hamas-Kämpfer, unabhängig von ihrem Rang, ihrer militärischen Bedeutung und ihrem Alter . Doch aus den anhaltenden Luftangriffen gegen hochrangige Hamas-Kommandeure und der Art der Bombenangriffe, die zur Eliminierung des Kommandeurs des Shuja'iya-Bataillons eingesetzt wurden, geht hervor, dass das Militär sich erlaubt, „Kollateralschäden“ durch Hunderte getötete Zivilisten bei Angriffen auf hohe Ziele hinzunehmen. Profil Hamas-Ziele. Eine Politik, für die es weder in Israel noch in den jüngsten westlichen Militäroperationen historische Präzedenzfälle gibt und die im Weißen Haus scharfe Reaktionen hervorruft.

Die Genehmigung zur automatischen Übernahme von Lavenders Ziellisten, die zuvor nur als Hilfsmittel verwendet wurden, wurde etwa zwei Wochen nach Beginn der Operation „Iron Swords“ von der Einheit 8200 unter dem Kommando von General Yassi Sariel erteilt, dessen Identität vom Guardian enthüllt wurde Er brachte ihn mit dem von ihm veröffentlichten Buch „The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World“ in Verbindung . Die Genehmigung wurde erteilt, obwohl Geheimdienstmitarbeiter feststellten, dass die vom künstlichen Intelligenzsystem Lavender ausgewählten Ziele bei der Identifizierung der Zugehörigkeit einer Person zur Hamas eine Genauigkeit von 90 % erreichten. Mit anderen Worten: Es war von vornherein bekannt, dass 10 % der menschlichen Ziele, die eliminiert werden sollen, möglicherweise keine Mitglieder des militärischen Flügels der Hamas sind.

Ähnliche Approximationsprobleme wurden auch bei der Fähigkeit dieser Software festgestellt, elektronische Geräte und Smartphones zu bewerten, die von einer Person verwendet werden, die als Mitglied der Hamas bezeichnet wird. Im Krieg wechseln Terroristen ständig ihr Telefon und vertrauen es vielleicht einem Freund oder Verwandten an oder lassen es im Stich. In diesem Szenario des totalen Chaos gibt es keine Möglichkeit, sich zu 100 % auf ein automatisches System zu verlassen, das bestimmt, welche Telefonnummer zu wem gehört, um ein Ziel auszuwählen. Wenn wir darüber hinaus bedenken, dass die meisten Häuser im Gazastreifen bereits zerstört oder beschädigt sind und fast die gesamte Bevölkerung vertrieben wurde, ist die Entscheidung der IDF, auf automatische Programme zur Lokalisierung von Häusern zu setzen, in denen sich Terroristen verstecken können, auch eine klare strategische Entscheidung Fehler.

Allerdings sollte der Unterschied zwischen der KI selbst und der Ethik des Einsatzes der Technologie in einem städtischen Konflikt wie dem zwischen Israel-Hamas und Gaza sehr präsent sein, ebenso wie die Möglichkeit von Fehlern.

Das ethische Problem liegt in der Verwendung dieser Systeme zur schnellen Erfassung und Eliminierung von Personen durch Bombenangriffe auf dicht besiedelte Gebiete, in dem vollen Wissen, dass mit verringerter menschlicher Überprüfungsfähigkeit die Identifizierungsgenauigkeit abnimmt, während der „Kollateralschaden“ exponentiell zunimmt.

Die Humanressourcen müssen ethisch in die wachsende Beziehung zur Entwicklung der künstlichen Intelligenz und des maschinellen Lernens eingebunden werden, die Algorithmen zum Trainieren von Angriffssystemen entwickeln und testen.

Insbesondere beim Einsatz intelligenter Technologien kann sich selbst das innovativste und disruptivste System aufgrund von Verhaltensverzerrungen als ineffektiv erweisen, was zu verheerenden Entscheidungsfehlern führen kann.

Wie zusammen mit Fabio Vanorio in dem Papier „ Intelligence hyper-loop – how the Consideration of the „Human-in-the-Loop“ Concept is vital for the digital revolution of spionage“ hervorgehoben wurde, wurde mit der Einführung der künstlichen Intelligenz in die Prozess der politischen und militärischen Entscheidungsfindung, die Suche nach Synergien zwischen Mensch und Maschine bringt vielfältige Herausforderungen mit sich: Wie können die durch die Einführung künstlicher Intelligenz gewonnenen Informationsprodukte menschliche Entscheidungsprozesse verbessern? Inwieweit sollte darauf vertraut werden, dass solche Produkte menschliche Entscheidungen beeinflussen und eine angemessene Einschätzung des situativen und strategischen Kontexts widerspiegeln? Inwieweit sollte KI-gestützte Entscheidungsfindung die menschliche Entscheidungsfindung ersetzen oder ergänzen?

Die durch künstliche Intelligenz verbesserte Komplexität militärischer Systeme macht es erforderlich, den Umfang eines Entscheidungsprozesses, der vollständig Maschinen anvertraut wird, neu zu definieren. Auf künstlicher Intelligenz basierende Technologien schaffen neue Möglichkeiten, aber auch enorme operative und ethische Probleme, sowohl innerhalb militärischer Bürokratien, aber auch zwischen Unternehmen und vor allem zwischen Sicherheitsforschungsinstituten, wobei der Prozess [Daten → Informationen → Künstliche Intelligenz → Entscheidungen] eine neue Technologie darstellt Paradigma.

Wie wir im Gaza-Konflikt zwischen Israel und der Hamas sehen, können selbst in einem technologisch „intelligenten“ Einsatzkontext wie dem der IDF schlechte Organisationsstrukturen im Entscheidungsprozess zu der Entscheidung führen, (nukleare) Atomwaffen abzuwerfen. Bomben werden an nichtmenschliche Systeme übergeben?) in Wohngebieten.

Ein unvorstellbares Szenario, nicht einmal im dystopischen Los Angeles von Blade Runner (spielt im Jahr 2019), wo Replikanten – Androiden mit menschlichen Zügen – nur als Arbeitskräfte in außerirdischen Kolonien eingesetzt wurden, schon gar nicht, um ihnen strategische Verantwortung zu übertragen, die bleiben muss ein ausschließliches Vorrecht der menschlichen Entscheidungsfindung.


Dies ist eine Übersetzung eines Artikels, der am Mon, 08 Apr 2024 07:10:30 +0000 im italienischen Blog Start Magazine unter der URL https://www.startmag.it/mondo/intelligenza-artificiale-guerra-israele-hamas/ veröffentlicht wurde.