Kategorie: Allgemein Allgemein


Autor: Aniassy Verfasst am 05. 04. 2024
KI entscheidet, wen sie für Israel tötet (The Reese Report - Deutsch)
:list_hover: KI entscheidet, wen sie für Israel tötet (The Reese Report - Deutsch)

Welcome to the Machine
KI entscheidet, wen sie für Israel tötet (The Reese Report vom 5. April 2024 - Deutsch)



Welcome to the Machine

KI entscheidet, wen sie für Israel tötet (The Reese Report vom 5. April 2024 - Deutsch)

Im Jahr 2021 veröffentlichte der Befehlshaber des israelischen Geheimdienstes ein Buch über die Entwicklung einer speziellen Maschine, die den seiner Meinung nach bestehenden menschlichen Engpass bei der Ortung und Genehmigung von Kriegszielen beheben sollte. Eine aktuelle Untersuchung des Magazins +972 und Local Call zeigt, dass die israelische Armee ein auf künstlicher Intelligenz basierendes Programm mit dem Namen "Lavender" entwickelt hat, das genau das tut.

Nach Angaben von sechs israelischen Geheimdienstoffizieren, die über Erfahrungen aus erster Hand verfügen, bestimmte die Lavender-KI-Maschine, wer zu töten war, und wurde mit militärischer Disziplin eingesetzt.

In den ersten Wochen des Krieges bestimmte das Lavender-System etwa 37.000 Palästinenser als Ziele und leitete Luftangriffe auf ihre Häuser. Obwohl bekannt war, dass das System in etwa zehn Prozent der Fälle Fehler macht, mussten die Daten der Maschine nicht überprüft werden.

Die israelische Armee griff die Zielpersonen systematisch nachts in ihren Häusern an, während ihre gesamte Familie anwesend war. Ein automatisiertes System mit der Bezeichnung "Where's Daddy?" wurde eingesetzt, um die Zielpersonen aufzuspüren und Bombenanschläge zu verüben, wenn sie die Häuser ihrer Familien betraten. Das offensichtliche Ergebnis war, dass Tausende von Frauen und Kindern durch israelische Luftangriffe ausgelöscht wurden. Nach Angaben dieser israelischen Geheimdienstoffiziere bombardierten die IDF sie als erste Option in ihren Häusern. Bei mehreren Gelegenheiten wurden ganze Familien ermordet, obwohl sich das eigentliche Ziel nicht im Haus befand. In einem Fall wurden vier Gebäude mit allen Bewohnern zerstört, weil sich in einem der Gebäude ein einziges Ziel befand.

Bei Zielen, die vom A.I.-Lavender-System als niedrig eingestuft wurden, wurden billigere Bomben eingesetzt, die ganze Gebäude zerstörten und meist Zivilisten und ganze Familien töteten. Dies geschah, weil die IDF keine teuren Bomben an Menschen verschwenden wollten, die sie für unwichtig hielten.
Es wurde beschlossen, dass für jeden von Lavender markierten Hamas-Aktivisten der unteren Ebene bis zu 15 oder 20 Zivilisten getötet werden durften. Und wenn es sich bei dem Ziel um einen hochrangigen Hamas-Funktionär handelte, waren auch mehr als hundert Zivilisten akzeptabel.

Die meisten dieser KI-Ziele waren vor dem Krieg noch nie verfolgt worden. Die Lavender-Software analysierte die Informationen, die über die 2,3 Millionen Einwohner des Gazastreifens durch ein Massenüberwachungssystem gesammelt wurden, bewertete die Wahrscheinlichkeit, dass es sich bei jeder Person um einen Militanten handelte, und gab eine Bewertung von 1 bis 100 ab. War die Bewertung hoch genug, wurde die Person zusammen mit ihrer gesamten Familie getötet. Lavender markierte Personen, die ein der Hamas ähnliches Verhaltensmuster aufwiesen. Dazu gehörten Polizei, Zivilschutz, Verwandte und Einwohner mit ähnlichen Namen und Spitznamen.

Diese Art von Verfolgungssystem gibt es in den USA schon seit Jahren.

Source: https://reesereport.com

A.I. Deciding Who To Kill For Israel


________________________________________



Drucken