Lavender: Jak Izrael vyvražďuje civilisty pomocí umělé inteligence

5. 4. 2024

čas čtení 7 minut


Moderátor, Channel 4 News, čtvrtek 4. dubna 2024, 19 hodin:  Podle izraelského investigativního novináře z časopisu +972  Izrael používá stroj s umělou inteligencí zvaný Lavender k identifikaci tisíců potenciálních cílů Hamásu v Gaze. Zpráva uvádí, že izraelské zpravodajské zdroje, které sloužily v současné válce, sdělily, jak Lavender shromažďuje informace od téměř všech 2,3 milionu obyvatel pásma Gazy prostřednictvím systému hromadného sledování a na stupnici od jedné do sta udává pravděpodobnost, že daná osoba je členem vojenského křídla Hamásu. Členství ve skupině WhatsApp se známým bojovníkem, častá změna adresy nebo výměna telefonů každých několik měsíců - to vše mohou být faktory, které stroji určují potenciální cíle k zabití.

Zpráva konstatuje, že po 7. říjnu se Izrael rozhodl přejít od útoků na vysoce postavené představitele Hamásu ke všem osobám považovaným za členy organizace, bez ohledu na to, jak jsou bezvýznamní. A tvrdí, že v první fázi války, kdy byly během několika týdnů zabity tisíce lidí, armáda připouštěla, aby na jednoho bojovníka připadalo 15 až 20 zabitých civilistů jako vedlejší škody.

 

V systému nazvaném Kde je táta se bombardování často odehrávalo, když byly cíle vystopovány do jejich rodinných domů. Na svém vrcholu Lavender údajně vytipoval 37 000 možných cílů. Při jeho vývoji prý lidské kontroly cílů vybraných Lavenderem naznačily, že je při výběru členů Hamásu přesný v 90 % případů.

V útocích, při nichž byly zabity tisíce lidí, se tedy připouštělo, že každý desátý cíl není Hamás. Lavender údajně nesprávně vybíral policisty, pracovníky civilní obrany nebo příbuzné militantů.

V prohlášení pro Channel 4 News IDF popřely, že by umělou inteligenci vůbec používaly k identifikaci cílů, a uvedly, že na rozdíl od Hamasu jsou IDF zavázány mezinárodnímu právu a jednají podle něj. Tvrdí, že se snaží omezit škody způsobené civilistům, a uvedly, že výjimečné incidenty procházejí důkladným zkoumáním a vyšetřováním a proces identifikace vojenských cílů v IDF se skládá z různých typů nástrojů a metod.

No, hovořil jsem s novinářem Juvalem Abrahamem, který napsal tento článek pro časopis + 972.

Moderátor: IDF vydaly prohlášení, v němž se uvádí, že IDF nepoužívají systém umělé inteligence, který by identifikoval teroristické operativce nebo se snažil předvídat, zda je člověk terorista.

Juval Abraham: Přečetl jsem to jednomu ze zdrojů a on vyprskl smíchy. Řekl, že je to tak. Prostě to, co říkají,  není pravda. Je to lež. A když se podíváte například na ten samotný projekt, v roce 2023, jeden z nejvyšších velitelů IDF, šéf datového centra 8200 AI, měl přednášku na univerzitě v Tel Avivu, kde představil stroj, který, cituji: "Využívá AI k identifikaci teroristů." Vztahoval se k roku 2021. Takže nevím, kdo napsal tuto odpověď IDF, ale zjevně to není pravda, na základě jejich vlastních prohlášení z minulosti a také na základě toho, co jsem slyšel od mnoha izraelských zpravodajských důstojníků. Ty zdroje říkaly, že věděly, že existuje datový vědecký program, který prověřovali.  Vzali náhodný vzorek z těchto 37 000 a kontrolovali jednoho po druhém, zjistili, že stroj je mimo, občas označí naprosté  civilisty nebo lidi, kteří mají jen velmi volný vztah k Hamásu. Na základě tohoto seznamu bylo rozhodnuto o povolení úderů, aniž by se na něj smysluplně dohlíželo.

Moderátor: To je klíčové, že ano, ta otázka, co s tím seznamem dělali, zda ho kontrolovali. Protože izraelské prohlášení je velmi, víte, oni velmi trvají na tom, že existuje proces identifikace vojenských cílů a že to, že to jsou lidé a týmy podle mezinárodního humanitárního práva, kteří to dělají, a to, co naznačuje váš článek, je, že vůbec nedocházelo k žádné smysluplné kontrole,

Juval Abraham:  Takže to, co mi řekly zdroje, je, že protokol na místech, kde byli, v IDF, byl takový, že se kontrolovalo, jediná kontrola, která byla na místě, bylo poslouchat, jestli cílový jedinec má mužský hlas nebo ženský hlas, a pokud je to žena, která tam mluví, tak ten stroj určitě udělal chybu, protože nemá označovat ženy, nejsou žádné ženy, které by byly militantní, ale pokud je to muž, měli přijmout Lavenderovo doporučení, aniž by se  to museli zkoumat, aniž by se museli dívat na surová zpravodajská data a jeden zdroj řekl, že bombardoval desítky domů každý den na základě těchto doporučení,  40-50 domů denně, často zabíjí celou palestinskou rodinu. A on mi řekl, a to je citát, řekl mi "Zhruba 20 vteřin." Netrvá dlouho zjistit, jestli má někdo mužský nebo ženský hlas, a toto kritérium, mužský nebo ženský, jsem slyšel z více než jednoho zdroje.

Moderátor: Jak vysvětlili, že dostali příkaz pracovat tímto způsobem? Víte, mohl Izrael říct, že to byli lidé, kteří nedělali svou práci pořádně, víte, analytici se mají dívat na seznamy, analyzovat zpravodajské informace a přijímat uvážená rozhodnutí. A jestli to zvažovali jen dvacet vteřin, tak nedělali svou práci?

Juval Abraham:   Takže to, co jsem slyšel z těchto zdrojů, je, že takový rozkaz dostali. Jeden zdroj řekl, cituji, že neexistuje politika nulové chyby. Aby urychlili definice cílů, aby mohli bombardovat tolik lidských cílů, tak si uvědomili, že musí akceptovat ty strojové výsledky.

Moderátor:  Jaký rozdíl podle vás udělal stroj s umělou inteligencí? Myslíte si, že to znamenalo, že byli schopni rychleji zabít více lidí? Nebo snad, víte, bez toho stroje by bombardování mohlo být ještě nevybíravější?

Juval Abraham:   Jeden ze zdrojů mi řekl, že to prý ten stroj dělal chladnokrevně. Říkal, že 7. října všichni přišli osvé přátele. Víte, to, že jsme se tolik spoléhali na ten stroj, na ten statistický mechanismus, víte, to ho uklidňovalo. A při této operaci pracoval na úkor přesnosti. Na úkor toho, že se občas zaměřili na civilisty jako na cíle, a  na úkor lidského konání izraelských vojáků, a já jsem to viděl znovu a znovu v procesu při výpočtu, kolik civilistů je v každém domě,  některé zdroje říkaly, že ani nekontrolovali, jestli se jim podařilo cíle zabít, že se vykašlali na protokol BDA, na vyhodnocení škod způsobených cílů, zabijeme každého jednotlivého člena Hamásu, i když to znamená, že někdy zabijeme civilisty. A to i v případě, že to bude znamenat, že při tom zabijeme celé rodiny, řekl jeden ze zdrojů. 

Tato politika byla podle něj částečně motivována pomstou. A myslím, že poslední věc, kterou řeknu,  myslím, že pokud má mezinárodní právo nějaký  smysl, pokud když říkáme všechny ty věci, které jsme slyšeli v posledních měsících, princip proporcionality, princip rozlišování. Jestli ta slova mají význam, jestli to nejsou jenom, víte, nějaká, nějaká slova, která jen tak říkáme pak si myslím, že to, co ukazuje moje vyšetřování a co mi říkají moje zdroje, je, že armáda je jejich smysl zcela vyprázdnila.

1
Vytisknout
1715

Diskuse

Obsah vydání | 9. 4. 2024