„Lavender“: Izraelské bombardování Gazy řídí umělá inteligence. Zabíjí se tak obrovské množství civilistů

14. 7. 2025

čas čtení 50 minut

Izraelská armáda označila desítky tisíc obyvatel Gazy za osoby, které musejí být zavražděny, pomocí systému umělé inteligence s minimálním lidským dohledem a benevolentní politikou vůči obětem,
upozorňuje izraelský časopis +972. Znamená to, že je vyvražďováno obrovské množství civilistů

V roce 2021 vyšla v angličtině kniha s názvem „The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World“ (Tým člověk-stroj: Jak vytvořit synergii mezi lidskou a umělou inteligencí, která revolučním způsobem změní náš svět) pod pseudonymem „brigádní generál Y.S.“. V knize autor – muž, o kterém jsme zjistili, že je současným velitelem elitní izraelské zpravodajské jednotky 8200 – obhajuje návrh speciálního stroje, který by dokázal rychle zpracovat obrovské množství dat a vygenerovat tisíce potenciálních „cílů“ pro vojenské údery v zápalu války. Taková technologie by podle něj vyřešila to, co popsal jako „lidské úzké hrdlo při lokalizaci nových cílů a rozhodování o jejich schválení“.

 
Ukázalo se, že takový stroj skutečně existuje. Nové vyšetřování magazínu +972 Magazine a Local Call odhalilo, že izraelská armáda vyvinula program založený na umělé inteligenci známý jako „Lavender“, který je zde poprvé představen. Podle šesti izraelských zpravodajských důstojníků, kteří všichni sloužili v armádě během současné války v pásmu Gazy a měli přímou zkušenost s používáním AI k generování cílů pro atentáty, Lavender sehrál ústřední roli v bezprecedentním bombardování Palestinců, zejména v raných fázích války. Podle zdrojů byl jeho vliv na vojenské operace natolik velký, že výsledky AI stroje byly v podstatě považovány „za lidské rozhodnutí“.

Formálně je systém Lavender navržen tak, aby označoval všechny podezřelé členy vojenských křídel Hamásu a Palestinského islámského džihádu (PIJ), včetně těch níže postavených, jako potenciální cíle bombardování. Zdroje sdělily +972 a Local Call, že během prvních týdnů války se armáda téměř výhradně spoléhala na Lavender, který označil až 37 000 Palestinců jako podezřelé militanty – a jejich domy – pro možné letecké údery.

V počáteční fázi války armáda dala důstojníkům plnou volnost v přijímání seznamů osob určených k likvidaci, které systém Lavender vytvořil, aniž by museli důkladně ověřovat, proč stroj tyto osoby vybral, nebo zkoumat surová zpravodajská data, na nichž se jeho rozhodnutí zakládala. Jeden zdroj uvedl, že lidský personál často sloužil pouze jako „razítko“ pro rozhodnutí stroje, a dodal, že normálně každému cíli věnovali pouze asi „20 sekund“, než schválili bombardování – jen aby se ujistili, že cíl označený Lavenderem je muž. A to i přesto, že věděli, že systém dělá v přibližně 10 % případů „chyby“ a že občas označí osoby, které mají pouze volné spojení s militantními skupinami nebo nemají žádné spojení vůbec.

Izraelská armáda navíc systematicky útočila na vybrané osoby v jejich domovech – obvykle v noci, když byly přítomny celé jejich rodiny – namísto během vojenských operací. Podle zdrojů to bylo proto, že z hlediska zpravodajské služby bylo snazší lokalizovat osoby v jejich soukromých domech. Další automatizované systémy, včetně systému nazvaného „Kde je táta?“, který byl také poprvé odhalen, byly používány speciálně ke sledování cílených osob a provádění bombových útoků, když vstoupily do svých rodinných domů.

Výsledkem bylo, jak dosvědčily zdroje, že tisíce Palestinců – většinou ženy a děti nebo lidé, kteří se neúčastnili bojů – byly izraelskými leteckými údery, zejména během prvních týdnů války, vyvražděny na základě rozhodnutí programu umělé inteligence.

„Nezajímalo nás zabíjet členy Hamásu pouze tehdy, když se nacházeli ve vojenské budově nebo se účastnili vojenské činnosti,“ řekl A., důstojník zpravodajské služby, pro +972 a Local Call. „Naopak, IDF je bez váhání bombardovala v jejich domovech jako první možnost. Je mnohem snazší bombardovat rodinný dům. Systém je navržen tak, aby je v těchto situacích vyhledával.“

Systém Lavender se připojuje k dalšímu systému umělé inteligence, „The Gospel“, o kterém byly informace odhaleny v předchozím vyšetřování +972 a Local Call v listopadu 2023, stejně jako v publikacích izraelské armády. Zásadní rozdíl mezi těmito dvěma systémy spočívá v definici cíle: zatímco The Gospel označuje budovy a stavby, ze kterých podle armády operují militanti, Lavender označuje lidi – a zařazuje je na seznam osob určených k zabití.
 
Kromě toho podle zdrojů armáda v případě bezvýznamných militantů označených systémem Lavender upřednostňovala použití neřízených raket, běžně známých jako „hloupé“ bomby (na rozdíl od „chytrých“ přesných bomb). Hloupé bomby mohou zničit celé budovy i s jejich obyvateli a způsobit značné ztráty na životech. „Nechcete plýtvat drahými bombami na nedůležité lidi – je to pro zemi velmi nákladné a [těchto bomb] je nedostatek,“ řekl C., jeden z důstojníků zpravodajské služby. Jiný zdroj uvedl, že osobně schválil bombardování „stovek“ soukromých domů údajných bezvýznamných členů hnutí označených Lavenderem, přičemž při mnoha z těchto útoků zahynuli civilisté a celé rodiny jako „vedlejší ztráty“.

Podle dvou zdrojů armáda v bezprecedentním kroku během prvních týdnů války také rozhodla, že na každého nižšího člena Hamásu, kterého Lavender označil, je možné zabít až 15 nebo 20 civilistů; v minulosti armáda při vraždách níže postavených militantů žádné „vedlejší ztráty“ neschvalovala. Zdroje dodaly, že v případě, že cílem byl vysoký představitel Hamásu v hodnosti velitele praporu nebo brigády, armáda v několika případech povolila zabití více než 100 civilistů při atentátu na jednoho velitele.

Následující vyšetřování je uspořádáno podle šesti chronologických fází vysoce automatizovaného vytváření cílů izraelskou armádou v prvních týdnech války v Gaze. Nejprve vysvětlíme samotný systém Lavender, který pomocí umělé inteligence označil desítky tisíc Palestinců. Poté odhalíme systém „Where’s Daddy?“, který tyto cíle sledoval a signalizoval to armádě, když vstoupily do svých rodinných domů. Poté popíšeme, jak byly vybrány „hloupé“ bomby k útoku na tyto domy.

Za čtvrté vysvětlíme, jak armáda uvolnila povolený počet civilistů, kteří mohli být zabiti při bombardování cíle. Za páté poukážeme na to, jak automatizovaný software nepřesně vypočítal počet neozbrojených osob v každé domácnosti. A za šesté ukážeme, jak v několika případech, kdy byl dům zasažen, obvykle v noci, nebyl jednotlivý cíl vůbec uvnitř, protože vojáci neověřili informace v reálném čase.

KROK 1: VYTVÁŘENÍ CÍLŮ
„Jakmile přejdete na automatický režim, generování cílů se vymkne kontrole.“

V izraelské armádě se termín „lidský cíl“ v minulosti vztahoval na vysokého vojenského důstojníka, který podle pravidel vojenského oddělení mezinárodního práva mohl být zabit ve svém soukromém domě, i když se v jeho okolí nacházeli civilisté. Zpravodajské zdroje sdělily +972 a Local Call, že během předchozích válek Izraele, jelikož se jednalo o „obzvláště brutální“ způsob zabíjení – často byla spolu s cílem zabita celá rodina –, byli tito lidské cíle velmi pečlivě označovány a bombardovány byly pouze domy vysokých vojenských velitelů, aby byla dodržena zásada proporcionality podle mezinárodního práva.

Ale po 7. říjnu, kdy militanti vedeni Hamasem zahájili smrtící útok na jižní izraelské obce, při kterém zabili asi 1 200 lidí a unesli 240, armáda podle zdrojů zaujala dramaticky odlišný přístup. V rámci „Operace Železné meče“ se armáda rozhodla označit všechny členy vojenského křídla Hamásu za lidské cíle, bez ohledu na jejich hodnost nebo vojenskou důležitost. A to  změnilo všechno.

Nová politika také představovala technický problém pro izraelskou rozvědku. V předchozích válkách musel důstojník, aby mohl schválit vraždu jediného lidského cíle, projít složitým a zdlouhavým „inkriminačním“ procesem: ověřit důkazy, že daná osoba je skutečně vysokým členem vojenského křídla Hamásu, zjistit, kde bydlí, jeho kontaktní údaje a nakonec zjistit, kdy je v reálném čase doma. Když seznam cílů čítal jen několik desítek vysokých činitelů, mohli zpravodajští pracovníci individuálně zvládnout práci spojenou s jejich usvědčením a lokalizací.

Jakmile se však seznam rozšířil o desítky tisíc nižších členů, izraelská armáda usoudila, že se musí spolehnout na automatizovaný software a umělou inteligenci. Výsledkem bylo, jak svědčí zdroje, že role lidského personálu při usvědčování Palestinců jako vojenských agentů byla odsunuta stranou a většinu práce místo toho vykonávala umělá inteligence. Podle čtyř zdrojů, které hovořily s +972 a Local Call, označil Lavender – který byl vyvinut pro vytváření lidských cílů v současné válce – k vyvraždění asi 37 000 Palestinců jako podezřelé „militanty Hamásu“, z nichž většina jsou bezvýznamní  členové (mluvčí IDF popřel existenci takového seznamu osob určených k likvidaci v prohlášení pro +972 a Local Call).

„Nevěděli jsme, kdo jsou ti bezvýznamní členové, protože Izrael je [před válkou] rutinně nesledoval,“ vysvětlil vysoký důstojník B. pro +972 a Local Call, čímž objasnil důvod vývoje tohoto konkrétního nástroje pro výběr cílů pro současnou válku. „Chtěli nám umožnit automaticky útočit [na bezvýznamné členy]. To je svatý grál. Jakmile přejdete na automatický režim, generování cílů se zblázní.“

Zdroje uvedly, že schválení automatického přijetí seznamů osob určených k likvidaci, které byly dosud používány pouze jako pomocný nástroj, bylo uděleno asi dva týdny po začátku války, poté, co zpravodajští pracovníci „ručně“ zkontrolovali přesnost náhodného vzorku několika stovek cílů vybraných systémem AI. Když tento vzorek zjistil, že výsledky Lavenderu dosáhly 90% přesnosti při identifikaci příslušnosti jednotlivců k Hamásu, armáda povolila plošné používání systému. Od té chvíle, jak uvedly zdroje, pokud Lavender rozhodl, že určitá osoba je militantem Hamásu, bylo v podstatě požadováno, aby to bylo považováno za rozkaz, bez nutnosti nezávisle ověřovat, proč stroj učinil tento výběr, nebo zkoumat surová zpravodajská data, z nichž vycházel.

„V 5 hodin ráno [letectvo]  bombardovalo všechny domy, které jsme označili,“ řekl B. „Zabili jsme tisíce lidí. Nechodili jsme je procházet jednoho po druhém – vše jsme zadali do automatizovaných systémů a jakmile byl jeden z [označených jedinců] doma, okamžitě se stal terčem. Bombardovali jsme ho i jeho dům.“

„Bylo pro mě velmi překvapivé, že jsme dostali za úkol bombardovat dům, abychom zabili pozemního vojáka, jehož význam v boji byl tak nízký,“ řekl jeden zdroj o použití AI k označení údajných militantů nízké hodnosti. „Tyto cíle jsem přezdíval ‚cíle na smetiště‘. Přesto mi připadaly etičtější než cíle, které jsme bombardovali jen pro ‚odstrašení‘ – výškové budovy, které byly evakuovány a zbořeny jen proto, aby způsobily zničení.“

Smrtící důsledky tohoto uvolnění omezení v rané fázi války byly ohromující. Podle údajů palestinského ministerstva zdravotnictví v Gaze, na které se izraelská armáda od začátku války téměř výlučně spoléhá, zabil Izrael v prvních šesti týdnech války, až do uzavření týdenního příměří 24. listopadu, přibližně 15 000 Palestinců.

„Čím více informací a čím rozmanitější, tím lépe“

Software Lavender analyzuje informace shromážděné o většině z 2,3 milionu obyvatel pásma Gazy prostřednictvím systému hromadného sledování, poté vyhodnocuje a řadí pravděpodobnost, že daná osoba je aktivní v vojenském křídle Hamásu nebo PIJ. Podle zdrojů tento stroj přidělí téměř každé osobě v Gaze hodnocení od 1 do 100, které vyjadřuje pravděpodobnost, že se jedná o militanta. 

Lavender se učí rozpoznávat charakteristické rysy známých členů Hamásu a PIJ, jejichž informace byly do stroje vloženy jako trénovací data, a poté tyto stejné charakteristické rysy – nazývané také „vlastnosti“ – vyhledávat u běžné populace, vysvětlily zdroje. Jedinec, u kterého bylo zjištěno několik různých usvědčujících rysů, dosáhne vysokého hodnocení a automaticky se tak stane potenciálním cílem atentátu. 

V knize „The Human-Machine Team“, na kterou odkazujeme na začátku tohoto článku, současný velitel jednotky 8200 obhajuje takový systém, aniž by jmenoval Lavender. (Velitel sám není jmenován, ale pět zdrojů z jednotky 8200 potvrdilo, že autorem je právě on, jak uvádí také deník Haaretz.) Velitel popisuje lidský personál jako „úzké hrdlo“, které omezuje kapacitu armády během vojenské operace, a lamentuje: „My [lidé] nedokážeme zpracovat tolik informací. Nezáleží na tom, kolik lidí máte během války pověřeno vyhledáváním cílů – stejně jich za den nemůžete najít dost.“

Řešením tohoto problému je podle něj umělá inteligence. Kniha nabízí krátkého průvodce sestavením „cílového stroje“, který je podle popisu podobný Lavenderu a je založen na umělé inteligenci a algoritmech strojového učení. Součástí tohoto průvodce je několik příkladů „stovek a tisíců“ vlastností, které mohou zvýšit hodnocení jednotlivce, jako je členství ve skupině Whatsapp se známým militantem, výměna mobilního telefonu každých několik měsíců a častá změna adresy. 

„Čím více informací a čím větší jejich rozmanitost, tím lépe,“ píše velitel. „Vizuální informace, informace z mobilních telefonů, spojení na sociálních médiích, informace z bojiště, telefonní kontakty, fotografie.“ Zatímco tyto vlastnosti zpočátku vybírají lidé, velitel pokračuje, že v průběhu času bude stroj identifikovat vlastnosti sám. To podle něj umožní armádám vytvořit „desítky tisíc cílů“, přičemž skutečné rozhodnutí, zda je napadnout, zůstane na lidech.

Kniha není jediným případem, kdy vysoký izraelský velitel naznačil existenci strojů na vyhledávání lidských cílů, jako je Lavender. +972 a Local Call získaly záznam soukromé přednášky velitele tajného centra pro datovou vědu a umělou inteligenci jednotky 8200, „plukovníka Yoava“, na týdnu umělé inteligence na Telavivské univerzitě v roce 2023, o kterém v té době informovala izraelská média.

Ve své přednášce velitel hovoří o novém sofistikovaném stroji používaném izraelskou armádou, který detekuje „nebezpečné osoby“ na základě jejich podobnosti se seznamem známých militantů, na kterém byl stroj trénován. „Pomocí tohoto systému se nám podařilo identifikovat velitele raketových oddílů Hamásu,“ řekl „plukovník Yoav“ ve své přednášce s odkazem na izraelskou vojenskou operaci v Gaze v květnu 2021, kdy byl stroj poprvé použit.
 
Prezentace přednášky, kterou rovněž získaly +972 a Local Call, obsahuje ilustrace fungování zařízení: je napájeno daty o existujících členech Hamásu, učí se rozpoznávat jejich rysy a poté hodnotí ostatní Palestince na základě jejich podobnosti s militanty.

„Výsledky seřadíme a stanovíme prahovou hodnotu [pro útok na cíl],“ řekl „plukovník Yoav“ v přednášce a zdůraznil, že „nakonec rozhodnutí činí lidé z masa a kostí. V oblasti obrany klademe z etického hlediska velký důraz na tento aspekt. Tyto nástroje mají [zpravodajským důstojníkům] pomoci překonat jejich bariéry.“

V praxi však zdroje, které Lavender v posledních měsících používaly, tvrdí, že lidská činnost a přesnost byly nahrazeny masovým vytvářením cílů a smrtící silou.

„Neexistovala politika „nulové chyby“

B., vysoký důstojník, který Lavender používal, potvrdil +972 a Local Call, že v současné válce nemuseli důstojníci samostatně přezkoumávat hodnocení AI systému, aby se ušetřil čas a umožnila masová produkce lidských cílů bez překážek. 

„Všechno bylo statistické, všechno bylo přehledné – bylo to velmi suché,“ řekl B. Poznamenal, že tento nedostatek dohledu byl povolen navzdory interním kontrolám, které ukázaly, že výpočty Lavenderu byly považovány za přesné pouze v 90 % případů; jinými slovy, bylo předem známo, že 10 % lidských cílů určených k likvidaci vůbec nebyli členové vojenského křídla Hamásu.

Zdroje například vysvětlily, že Lavender někdy omylem označil osoby, které měly komunikační vzorce podobné známým členům Hamásu nebo PIJ – včetně policistů a pracovníků civilní obrany, příbuzných militantů, obyvatel, kteří náhodou měli stejné jméno a přezdívku jako členové organizace, a obyvatel Gazy, kteří používali zařízení, které kdysi patřilo členovi Hamásu.

„Jak blízko musí být člověk Hamásu, aby byl [umělou inteligencí označen za] člena této organizace?“ řekl jeden zdroj kritizující nepřesnost systému Lavender. „Je to nejasná hranice. Je člověk, který nedostává od Hamásu plat, ale pomáhá mu s nejrůznějšími věcmi, členem Hamásu? Je to někdo, kdo byl v minulosti členem Hamásu, ale dnes již není, členem Hamásu? Každá z těchto vlastností – charakteristik, které stroj označí jako podezřelé – je nepřesná.“

Podobné problémy existují i u schopnosti cílových strojů posoudit telefon používaný osobou označenou k likvidaci. „Ve válce Palestinci neustále mění telefony,“ řekl zdroj. „Lidé ztrácejí kontakt se svými rodinami, půjčují telefony přátelům nebo manželkám, možná je ztratí. Nelze se stoprocentně spolehnout na automatický mechanismus, který určuje, které číslo patří komu.“

Podle zdrojů armáda věděla, že minimální lidský dohled tyto chyby neodhalí. „Neexistovala politika nulové chyby. Chyby byly zpracovávány statisticky,“ uvedl zdroj, který používal Lavender. „Vzhledem k rozsahu a velikosti operace platilo, že i když si nejste jisti, že stroj má pravdu, statisticky je to v pořádku. Tak do toho jdete.“

„Osvědčilo se to,“ řekl B., vysoký zdroj. „Statistický přístup má něco, co vás nastaví na určitou normu a standard. V této operaci došlo k nelogickému množství [bombových útoků]. V mé paměti to nemá obdoby. A já mám mnohem větší důvěru ve statistický mechanismus než voják, který před dvěma dny ztratil přítele. Všichni včetně mě, ztratili 7. října někoho blízkého. Stroj to udělal chladnokrevně. A to to usnadnilo.“

Další zdroj z tajných služeb, který obhajoval spoléhání se na seznamy palestinských podezřelých k likvidaci vytvořené Lavenderem, argumentoval, že investovat čas tajného agenta do ověřování informací se vyplatí pouze v případě, že cílem je vysoký velitel Hamásu. „Ale když jde o nižšího militanta, nechcete do toho investovat lidské síly a čas,“ řekl. „Ve válce není čas obviňovat každý cíl. Jste tedy ochotni přijmout riziko chyby při použití umělé inteligence, riziko vedlejších škod a smrti civilistů a riziko omylného útoku, a smířit se s tím.“

B. uvedl, že důvodem této automatizace byl neustálý tlak na generování dalších cílů pro atentáty. „V den, kdy nebyly žádné cíle [jejichž hodnocení bylo dostatečné k povolení útoku], jsme útočili s nižší prahovou hodnotou. Byli jsme neustále pod tlakem: ‚Přineste nám další cíle.‘ Opravdu na nás křičeli. Naše cíle jsme [zabili] velmi rychle.“

Vysvětlil, že při snížení prahové hodnoty hodnocení systému Lavender se jako cíle pro útoky označilo více lidí. „V nejhorším případě systém dokázal vygenerovat 37 000 lidí jako potenciální lidské cíle,“ řekl B. „Ale čísla se neustále měnila, protože záleží na tom, kde nastavíte laťku pro to, co je člen Hamásu. Byly chvíle, kdy byl člen Hamásu definován šířeji, a pak nám stroj začal přinášet všechny možné osoby z civilní obrany, policisty, na které by byla škoda plýtvat bomby. Pomáhají vládě Hamásu, ale ve skutečnosti vojáky neohrožují.“

Jeden zdroj, který pracoval s vojenským týmem pro datovou vědu, který školil Lavender, uvedl, že do systému byly vkládány také údaje shromážděné od zaměstnanců ministerstva vnitřní bezpečnosti řízeného Hamásem, kteří nejsou považováni  za militanty. „Vadilo mi, že při školení Lavenderu byl pojem ‚člen Hamásu‘ používán velmi volně a do školicího souboru dat byli zahrnuti i pracovníci civilní obrany,“ řekl.

Zdroj dodal, že i kdybychom věřili, že tito lidé zaslouží smrt, trénování systému na základě jejich komunikačních profilů zvyšovalo pravděpodobnost, že Lavender omylem vybere civilisty, když byly jeho algoritmy aplikovány na běžnou populaci. „Jelikož se jedná o automatický systém, který není ovládán lidmi, má toto rozhodnutí dramatický význam: znamená to, že jako potenciální cíle zahrnujete mnoho lidí s civilním komunikačním profilem.“

„Zkontrolovali jsme pouze to, zda se jedná o muže.“

Izraelská armáda tato tvrzení kategoricky odmítá. V prohlášení pro +972 a Local Call mluvčí IDF popřel, že by k usvědčování cílů používal umělou inteligenci, a uvedl, že se jedná pouze o „pomocné nástroje, které pomáhají důstojníkům v procesu usvědčování“. Prohlášení pokračovalo: „V každém případě je nutná nezávislá kontrola analytikem [zpravodajské služby], který ověří, zda jsou identifikované cíle legitimními cíli útoku v souladu s podmínkami stanovenými v směrnicích IDF a mezinárodním právem.“ 

Zdroje však uvedly, že jediným protokolem lidského dohledu, který byl zaveden před bombardováním domů podezřelých „bezvýznamných“ militantů označených Lavenderem, byla jediná kontrola: ověření, zda je cíl vybraný umělou inteligencí muž nebo žena. V armádě se předpokládalo, že pokud byl cílem žena, stroj pravděpodobně udělal chybu, protože v řadách vojenských křídel Hamásu a PIJ nejsou žádné ženy.

„Člověk musel [ověřit cíl] jen za pár vteřin,“ řekl B. a vysvětlil, že se to stalo protokolem poté, co si uvědomili, že systém Lavender „funguje správně“ ve většině případů. „Nejprve jsme prováděli kontroly, abychom se ujistili, že se stroj nespletl. Ale v určitém okamžiku jsme se spolehli na automatický systém a kontrolovali jsme pouze to, zda [cíl] je muž – to stačilo. Netrvá dlouho zjistit, zda má někdo mužský nebo ženský hlas.“ 

B. tvrdil, že v současné válce prováděl kontrolu pohlaví tak, že „v této fázi jsem každému cíli věnoval 20 sekund a každý den jich zkontroloval desítky. Jako člověk jsem neměl žádnou přidanou hodnotu, kromě toho, že jsem byl razítkem schvalujícím. Ušetřilo to spoustu času. Pokud se [agent] objevil v automatizovaném mechanismu a já zkontroloval, že je to muž, bylo povoleno ho bombardovat, s výhradou posouzení vedlejších škod.“

V praxi to podle zdrojů znamenalo, že u civilních mužů, které Lavender omylem označil, neexistoval žádný kontrolní mechanismus, který by chybu odhalil. Podle B. k časté chybě docházelo, „když cíl [Hamasu] dal [svůj telefon] svému synovi, staršímu bratrovi nebo jen náhodnému muži. Ten člověk byl bombardován ve svém domě spolu se svou rodinou. To se stávalo často. Většina chyb byla způsobena Lavenderem,“ řekl B.

KROK 2: PROPOJENÍ CÍLŮ S RODINNÝMI DOMOVY
„Většinu lidí, které jste zabili, byly ženy a děti“

Další fází postupu izraelské armády při vraždách je identifikace míst, kde zaútočit na cíle, které vygeneruje Lavender.

V prohlášení pro +972 a Local Call mluvčí IDF v reakci na tento článek uvedl, že „Hamas umisťuje své agenty a vojenské prostředky do středu civilního obyvatelstva, systematicky využívá civilisty jako lidské štíty a vede boje z civilních budov, včetně citlivých míst, jako jsou nemocnice, mešity, školy a zařízení OSN. IDF je vázána mezinárodním právem a jedná v souladu s ním, přičemž své útoky směřuje pouze na vojenské cíle a vojenské agenty.“ 

Šest zdrojů, se kterými jsme hovořili, to do jisté míry potvrdilo a uvedlo, že rozsáhlý systém tunelů Hamásu záměrně prochází pod nemocnicemi a školami, že militanti Hamásu používají k přesunům sanitky a že v blízkosti civilních budov se nachází nespočet vojenských prostředků. Zdroje tvrdily, že mnoho izraelských útoků zabíjí civilisty v důsledku těchto taktik Hamásu – což je charakteristika, která podle varování lidskoprávních skupin zbavuje Izrael odpovědnosti za způsobené oběti.
 
Na rozdíl od oficiálních prohlášení izraelské armády však zdroje vysvětlily, že hlavním důvodem bezprecedentního počtu obětí při současném bombardování Izraelem je skutečnost, že armáda systematicky útočí na cíle v jejich soukromých domech, spolu s jejich rodinami – částečně proto, že z hlediska zpravodajské služby bylo snazší označit rodinné domy pomocí automatizovaných systémů.

Několik zdrojů skutečně zdůraznilo, že na rozdíl od četných případů, kdy se členové Hamásu zapojovali do vojenských aktivit z civilních oblastí, v případě systematických vražedných útoků se armáda běžně rozhodovala bombardovat podezřelé militanty, když se nacházeli v civilních domácnostech, z nichž neprobíhala žádná vojenská činnost. Toto rozhodnutí podle nich odráží způsob, jakým je navržen izraelský systém hromadného sledování v Gaze.

Zdroje sdělily +972 a Local Call, že jelikož každý v Gaze má soukromý dům, se kterým může být spojován, armádní sledovací systémy mohou snadno a automaticky „propojit“ jednotlivce s rodinnými domy. Aby bylo možné v reálném čase identifikovat okamžik, kdy členové hnutí vstoupí do svých domů, byly vyvinuty různé další automatické softwarové programy. Tyto programy sledují tisíce osob současně, identifikují, kdy jsou doma, a automaticky zasílají výstrahu důstojníkovi, který pak označí dům k bombardování. Jeden z několika těchto sledovacích softwarů, který je zde poprvé odhalen, se jmenuje „Kde je táta?“

„Do systému zadáte stovky [cílů] a čekáte, koho můžete zabít,“ řekl jeden zdroj obeznámený s tímto systémem. „Říká se tomu široký lov: kopírujete a vkládáte ze seznamů, které vytvoří systém cílů.“

Důkazy o této politice jsou zřejmé i z údajů: během prvního měsíce války více než polovina obětí – 6 120 lidí – patřila k 1 340 rodinám, z nichž mnohé byly podle údajů OSN zcela vyhlazeny ve svých domovech. Podíl celých rodin bombardovaných ve svých domech je v současné válce mnohem vyšší než při izraelské operaci v Gaze v roce 2014 (která byla dosud nejkrvavější válkou Izraele v pásmu), což dále naznačuje význam této politiky.

Jiný zdroj uvedl, že pokaždé, když tempo vražd zpomalilo, byly do systémů jako „Kde je táta?“ přidány další cíle, aby bylo možné lokalizovat osoby, které vstoupily do svých domovů a mohly být tedy bombardovány. Uvedl, že rozhodnutí o tom, koho zařadit do sledovacích systémů, mohlo být učiněno relativně nízkými důstojníky ve vojenské hierarchii. 

„Jednoho dne jsem zcela z vlastní iniciativy přidal do [sledovacího] systému asi 1 200 nových cílů, protože počet útoků [které jsme prováděli] klesl,“ uvedl zdroj. „Dávalo mi to smysl. Zpětně se mi to jeví jako vážné rozhodnutí. A taková rozhodnutí se nedělala na vysokých místech.“

Zdroje uvedly, že v prvních dvou týdnech války bylo do lokalizačních programů, jako je Where's Daddy?, zapsáno „několik tisíc“ cílů. Patřili mezi ně všichni členové elitní speciální jednotky Hamásu Nukhba, všichni protitankoví agenti Hamásu a kdokoli, kdo 7. října vstoupil na území Izraele. Brzy však byl seznam osob určených k zabití drasticky rozšířen.
 
„Nakonec to byli všichni [označení Lavenderem],“ vysvětlil jeden zdroj. „Desítky tisíc. Stalo se to o několik týdnů později, když [izraelské] brigády vstoupily do Gazy a v severních oblastech už bylo méně nezúčastněných osob [tj. civilistů].“ Podle tohoto zdroje označil Lavender jako cíle bombardování dokonce i některé nezletilé osoby. „Normálně jsou agenti starší 17 let, ale to nebyla podmínka.“

Lavender a systémy jako Where's Daddy? byly tak kombinovány se smrtícím účinkem a zabíjely celé rodiny, uvedly zdroje. A. vysvětlil, že přidáním jména z seznamů generovaných Lavenderem do systému sledování domácností Where's Daddy? byla označená osoba umístěna pod neustálý dohled a mohla být napadena, jakmile vkročila do svého domu, čímž se dům zřítil na všechny uvnitř.

„Řekněme, že vypočítáte, že v domě je jeden člen Hamásu a 10 civilistů,“ řekl A. „Obvykle se jedná o ženy a děti. Absurdní je, že většinu zabitých lidí tvoří ženy a děti.“

KROK 3: VÝBĚR ZBRANĚ
„Útoky jsme obvykle prováděli pomocí „hloupých bomb“

Jakmile Lavender označí cíl k likvidaci, vojáci ověří, že se jedná o muže, a sledovací software lokalizuje cíl v jeho domě. Dalším krokem je výběr munice, kterou bude cíl bombardován.

V prosinci 2023 CNN informovala, že podle odhadů amerických zpravodajských služeb bylo asi 45 procent munice použité izraelským letectvem v Gaze „hloupými“ bombami, o nichž je známo, že způsobují větší vedlejší škody než řízené bomby. V reakci na zprávu CNN citoval článek mluvčí armády: „Jako armáda dodržující mezinárodní právo a morální kodex chování vynakládáme značné prostředky na minimalizaci škod na civilistech, které Hamas donutil, aby se stali lidskými štíty. Naše válka je proti Hamasu, ne proti obyvatelům Gazy.“

Tři zpravodajské zdroje však sdělily +972 a Local Call, že nižší členové operace označení Lavenderem byli zabíjeni pouze hloupými bombami, aby se ušetřily dražší zbraně. Jeden zdroj vysvětlil, že to znamenalo, že armáda by neútočila na nižší cíle, pokud by žili ve výškové budově, protože armáda nechtěla utratit přesnější a dražší „podlahovou bombu“ (s omezenějším vedlejším účinkem), aby je zabila. Pokud však podřízený cíl žil v budově s pouze několika patry, armáda měla povolení zabít ho i všechny ostatní osoby v budově pomocí neřízené bomby.

„Tak to bylo se všemi podřízenými cíli,“ svědčil C., který v současné válce používal různé automatizované programy. „Jedinou otázkou bylo, zda je možné zaútočit na budovu z hlediska vedlejších škod. Protože jsme útoky obvykle prováděli hloupými bombami, což znamenalo doslova zničení celého domu i s jeho obyvateli. Ale i když se útok podaří odvrátit, je to jedno – okamžitě se přesunete k dalšímu cíli. Díky tomuto systému cíle nikdy nekončí. Čeká na vás dalších 36 000.“

KROK 4: SCHVÁLENÍ CIVILNÍCH OBĚTÍ
„Útočili jsme téměř bez ohledu na vedlejší škody“

Jeden zdroj uvedl, že při útocích na nižší operativce, včetně těch, kteří byli označeni systémy umělé inteligence, jako je Lavender, byl počet civilistů, které bylo možné zabít spolu s každým cílem, během prvních týdnů války stanoven na maximálně 20. Jiný zdroj tvrdil, že pevně stanovený počet byl až 15. Tyto „stupně vedlejších škod“, jak je nazývá armáda, byly podle zdrojů široce aplikovány na všechny podezřelé bezvýznamné militanty, bez ohledu na jejich hodnost, vojenskou důležitost a věk, a bez konkrétního posouzení jednotlivých případů, které by zvážilo vojenskou výhodu jejich zabití oproti očekávané újmě na civilistech.

Podle A., který byl důstojníkem v operační místnosti pro cílené operace v současné válce, mezinárodní právní oddělení armády nikdy předtím nedalo tak „plošné schválení“ pro tak vysoký stupeň vedlejších škod. „Nejde jen o to, že můžete zabít jakoukoli osobu, která je vojákem Hamásu, což je z hlediska mezinárodního práva jasně povoleno a legitimní,“ řekl A. „Ale oni vám přímo řeknou: ‚Můžete je zabít spolu s mnoha civilisty.‘ 

„Každý, kdo v posledním roce nebo dvou nosil uniformu Hamásu, mohl být bombardován s 20 civilními oběťmi jako vedlejšími ztrátami, a to i bez zvláštního povolení,“ pokračoval A. „V praxi princip proporcionality neexistoval.“

Podle A. to byla politika, která platila po většinu doby, kdy sloužil. Teprve později armáda snížila míru vedlejších ztrát. „V tomto výpočtu to mohlo být i 20 dětí na jednoho bezvýznamného operativce... V minulosti to tak opravdu nebylo,“ vysvětlil A. Na otázku ohledně bezpečnostních důvodů této politiky A. odpověděl: „Smrtelnost.“

Předem stanovený a pevný stupeň vedlejších škod podle zdrojů pomohl urychlit hromadné vytváření cílů pomocí systému Lavender, protože to šetřilo čas. B. tvrdil, že počet civilistů, které mohli v prvním týdnu války zabít na jednoho podezřelého bezvýznamného militanta označeného umělou inteligencí, byl patnáct, ale že tento počet se v průběhu času „měnil“.
 
„Zpočátku jsme útočili téměř bez ohledu na vedlejší škody,“ řekl B. o prvním týdnu po 7. říjnu. „V praxi jste lidi [v každém bombardovaném domě] opravdu nepočítali, protože jste nemohli poznat, jestli jsou doma nebo ne. Po týdnu začala omezení vedlejších škod. Počet klesl [z 15] na pět, což nám útoky velmi ztížilo, protože pokud byla doma celá rodina, nemohli jsme dům bombardovat. Pak počet opět zvýšili.“

„Věděli jsme, že zabijeme přes 100 civilistů“

Zdroje sdělily +972 a Local Call, že nyní, částečně pod tlakem USA, izraelská armáda již masově nevytváří bezvýznamné lidské cíle pro bombardování civilních domů. Skutečnost, že většina domů v pásmu Gazy byla již zničena nebo poškozena a téměř celé obyvatelstvo bylo vysídleno, také zhoršila schopnost armády spoléhat se na zpravodajské databáze a automatizované programy pro lokalizaci domů. 

E. tvrdil, že masivní bombardování bezvýznamných militantů proběhlo pouze v prvních dvou týdnech války a poté bylo zastaveno hlavně proto, aby se neplýtvalo bombami. „Je tu úsporná politika v oblasti munice,“ řekl E. „Vždy se báli, že dojde k válce na severu [s Hizballáhem v Libanonu]. Na takovéto [bezvýznamné] lidi už vůbec neútočí.“
 
Letecké údery proti vysokým velitelům Hamásu však stále pokračují a zdroje uvádějí, že pro tyto útoky armáda povoluje zabití „stovek“ civilistů na jeden cíl – což je oficiální politika, která nemá v Izraeli ani v nedávných vojenských operacích USA historický precedens.

„Při bombardování velitele praporu Shuja'iya jsme věděli, že zabijeme přes 100 civilistů,“ vzpomíná B. na bombardování z 2. prosince, které podle mluvčího IDF mělo za cíl zavraždit Wisama Farhata. „Pro mě to bylo psychologicky neobvyklé. Přes 100 civilistů – to překračuje nějakou červenou čáru.“


Amjad Al-Sheikh, mladý Palestinec z Gazy, řekl, že při tomto bombardování zahynulo mnoho členů jeho rodiny. Obyvatel Shuja'iya, východně od města Gaza, byl toho dne v místním supermarketu, když uslyšel pět výbuchů, které rozbily skleněné výlohy.

„Běžel jsem k domu své rodiny, ale už tam nestála žádná budova,“ řekl Al-Sheikh pro +972 a Local Call. „Ulice byla plná křiku a kouře. Celé obytné bloky se proměnily v hory trosek a hluboké jámy. Lidé začali rukama prohrabávat cement a já také, hledal jsem stopy po domě své rodiny.“
 
Al-Sheikhova žena a malá dcera přežily – chránily je trosky skříně, která na ně spadla –, ale on našel pod troskami 11 dalších členů své rodiny, mezi nimi své sestry, bratry a jejich malé děti. Podle lidskoprávní organizace B'Tselem bombardování toho dne zničilo desítky budov, zabilo desítky lidí a pohřbilo stovky pod troskami jejich domovů.

„Zahynuly celé rodiny“

Zdroje zpravodajských služeb sdělily +972 a Local Call, že se podílely na ještě smrtelnějších útocích. Aby byl zavražděn Ayman Nofal, velitel brigády Hamásu v centrální Gaze, armáda podle jednoho zdroje povolila zabití přibližně 300 civilistů a zničení několika budov při leteckých útocích na uprchlický tábor Al-Bureij 17. října, a to na základě nepřesného určení polohy Nofal. Satelitní snímky a videa z místa činu ukazují zničení několika velkých vícepodlažních bytových domů.

„Při útoku bylo zničeno 16 až 18 domů,“ řekl Amro Al-Khatib, obyvatel tábora, pro +972 a Local Call. „Nedokázali jsme rozeznat jednotlivé byty – všechny se smíchaly v troskách a všude jsme nacházeli části lidských těl.“

Al-Khatib vzpomíná, že z trosek bylo vytaženo asi 50 mrtvých těl a asi 200 lidí bylo zraněno, mnoho z nich těžce. Ale to byl jen první den. Obyvatelé tábora strávili pět dní vytahováním mrtvých a zraněných, řekl.

Nael Al-Bahisi, zdravotník, byl jedním z prvních na místě. První den napočítal 50 až 70 obětí. „V určitém okamžiku jsme pochopili, že cílem útoku byl velitel Hamásu Ayman Nofal,“ řekl +972 a Local Call. „Zabili ho a také mnoho lidí, kteří nevěděli, že tam je. Byly zabity celé rodiny s dětmi.“

Další zdroj zpravodajských služeb řekl +972 a Local Call, že armáda v polovině prosince zničila výškovou budovu v Rafahu a zabila „desítky civilistů“, aby se pokusila zabít Mohammeda Shabaneha, velitele brigády Hamásu v Rafahu (není jasné, zda byl při útoku zabit). Zdroj uvedl, že vysocí velitelé se často ukrývají v tunelech pod civilními budovami, a proto rozhodnutí zabít je leteckým úderem nutně vede ke smrti civilistů.

„Většina zraněných byli děti,“ řekl Wael Al-Sir (55), který byl svědkem rozsáhlého útoku, který někteří obyvatelé Gazy považují za pokus o atentát. Pro +972 a Local Call uvedl, že bombardování 20. prosince zničilo „celý obytný blok“ a zabilo nejméně 10 dětí.

„Vůči obětem [bombardovacích] operací byla uplatňována zcela tolerantní politika – tak tolerantní, že podle mého názoru měla prvky pomsty,“ tvrdil D., zdroj z tajných služeb. „Jádrem toho bylo zabíjení vysokých velitelů [Hamásu a PIJ], pro které byli ochotni zabít stovky civilistů. Měli jsme výpočet: kolik za velitele brigády, kolik za velitele praporu a tak dále.“

„Předpisy existovaly, ale byly velmi mírné,“ řekl E., další zdroj z tajných služeb. „Zabili jsme desítky, ne-li stovky lidí jako vedlejší ztráty. To se nikdy předtím nestalo.“

Tak vysoká míra „vedlejších ztrát“ je výjimečná nejen ve srovnání s tím, co izraelská armáda dříve považovala za přijatelné, ale také ve srovnání s válkami vedenými Spojenými státy v Iráku, Sýrii a Afghánistánu.

Generál Peter Gersten, zástupce velitele pro operace a zpravodajské služby v operaci proti ISIS v Iráku a Sýrii, řekl v roce 2021 americkému obrannému časopisu, že útok s vedlejšími ztrátami na životech 15 civilistů se odchýlil od postupu; aby jej mohl provést, musel získat zvláštní povolení od velitele Centrálního velitelství USA, generála Lloyda Austina, který je nyní ministrem obrany.

„V případě Usámy bin Ládina byste měli NCV [hodnota civilních obětí] 30, ale pokud jste měli velitele nižšího rangu, jeho NCV byla obvykle nulová,“ řekl Gersten. „My jsme měli dlouhou dobu nulovou hodnotu.“

„Bylo nám řečeno: ‚Bombardujte, co můžete.‘“

Všechny zdroje, které byly pro toto vyšetřování osloveny, uvedly, že masakry Hamásu ze 7. října a únosy rukojmích měly velký vliv na palebnou politiku armády a míru vedlejších škod. „Zpočátku byla atmosféra bolestivá a pomstychtivá,“ řekl B., který byl do armády povolán ihned po 7. říjnu a sloužil v operační místnosti. „Pravidla byla velmi benevolentní. Zničili čtyři budovy, i když věděli, že cíl je jen v jedné z nich. Bylo to šílené.

„Byla tam disonance: na jedné straně byli lidé frustrovaní, že neútočíme dost,“ pokračoval B. „Na druhé straně jste na konci dne viděli, že zemřelo dalších tisíc obyvatel Gazy, z nichž většina byli civilisté.“

„V řadách profesionálů panovala hysterie,“ řekl D., který byl také povolán do armády hned po 7. říjnu. „Neměli vůbec tušení, jak reagovat. Jediné, co uměli, bylo začít bombardovat jako šílení, aby se pokusili zničit schopnosti Hamásu.“

D. zdůraznil, že jim nebylo výslovně řečeno, že cílem armády je „pomsta“, ale vyjádřil se, že „jakmile se každý cíl spojený s Hamásem stane legitimním a jsou schváleny téměř všechny vedlejší škody, je jasné, že budou zabity tisíce lidí. I když je oficiálně každý cíl spojen s Hamasem, když je politika tak tolerantní, ztrácí to veškerý smysl.“

A. také použil slovo „pomsta“ k popisu atmosféry v armádě po 7. říjnu. „Nikdo nepřemýšlel o tom, co bude dál, až válka skončí, jak bude možné žít v Gaze a co s ní udělají,“ řekl A. „Bylo nám řečeno: teď musíme Hamás zničit, za každou cenu. Bombardujte, co můžete.“

B., vysoký zdroj z tajných služeb, řekl, že zpětně se domnívá, že tato „nepřiměřená“ politika zabíjení Palestinců v Gaze ohrožuje i Izraelce, a že to byl jeden z důvodů, proč se rozhodl poskytnout rozhovor.

„V krátkodobém horizontu jsme bezpečnější, protože jsme zasáhli Hamás. Ale myslím si, že v dlouhodobém horizontu jsme méně bezpeční. Vidím, jak všechny pozůstalé rodiny v Gaze – což je téměř všichni – za deset let zvýší motivaci [lidí k vstupu do] Hamásu. A pro [Hamás] bude mnohem snazší je rekrutovat.“

V prohlášení pro +972 a Local Call izraelská armáda popřela většinu toho, co nám řekly zdroje, a tvrdila, že „každý cíl je posuzován individuálně a provádí se individuální hodnocení vojenské výhody a vedlejších škod, které lze od útoku očekávat... IDF neprovádí útoky, pokud jsou vedlejší škody, které lze od útoku očekávat, nepřiměřené ve vztahu k vojenské výhodě.“

KROK 5: VÝPOČET NEPŘÍMÝCH ŠKOD
„Model neodpovídal realitě“

Podle zpravodajských zdrojů byl výpočet izraelské armády týkající se počtu civilistů, kteří měli být zabiti v každém domě v blízkosti cíle – postup, který byl prošetřen v předchozím vyšetřování +972 a Local Call – proveden s pomocí automatických a nepřesných nástrojů. V předchozích válkách zpravodajští pracovníci trávili spoustu času ověřováním, kolik lidí se nachází v domě, který má být bombardován, a počet civilistů, kteří mohou být zabiti, byl uveden v „souboru cílů“. Po 7. říjnu však bylo toto důkladné ověřování z velké části opuštěno ve prospěch automatizace. 

V říjnu informoval deník The New York Times o systému provozovaném ze speciální základny v jižním Izraeli, který shromažďuje informace z mobilních telefonů v pásmu Gazy a poskytuje armádě živý odhad počtu Palestinců, kteří uprchli ze severního pásma Gazy na jih. Brigádní generál Udi Ben Muha řekl deníku Times, že „nejde o stoprocentně dokonalý systém, ale poskytuje informace potřebné k rozhodnutí“. Systém funguje na základě barev: červená označuje oblasti, kde je mnoho lidí, a zelená a žlutá označují oblasti, které byly relativně vyklizeny od obyvatel. 

Zdroje, které hovořily s +972 a Local Call, popsaly podobný systém pro výpočet vedlejších škod, který se používal k rozhodování o bombardování budov v Gaze. Uvedli, že software před válkou vypočítal počet civilistů žijících v každém domě – na základě velikosti budovy a seznamu obyvatel – a poté tyto počty snížil o podíl obyvatel, kteří údajně opustili čtvrť. 

Pro ilustraci, pokud armáda odhadla, že polovina obyvatel čtvrti odešla, program by dům, ve kterém obvykle žilo 10 obyvatel, započítal jako dům s pěti obyvateli. Aby ušetřila čas, armáda podle zdrojů nesledovala domy, aby zkontrolovala, kolik lidí tam skutečně žije, jako tomu bylo při předchozích operacích, a zjistila, zda je odhad programu skutečně přesný.

„Tento model neodpovídal realitě,“ tvrdil jeden ze zdrojů. „Neexistovala žádná souvislost mezi těmi, kteří byli v domě během války, a těmi, kteří byli před válkou uvedeni jako obyvatelé. [V jednom případě] jsme bombardovali dům, aniž bychom věděli, že se v něm skrývá několik rodin.“ 

Zdroj uvedl, že ačkoli armáda věděla, že k takovým chybám může dojít, tento nepřesný model byl přesto přijat, protože byl rychlejší. Zdroj uvedl, že „výpočet vedlejších škod byl zcela automatický a statistický“ – dokonce byly vypočítány čísla, která nebyla celými čísly.

KROK 6: BOMBARDOVÁNÍ RODINNÉHO DOMU
„Zabili jste rodinu bezdůvodně“

Zdroje, které hovořily s +972 a Local Call, vysvětlily, že někdy existovala značná časová prodleva mezi okamžikem, kdy sledovací systémy jako Where’s Daddy? upozornily důstojníka, že cíl vstoupil do domu, a samotným bombardováním, což vedlo k zabití celých rodin, aniž by byl zasažen cíl armády. „Mnohokrát se mi stalo, že jsme zaútočili na dům, ale ta osoba ani nebyla doma,“ řekl jeden zdroj. „Výsledkem je, že jste bezdůvodně zabili rodinu.“

Tři zdroje z tajných služeb sdělily +972 a Local Call, že byli svědky incidentu, při kterém izraelská armáda bombardovala soukromý dům jedné rodiny, a později se ukázalo, že zamýšlený cíl atentátu nebyl ani v domě, protože v reálném čase nebyla provedena žádná další ověření.

„Někdy [cíl] byl dříve doma a pak v noci šel spát někam jinam, třeba do podzemí, a vy o tom nevěděli,“ řekl jeden ze zdrojů. „Jsou chvíle, kdy si místo dvakrát zkontrolujete, a jsou chvíle, kdy prostě řeknete: ‚Dobře, v posledních několika hodinách byl v domě, tak to můžete bombardovat.‘“

Jiný zdroj popsal podobný incident, který ho zasáhl a přiměl ho k tomu, aby poskytl rozhovor pro toto vyšetřování. „Věděli jsme, že cíl je doma v 20 hodin. Nakonec letectvo dům bombardovalo ve 3 hodiny ráno. Pak jsme zjistili, že se mu [v tom čase] podařilo přestěhovat se s rodinou do jiného domu. V budově, kterou jsme bombardovali, byly ještě dvě další rodiny s dětmi.“

V předchozích válkách v Gaze prováděla izraelská rozvědka po zabití lidských cílů postupy hodnocení škod způsobených bombardováním (BDA) – rutinní kontrolu po útoku, aby zjistila, zda byl zabit vysoký velitel a kolik civilistů bylo zabito spolu s ním. Jak odhalilo předchozí vyšetřování +972 a Local Call, zahrnovalo to odposlouchávání telefonních hovorů příbuzných, kteří ztratili své blízké. V současné válce však, alespoň pokud jde o nižší militanty označené pomocí AI, byl tento postup podle zdrojů zrušen, aby se ušetřil čas. Zdroje uvedly, že nevědí, kolik civilistů bylo při každém útoku skutečně zabito, a v případě nízkých hodností podezřelých členů Hamásu a PIJ označených AI nevědí ani to, zda byl cíl sám zabit.

Zdroj v angličtině ZDE

0
Vytisknout
774

Diskuse

Obsah vydání | 14. 7. 2025