Vypadá to, že USA použily systém umělé inteligence Claude k útoku na dívčí školu v jižním Íránu, při kterém zahynulo 168 lidí

7. 3. 2026

čas čtení 4 minuty

Vstoupili jsme do noční můry, kdy o zabíjení rozhodují stroje

Strana odpovědná za srovnání škol v Gaze se zemí konečně přiznala, že bombardovala i  školu v jižním Íránu.  

Agentura Reuters uvádí, že podle předběžného posouzení vojenských vyšetřovatelů stojí za útokem pravděpodobně USA. USA zpočátku vinily íránskou raketu, která selhala, ale tato verze se rozpadla po vyšetřování médií jako BBC Verify.

Analýza videozáznamů a satelitních snímků ukazuje, že škola byla zasažena několika téměř současnými údery. Je děsivé, že se zdá, že šlo o dvojitý úder, kdy se nejprve bombarduje, počká se na příjezd záchranářů a pak se bombarduje znovu.

 

I BBC Verify připustila, že rakety pravděpodobně pocházely z USA, a to na základě přesnosti munice a souladu s operacemi USA v blízkosti Hormuzského průlivu. Nezapomeňte, že BBC zpočátku začínala každý titulek slovy „Írán tvrdí“, aby zpochybnila narativ, který nyní připouští jako pravdivý. Tento vzorec jsme viděli během dvou let genocidy v Gaze.

Jakmile se důkazy staly nepopiratelnými, USA přestaly popírat odpovědnost, ale tvrdí, že stále vyšetřují – jako by nevěděly, co se přesně stalo. Pete Hegseth a Marco Rubio trvají na tom, že nedošlo k úmyslnému napadení civilistů, ale pravda je ještě mrazivější: několik médií uvádí, že Claude AI společnosti Anthropic pravděpodobně vybrala školu jako cíl. Ano, vstoupili jsme do noční můry, kdy o zabíjení rozhodují stroje.

The Guardian a WSJ uvádějí, že Claude hrál přímou roli při výběru cílů pro útoky v Íránu, včetně vyhodnocování zpravodajských informací a simulací bojiště. Claude je integrován do systému Maven Smart System společnosti Palantir, který zpracovává zpravodajské informace, stanovuje priority cílů a provádí simulace. Washington Post uvádí, že Claude vygeneroval více než 1 000 cílů pouze během prvního dne a poskytl GPS souřadnice, návrhy zbraní a dokonce i právní zdůvodnění. 

Zdá se pravděpodobné, že Claude označil lokalitu Minab poté, co na základě starých map a chybných údajů zaměnil školu za část nedaleké základny IRGC. Zprávy naznačují, že Claude udělal chyby, které vedly ke smrti 168 nevinných lidí, protože lidští operátoři se buď neobtěžovali s dohledem, nebo jim to bylo jedno. Ať tak či onak, jednalo by se o válečný zločin.

Novináři se nyní ptají, koho bychom mohli stíhat, když AI zabije civilisty, jako by to byla nějaká hluboká otázka. Odpověď je ale jednoduchá: tvůrce systému, lidi, kteří mu dovolili vybírat cíle, a vůdce, kteří zahájili tuto nelegální válku. Mezinárodní trestní soud by měl vydat zatykače na všechny zúčastněné.

Ironií je, že Anthropic se nedávno dostal do sporu s Trumpovou administrativou ohledně vojenského využití své AI.

Firma odmítla požadavky na neomezený přístup a odmítla umožnit plně autonomní zbraně nebo masové domácí sledování. V odvetě Trump nařídil všem federálním agenturám, aby okamžitě přestaly používat nástroje společnosti Anthropic.

Prezident Trump označil firmu za „radikálně levicovou společnost zabývající se umělou inteligencí“ a „riziko pro národní bezpečnost v dodavatelském řetězci“, protože si stále zachovává špetku morálky. Trump nařídil šestiměsíční postupné vyřazení vestavěných systémů a zařadil Anthropic na černou listinu vojenských zakázek. Také vyvíjel tlak na dodavatele, aby se této společnosti zbavili, ale o několik hodin později Claude stále řídil útoky v Íránu.

Mediální zprávy naznačují, že armáda použila Claude, protože byl příliš hluboce zakotven v systémech jako Maven, což znamená, že USA se nemohou zbavit AI, i když by chtěly. Není to uklidňující myšlenka?

0
Vytisknout
678

Diskuse

Obsah vydání | 6. 3. 2026