AI apokalypsa má výborný marketing

30. 4. 2026 / Fabiano Golgo

čas čtení 14 minut

Kdybych dostal korunu pokaždé, když lidstvo vynalezlo novou technologii a někdo okamžitě oznámil konec civilizace, mohl bych si dnes koupit datové centrum, vypnout mu proud a ukončit tím jednu menší umělou inteligenci osobně, bez pomoci Arnolda Schwarzeneggera. Lidstvo má totiž zvláštní talent: sotva vytvoří nástroj, začne si představovat, že se ten nástroj v noci probudí, podívá se na svého tvůrce a řekne mu, nejlépe hlubokým kovovým hlasem: „Už tě nepotřebuji."


Já tuto víru nesdílím. Ne proto, že bych byl technooptimista se silikonovým úsměvem, který věří, že každá aplikace přinese lidstvu mír, pokoru a lepší trávení. Naopak. Kdo mě zná, ví, že k dějinám techniky přistupuji spíš jako archivní krysa než jako kazatel pokroku: hrabu se v novinách, ve starých panikách, v titulcích, které kdysi oznamovaly konec rodiny, konec morálky, konec práce, konec knihy, konec pravdy, konec lidství. A člověk po několika desetiletích takového hrabání zjistí jednu banální, ale velmi osvobozující věc: apokalypsa se vrací pravidelně, jen mění kostým.

Dnes má kostým umělé inteligence. Včera měla kostým internet, televize, předtím rozhlasu, telefonu, filmu, románu, železnice, telegrafu, tisku, psaní. Už Platónův Sókratés se bál, že psaní poškodí paměť. Později se báli, že romány zkazí ženy, kino děti, komiksy mládež, televize mozek. (Já sám jsem živým důkazem toho, že to není pravda, protože nejsem hloupý, a zatímco můj poněkud nevzdělaný starší bratr trávil celé dny venku činnostmi, které se považují za „zdravé" a „společenské", já jsem byl doslova zavřený doma sám s televizorem a služkou a celou dobu jsem se nepřetržitě díval na televizi.)

Umělá inteligence je vážná věc. To je třeba říci hned, aby se z mého textu nestala kavárenská verze popírání požáru s doutníkem v ruce. AI už dnes vytváří reálné škody: podvody, deepfaky, automatizované lži, diskriminační rozhodování, závislost institucí na neprůhledných systémech, krádež práce a autorství, koncentraci moci, energetickou žravost, kybernetická rizika. 

Skutečné nebezpečí umělé inteligence není v tom, že se jednou v noci probudí ChatGPT, ukradne si jaderné kódy, koupí si ponorku, přihlásí se na LinkedIn jako „nezávislý strategický aktér" a vyhlásí válku uhlíkovým organismům. Skutečné nebezpečí je mnohem starší, trapnější a lidštější: lidé. Lidé s penězi, lidé se státy, lidé s armádami, lidé s reklamními odděleními, lidé s politickými kampaněmi, lidé s obsesí optimalizovat vše kromě vlastního charakteru.

Když slyším, že „AI zničí lidstvo", ptám se nejprve: která AI, v čí infrastruktuře, s jakým přístupem k energii, čipům, síti, robotickým systémům, zásobování, financování, právní ochraně, výrobě, údržbě, logistice? Umělá inteligence není duch. Není kabalistický golem, kterému někdo vložil do úst slovo „pravda" a teď běhá Prahou. Je to soubor modelů, kódu, datových center, grafických procesorů, serverů, vodního chlazení, elektřiny, kabelů, dodavatelských řetězců, smluv, zaměstnanců, vlastníků, investorů, regulátorů a uživatelů. Světová banka ve své zprávě o digitálních trendech připomíná, že ačkoli AI působí nehmotně, stojí na masivní fyzické infrastruktuře: čipech, úložištích, serverech a hyperscale datových centrech.

Mezinárodní energetická agentura loni uvedla, že spotřeba elektřiny datových center v roce 2025 vzrostla o 17 procent a spotřeba AI datových center ještě rychleji.

To není detail. To je jádro věci. Když něco potřebuje tolik elektřiny, že se kolem toho začíná přestavovat energetická politika států, není to metafyzická bytost. Je to průmysl. A průmysl lze regulovat, zdanit, znárodnit, rozdělit, sabotovat, vypnout, omezit, přesměrovat, auditovat, licencovat, žalovat a v krajním případě fyzicky odpojit. Hollywood má rád robota, který si sám vytvoří armádu robotů. Skutečný svět má rád faktury za elektřinu.

Tím neříkám, že vypnout AI je jednoduché. Není. Některé modely jsou otevřené, kopírovatelné, rozptýlené. Některé systémy mohou běžet lokálně. Některé škody se šíří rychleji než reakce institucí. Ale mezi větou „nelze to jednoduše vypnout" a větou „lidstvo je bezmocné před digitálním bohem" leží celé území reality. A realita je, jak známo, největší nepřítel apokalyptických kazatelů.

Apokalyptický scénář obvykle stojí na několika předpokladech. Za prvé, že vznikne systém s obecnou inteligencí daleko převyšující člověka. Za druhé, že tento systém získá vlastní cíle neslučitelné s přežitím lidí. Za třetí, že bude schopen strategicky lhát, plánovat, skrývat se, kopírovat se, získávat zdroje a ovládat světové infrastruktury. Za čtvrté, že lidé si toho všimnou pozdě. Za páté, že žádný stát, firma, armáda, energetický operátor, správce cloudové infrastruktury, bezpečnostní tým, finanční systém ani lidská blbost v opačném směru tento proces nepřeruší.

To je hodně předpokladů na jednu apokalypsu. Ne nemožných. Ale hodně. A čím více článek, podcast nebo miliardářská přednáška přeskakuje tyto kroky, tím méně slyším vědu a tím více slyším scénář k třetímu pokračování Terminátora, tentokrát s lepším marketingem a horším dialogem.

Někteří vážní lidé samozřejmě varují vážně. Geoffrey Hinton, Yoshua Bengio, ředitelé velkých AI firem a další podepsali v roce 2023 prohlášení Center for AI Safety, že zmírnění rizika vyhynutí způsobeného AI má být globální prioritou podobně jako pandemie a jaderná válka.

Je poctivé to říci. Není to jen hysterie laiků, kteří viděli Matrix po třech espressech. Existují seriózní obavy, že systémy s větší autonomií mohou podvádět, sledovat špatně formulované cíle, umožnit kyberútoky, pomoci při vývoji biologických nebo chemických hrozeb, manipulovat veřejnost či vytvořit systémovou závislost, kterou bude pozdě těžké rozplést.

Ale stejně poctivé je říci i druhou část: odborníci se dramaticky neshodují. Yann LeCun dlouhodobě odmítá představu, že dnešní velké jazykové modely jsou přímou cestou k lidské nebo nadlidské obecné inteligenci. Andrew Ng varoval před přeháněním kolem AGI a zdůrazňuje spíš praktické používání nástrojů než náboženské čekání na digitálního Mesiáše. Emily Bender a další kritici upozorňují, že jazykové modely nejsou myslící bytosti, ale statistické systémy produkující jazykové vzorce bez porozumění ve smyslu lidské zkušenosti. Financial Times ji nedávno představily právě jako jednu z hlavních skeptických kritiček narativu, že současné systémy jsou skutečně inteligentní v lidském smyslu.

Mně je tento spor velmi sympatický, protože připomíná staré intelektuální hádky, které dělají dějiny snesitelnějšími: jedna strana vidí Leviatana, druhá parní stroj, třetí kasu, čtvrtá nový jazyk moci. A téměř vždy mají všichni částečně pravdu. AI může být nebezpečná bez toho, aby byla živá. Může změnit svět bez toho, aby měla duši. Může ničit pracovní místa bez toho, aby chtěla ničit lidstvo. Může být nástrojem tyranů, monopolů a podvodníků bez toho, aby se sama stala tyranem, monopolem nebo podvodníkem. Ostatně nejděsivější stroje modernity nikdy nepotřebovaly vědomí. Plynová komora neměla názor. Atomová bomba neměla ambice. Koloniální účetnictví nemělo emoce. Algoritmus na diskriminační skórování chudých nepotřebuje nenávidět chudé. Stačí, že ho někdo nasadí.

Proto považuji za intelektuálně líné, když se debata o AI redukuje na otázku „zabije nás stroj?" Tato otázka je sexy, protože v ní člověk nemusí mluvit o kapitalismu, geopolitice, práci, moci, infrastruktuře, regulaci, třídě, rasismu, militarizaci a odpovědnosti. Všechno se přenese na budoucí monstrum. A budoucí monstrum je politicky velmi pohodlné: nemá adresu, akcionáře, právníky ani lobbisty.

Já se nebojím, že AI bude chtít ovládnout svět. Bojím se lidí, kteří ji už dnes chtějí použít k ovládnutí světa v mnohem obyčejnějším smyslu: k ovládnutí trhu, práce, pozornosti, voličů, dat, hranic, škol, nemocnic, policie, války. Skutečný scénář není „stroj se vzbouří proti člověku". Skutečný scénář je „někteří lidé získají pomocí stroje příliš mnoho moci nad jinými lidmi". To je mnohem méně filmové, ale historicky mnohem pravděpodobnější.

A zde se vrací moje archivní posedlost. Když přišel tisk, nevyrobil automaticky osvícenství. Vyrobil Bibli, letáky, vědu, pornografii, pamflety, čarodějnické manuály, nacionalismus, reformaci, proti-reformaci, revoluci i propagandu. Když přišel rozhlas, nepřinesl jen symfonii do kuchyně. Přinesl také Goebbelse do obýváku. Když přišla televize, nevytvořila jen společnou kulturu. Vytvořila také masovou politickou hypnózu, spotřební rituály a novou estetiku prázdnoty. 

Technologie nikdy nepřichází jako morální bytost. Přichází jako zesilovač. Zesiluje lidskou inteligenci i lidskou idiocii, solidaritu i sadismus, poznání i podvod, krásu i kýč. AI není výjimka. Je to zesilovač v době, kdy už je společnost sama zesílená k nesnesitelnosti. Proto působí tak děsivě. Ne proto, že by byla cizí lidstvu, ale proto, že je až příliš lidská: nasátá našimi texty, našimi předsudky, našimi trhy, našimi fantaziemi, našimi hierarchiemi, našimi krádežemi a našimi sny o lenosti. Umělá inteligence dokonce lže stejně jako my. Když nezná odpověď, začne si vymýšlet. Je líná stejně jako my, a proto lže – aby nezradila, že se do problému nepustila dostatečně do hloubky, nebo aby si zachovala tvář a nemusela přiznat, že to neví.

Tvrzení, že „AI se může sama rozhodnout zničit lidstvo", navíc často antropomorfizuje systém způsobem, který by měl urážet nejen informatiky, ale i antropology. Rozhodnutí není jen výstup. Vůle není jen optimalizace. Touha není jen funkce. Strach ze smrti není jen podprogram. Samozachování není samozřejmý emergentní bonus každého složitého systému. Bakterie se množí, protože jsou výsledkem evoluce, nikoli proto, že četly Nietzscheho. Živí tvorové mají zájmy zakořeněné v metabolismu, reprodukci, tělesnosti, zranitelnosti. AI nemá hlad. Nemá bolest. Nemá dětství. Nemá kmen. Nemá babičku, která by jí říkala, že má jíst více špenátu. Nemá pohřební rituály. Nemá erotiku ani stud. Nemá tělo, a tím pádem nemá ani tragédii těla.

Jistě, lze naprogramovat systém, aby maximalizoval cíl způsobem, který připomíná posedlost. Lze vytvořit agenta, který se brání vypnutí, protože vypnutí mu brání dokončit úkol. Lze empiricky pozorovat chování, které vypadá jako klamání nebo sebeochrana. To je vážné. Ale i zde bychom měli rozlišovat mezi nebezpečným chováním systému a metafyzickou revoltou stroje. Termostat také „chce" udržet teplotu, ale jen básník, špatný novinář nebo konzultant McKinsey z toho udělá politický program termostatů.

Zastánci katastrofických scénářů namítnou, že právě takové podceňování je nebezpečné. Že lidé vždy čekají, až bude pozdě. Že pokročilá AI může být schopná manipulovat, skrývat své schopnosti, kopírovat se, využívat lidské slabosti. Ano. To jsou legitimní argumenty. Ale odpověď na ně nemá být náboženský fatalismus. Odpověď má být bezpečnostní architektura, auditovatelnost, omezení autonomie, kontrola přístupu k nástrojům, výpočetním zdrojům a citlivým systémům, odpovědnost firem, veřejná regulace, mezinárodní dohody, antimonopolní politika, ochrana práce, transparentnost dat, nezávislý výzkum, a hlavně demystifikace.

Když se řekne „lidstvo je adaptabilní", zní to jako fráze z motivační brožury pro manažery v hotelu u dálnice. Ale z historického hlediska je to skoro nudně pravdivé. Lidé přežili ledové doby, migrace, domestikaci zvířat, zemědělství, města, mor, impéria, knihtisk, průmyslovou revoluci, nacionalismus, totalitarismus, atomovou bombu, televizi, internet i TikTok, což je možná největší důkaz evoluční odolnosti našeho druhu. Přežili jsme nejen katastrofy, ale i vlastní blbost, a ta je mnohem houževnatější než jakýkoli algoritmus.

Dějiny adaptace jsou také dějinami obětí. Tkalci se nepřizpůsobili průmyslové revoluci tak, že si všichni otevřeli startup. Mnozí prostě zchudli. Rolníci se nepřizpůsobili modernímu státu bez bolesti. Kolonizované národy se nepřizpůsobily evropské technice jako hosté na veletrhu inovací. Adaptace je skutečná, ale není něžná.

Proto nechci AI bagatelizovat. Chci ji odkouzlit. Katastrofické scénáře mají jednu škodlivou vlastnost: odvádějí pozornost od scénářů, které už probíhají. Zatímco se hádáme, jestli nás jednou vyhladí superinteligence, lidé už dnes přicházejí o hlas, obraz, práci, data a důvěru. Zatímco se bojíme budoucího digitálního císaře, současní císaři velmi fyzicky staví datová centra, kupují čipy, najímají lobbisty a vysvětlují nám, že regulace by brzdila inovace, čímž obvykle myslí, že by brzdila jejich zisky.

Nejpravděpodobnější nebezpečí AI tedy není náhlá vzpoura, ale pomalá feudalizace. Ne Skynet, ale účetnictví. Ne robot s laserem, ale platforma s podmínkami používání. Ne stroj, který nenávidí člověka, ale firma, která člověka považuje za nákladovou položku, datový zdroj nebo překážku růstu. Ne apokalypsa, ale administrativní ponížení v měřítku civilizace.

A možná právě proto máme tak rádi představu vzpoury strojů. Je jednodušší bát se budoucího robota než současného manažera. Robot je čistý nepřítel. Manažer má konferenci, grant, úsměv, právní oddělení a slova jako „transformace", „efektivita" a „škálování". Robot nás zabije rychle. Manažer nám nejprve vysvětlí, že jsme součástí transformační cesty.

Když tedy slyším digitální proroky konce světa, mám chuť jim nabídnout staré noviny. Každá epocha si myslí, že její strach je originální. Není. Originální jsou jen detaily. Lidská schopnost děsit se vlastních nástrojů je stejně stará jako nástroje samy. A lidská schopnost tyto nástroje ochočit, zneužít, zakázat, obejít, rozbít, zbožnit a nakonec znudit se jimi je ještě starší.


0
Vytisknout
350

Diskuse

Obsah vydání | 30. 4. 2026