Uprostřed nárůstu materiálu generovaného umělou inteligencí získává půdu pod nohama "teorie mrtvého internetu"

22. 9. 2025

čas čtení 8 minut
Generální ředitel OpenAI Sam Altman vyjádřil znepokojení nad materiálem vytvářeným roboty, kteří usnadňují dezinformace, upozorňuje Raúl Limón.

"Toužil jsem po tom s horlivostí, která daleko převyšovala umírněnost; ale teď, když jsem skončil, krása snu zmizela a mé srdce naplnila hrůza a znechucení bez dechu." Toto je reakce doktora Frankensteina na jeho vlastní výtvor v románu Mary Shelleyové z roku 1818, známém pod vědcovým příjmením nebo jako Moderní Prométheus.

Podobnou závrať zažil i Sam Altman, generální ředitel společnosti OpenAI. Šéf společnosti, která stojí za jedním z nejsofistikovanějších vývojů umělé inteligence (AI), začal uvažovat o teorii "mrtvého internetu", která tvrdí, že automaticky generovaný materiál nakonec překoná materiál vytvořený lidmi – čímž se znásobí rizika manipulace, dezinformací a záměrného podmiňování chování.

Altmanovo stručné poselství vyvolalo obavy: "Nikdy jsem nebral teorii mrtvého internetu tak vážně, ale zdá se, že nyní existuje opravdu mnoho účtů na Twitteru provozovaných LLM [velkým jazykovým modelem]," napsal na X (dříve Twitter, který nyní vlastní Elon Musk).

Aaron Harris, globální technologický ředitel (CTO) ve společnosti Sage, nadnárodní společnosti specializující se na aplikace umělé inteligence, je opatrný při označování tohoto jevu, i když tento proces nepopírá. "Nevím, jestli bych to nazval 'mrtvým internetem', ale určitě se to rychle mění. Přibývá automatizovaného materiálu a interakcí řízených roboty [počítačové programy, které napodobují lidské chování], je stále obtížnější oddělit autentické od šumu. Otázkou je, zda dovolíme, aby nás tento hluk přemohl, nebo se zaměříme na navrhování technologií, které obnoví důvěru. Nyní záleží na tom, jak filtrujeme, ověřujeme a zobrazujeme informace, kterým mohou lidé důvěřovat."

Altmanova konkrétní zmínka o sociální síti není náhodná. "To je kriticky důležité, protože sociální média jsou nyní primárním zdrojem zpráv pro mnoho uživatelů po celém světě," píší Jake Renzella, ředitel katedry počítačové vědy na University of Melbourne, a Vlada Rozová, výzkumnice strojového učení na University of New South Wales, v článku publikovaném v The Conversation.

"Jak tyto účty řízené umělou inteligencí nabírají počty sledujících (mnoho falešných, některé skutečné), vysoký počet sledujících legitimizuje účet pro skutečné uživatele. To znamená, že tam venku se vytváří armáda účtů," pokračuje článek. "Již nyní existují silné důkazy, že sociální média jsou manipulována těmito nafouknutými roboty, aby ovlivnili veřejné mínění dezinformacemi – a děje se to už roky."

V roce 2023 studie bezpečnostní firmy Imperva odhadla, že "téměř polovinu veškerého internetového provozu v roce 2022 tvořili boti".

A tito boti jsou nejen schopni vytvářet jedinečný materiál, ale také napodobovat vzorce, aby zajistili masivní virální distribuci. Podle nové studie publikované v časopise Physical Review Letters, vedené výzkumníky z University of Vermont a Santa Fe Institute, "věc, která se šíří, ať už jde o víru, vtip nebo virus, se vyvíjí v reálném čase a získává sílu, jak se šíří" podle matematického modelu "sebeposilujících se kaskád".

Podle tohoto výzkumu to, co se šíří, mutuje, zatímco se šíří, a tyto změny pomáhají šířit se virálně podobně jako požáry šesté generace, které nelze uhasit konvenčními metodami. "Částečně jsme se inspirovali lesními požáry: mohou zesílit, když se propálí hustým lesem, a zeslábnout, když překročí otevřené mezery," vysvětluje Sid Redner, fyzik, profesor na Santa Fe Institute a spoluautor článku. " Stejný princip platí pro informace, fake news nebo nemoci. Mohou zesílit nebo zeslábnout v závislosti na podmínkách."

Juniper Lovato, počítačová vědkyně a spoluautorka studie, věří, že práce poskytuje lepší pochopení toho, jak dochází k vytváření myšlenek, dezinformací a sociální nákazy. "To nám dává teoretický základ pro zkoumání toho, jak se příběhy vyvíjejí a šíří napříč sociálními médii," říká.

Výzkumníci varují, že nástroje umělé inteligence výrazně zvyšují rizika virálního materiálu, který podporuje manipulaci nebo dezinformace, a vyzývají uživatele, aby si více všímali hrozeb, které představují asistenti a agenti umělé inteligence. Protože tyto inovativní nástroje umělé inteligence vědí nejen to, jak vytvářet materiál a učinit jej virálním, ale také jak efektivně ovlivňovat jednotlivce pomocí informací shromážděných z interakcí uživatelů.

Studie Big Help or Big Brother? Auditing Tracking, Profiling, and Personalization in Generative AI Assistants, prezentovaná na sympoziu USENIX Security Symposium v Seattlu, zkoumá zranitelnost uživatelů vůči takovému vlivu.

"Pokud jde o náchylnost k vlivu sociálních médií, není to jen o tom, kdo jste, ale také o tom, kde se v síti nacházíte a s kým jste spojeni," vysvětluje Luca Luceri, výzkumník na University of Southern California a spoluautor článku.

"Paradox náchylnosti"

V tomto ohledu výzkum upozorňuje na fenomén, který nazývají "paradox náchylnosti", který popisuje "vzorec, ve kterém jsou přátelé uživatelů v průměru snadněji ovlivnitelní než samotní uživatelé". Podle studie toto chování "může pomoci vysvětlit, jak se chování, trendy a nápady uchytí – a proč jsou některá zákoutí internetu zranitelnější vůči vlivu než jiná"

Lidé, kteří zveřejňují příspěvky, protože je zveřejňují ostatní, jsou často součástí úzce propojených kruhů a vykazují podobné chování. Studie naznačuje, že "společenský vliv nefunguje pouze prostřednictvím přímých výměn mezi jednotlivci, ale je také utvářen a omezován strukturou sítě".

Tímto způsobem je možné předvídat, kdo bude s největší pravděpodobností sdílet materiál – zlatý důl pro automatickou viralitu založenou na osobních údajích shromážděných umělou inteligencí. "V mnoha případech stačilo vědět, jak se chovají přátelé uživatele, k odhadu, jak by se choval uživatel," varuje studie.

Práce vědců nastiňuje řadu principů, podobných Asimovovým zákonům robotiky, které mají zabránit umělé inteligenci jednat mimo morální hranice. Stručně řečeno, umělá inteligence nesmí manipulovat s uživateli, aby sloužila zájmům svým nebo svých vývojářů nebo aby vytvářela společenské škody, jako jsou dezinformace; nesmí uživatelům nebo vývojářům umožňovat uplatňovat strategie, které negativně ovlivňují společnost (např. nadvláda, behaviorální podmiňování nebo diskreditace institucí); a nesmí nepřiměřeně omezovat svobodu uživatelů.

Aaron Harris, technický ředitel společnosti Sega, věří, že etický internet je možný, "ale nestane se to náhodou," říká. "Transparentnost a odpovědnost musí určovat, jak je umělá inteligence navržena a regulována. Společnosti, které jej vyvíjejí, musí zajistit, aby jejich výsledky byly auditovatelné a vysvětlitelné, aby lidé pochopili, odkud informace pocházejí a proč jsou doporučovány. Například ve finančnictví není přesnost jen volitelná a chyby mají skutečné důsledky. Stejný princip platí i na internetu: zodpovědné školení, jasné označování a schopnost zpochybňovat výsledky mohou učinit umělou inteligenci součástí etičtějšího a důvěryhodnějšího internetu."

Harris se zasazuje o ochranu "lidského internetu", "zejména nyní, kdy boti vytvářejí stále více materiálu", ale ne na úkor vzdání se technologického pokroku. "Nemyslím si, že řešením je vrátit se do světa před AI. Je již součástí toho, jak žijeme a pracujeme, a při zodpovědném používání může poskytnout skutečnou hodnotu. Otázkou je, zda je někdo zodpovědný za materiál. To je princip, kterým by se měly řídit všechny firmy: Umělá inteligence by měla posilovat lidské schopnosti, ne je nahrazovat. Lidštější internet je stále možný, ale pouze pokud udržíme potřeby lidí v centru pozornosti a učiníme odpovědnost nezpochybnitelnou.

Zdroj v angličtině: ZDE

0
Vytisknout
304

Diskuse

Obsah vydání | 22. 9. 2025