Konec svlékání dětí pomocí AI, prosadila Gregorová. Piráti chrání děti na internetu

18. 3. 2026

čas čtení 3 minuty
tisková zpráva


Brusel 18. března 2026 - Nástroje umělé inteligence, které mohou bez souhlasu generovat nahé deepfake fotografie kohokoliv, mají nově podléhat přísným pravidlům. Na návrh pirátské europoslankyně Markéty Gregorové se na tom dnes shodli europoslanci výborů pro vnitřní trh (IMCO) a pro občanské svobody, spravedlnost a vnitřní věci (LIBE). Návrh je součástí zjednodušování pravidel o umělé inteligenci, tzv. AI omnibusu. Pozici parlamentu příští týden potvrdí poslanci, poté proběhne trialog. 


 

"Vydírání nebo kyberšikana na základě vygenerovaných nahých fotek roste závratným tempem. Poskytovatelé těchto nástrojů dávají od zodpovědnosti ruce pryč, ale to podle mého návrhu už nebude možné. Nová pravidla stanovují, že poskytovatelé systémů generujících obrazový nebo video obsah musí přijmout veškerá opatření, aby podobnému zneužití zabránili," vysvětluje Gregorová.  

Zásadní problém je podle Gregorové například Muskův nástroj Grok. Podle analýzy pro britský deník The Guardian bylo k 6. lednu vytvořeno na 6000 bikini fotek každou hodinu. Analýza organizace Center for Countering Digital Hate, která využila statistický model, zase odhadla, že 65 procent příspěvků, tedy něco přes tři miliony, obsahovalo sexualizované vyobrazení mužů, žen nebo dětí.

"Není možné, aby kvůli technologickému pokroku zůstaly děti i dospělí bez ochrany. Pokud někdo vyvíjí nástroje, které dokážou generovat realistické obrázky nebo videa, musí zároveň nést odpovědnost za to, že nebudou zneužívány k ponižování, vydírání nebo šikaně lidí. Technologie mají lidem sloužit, ne je zbavovat důstojnosti a bezpečí," říká Gregorová. 

Poslanci dnes také odmítli návrhy, které měly z působnosti AI Actu vyjmout široké spektrum systémů umělé inteligence. Parlament také zabránil oslabení pravidel transparentnosti. Společnosti vyvíjející AI budou muset i nadále registrovat systémy, které samy nepovažují za vysoce rizikové, ve veřejném registru, aby je mohly úřady v případě potřeby přezkoumat.

Původní návrh Evropské komise také umožňoval, aby některé systémy umělé inteligence využívaly vysoce citlivé osobní údaje uživatelů, například informace o zdravotním stavu, sexualitě nebo politických názorech, za účelem korekce zaujatosti. Podle průzkumu Perfect Crowd s tímto využíváním dat pro trénink AI nesouhlasí 90,7 % Čechů. Gregorová se proti tomu rovněž postavila. „Podařilo se nám upravit návrhy, které umožňovaly systémům učit se z těchto osobních údajů, tak, aby šlo pouze o krajní opatření pro nápravu závažných biasů v AI, a zároveň bylo zajištěno dodržování vysokých standardů ochrany dat. Ochrana soukromí musí zůstat jedním ze základních principů evropské digitální politiky," dodává Gregorová.

Průzkum Perfect Crowd: 

Souhlasíte s tím, aby byly vaše osobní údaje (např. zdravotní stav, sexualita, politické názory) použity k trénování umělé inteligence bez vašeho vědomí?  

2,1 % Ano
5,0 % Spíše ano
13,6 % Spíše ne
77,1 % Ne
2,2 % Nevím

Souhrn:
7,1 % souhlasí
90,7 % nesouhlasí

zdroj: Perfect crowd, n=803


0
Vytisknout
234

Diskuse

Obsah vydání | 18. 3. 2026