Lze efektivně dohlížet na generátory obrázků s umělou inteligencí, aby se zabránilo explicitně sexuálním deepfakes dětí?
23. 4. 2024
Vzhledem k tomu, že se zjistilo, že jedna z největších "tréninkových" datových sad obsahuje materiál se sexuálním zneužíváním dětí, lze zakázat vytváření takových snímků?
Zneuživatelé dětí vytvářejí "deepfakes" svých obětí generované umělou inteligencí, aby je vydírali a přiměli je natočit své vlastní sexuálně explicitní videa, čímž začíná cyklus sexuálního vydírání, který může trvat roky.
V celosvětovém měřítku panuje jen malá shoda na tom, jak by měla být tato technologie kontrolována. A co hůř, bez ohledu na to, jak důrazně vlády zakročí, k vytvoření dalších snímků bude vždy stačit stisknout tlačítko - explicitně sexuální zobrazování je zabudováno do základů generování snímků umělou inteligencí.
V prosinci učinili vědci ze Stanfordovy univerzity znepokojivý objev: mezi miliardami obrázků, které tvoří jednu z největších tréninkových sad pro generátory obrázků umělé inteligence, jsou stovky, možná tisíce materiálů sexuálního zneužívání dětí (CSAM).
Je možné, že jich je mnohem více. Laion (Large-scale AI Open Network), dotyčná datová sada, obsahuje asi 5 miliard obrázků. Výzkumníci tedy museli databázi prohledat automaticky, porovnat pochybné snímky se záznamy vedenými orgány činnými v trestním řízení a naučit systém hledat podobné fotografie předtím, než je předají přímo úřadům k přezkoumání.
V reakci na to tvůrci Laionu stáhli tento soubor dat. Poznamenali, že dotyčné snímky nikdy nešířili, protože soubor dat byl technicky vzato jen dlouhým seznamem adres URL snímků umístěných jinde na internetu.
Škody však již byly napáchány. Systémy vycvičené na Laion-5B, konkrétní datové sadě, o kterou se jedná, se běžně používají po celém světě a nelegální výcviková data se nesmazatelně zapsala do jejich neuronových sítí. Generátory obrázků umělé inteligence jsou nyní schopny vytvářet explicitně sexuální materiál dospělých i dětí, protože ho viděly.
Laion pravděpodobně nebude sám. Soubor dat byl vytvořen jako "open source" produkt, sestavený dobrovolníky a uvolněný na internet jako celek, aby posílil nezávislý výzkum AI. To zase znamená, že byl široce používán k trénování open source modelů, včetně Stable Diffusion, generátoru obrázků, který jako jedna z přelomových verzí roku 2022 pomohl nastartovat revoluci v umělé inteligenci. Znamenalo to ale také, že celá datová sada byla k dispozici otevřeně, aby ji mohl kdokoli prozkoumat.
Obrovské obtíže při zaručení zcela čistého souboru dat jsou jedním z důvodů, proč organizace jako OpenAI taková omezení vůbec prosazují. Na rozdíl od modelu Stable Diffusion není možné stáhnout Dall-E 3 a spustit jej na vlastním hardwaru. Místo toho musí být každý požadavek odeslán přes vlastní systémy společnosti.
To znamená, že OpenAI a konkurenti, jako je Google s podobným přístupem, mají k dispozici další nástroje, aby jejich generátory byly přehledné: omezují, které požadavky mohou být odeslány, a filtrují vygenerované obrázky před jejich odesláním koncovému uživateli. Podle odborníků na bezpečnost umělé inteligence je to méně problematický způsob přístupu k problému než spoléhat se pouze na systém, který byl vyškolen, aby takové obrázky nikdy nevytvářel.
U "základních modelů", nejvýkonnějších a nejméně omezených produktů revoluce v oblasti umělé inteligence, není ani jasné, zda je zcela čistá sada tréninkových dat užitečná. Model umělé inteligence, kterému nikdy nebyly ukázány explicitně sexuální snímky, nemusí být například schopen je rozpoznat v reálném světě nebo se řídit pokyny, jak je nahlásit úřadům.
"Musíme zachovat prostor pro vývoj AI s otevřeným zdrojovým kódem," řekla Kirsty Innesová, ředitelka technologické politiky ve společnosti Labour Together. "Právě tam by se mohly nacházet nejlepší nástroje pro nápravu budoucích škod."
Diskuse