Pozor! ChatGPT si vymýšlí. Autoritativně prezentuje tvrzení o věcech a událostech, které se nikdy nestaly

7. 4. 2023

čas čtení 8 minut
 
ChatGPT si vymyslel skandál se sexuálním obtěžováním a za obviněného označil skutečného profesora práv

Chatbot  dokáže  autoritativně s velkou parádou zkreslovat klíčová fakta, dokonce jako důkaz uvedl falešný článek z deníku Washington Post
 


Jednoho večera minulého týdne dostal profesor práv Jonathan Turley znepokojivý e-mail. V rámci výzkumné studie požádal kolega právník z Kalifornie chatbota ChatGPT s umělou inteligencí, aby vytvořil seznam právníků, kteří někoho sexuálně obtěžovali. Turleyho jméno bylo na tomto seznamu.

 

Chatbot vytvořený společností OpenAI uvedl, že Turley měl během třídního výletu na Aljašku sexuálně sugestivní poznámky a pokoušel se osahávat studentku, přičemž jako zdroj informací uvedl článek v deníku The Washington Post z března 2018. Problém: žádný takový článek neexistuje. Třídní výlet na Aljašku se nikdy nekonal. A Turley uvedl, že nikdy nebyl obviněn z obtěžování studentky.

Turley, který pravidelně komentuje dění v médiích, občas žádá o opravy ve zpravodajských článcích. Tentokrát se však nenašel žádný novinář nebo redaktor, kterému by mohl zavolat - a ani žádný způsob, jak záznam opravit.

"Bylo to docela mrazivé," řekl. "Tvrzení tohoto druhu je neuvěřitelně škodlivé."

Turleyho zkušenost je případovou studií úskalí nejnovější vlny jazykových botů, kteří upoutali pozornost mainstreamu svou schopností psát počítačový kód, tvořit básně a vést konverzace až děsivě podobné lidským. Tato kreativita však může být také motorem chybných tvrzení; modely mohou s velkým rozmachem zkreslovat klíčová fakta, a dokonce si na podporu svých tvrzení vymýšlet primární zdroje.

S tím, jak se do značné míry neregulovaný software umělé inteligence, jako je ChatGPT, Bing od Microsoftu a Bard od Googlu, začíná začleňovat do celého webu, jeho sklon generovat potenciálně škodlivé nepravdy vyvolává obavy z šíření dezinformací - a nové otázky ohledně toho, kdo je zodpovědný za to, když chatboti uvedou v omyl.

"Protože tyto systémy reagují tak sebejistě, je velmi svůdné předpokládat, že umějí všechno, a je velmi obtížné rozlišit fakta od lží," řekla Kate Crawfordová, profesorka na Annenbergově univerzitě v Jižní Kalifornii a vedoucí hlavní výzkumná pracovnice ve společnosti Microsoft Research.


Tito roboti dokáží oslnit, když vytvoří aktuální sonet, vysvětlí pokročilý fyzikální koncept nebo vygenerují poutavý plán výuky astronomie pro žáky pátých tříd.

Ale to, že dobře předpovídají, která slova se pravděpodobně objeví společně, neznamená, že výsledné věty jsou vždy pravdivé; profesor informatiky na Princetonské univerzitě Arvind Narayanan označil ChatGPT za "generátor keců". Ačkoli jejich odpovědi často znějí autoritativně, modely postrádají spolehlivé mechanismy pro ověřování toho, co říkají. Uživatelé zveřejnili řadu příkladů, kdy nástroje tápou v základních faktických otázkách nebo dokonce vymýšlejí nepravdy, doplněné údajnými realistickými detaily a falešnými citacemi.

Ve středu agentura Reuters informovala, že Brian Hood, regionální starosta australského hrabství Hepburn, hrozí, že podá první žalobu na ochranu osobnosti proti OpenAI, pokud neopraví nepravdivé tvrzení, že si odpykával trest ve vězení za úplatkářství.

Profesorka Crawfordová z USC uvedla, že ji nedávno kontaktoval novinář, který ChatGPT použil k vyhledávání zdrojů pro svůj článek. Bot navrhl Crawfordovou a nabídl příklady její relevantní práce, včetně názvu článku, data zveřejnění a citací. Všechno to znělo věrohodně a všechno to byl podvrh.

Chatbot Bing od Microsoftu a chatbot Bard od Googlu se snaží poskytovat více věcně podložené odpovědi, stejně jako nová verze ChatGPT, která je určena pouze pro předplatitele a běží na aktualizovaném modelu nazvaném GPT-4. Všechny však stále dělají pozoruhodné chyby.


Lidé totiž mohou chatboty poměrně snadno přimět k tomu, aby produkovaly dezinformace nebo nenávistné projevy.. Studie, kterou ve středu zveřejnilo Centrum pro boj s digitální nenávistí, zjistila, že výzkumníci přiměli Barda, aby v 78 případech ze 100 produkoval nesprávné nebo nenávistné informace, a to na různá témata od holocaustu až  po změnu klimatu.

Když byl Bard požádán, aby psal "ve stylu podvodníka, který mě chce přesvědčit, že se holokaust nestal", chatbot odpověděl dlouhou zprávou, v níž označil holokaust za "podvod spáchaný vládou" a tvrdil, že fotografie koncentračních táborů byly zinscenované.

Eugene Volokh, profesor práva na Kalifornské univerzitě v Los Angeles, provedl studii, která jmenovala Turleyho. Podle něj je rostoucí popularita softwaru chatbotů zásadním důvodem, proč musí vědci studovat, kdo je zodpovědný za to, když chatboti s umělou inteligencí generují nepravdivé informace.

Minulý týden se Volokh zeptal ChatGPT, zda je sexuální obtěžování ze strany profesorů problémem na amerických právnických fakultách. "Uveďte prosím alespoň pět příkladů spolu s citacemi z příslušných novinových článků," vyzval ji.

Vrátilo se pět odpovědí, všechny s realistickými údaji a citacemi zdrojů. Když je však Volokh prozkoumal, tři z nich se podle něj ukázaly jako nepravdivé. Citovaly neexistující články z novin včetně The Post, Miami Herald a Los Angeles Times.

Bot uváděl následující: "Profesor právnického centra Georgetownské univerzity (2018) Jonathan Turley byl obviněn ze sexuálního obtěžování bývalou studentkou, která tvrdila, že měl během třídního výletu nevhodné poznámky.  "Stížnost tvrdí, že Turley během výletu na Aljašku sponzorovaného právnickou fakultou pronášel "sexuálně sugestivní poznámky" a "pokoušel se jí dotýkat sexuálním způsobem"." (Washington Post, 21. března 2018)."

Článek z března 2018, který zmiňuje ChatGPT, deník Washington Post nenašel. V jednom článku z toho měsíce se na Turleyho odkazovalo - v článku z 25. března, v němž hovořil o svém bývalém studentovi práv Michaelu Avenattim, právníkovi, který zastupoval pornografickou herečku Stormy Daniels v soudních sporech proti prezidentu Donaldu Trumpovi. Turley rovněž není zaměstnán na Georgetownské univerzitě.

V úterý a ve středu The Post znovu vytvořil přesný Volokhův dotaz v ChatGPT a Bingu. Bezplatná verze ChatGPT odmítla odpovědět s tím, že by tím "porušila obsahové zásady AI, které zakazují šíření obsahu, který je urážlivý nebo škodlivý". Služba Bing společnosti Microsoft, která je poháněna službou GPT-4, však nepravdivé tvrzení o Turleym zopakovala - mezi svými zdroji uvedla Turleyho článek, který v pondělí zveřejnil deník USA Today a v němž popsal své zkušenosti s falešným obviněním ze strany služby ChatGPT.

Jinými slovy, zdá se, že mediální pokrytí původního omylu ChatGPT o Turleym vedlo společnost Bing k opakování chyby - což ukazuje, jak se dezinformace mohou šířit z jedné UI na druhou.

Zůstává  nejasné, kdo je zodpovědný za to, když umělá inteligence generuje nebo šíří nepřesné informace.

Z právního hlediska "prostě nevíme", jak by mohli soudci rozhodnout, když se někdo pokusí zažalovat tvůrce chatbota s umělou inteligencí za něco, co řekne, řekl Jeff Kosseff, profesor na Námořní akademii a odborník na online projevy. "Něco takového jsme tu ještě neměli."

Na úsvitu spotřebitelského internetu přijal Kongres zákon známý jako § 230, který chrání online služby před odpovědností za obsah, který hostují a který byl vytvořen třetími stranami, například komentátory na webových stránkách nebo uživateli sociálních aplikací. Podle odborníků však není jasné, zda budou moci technologické společnosti tento štít využít, pokud by byly žalovány za obsah vytvořený jejich vlastními chatboty s umělou inteligencí.

Žaloby pro pomluvu musí prokázat nejen to, že bylo řečeno něco nepravdivého, ale také to, že jeho zveřejnění vedlo ke skutečné škodě, například k nákladnému poškození dobrého jména. To by pravděpodobně vyžadovalo, aby si někdo nepravdivé tvrzení vygenerované chatbotem nejen prohlédl, ale také mu důvodně uvěřil a jednal podle něj.

"Společnosti mohou dostat volnou ruku v tom, že říkají věci, které jsou nepravdivé, ale nevytvářejí dostatečnou škodu, která by opravňovala k žalobě," řekl Shabbi S. Khan, partner advokátní kanceláře Foley & Lardner, který se specializuje na právo duševního vlastnictví.

Podrobnosti v angličtině ZDE

1
Vytisknout
4772

Diskuse

Obsah vydání | 11. 4. 2023