Americké listy: Nejpodstatnější boj ohledně AI se týká toho, čích hodnot by měla se držet

25. 1. 2024 / Fabiano Golgo

čas čtení 6 minut
Web Axios zveřejnil článek, v němž připomíná, že umělá inteligence je výsledkem toho, co do ní vloží lidé, takže otázka, jakou "morálkou" se bude řídit, bude záviset na tom, kdo ji bude řídit. Ve světě rozděleném na země, které hájí autokracii a nerespektují lidská práva, a na ty, které se stále drží civilizovaných norem, jež svět získal v moderní době, to má zásadní význam. "Neexistuje nic takového jako systém umělé inteligence bez hodnot - a to znamená, že tato nejnovější technologická platforma musí od samého počátku proplouvat stranickými rozpory, propastmi kulturních válek a mezinárodním napětím," uvádí se v článku, jehož autorkou je Ina Friedová.


 
"Proč je to důležité: Každý krok při učení, ladění a nasazování modelů umělé inteligence nutí její tvůrce rozhodovat o tom, čí hodnoty bude systém respektovat, čí úhel pohledu bude prezentovat a jaké limity bude dodržovat. 

Celkový obraz: Tvůrci předchozích dominantních technologických platforem, jako je počítač nebo chytrý telefon, se museli pouštět do sporů o hranice map nebo o pravidla obchodu s aplikacemi. Tyto problémy však ležely spíše na okrajích než v centru samotných systémů. "Je to poprvé, kdy technologická platforma přichází s hodnotami a předsudky," řekl Axiosu na Světovém ekonomickém fóru v Davosu minulý týden jeden z průkopníků umělé inteligence, který si nepřál být jmenován. "To je něco, čeho si země začínají všímat."

Jak to funguje: Úhel pohledu systémů umělé inteligence začíná v datech, na kterých jsou vyškoleny - a v úsilí, které jejich vývojáři mohou vynaložit na zmírnění zkreslení v datech. Odtud většina systémů prochází snahou o "vyrovnání", při níž se vývojáři snaží učinit umělou inteligenci "bezpečnější" tím, že její odpovědi hodnotí jako více či méně žádoucí.

Ano, ale: Tvůrci běžně hovoří o "sladění s lidskými hodnotami", aniž by si uvědomovali, jak hluboce jsou všechny lidské hodnoty sporné.

V USA například můžete říci, že váš chatbot AI je vycvičen k "respektování lidského života", ale pak musíte rozhodnout, jak bude řešit diskuse o potratech. Můžete říct, že je na straně lidských práv a demokracie, ale nějak bude muset vymyslet, co říct na tvrzení Donalda Trumpa, že volby v roce 2020 byly ukradeny. 

Vzhledem k tomu, že se mnozí tvůrci umělé inteligence snaží zabránit tomu, aby jejich systémy vykazovaly rasistické, antisemitské nebo anti-LGBTQ tendence, čelí stížnostem, že jsou "příliš liberální". Systém Grok od společnosti X.ai Elona Muska je výslovně navržen jako antiliberální alternativa.

V globálním měřítku je situace ještě složitější. Jedny z největších rozdílů jsou mezi USA a Čínou - z geopolitických důvodů však budou systémy vyvinuté v USA pravděpodobně v Číně nedostupné a naopak. Skutečná globální bitva se odehraje v ostatním světě, kde si pravděpodobně budou čelně konkurovat jak čínské, tak americké systémy.

Tvůrci umělé inteligence čelí tlaku vlád, aby přizpůsobili své systémy tak, aby odrážely odlišné názory, například na otázky týkající se práv žen a LGBTQ. Jiné režimy mohou na tvůrce systémů umělé inteligence vyvíjet tlak, aby omezili kritiku vlády a diskusi o politických rivalech. Dalším bodem napětí se stane způsob, jakým generativní systémy umělé inteligence prezentují kontroverzní aktuální události, jako je současná izraelská válka v Gaze.

Co říkají: V rozhovorech s vedoucími představiteli AI v Davosu někteří považovali problém hodnot za hlavní problém, zatímco jiní tato rizika bagatelizovali. Generální ředitel společnosti OpenAI Sam Altman, který byl na tuto otázku dotázán v rozhovoru na pódiu v Axios House, uvedl, že pouze v extrémních případech by se společnost rozhodla nevstoupit na daný trh. "Pokud by země řekla, víte, že všichni homosexuálové by měli být na místě zabiti, pak ne," řekl Axiosu.

Altman však také připustil, že univerzální sada odpovědí pravděpodobně nebude platit po celém světě, a naznačil, že společnost OpenAI bude otevřena úpravám svých odpovědí pro různé uživatele nebo země. "Jako tvůrce nástrojů zde musíme být poněkud nesví s některými způsoby použití našich nástrojů," řekl. "Existuje spousta vlád, které podle mě mají jiné názory než my, u kterých se dá stále říct, že je tu dost společného."

V současné době v mnoha případech pouze tvůrci systému umělé inteligence přesně vědí, jaké hodnoty se snaží zakotvit - a jak jsou úspěšní.

Alexandra Reeve Givensová, generální ředitelka Centra pro demokracii a technologie, uvedla, že ji znepokojuje, že rozhodnutí mnoha společností zabývajících se umělou inteligencí nejsou veřejnosti viditelná a není ani jasné, jak k nim dospěly a s kým je konzultovaly. "Potřebujeme větší viditelnost a pochopení způsobů, jakými tyto procesy vedou a jak tato rozhodnutí činí," řekla Givensová v rozhovoru na okraj Světového ekonomického fóra.

Givensová sice připustila, že je nepravděpodobné, že by jeden soubor hodnot byl přijatelný na celém světě, ale transparentnost je podle ní důležitá zejména v případech, kdy společnosti působí v zemích, o nichž je známo, že porušují lidská práva. Givensová navrhla, že společnosti zabývající se umělou inteligencí potřebují něco podobného jako Zásady ze Santa Clary, které byly vyvinuty před deseti lety jako standard pro osvědčené postupy, transparentnost a odpovědnost při rozhodování o moderování obsahu, uzavírá článek.


0
Vytisknout
2957

Diskuse

Obsah vydání | 29. 1. 2024