Zničí nás umělá inteligence?

2. 11. 2023

čas čtení 7 minut
Britský premiér Rishi Sunak v těchto dnech organizuje v Británii mezinárodní konferenci o nebezpečích umělé inteligence a co proti tomu dělat. Je na ní i Elon Musk.


Rozhlas BBC interviewoval k tomu profesora Stuarta Russella:

Moderátorka:  Profesor Stuart Russell, jeden z tzv. kmotrů umělé inteligence, patřil k těm, kteří volali po pozastavení vývoje umělé inteligence. Je profesorem informatiky na Kalifornské univerzitě v Berkeley a na toto téma dělal pro BBC i známé Reith Lectures. A právě on se účastní jednoho ze zasedání summitu Rishiho Sunaka v Bletchley Parku. Jmenuje se Rizika vyplývající ze ztráty kontroly nad hraniční umělou inteligencí. Tedy o tom, co se stane, pokud lidé ztratí kontrolu nad umělou inteligencí. Zeptala jsem se ho nejprve na navrhovanou americkou legislativu a na to, zda je to něco takového zapotřebí.

Stuart Russell: Myslím, že to není zdaleka dostatečné. Děje se to, že do vývoje strojů, které jsou inteligentnější než my, lijeme stovky miliard dolarů a nemáme plán, jak je vlastně kontrolovat, jakmile jednou budou výkonnější než lidé. A to mi připadá unáhlené. Zdá se, že bychom měli vymyslet, jak je zabezpečit, ještě než je vytvoříme, protože až je vytvoříme, může být pozdě.


Moderátorka: Jak daleko jsme od toho, aby byli inteligentnější než my?


Stuart Russell: To je velmi těžké předvídat. Myslím, že zrovna včera jsem četl, že jeden vysoký manažer jedné z technologických společností si myslí, že by to mohlo být už za rok. Teď bych řekl, že většina lidí se pohybuje v rozmezí 10 až 20 let, což je obrovská komprese. Většina lidí se dříve pohybovala v rozmezí. 30 až 50 let. Takže na rozdíl od jaderné fúze, která se stále vzdaluje. Ale tohle se ve skutečnosti přibližuje.

Moderátorka: Zaráží mě, že v nařízení USA, které podepsal prezident Biden, se hovoří o stanovení standardů pro testování, které se týkají věcí jako chemická, biologická, radiologická, jaderná a kybernetická bezpečnost. Což se zdá být velmi odlišné od toho, čeho se mnoho lidí obává. Yuval Noah Harari v minulosti hovořil o tom, že umělá inteligence k nám proniká na individuální úrovni. Je to něco jako téměř využití síly intimity ke změně našeho myšlení. V čem vidíte vy hrozbu?

Stuart Russell:  Myslím, že je to všechno výše uvedené. Dokonce i velmi jednoduché algoritmy, kterým říkáme doporučovací systémy. Jsou to algoritmy, které rozhodují o tom, co bude ve vašem kanálu zpráv na sociálních sítích a tak dále. Tyto algoritmy se naučily manipulovat s lidmi, protože manipulací s lidmi z nich můžete udělat předvídatelnější konzumenty obsahu, což pak znamená více kliknutí a více dolarů z reklamy. Co se děje s velkými jazykovými modely, jako je ChatGPT? Jde o to, že lidé s nimi tráví hodiny a hodiny denně. Lidé jsou mnohem náchylnější k tomu, aby se jejich názory měnily podle těch algoritmů. A nemyslím si, že ChatGPT má ďábelský plán ovládnout svět tím, že způsobí, že lidstvo začne jadernou válku, ale prostě nevíme, co se stane s veřejným míněním, až budou miliardy lidí ovlivňovány koordinovaně, protože všichni budou komunikovat se stejným systémem. Musíme v podstatě přenést břemeno na vývojáře namísto té myšlenky testování, o které mluvíte vy a prezident Biden. Testování tedy znamená vytvořit nebezpečný systém umělé inteligence a pak zjistit, jak moc je nebezpečný, a donutit ho, aby se po určitou dobu choval špatně. Pak musí být bezpečný. Ale to je tak trochu směšné. To je jako říct, no, podívejte, víte, moje jaderná elektrárna nevybuchla během prvních 15 minut provozu. Takže je bezpečná. Tomu se ve společnostech, které tyto systémy vyvíjejí, říká bezpečnostní opatření. Mnohem víc se říká, no, já jsem to zkusil. Snažil jsem se, aby to udělalo něco špatného, a nepodařilo se mi to, nebo někdy jsem se snažil, aby to udělalo něco špatného. A ono to udělalo. Ale my to stejně vydáme. 

Takže je to celé velmi neuspokojivé, protože důkazy, které jsou předkládány, ve skutečnosti nevedou k argumentu pro bezpečnost. Argument pro bezpečnost by říkal, že náš systém nikdy neporadí teroristům, jak vyrobit biologické zbraně. A když si promluvíte s normálním člověkem a řeknete, podívejte se, tyto společnosti, víte, že mají tržní kapitalizaci v bilionech dolarů.

A jediné, co po nich chceme, je, aby nám nabídly záruku, že náš systém nebude radit teroristům, jak vyrobit biologické zbraně. Normální člověk by řekl, no, samozřejmě, že by to měly být schopny udělat. 

Ale právě teď ty společnosti říkají, ach, to je příliš složité. To po nás nemůžete chtít, to není fér. No, fér to je. 

Musíme na společnosti uvalit břemeno, aby poskytly záruky bezpečnosti nebo jasný argument, že systémy jsou bezpečné s velmi vysokou pravděpodobností, že je velmi nepravděpodobné, že se budou chovat určitým způsobem špatně. 

Něco, čeho se lidé docela obávají, jsou systémy, které se dokáží samy replikovat. Které přijdou na to, jak vytvořit kopie vlastního kódu a vložit je do jiných počítačů, a to bude samozřejmě jeden z prvních příznaků, že se systém vymyká lidské kontrole.

Moderátorka:
Hrozí, že Západ bude regulován a ostatní svět bude pokračovat dál bez regulace?

Stuart Russell: Často slýchám tento argument, říkáme mu argument "ale Čína", který můžete použít k omluvě téměř jakéhokoli špatného chování. Ale ve skutečnosti Čína reguluje tyto druhy systémů umělé inteligence mnohem přísněji než např. nové prohlášení prezidenta Bidena. Čína uvedla, že tyto systémy musí na výstupu uvádět pravdivé a přesné informace, což, pokud něco víte o velkých jazykových modelech, jsou zcela neschopné říkat pravdu na konzistentní bázi. Mnozí, mnozí odborníci považují čínská nařízení za faktický zákaz toho, co by se dalo nazvat veřejně přístupnými jazykovými modely.

Moderátorka: Jak nyní odpovídáte na otázku, co se stane, když lidé ztratí kontrolu?

Stuart Russell: Co se stane, když lidé ztratí kontrolu, je velmi těžké předvídat. Je to něco jako ptát se goril, víte, co se stane, když tito lidé, kteří se nedávno vyvinuli, nakonec převezmou vládu nad světem a budou rozhodovat o budoucnosti nás, goril, víte. Chápou gorily ztrátu životního prostředí? A zmenšení jejich genofondu, takže už nežijí v životaschopných populačních skupinách? Ne, těmhle věcem vůbec nerozumějí. 

Většina lidí, kteří tyto scénáře promýšleli, považuje za velmi nepravděpodobné, že by lidé přežili, protože pro většinu cílů, které by systémy umělé inteligence mohly sledovat, moc cílů, které jsme si stanovili, nebylo dobře promyšlených. U většiny těchto scénářů by systémy UI v procesu snahy o dosažení těchto cílů v co největší míře změnily strukturu prostředí světa takovým způsobem, že by lidé nemuseli vůbec přežít.

Zdroj v angličtině ZDE  (od minuty 33)

0
Vytisknout
3011

Diskuse

Obsah vydání | 7. 11. 2023