Téma umělé inteligence (AI) v posledních měsících doslova hýbe světem. Po uvedení jazykového modelu ChatGPT americké společnosti OpenAI se řada odborníků, zástupců velkých technologických firem i vývojářů přidala k petici upozorňující na rizika využívání umělé inteligence a potřebu nastavení pravidel pro její užívání. Evropský parlament už v dubnu 2021 přijal první návrh legislativy regulující využívání umělé inteligence, tzv. AI Act, složitá jednání o jeho podobě ale dosud neskončila. Některé členské státy v čele s Itálií proto krátce po zpřístupnění aplikace ChatGPT veřejnosti zvažovaly omezení jejího používání do doby, než bude nezbytná legislativa přijata. Autoři zmíněné petice mimo jiné upozorňují:
„Současné systémy umělé inteligence se nyní stávají v obecných úkolech konkurenceschopnými vůči lidem a my si musíme položit otázku: Měli bychom nechat stroje, aby zaplavily naše informační kanály propagandou a nepravdou?“
Sladění „černé krabičky“
Využívání umělé inteligence s sebou přináší etické problémy i rizika záměrného zneužití zejména k šíření dezinformací. Odborníci zdůrazňují koncept tzv. sladění (alignment) neboli schopnosti „vetknout systému hodnoty odpovídající záměru tvůrců“. Právě v tom však spočívá jedno z hlavních rizik těchto systémů: Záleží, kdo a jaké hodnoty do systému „vetkne“. Peking má v této otázce poměrně jasno a primárně řeší problém, jak zajistit, aby vyvíjené jazykové modely v budoucnu odrážely ty „správné hodnoty“ a poskytovaly jen ideologicky nezávadné odpovědi.
Paul Triolo z amerického Centra pro strategická a mezinárodní studia tento problém shrnul pro portál DigiChina Stanfordské univerzity:
„Namísto snah o kontrolu vyhledávání na internetových stránkách a monitorování zakázaných výrazů v emailech se nyní systém bude muset vypořádat s jednotlivými uživateli, kteří budou moci klást otázky aplikacím využívajícím generativní AI bez jakékoli možnosti monitorovat a blokovat výstupy v případě citlivých témat nebo urážlivých výroků.“
Čchen Cchaj-wej na serveru Wired v tomto kontextu dodává:
„Povaha generativních AI [systémů] připomíná ‚černou krabičku‘, tudíž je obtížné předvídat, co z chatbota vypadne. To může být v prostředí přísně kontrolovaného čínského internetu nebezpečné.“
Obava z dezinformací na obou stranách
Z tohoto důvodu čínské regulační orgány údajně již v únoru vnitřním nařízením zakázaly domácím firmám používání amerického modelu ChatGPT. Aplikace zatím není v Číně blokovaná, ale není ani na trhu oficiálně přístupná. Mnoho čínských uživatelů, kteří chtěli novinku ze zvědavosti vyzkoušet, tak získalo přístup neoficiálními cestami.
V současnosti nejpoužívanější jazykový model vyvinutý Američany nicméně podle státních médií může sloužit Spojeným státům právě jako nástroj pro „šíření dezinformací a manipulaci s veřejným míněním“. Za „dezinformace“ ovšem Peking běžně označuje zprávy zahraničních médií či informace o masové převýchově Ujgurů.
S ohledem na to, jak AI jazykové modely fungují, logicky podobná rizika hrozí i u těch vyvíjených čínskými firmami, pokud budou pracovat s necenzurovanými daty nebo jim budou kladeny „citlivé otázky“. A nemusí to být jen otázky na téma potlačení demonstrací na náměstí Nebeského klidu v roce 1989 nebo dění v Sin-ťiangu. Tyto modely generují texty na základě informací, které mají k dispozici, cenzura tedy musí být uplatňovaná již v samotném základu dat, z nichž generativní AI systémy vycházejí.
Nově představený návrh pravidel pro generativní AI zveřejněný Státní internetovou a informační správou (CAC) 11. dubna naznačuje, jakým směrem se vývoj v čínském prostředí může dále ubírat. Navazuje na dříve vydaná nařízení regulující tzv. „hlubokou syntézu“ (deep synthesis, známá také jako „deepfake“). Ta je základem generativní AI pro vytváření obrázků, videí, ale i textů.
Přátelská a vlastenecká AI
Návrh „Opatření pro regulaci služeb [využívajících] umělou inteligenci“ (生成式人工智能服务管理办法), který byl do 10. května zpřístupněn k připomínkování, cílí primárně na služby generující texty, obrázky, videa a další média. Za vygenerovaný obsah budou právně zodpovědné společnosti, které tyto služby poskytují. Jejich systémy pak budou při vytváření algoritmů moci využívat jen data splňující přísná kritéria. Ta jsou však, jak je v případě cenzury v ČLR celkem běžné, formulována na ideologickém základu a velmi široce – hlavní pravidlo, jehož se čínští vývojáři a poskytovatelé AI služeb mají držet, nabádá:
„Veškerý obsah produkovaný umělou inteligencí musí ztělesňovat základní hodnoty socialismu a nesmí obsahovat nic, co by podvracelo státní moc, podkopávalo socialistický systém, podněcovalo separatismus, poškozovalo národní jednotu a propagovalo terorismus, extremismus nebo pornografický obsah, falešné zprávy či cokoli, co by mohlo narušovat hospodářský a společenský pořádek.“
Jinými slovy, obsah generovaný AI by neměl obsahovat nic, co je na čínském internetu běžně cenzurováno, a zároveň by měl podle poněkud enigmatické instrukce „ztělesňovat základní hodnoty socialismu“ (社会主义价值观). Řeč je o dvanácti „hodnotách“, které strana poprvé představila v roce 2012. K nim patří: prosperita (富强), demokracie (民主), zdvořilost (dosl. „civilizovanost“ – 文明), harmonie (和谐), svoboda (自由), rovnost (平等), spravedlnost (公正), vláda zákona (法治), vlastenectví (爱国), obětavost (敬业), čestnost (诚信) a přátelskost (友善).
Všechny je ovšem třeba číst v kontextu „socialismu s čínskými rysy“, takže např. demokracie, doslova „vláda lidu“ stejně jako v původní řečtině, je bližší marxistické „diktatuře proletariátu“ než západní demokracii. Podobně nepřípadně v seznamu působí i další hodnoty, které jsou spojené se západním konceptem demokracie – svoboda, rovnost, spravedlnost či vláda zákona. Poslední jmenovanou položku ostatně opakovaně zdůrazňoval samotný Si Ťin-pching během protikorupčních tažení a mocenského soupeření.
Tyto hodnoty stály na počátku Si Ťin-pchingova úsilí o posilování čínské soft power směrem k vlastním občanům i za hranicemi Číny. Spíše než o apel na občany představují idealizovaný obraz vlády strany. Slouží tak především jako zástěrka vlastní povahy režimu. Zatím ale není jasné, jakým způsobem by umělá inteligence měla tyto hodnoty ztělesňovat. Podle navrhovaných pravidel by každopádně všechny produkty založené na umělé inteligenci měly v ČLR před uvedením na trh nejprve projít prověrkou. Ta se zaměří na kvalitu a věcnou správnost generovaného obsahu, na ochranu uživatelských dat a autorská práva, ale hlavně na politickou korektnost.
A skončilo to dříve, než to začalo…
Regulaci v oblasti AI a příslušnou legislativu bude nezbytné zavést po celém světě a pracují na ní, jak již bylo zmíněno, i západní demokratické státy. Zatímco USA a EU se budou zaměřovat spíše na nastavení pravidel pro poskytovatele z důvodu ochrany uživatelů a jejich dat, v Číně zvolili cestu „moderace obsahu“, která se bude nejspíš projevovat už u vstupních dat velkých jazykových modelů.
Server China Digital Times shromáždil často sarkastické komentáře čínských uživatelů k regulacím. Ty poukazují na absurditu nařízení např. tvrzením, že „to skončilo dříve, než to začalo“. Jiný netizen zas ironicky poznamenal, že „musíme stroje naučit nejen jak mluvit, ale hlavně jak nemluvit“.
Další se pak na dodržování pravidel čínského úřadu dokonce zeptal přímo amerického chatbota, a poté konstatoval jeho „silný pud sebezáchovy“. ChatGPT totiž podle sdíleného screenshotu nezaváhal a slovo od slova reprodukoval text navrhovaných předpisů, jež „přislíbil“ dodržovat.
Beton na cibulce a jiné recepty
Podle Matta Sheenana, odborníka na čínský AI ekosystém z amerického think tanku Carnegie Endowment for International Peace, velké čínské společnosti vyvíjející podobné produkty jako je ChatGPT odrážejí dvě vládní priority: „být na špici vývoje v oblasti AI a zároveň si udržet kontrolu nad informacemi“. Čínští technologičtí giganti se tudíž rychle zapojili do konkurenčního boje a hned v únoru oznámili plánované spuštění vlastních modelů. Společnost Baidu od března začala s testováním chatbota jménem Ernie (číns. Wen-sin i-jen 文心一言), který má být později využit v jejích vyhledávačích. Krátce nato představily vývoj podobných produktů i další firmy, jako Tencent, Alibaba nebo videoherní gigant NetEase. Toto úsilí podpořily i některé vládní orgány a instituce, jelikož je to v první řadě otázka prestiže.
Odborníci ale obecně soudí, že právě cenzura, konkrétně zejména požadavek cenzury vstupních dat, může být problémem, který bude vývoj čínských jazykových AI produktů brzdit. Často se poukazuje i na specifika psané čínštiny, která je silně kontextová a využívá velké množství idiomů či metaforických vyjádření. Čínští vývojáři mají před sebou každopádně ještě pořádný kus práce, jak vtipně ukázali i reportéři deníku Financial Times, kteří nedávno sdíleli zkušenosti uživatelů s dvěma čínskými chatboty. Ernie od Baidu a Tongyi od Alibaby na otázku, jak připravit z tvrzeného betonu chutný pokrm, údajně oba shodně odpověděli, že je dobré ho usmažit s česnekem na cibulce. ChatGPT se naopak nenechal nachytat a rovnou varoval, že beton není jedlý.
I když je v médiích zatím nejvíc pozornosti věnováno různým legráckám, kterými uživatelé nové aplikace zkoušejí, Rogier Creemers z univerzity v Leidenu pro portál DigiChina poukázal na možné odlišnosti v uplatnění generativních AI nástrojů v ČLR oproti většině světa:
„Baidu představilo Ernieho v partnerství s výrobci domácích spotřebičů a aut. To znamená, že tyto služby se pravděpodobně budou vyvíjet směrem užšího vymezení a specifických úkolů: lidé se obvykle neptají svého auta nebo toustovače na rady v partnerských vztazích nebo politické názory.“
Ale – co kdyby?