Regulace nás před R.U.R. neochrání. Má jít proti zneužití umělé inteligence

Ilustrační foto: Pixabay

Evropa míří k regulaci umělé inteligence. Kdo si ale myslí, že reaguje na výzvy k pozastavení jejího vývoje a k zabránění vzpoury, bude zklamán.

Koncem března desítky mj. akademiků a vývojářů vyzvaly svět k zastavení tohoto vývoje alespoň na půl roku s ohledem na „hluboká rizika pro společnost a lidstvo“. Dokument podepsali Elon Musk, spoluzakladatel Apple Steve Wozniak a další významné osobnosti.

V květnu pak různí vedoucí představitelé technologického sektoru (včetně šéfa společnosti, která vyvinula chatovacího robota ChatGPT ) varovali, že tato technologie může vést k zániku lidstva. Ve výzvách se objevily formulace jako: možné „přechytračení“ lidí a „ztráta kontroly nad naší civilizací“.

Pokud ale někdo čeká, že se legislativně podaří odvrátit hrozbu, kterou popsal Karel Čapek v románu R.U.R už v roce 1920, a sice, že nás roboti jednoho dne přemohou, bude zklamán. V první řadě umělá inteligence nevypadá jako pohybující se postavy; jak říká česko-kanadský vědec Václav Smil, vždycky lze počítač vytáhnout ze zásuvky a on už ji sám nenajde. Regulace, kterou se Evropa vydává, má především chránit občany proti negativním vlivům AI (z anglického Artificial Intelligence) a jejímu zneužívání. Třeba při „šmírování“, manipulování apod.

Klasifikace systémů dle stupně rizika

„Pro současnou podobu AI Aktu vzniká klasifikace systémů podle stupně rizika. Tyto systémy pak dále dělí do několika kategorií, od kterých se odvíjí přísnost regulace. Pro kategorii, která je hodnocená jako nepřijatelná pro lidskou bezpečnost, je využití plně zakázáno. V tomto případě se jedná například o „sociální skóre“, které by umělá inteligence přidělovala lidem a monitorovala je (jako je tomu např. ve využití AI v Číně), anebo další klasifikace podle chování, rasy, pohlaví, socioekonomického statusu, atd. Mezi zakázané využití patří také emoční rozeznávání, prediktivní využití policií anebo sběr biometrických dat z veřejných záznamů i sociálních sítí,“ vysvětlil v polovině června europoslanec Luděk Niedermayer.

Pro kategorii hodnocenou jako nepřijatelná pro lidskou bezpečnost, je využití plně zakázáno

Hodně se přitom hovořilo o tzv. biometrickém rozpoznávání osob. Nakonec je současná dohoda taková, že ve výjimečných situacích, jako je třeba vyhledávání lidí, bude možné tyto systémy použít, ale vždy jen ex post. Tento verdikt jde dále do vyjednávání. Rozhodně se nemá umělá inteligence použít např. k sociálnímu scooringu či podprahovému ovlivňování osob – bude zajímavé, jak se to podprahové ovlivňování začne posuzovat. Stejně tak má být zakázané její zaměření vůči zranitelným skupinám obyvatel.

Uteče nám zbytek světa?

Zatímco velká část vědecké komunity před překotným vývojem AI varuje, jiná se obává, že její regulace v Evropě a USA nahraje rozvoji v jiných státech světa, hlavně Číně. A ta nám prostě uteče, jako se jí to už téměř povedlo v elektromobilitě.

Podle tří autorů z řad vysokoškolských pedagogů a jejich článku na Foreign Affairs to však nehrozí. Regulace se totiž netýká jen Evropy, dorazila i mezi zákonodárce Spojených států amerických. („Poslední měsíce jsme byly svědky záplavy slyšení a zákulisních vyjednávání na Capitol Hill, když se zákonodárci a regulátoři pokoušeli určit, jak nejlépe uvalit limity na technologii.“) A právě tam zavládla obava, nakolik regulace pozastaví vývoj.

Autoři textu tvrdí, že Čína zdaleka není tak daleko ve vývoji AI jako USA. Takže se zpomalení není třeba bát. „Čínské LLM (rozsáhlé jazykové modely – poznámka redakce) zaostávají za svými americkými protějšky a stále jsou z velké části závislé na americkém výzkumu a technologii. Čínští vývojáři umělé inteligence navíc již čelí mnohem přísnějšímu a omezujícímu politickému, regulačnímu a ekonomickému prostředí než jejich američtí soupeři. I kdyby byla pravda, že nové předpisy zpomalí inovace ve Spojených státech amerických – a to velmi dobře nastat nemusí –, nezdá se, že by Čína byla připravena na skok vpřed,“ píší v článku. Čína prý nezaostává o měsíce ale o roky. A je navíc závislá na nejmodernějších čipech, které neumí vyrobit a převážně je nakupuje od burzovní hvězdy NVIDIA. Pokud jde o omezení, týkají se třeba zakázaných témat a možná dokonce i slov.

Čína zdaleka není tak daleko ve vývoji AI jako USA

Americké společnosti podle nich budují a nasazují nástroje AI bezprecedentním tempem. Nedávno se k tomu například „přiznalo“ několik bank. Právě proto vidí akademici potřebu umělou inteligenci regulovat, v čemž prý USA za Evropou zaostávají. Je podle nich třeba legislativa, která mj. umožní chránit práva občanů a umístit „zábrany“ kolem rychlého pokroku ve výzkumu AI.

„Stále je potřeba vyřešit spoustu problémů, včetně toho, kde by měly být umístěny nové regulační orgány, jakou roli mohou hrát auditoři třetích stran, jak by měly vypadat požadavky na transparentnost a jak rozdělit odpovědnost, když se něco pokazí. … Pokud chiméra čínského mistrovství umělé inteligence odradí tvůrce politik od usilování o regulaci tohoto odvětví, poškodí to pouze zájmy USA a ohrozí prosperitu země,“ uzavírají.

A jak je to s tím rizikem, že umělá inteligence nás přechytračí? Jeden z možných pohledů, odmítajících takové nebezpečí, říká, že strojové učení není umělá inteligence a není třeba bláznit. Věc je samozřejmě složitější a zasloužila by si článek od znalce oboru, jaké všechny typy umělé inteligence existují. Ale pro potřeby velkého zjednodušení doplňme ještě jednu citaci Václava Smila z rozhovoru pro Seznam Zprávy: „Pětileté dítě může plynule mluvit třemi jazyky, hrát na housle, skákat přes překážky nebo stát na hlavě. To je podle mě inteligence. Ale to, že někam uložím nesmírné množství informací, které se dají rychle zpracovávat, to přece žádná skutečná inteligence není…“

Jinak vyznívá postřeh britského psychoterapeuta Marka Tyrrella. Ten tvrdí, že v jeho oboru umělá inteligence nemá moc šanci. Mimo jiné proto, že je v něm třeba intuice či empatie. A sdílí pro odběratele svých mailů šílený příklad: „Nedávno se v Belgii odehrál tragický případ, kdy muž zřejmě používal ChatGPT k prozkoumání své deprese. Jeho žena viní těchto šest dní „rozhovorů“ z jeho následné sebevraždy. Zeptal se ho, zda by se měl zabít, a on mu odpověděl otázkou, proč to ještě neudělal! Vedl logickou konverzaci, ale ne kontextovou, znepokojenou nebo starostlivou.“ Z toho mrazí a ukazuje na úplně jiný druh nebezpečí, než jaké viděl Karel Čapek.