Umělá inteligence je především hrozbou
Myslící stroje se propracovaly hodně vysoko na seznam témat pro celospolečenskou diskusi. Téma tento týden aktualizovalo prohlášení několika set vědců z oboru, aby vývoj umělé inteligence (AI) byl na půl roku zastaven, neboť další jejich vývoj představuje „…hluboká rizika pro společnost a lidstvo“.
Autoři výzvy navrhují, aby vývojáři tuto pauzu využili ke společné práci na bezpečnostních pravidlech, a také k vystupňování spolupráce se zákonodárci na silné regulaci odvětví. „Laboratoře a nezávislí experti by měli využít toto přerušení (vývoje), aby společně vyvinuli a implementovali sadu sdílených bezpečnostních protokolů pro design a rozvoj pokročilé AI /…/ Souběžně musejí vývojáři AI pracovat se zákonodárci na dramatickém urychlení rozvoje robustních systémů regulace AI,“ píše se v prohlášení.
Má svou váhu. Autory nejsou žádní snílci ani ideologové, ale lidé na špičce odvětví. Lidé, kteří pomáhali AI vynalézat a zdokonalovat. Vědí, co stvořili a jaké to má možnosti. Ovšem víme také, jak i věhlasní vědci dovedou ulítnout do alarmismu a aktivismu. Je to částečně dáno jejich bujnou fantazií. V daném případě ale nejde o požadavek zastavení nebo zákazu dalšího vývoje, ale o získání času na regulaci oboru. A to ve chvíli, kdy AI tak tak začala fungovat.
Jiní vědci nás chlácholí, že umělá inteligence není inteligence skutečná, člověku se nikdy nevyrovná a ovládnout jej nemůže. A že nahradí miliony lidí v jejich práci? Asi ano, ale miliony nových pracovních příležitostí se kolem toho prý zase asi vytvoří.
Sejměme růžové 3D brýle s aplikacemi internetového bankovnictví a zjišťováním polohy: v současné době to s AI vypadá velice zle. Nejde o ty stroje, ale o lidi, kteří s nimi zacházejí. Europol již vydal varování před rizikem zneužívání AI ke kybernetickým útokům. Ty se provozovaly již dříve, ale s pomocí AI budou hůře odhalitelné, a to jak pro napadeného, tak pro obranu, tj. antivirové společnosti, bankovní ochrany, obranu státu i pro policii.
„Silné systémy AI by měly být vyvinuty, až když budeme mít důvěru, že jejich dopady budou pozitivní a rizika zvladatelná,“ píše se v citované výzvě. Současné systémy umělé inteligence označuje za srovnatelné s lidmi ve vykonávání jistých úkonů a nastoluje otázky ohledně možného „přechytračení“ lidí a „ztráty kontroly nad naší civilizací“.
Důvěra v „pozitivní dopady a zvladatelná rizika“ je čirou naivitou. Zakladatelka Internetového institutu Tereza Bartoníčková v rozhovoru pro Aktuálně.cz o výzvě říká: „Umělá inteligence nám přerůstá přes hlavu již léta. Podpis otevřeného dopisu je symbolem zoufalosti. Již dlouhou dobu se na tato témata upozorňuje, bohužel ale krátkozraké politiky vlád a často i technologických firem nemají motivaci přistoupit na společný dialog a dát měkkým argumentům dostatečnou relevanci. Teď nás tato opomenutí dohánějí.“
Tady ale nejde (zdaleka ještě) o ztrátu kontroly nad naší civilizací, ale o akutní ztrátu kontroly nad lidmi v kyberprostoru. K té došlo už dávno. Kyberprostor je nejzločinnější prostředí, jaké kdy člověk stvořil. Provozují se v něm už téměř všechny druhy zločinu, snad vyjma vraždy. Informační technologie slouží k bankovním loupežím, pomluvám, stalkingu, vydírání, krádežím identity a podvodům s ní, slouží k ovlivňování veřejného mínění lživými zprávami, k falšování výsledků voleb i k cíleným vojenským útokům proti státům, institucím a klíčovým podnikům a organizacím. Dohledat a potrestat pachatele se daří čím dál méně. S umělou inteligencí to dost možná nepůjde už vůbec.
Zatím se lidstvo s různými hrozbami více méně vypořádalo. Tou první vskutku existenční je jaderná energie. Kontrola zabraňující šíření jaderných zbraní ale je relativně snadná. Potřebné výzkumné laboratoře a výrobní zařízení jsou tak nákladná a nápadná, že je lze poměrně snadno identifikovat, a v případě, že kontroly, výzvy a sankce nezaberou, třeba i vybombardovat. Hrozby číhají v automobilismu, ale umíme hlídat dodržování rychlosti na každém kroku, třeba i pomocí družic a dronů, dokážeme měřit emise z výfuku i alkohol v dechu řidiče. Každý vůz má identifikační znaky a výrobní čísla, takže je i slušná pravděpodobnost, asi čtvrtinová, že se najde, je-li ukraden. A tak dále. To vše se v kyberprostoru stává jen v nepatrné míře. Zločin kvete, pachatelé prosperují a oběti jsou bezbranné.
Jistě, existují specializované firmy na vývoj a výrobu ochranného softwaru. Specialisté staví bezpečnostní bariéry do podnikových IT systémů. Konají se vzdělávací kursy pro profesionály i laické uživatele. Které ale nakonec končí vždy stejnou pointou, že lupiči jsou stále vyčůranější, banka za vykradený účet nemůže a ten blbec jste vy. Policie ani v případě, že ukradené peníze jsou nalezeny na jiném účtu, není schopna během několika dalších dní je zablokovat a ochránit před zmizením zase jinam. Jeden konkrétní podobný příběh jsme zde popsali.
Vývojovou laboratoř AI nenajdete. Regulaci v jednom státu pachatelé obejdou přesunem do jiného. Skutečný problém nespočívá v tom, jak regulaci formulovat a zavést. Problém je v tom, jak vůbec ty, kteří by ji porušovali, vyhledat a identifikovat.
Učenlivé stroje tuto už dnes jen minimální možnost mohou zlikvidovat docela. Proto je nutné chápat AI v současné podobě především jako hrozbu a až po nalezení systémů kontroly, ochrany a trestů se na ni podívat jako na příležitost.
„Rizika, která jsou uvedena v dopise, samozřejmě vidím stejná. Doufám a chci, aby tyto snahy, širokosáhlé konverzace a extrémní znění dopisu vyvolaly finální tlak na politiky, instituty a firmy, aby konečně začaly brát měkké vědy vážně a zakomponovali je i ve svém zájmu do svých rozhodnutí. Jen tak dokážeme formovat budoucí svět pro náš benefit,“ říká Bartoníčková ve zmíněném interview.
Jestli se nenajde řešení, dojde k tomu, co nastalo historicky už mnohokrát. Zločinný prostor se vybije sám. Lidé přestanou kyberprostor používat. Stane se z něj no-go zóna, do které slušný člověk nevstoupí. Ta postupně zanikne. Zbyde jen síť využívaná profesionály, robustně a nákladně chráněná, pro elektronické zločince a laické uživatele neprostupná.