Od roku 1927 do roku 2019 bylo na celém světě natočeno více než 100 filmů o umělé inteligenci. A zatímco některé scénáře jsou zobrazeny v dobrém světle, zbytek je vyloženě děsivý. Ve filmech jako Terminátor, Matrix, Avengers: a mnoha dalších umístil filmový průmysl do naší společné představivosti scény ukazující, jak inteligentnější stroje ovládnou svět a zotročí nebo zcela vymažou lidstvo z existence. Potenciál umělé inteligence stát se nadřazenější než jakákoli lidská inteligence vykresluje temnou budoucnost lidstva.
Nedávno se do závodu o rozvoj umělé inteligence zapojily země po celém světě. 20 zemí EU zveřejnilo své strategie rozvoje umělé inteligence v oblasti výzkumu& a vývoje i vzdělávání. Umělá inteligence je žhavá. Jaké etické a praktické otázky bychom však měli vzít v úvahu, když se na plné obrátky pouštíme do zavádění technologie umělé inteligence? Jaká rizika a odpovědnost by měli inovátoři v rámci našeho společného cíle transformovat podnikatelská odvětví pomocí strojové inteligence zvážit?
Ano, agenti umělé inteligence budou – a již jsou – velmi schopni dokončit procesy paralelní s lidskou inteligencí. Univerzity, soukromé organizace a vlády aktivně vyvíjejí umělou inteligenci se schopností napodobovat lidské kognitivní funkce, jako je učení, řešení problémů, plánování a rozpoznávání řeči. Pokud však tito agenti postrádají empatii, instinkt a moudrost při rozhodování, měla by být jejich integrace do společnosti omezena, a pokud ano, jakým způsobem?
Přibližme si některé etické aspekty v oblasti umělé inteligence. Jako zřeknutí se odpovědnosti, tento článek si v žádném případě neklade za cíl přesvědčit vás o svém názoru, ale pouze upozornit na některé významné problémy, a to jak velké, tak malé. Ačkoli Kambria je příznivcem AI a robotických technologií, nejsme v žádném případě odborníky na etiku a ponecháváme na vás, jak se rozhodnete. Robotické vysávání je jedna věc, ale etické otázky týkající se umělé inteligence v medicíně, prosazování práva, vojenské obraně, ochraně osobních údajů, kvantové výpočetní technice a dalších oblastech jsou hluboké a důležité ke zvážení.
1. Ztráta pracovních míst a nerovnost v bohatství
Jednou z hlavních obav lidí v souvislosti s umělou inteligencí je budoucí ztráta pracovních míst. Měli bychom usilovat o plný rozvoj a integraci UI do společnosti, pokud to znamená, že mnoho lidí přijde o práci – a dost možná i o živobytí?
Podle nové zprávy McKinsey Global Institute přijde do roku 2030 kvůli robotům poháněným umělou inteligencí o práci přibližně 800 milionů lidí. Někteří namítají, že pokud jejich práci převezmou roboti, možná je pro lidi příliš podřadná a že umělá inteligence může být zodpovědná za vytvoření lepších pracovních míst, která využívají jedinečné lidské schopnosti zahrnující vyšší kognitivní funkce, analýzu a syntézu. Dalším bodem je, že AI může vytvořit více pracovních míst – vždyť lidé budou mít za úkol tyto roboty nejprve vytvořit a v budoucnu je pak řídit.
Jedním z problémů souvisejících se ztrátou pracovních míst je nerovnost v bohatství. Uvažme, že většina moderních ekonomických systémů vyžaduje, aby pracovníci vyráběli produkt nebo službu, přičemž jejich odměna je založena na hodinové mzdě. Podnik platí mzdy, daně a další výdaje, přičemž zbylé zisky se často vkládají zpět do výroby, školení a/nebo vytváření dalších podniků s cílem dále zvýšit zisky. V tomto scénáři ekonomika stále roste.
Ale co se stane, když do ekonomického toku zavedeme umělou inteligenci? Roboti nedostávají hodinovou mzdu ani neplatí daně. Mohou přispívat na úrovni 100 % s nízkými průběžnými náklady na udržení jejich provozuschopnosti a užitečnosti. To otevírá generálním ředitelům a zainteresovaným stranám dveře k tomu, aby si ponechali více zisků společnosti generovaných jejich pracovními silami s umělou inteligencí, což povede k větší nerovnosti v bohatství. Možná by to mohlo vést k tomu, že „bohatí“ – ti jednotlivci a společnosti, kteří mají prostředky na placení za UI – budou bohatší.
2. UI je nedokonalá – co když udělá chybu?“
UI nejsou imunní vůči chybám a strojové učení potřebuje čas, aby se stalo užitečným. Pokud jsou umělé inteligence dobře vyškoleny a používají kvalitní data, pak mohou dosahovat dobrých výsledků. Pokud však AI nakrmíme špatnými daty nebo se dopustíme chyb při vnitřním programování, může být AI škodlivá. Teka Chatbot s umělou inteligencí společnosti Microsoft, Tay, který byl zveřejněn na Twitteru v roce 2016. Za necelý den se robot díky informacím, které dostával a učil se od ostatních uživatelů Twitteru, naučil chrlit rasistické urážky a nacistickou propagandu. Microsoft chatbota okamžitě vypnul, protože povolení jeho živého provozu by zřejmě poškodilo pověst společnosti.
Ano, umělé inteligence dělají chyby. Ale dělají větší nebo menší chyby než lidé? Kolik životů připravili lidé svými chybnými rozhodnutími? Je lepší nebo horší, když stejnou chybu udělá umělá inteligence?“
3. Měly by mít systémy umělé inteligence dovoleno zabíjet?“
Jay Tuck v tomto projevu na TEDx popisuje umělou inteligenci jako software, který si sám píše aktualizace a obnovuje se. To znamená, že naprogramovaný stroj není vytvořen tak, aby dělal to, co chceme, aby dělal – dělá to, co se naučí. Jay dále popisuje příhodu s robotem jménem Tallon. Jeho počítačem řízená zbraň se zasekla a otevřená nekontrolovaně vystřelila po výbuchu, který zabil 9 lidí a dalších 14 zranil.
Drony typu Predator, jako například General Atomics MQ-1 Predator, existují již více než deset let. Tato dálkově řízená letadla mohou střílet rakety, ačkoli americké zákony vyžadují, aby o skutečném zabití rozhodoval člověk. Vzhledem k tomu, že bezpilotní letouny hrají stále větší roli ve vzdušné vojenské obraně, je však třeba dále zkoumat jejich úlohu a způsob jejich využití. Je lepší používat k zabíjení umělou inteligenci než vystavovat lidi palbě? Co když budeme roboty používat pouze k odstrašení, a ne ke skutečnému násilí?
Kampaň za zastavení zabijáckých robotů je nezisková organizace organizovaná za zákaz plně autonomních zbraní, které mohou rozhodovat o tom, kdo bude žít a kdo zemře bez zásahu člověka. „Plně autonomní zbraně by postrádaly lidský úsudek nutný k posouzení přiměřenosti útoku, rozlišení civilisty od bojovníka a dodržování dalších základních zásad válečného práva. Historie ukazuje, že jejich použití by nebylo omezeno na určité okolnosti.“
4. Zběhlé umělé inteligence
Jestliže existuje možnost, že inteligentní stroje mohou dělat chyby, pak je v rámci možností možné, že umělá inteligence může zběhnout nebo vytvořit nezamýšlené důsledky svého jednání při sledování zdánlivě neškodných cílů. Jedním ze scénářů, kdy se UI stane darebákem, je to, co jsme již viděli ve filmech, jako je Terminátor, a v televizních pořadech, kdy se superinteligentní centralizovaný počítač s UI stane sebevědomým a rozhodne se, že už nechce lidskou kontrolu.
V současné době odborníci tvrdí, že současná technologie umělé inteligence ještě není schopna dosáhnout tohoto extrémně nebezpečného výkonu sebeuvědomění; budoucí superpočítače umělé inteligence by však mohly.
Druhým scénářem je situace, kdy je umělá inteligence například pověřena studiem genetické struktury viru za účelem vytvoření vakcíny, která by jej neutralizovala. Po provedení zdlouhavých výpočtů UI zformuluje řešení, při kterém virus vyzbrojí, místo aby z něj vytvořila vakcínu. Je to jako otevřít novodobou Pandořinu skříňku a do hry opět vstupuje etika, kdy je třeba řešit oprávněné obavy, aby se podobnému scénáři předešlo.
5. V případě, že by umělá inteligence byla schopna vytvořit vakcínu, je nutné ji použít. Singularita a udržení kontroly nad UI
Vyvinou se UI tak, aby překonaly člověka? Co když se stanou chytřejšími než lidé a pak se nás pokusí ovládat? Učiní počítače lidi zastaralými? Bod, kdy růst technologií překoná lidskou inteligenci, se označuje jako „technologická singularita“. Někteří se domnívají, že to bude znamenat konec lidské éry a že by k tomu mohlo dojít již v roce 2030 na základě tempa technologických inovací. Umělá inteligence vedoucí k vyhynutí člověka – je snadné pochopit, proč je pokrok umělé inteligence pro mnoho lidí děsivý.
6. Jak bychom se měli chovat k UI
Měli bychom robotům přiznat lidská práva nebo občanství? Pokud vyvineme roboty do té míry, že budou schopni „cítit“, opravňuje je to k právům podobným lidem nebo zvířatům? Pokud budou robotům přiznána práva, jak pak budeme hodnotit jejich společenské postavení? To je jedna z hlavních otázek „roboetiky“, tématu, které poprvé nastolil Isaac Asimov v roce 1942. V roce 2017 bylo humanoidnímu robotu Sophii od společnosti Hanson Robotics uděleno občanství v Saúdské Arábii. I když to někteří považují spíše za PR trik než za skutečné právní uznání, je to příklad toho, jaká práva mohou být umělé inteligenci v budoucnu udělena.
7. Předpojatost UI
UI je stále více vlastní systémům rozpoznávání obličeje a hlasu, z nichž některé mají reálné obchodní dopady a přímo ovlivňují lidi. Tyto systémy jsou náchylné k předpojatosti a chybám, které do nich vnášejí jejich lidští tvůrci. Také data používaná k tréninku těchto systémů AI mohou sama o sobě obsahovat zkreslení. Například algoritmy pro rozpoznávání obličejů vytvořené společnostmi Microsoft, IBM a Megvii vykazovaly zkreslení při zjišťování pohlaví osob. Tyto systémy AI dokázaly přesněji rozpoznat pohlaví bělochů než pohlaví mužů tmavší pleti. Podobně je dalším příkladem, který ukazuje, že umělá inteligence nemůže být spravedlivá, ukončení náboru a přijímání zaměstnanců pomocí umělé inteligence společností Amazon’s.com; algoritmus upřednostňoval mužské kandidáty před ženskými. Bylo to proto, že systém společnosti Amazon byl vycvičen na základě dat shromážděných za období 10 let, která pocházela převážně od mužských kandidátů.
Může se AI stát zaujatou? To je ošemetná otázka. Někdo by mohl namítnout, že inteligentní stroje nemají morální kompas ani soubor zásad jako my lidé. Nicméně ani náš morální kompas a zásady někdy neprospívají lidstvu jako celku, jak tedy zajistit, aby agenti AI neměli stejné chyby jako jejich tvůrci? Pokud si AI vytvoří určitou zaujatost vůči rase, pohlaví, náboženství nebo etnickému původu nebo proti nim, pak bude chyba především v tom, jak byla vyučována a trénována. Lidé, kteří se zabývají výzkumem UI, proto musí mít předsudky na paměti, když určují, jaká data použít.
Shrnutí
Ano, představa stále přítomnějších systémů UI, které překonávají lidskou inteligenci, je děsivá. A etické otázky, které s přijetím AI souvisejí, jsou složité. Klíčové bude mít tyto otázky na paměti, aby bylo možné analyzovat širší společenské otázky, které jsou ve hře. Otázku, zda je AI dobrá, nebo špatná, lze zkoumat z mnoha různých úhlů pohledu, přičemž žádná teorie nebo rámec není nejlepší. Musíme se neustále učit a být informováni, abychom mohli činit správná rozhodnutí pro naši budoucnost.
Otevřená výzva pro autory
Rádi píšete o technických tématech, jako je toto? Pak se zapojte do výzvy Kambria Content Challenge a podělte se o své poznatky a zkušenosti s naší rostoucí komunitou vývojářů. Za nejlepší příspěvek můžete získat více než 200 dolarů. Kompletní informace o naší obsahové výzvě naleznete zde.
Přihlaste se k odběru novinek Kambria
.