Vuosien 1927 ja 2019 välisenä aikana tekoälystä on tuotettu maailmanlaajuisesti yli 100 elokuvaa. Ja vaikka jotkut skenaariot on kuvattu hyvässä valossa, loput ovat suorastaan kauhistuttavia. Elokuvissa kuten The Terminator, The Matrix, Avengers: Age of Ultron ja monet muut, elokuvateollisuus sijoitti yhteiseen mielikuvitukseemme kohtauksia, jotka osoittavat, kuinka älykkäämmät koneet valtaavat maailman ja orjuuttavat tai hävittävät ihmiskunnan kokonaan. Mahdollisuus, että tekoälykoneista voi tulla ihmisälyä ylivoimaisempia, piirtää ihmiskunnalle synkkää tulevaisuutta.

Viime aikoina maat eri puolilla maailmaa ovat lähteneet mukaan kilpajuoksuun tekoälyn kehittämiseksi, ja 20 EU:n jäsenvaltiota on julkaissut tekoälyn kehittämisstrategiansa sekä T&K:ssa että koulutuksessa. Tekoäly on kuumaa kamaa. Mutta mitä eettisiä ja käytännöllisiä kysymyksiä meidän pitäisi ottaa huomioon, kun siirrymme täysillä eteenpäin tekoälyteknologian omaksumisessa? Yhteisessä tavoitteessamme muuttaa liiketoiminta-aloja koneälyn avulla, mitä riskejä ja vastuita innovaattoreiden olisi otettava huomioon?

Kyllä, tekoälyagentit kykenevät tulevaisuudessa – ja kykenevät jo nyt – suorittamaan prosesseja rinnakkain ihmisälyn kanssa. Yliopistot, yksityiset organisaatiot ja hallitukset kehittävät aktiivisesti tekoälyä, jolla on kyky jäljitellä ihmisen kognitiivisia toimintoja, kuten oppimista, ongelmanratkaisua, suunnittelua ja puheentunnistusta. Mutta jos näiltä agenteilta puuttuu empatia, vaisto ja viisaus päätöksenteossa, pitäisikö niiden integroitumista yhteiskuntaan rajoittaa, ja jos pitäisi, millä tavoin?

Katsotaanpa joitakin tekoälyyn liittyviä eettisiä näkökohtia. Vastuuvapauslausekkeeksi todettakoon, että tämän artikkelin tarkoituksena ei missään nimessä ole vakuuttaa teitä mielipiteestänne, vaan ainoastaan tuoda esiin joitakin keskeisiä kysymyksiä, niin pieniä kuin suuriakin. Vaikka Kambria on tekoäly- ja robottiteknologian kannattaja, emme missään nimessä ole eettisiä asiantuntijoita, ja jätämme sinun päätettäväksi, mitä mieltä olet. Robotti-imuri on yksi asia, mutta tekoälyn eettiset kysymykset lääketieteessä, lainvalvonnassa, sotilaallisessa puolustuksessa, tietosuojassa, kvanttilaskennassa ja muilla aloilla ovat syvällisiä ja tärkeitä pohtia.

1. Työpaikkojen menetys ja varallisuuserot

Yksi tärkeimmistä huolenaiheista tekoälyn suhteen on työpaikkojen menettäminen tulevaisuudessa. Pitäisikö meidän pyrkiä kehittämään ja integroimaan tekoäly täysimääräisesti yhteiskuntaan, jos se tarkoittaa, että monet ihmiset menettävät työpaikkansa – ja hyvin mahdollisesti toimeentulonsa?

McKinsey Global Instituten uuden raportin mukaan vuoteen 2030 mennessä noin 800 miljoonaa ihmistä menettää työnsä tekoälyyn perustuville roboteille. Jotkut väittävät, että jos robotit vievät heidän työnsä, ne ovat ehkä liian vähäpätöisiä ihmisille ja että tekoäly voi olla vastuussa sellaisten parempien työpaikkojen luomisesta, joissa hyödynnetään ihmisen ainutlaatuisia kykyjä, joihin liittyy korkeampia kognitiivisia toimintoja, analysointia ja synteesiä. Toinen näkökohta on se, että tekoäly voi luoda lisää työpaikkoja – onhan ihmisten tehtävänä aluksi luoda näitä robotteja ja sitten hallita niitä tulevaisuudessa.

Yksi työpaikkojen menetykseen liittyvä kysymys on varallisuuserot. Miettikää, että useimmat nykyaikaiset talousjärjestelmät edellyttävät, että työntekijät tuottavat tuotteen tai palvelun, jonka korvaus perustuu tuntipalkkaan. Yritys maksaa palkat, verot ja muut kulut, ja jäljelle jäävät voitot pistetään usein takaisin tuotantoon, koulutukseen ja/tai uusien yritysten luomiseen voittojen lisäämiseksi entisestään. Tässä skenaariossa talous jatkaa kasvuaan.

Mutta mitä tapahtuu, jos otamme tekoälyn mukaan talousvirtaan? Robotit eivät saa tuntipalkkaa eivätkä maksa veroja. Ne voivat antaa 100 %:n panoksen pienillä jatkuvilla kustannuksilla, jotta ne pysyvät toimintakykyisinä ja hyödyllisinä. Tämä avaa toimitusjohtajille ja sidosryhmille mahdollisuuden pitää itsellään enemmän tekoälytyövoiman tuottamia yritysvoittoja, mikä lisää varallisuuseroja. Ehkä tämä voi johtaa siihen, että ”rikkaat” – ne yksityishenkilöt ja yritykset, joilla on varaa maksaa tekoälystä – rikastuvat.

2. Tekoäly on epätäydellinen – entä jos se tekee virheen?

Tekoälyt eivät ole immuuneja virheiden tekemiselle, ja koneoppiminen vie aikaa tullakseen hyödylliseksi. Jos tekoäly koulutetaan hyvin ja käytetään hyvää dataa, se voi suoriutua hyvin. Jos kuitenkin syötämme tekoälyille huonoa dataa tai teemme virheitä sisäisessä ohjelmoinnissa, tekoälyistä voi olla haittaa. Teka Microsoftin tekoäly-chatbot Tay, joka julkaistiin Twitterissä vuonna 2016. Alle yhdessä päivässä robotti oppi muilta Twitter-käyttäjiltä saamiensa ja oppimiensa tietojen ansiosta puhumaan rasistisia solvauksia ja natsipropagandaa. Microsoft sulki chatbotin välittömästi, sillä sen eloon päästäminen olisi ilmeisesti vahingoittanut yhtiön mainetta.

Kyllä, tekoälyt tekevät virheitä. Mutta tekevätkö ne enemmän vai vähemmän virheitä kuin ihmiset? Kuinka monta ihmishenkeä ihmiset ovat vieneet virheellisillä päätöksillä? Onko parempi vai pahempi, kun tekoäly tekee saman virheen?

3. Pitäisikö tekoälyjärjestelmien sallia tappaa?

Tässä TEDx-puheessa Jay Tuck kuvailee tekoälyjä ohjelmistoiksi, jotka kirjoittavat itse omat päivityksensä ja uusivat itsensä. Tämä tarkoittaa, että ohjelmoituna konetta ei luoda tekemään sitä, mitä me haluamme sen tekevän – se tekee sitä, mitä se oppii tekemään. Jay jatkaa kuvaamalla tapausta Tallon-nimisen robotin kanssa. Sen tietokoneistettu ase jumiutui ja ampui hallitsemattomasti räjähdyksen jälkeen tappaen 9 ihmistä ja haavoittaen 14 muuta.

Predator-robotteja, kuten General Atomicsin MQ-1 Predator, on ollut olemassa jo yli kymmenen vuotta. Nämä kauko-ohjattavat lentokoneet voivat ampua ohjuksia, vaikka Yhdysvaltain laki edellyttää, että ihmiset tekevät varsinaiset tappopäätökset. Koska lennokit ovat kuitenkin yhä tärkeämmässä roolissa sotilaallisessa ilmapuolustuksessa, meidän on tutkittava tarkemmin niiden roolia ja käyttötapoja. Onko parempi käyttää tekoälyä tappamiseen kuin asettaa ihmisiä tulilinjalle? Entä jos käytämme robotteja vain pelotukseen eikä varsinaiseen väkivaltaan?

Tappajarobottien pysäyttämiskampanja on voittoa tavoittelematon järjestö, joka on järjestäytynyt kieltämään täysin autonomiset aseet, jotka voivat päättää, kuka elää ja kuka kuolee ilman ihmisen väliintuloa. ”Täysin autonomisilta aseilta puuttuisi inhimillinen arvostelukyky, jota tarvitaan hyökkäyksen oikeasuhtaisuuden arvioimiseen, siviilin ja taistelijan erottamiseen toisistaan ja muiden sodan lakien keskeisten periaatteiden noudattamiseen. Historia osoittaa, että niiden käyttöä ei rajoitettaisi vain tiettyihin olosuhteisiin.”

4. Konnatekoiset tekoälyt

Jos on mahdollista, että älykkäät koneet voivat tehdä virheitä, on mahdollista, että tekoäly voi muuttua konnaksi tai saada aikaan tahattomia seurauksia toiminnallaan tavoitellessaan näennäisesti vaarattomia tavoitteita. Yksi skenaario tekoälyn ryöstöretkestä on se, mitä olemme jo nähneet elokuvissa, kuten Terminatorissa, ja TV-sarjoissa, joissa superälykäs keskitetty tekoälytietokone tulee itsetietoiseksi ja päättää, ettei se halua enää ihmisen kontrollia.

Juuri nyt asiantuntijat sanovat, että nykyinen tekoälyteknologia ei vielä kykene saavuttamaan tätä äärimmäisen vaarallista itsetietoisuuden saavutusta; tulevaisuuden tekoälyn supertietokoneet saattavat kuitenkin pystyä siihen.

Toinen skenaario on se, jossa tekoäly saa esimerkiksi tehtäväkseen tutkia viruksen geneettistä rakennetta luodakseen rokotteen sen neutraloimiseksi. Pitkien laskelmien jälkeen tekoäly muotoilee ratkaisun, jossa se aseistaa viruksen sen sijaan, että se tekisi siitä rokotteen. Se on kuin Pandoran lippaan avaaminen nykyaikana, ja jälleen kerran eettiset kysymykset astuvat kuvaan, kun on otettava huomioon oikeutetut huolenaiheet, jotta tällainen skenaario voidaan estää.

5. Singulariteetti ja tekoälyjen hallinnan säilyttäminen

Kehittyvätkö tekoälyt ylittämään ihmisen? Entä jos niistä tulee ihmisiä älykkäämpiä ja ne sitten yrittävät hallita meitä? Tekevätkö tietokoneet ihmiset tarpeettomiksi? Pistettä, jossa teknologian kasvu ylittää ihmisen älykkyyden, kutsutaan ”teknologiseksi singulariteetiksi”. Jotkut uskovat, että tämä merkitsee ihmisen aikakauden loppua, ja teknologisen innovaation vauhdin perusteella se voi tapahtua jo vuonna 2030. Tekoäly johtaa ihmisen sukupuuttoon – on helppo ymmärtää, miksi tekoälyn kehittyminen pelottaa monia ihmisiä.

6. Miten meidän pitäisi kohdella tekoälyjä?

Pitäisikö roboteille myöntää ihmisoikeudet tai kansalaisuus? Jos kehitämme robotteja niin pitkälle, että ne kykenevät ”tuntemaan”, antaako se niille samanlaiset oikeudet kuin ihmisille tai eläimille? Jos roboteille myönnetään oikeuksia, miten luokittelemme niiden yhteiskunnallisen aseman? Tämä on yksi tärkeimmistä kysymyksistä ”roboetiikassa”, jonka Isaac Asimov otti ensimmäisen kerran esille vuonna 1942. Vuonna 2017 Hanson Roboticsin humanoidirobotti Sophia sai kansalaisuuden Saudi-Arabiassa. Vaikka jotkut pitävät tätä enemmänkin PR-temppuna kuin todellisena oikeudellisena tunnustuksena, se on kuitenkin esimerkki siitä, millaisia oikeuksia tekoälyille voidaan myöntää tulevaisuudessa.

7. Tekoälyn puolueellisuus

Tekoälystä on tullut yhä luontevampi osa kasvo- ja puheentunnistusjärjestelmiä, joista joillakin on todellisia liiketaloudellisia vaikutuksia ja jotka vaikuttavat suoraan ihmisiin. Nämä järjestelmät ovat alttiita sen inhimillisten tekijöiden aiheuttamille ennakkoluuloille ja virheille. Myös näiden tekoälyjärjestelmien kouluttamiseen käytetyssä datassa itsessään voi olla ennakkoluuloja. Esimerkiksi Microsoftin, IBM:n ja Megvin tekemissä kasvojentunnistusalgoritmeissa oli vääristymiä, kun ne tunnistivat ihmisten sukupuolen. Nämä tekoälyjärjestelmät pystyivät tunnistamaan valkoihoisten miesten sukupuolen tarkemmin kuin tummaihoisten miesten sukupuolen. Samoin Amazon’s.comin tekoälypohjaisen palkkauksen ja rekrytoinnin lopettaminen on toinen esimerkki, joka osoittaa, että tekoäly ei voi olla oikeudenmukainen; algoritmi suosi miespuolisia hakijoita naisten sijaan. Tämä johtui siitä, että Amazonin järjestelmä oli koulutettu 10 vuoden aikana kerätyillä tiedoilla, jotka olivat peräisin enimmäkseen miespuolisilta ehdokkailta.

Voiko tekoälystä tulla puolueellinen? No, se on hankala kysymys. Voidaan väittää, että älykkäillä koneilla ei ole moraalista kompassia eikä periaatteita kuten meillä ihmisillä. Jopa meidän moraalinen kompassimme ja periaatteemme eivät kuitenkaan joskus hyödytä koko ihmiskuntaa, joten miten varmistamme, ettei tekoäly-agenteilla ole samoja vikoja kuin niiden luojilla? Jos tekoäly kehittää tietynlaisen ennakkoluulon rotua, sukupuolta, uskontoa tai etnistä alkuperää kohtaan tai niitä vastaan, vika on lähinnä siinä, miten se on opetettu ja koulutettu. Siksi tekoälytutkimuksen parissa työskentelevien ihmisten on pidettävä ennakkoluulot mielessä, kun he päättävät, mitä aineistoja käytetään.

Yhteenveto

Todellakin ajatus yhä enemmän esillä olevista tekoälyjärjestelmistä, jotka ylittävät ihmisen älykkyyden, on pelottava. Ja tekoälyn käyttöönottoon liittyvät eettiset kysymykset ovat monimutkaisia. Keskeistä on pitää nämä kysymykset mielessä, jotta voidaan analysoida laajempia yhteiskunnallisia kysymyksiä. Sitä, onko tekoäly hyvä vai huono, voidaan tarkastella monesta eri näkökulmasta, eikä yksi teoria tai kehys ole paras. Meidän on jatkettava oppimista ja pysyttävä ajan tasalla, jotta voimme tehdä hyviä päätöksiä tulevaisuuttamme ajatellen.

Open Call for Writers

Tykkäätkö kirjoittaa tällaisista teknologia-aiheista? Liity sitten Kambria Content Challengeen ja jaa näkemyksesi ja asiantuntemuksesi kasvavan kehittäjäyhteisömme kanssa. Voit saada yli 200 dollaria parhaasta kirjoituksesta. Saat täydelliset tiedot Content Challenge -haasteestamme klikkaamalla tästä.

Liity Kambrian uutiskirjeeseen

Vastaa

Sähköpostiosoitettasi ei julkaista.