Från 1927 till 2019 har det producerats mer än 100 filmer om artificiell intelligens världen över. Och medan vissa scenarier skildras i ett gott ljus är resten rent av skrämmande. I filmer som The Terminator, The Matrix, Avengers: Age of Ultron och många andra har filmindustrin placerat in scener i vår gemensamma fantasi som visar hur mer intelligenta maskiner kommer att ta över världen och förslava eller helt utplåna mänskligheten från existensen. Potentialen för att artificiell intelligens ska bli mer överlägsen än någon mänsklig intelligens målar upp en mörk framtid för mänskligheten.
På senare tid har länder över hela världen gett sig in i kapplöpningen om att utveckla artificiell intelligens, och 20 länder i EU har offentliggjort sina strategier för utveckling av artificiell intelligens inom både FoU& och utbildning. Artificiell intelligens är glödhet. Men vilka etiska och praktiska frågor bör vi ta hänsyn till när vi går i full fart för att omfamna AI-tekniken? Vilka risker och vilket ansvar bör innovatörer ta hänsyn till i vårt gemensamma mål att omvandla företagssektorer med hjälp av maskinell intelligens?
Ja, AI-agenter kommer att vara – och är redan – mycket kapabla att genomföra processer parallellt med mänsklig intelligens. Universitet, privata organisationer och regeringar utvecklar aktivt artificiell intelligens med förmåga att efterlikna mänskliga kognitiva funktioner som inlärning, problemlösning, planering och taligenkänning. Men om dessa agenter saknar empati, instinkt och visdom i beslutsfattandet, bör man då begränsa deras integrering i samhället, och i så fall på vilket sätt?
Låt oss gå igenom några av de etiska övervägandena inom AI-området. Som ansvarsfriskrivning vill jag säga att denna artikel inte på något sätt är avsedd att övertyga dig om din åsikt, utan endast att belysa några av de framträdande frågorna, både stora och små. Även om Kambria är en anhängare av AI- och robotteknik är vi inte på något sätt etiska experter och överlåter det till dig att avgöra var du står. En robotdammsugare är en sak, men etiska frågor kring AI inom medicin, brottsbekämpning, militärt försvar, dataintegritet, kvantdatorer och andra områden är djupgående och viktiga att överväga.
1. Förlust av arbetstillfällen och ojämlikhet i välstånd
En av de främsta farhågorna som människor har när det gäller artificiell intelligens är framtida förlust av arbetstillfällen. Ska vi sträva efter att fullt ut utveckla och integrera artificiell intelligens i samhället om det innebär att många människor kommer att förlora sina jobb – och mycket möjligtvis sitt levebröd?
Enligt den nya rapporten från McKinsey Global Institute kommer omkring 800 miljoner människor att förlora sina jobb till år 2030 på grund av AI-drivna robotar. Vissa skulle hävda att om deras jobb tas av robotar är de kanske för enkla för människor och att AI kan ansvara för att skapa bättre jobb som drar nytta av den unika mänskliga förmågan som innefattar högre kognitiva funktioner, analys och syntes. En annan synpunkt är att AI kan skapa fler arbetstillfällen – när allt kommer omkring kommer människor att ha till uppgift att skapa dessa robotar till att börja med och sedan förvalta dem i framtiden.
En fråga som hänger samman med förlorade arbetstillfällen är ojämlikhet i välstånd. Tänk på att de flesta moderna ekonomiska system kräver att arbetstagare producerar en produkt eller tjänst där deras ersättning baseras på en timlön. Företaget betalar löner, skatter och andra utgifter, och överblivna vinster återinvesteras ofta i produktion, utbildning och/eller skapande av fler företag för att ytterligare öka vinsterna. I detta scenario fortsätter ekonomin att växa.
Men vad händer om vi inför AI i det ekonomiska flödet? Robotar får inte timlön och betalar inte heller skatt. De kan bidra på en nivå av 100 procent med låga löpande kostnader för att hålla dem funktionsdugliga och användbara. Detta öppnar dörren för vd:ar och intressenter att behålla mer företagsvinster som genereras av deras AI-arbetskraft, vilket leder till större ojämlikhet i förmögenhet. Kanske kan detta leda till att ”de rika” – de individer och företag som har möjlighet att betala för AI – blir rikare.
2. AI är ofullständig – vad händer om den gör ett misstag?
AI är inte immuna mot att göra misstag och maskininlärning tar tid att bli användbar. Om AI tränas på ett bra sätt, med hjälp av bra data, kan den prestera bra. Men om vi matar AI:er med dåliga data eller gör fel i den interna programmeringen kan AI:erna vara skadliga. Teka Microsofts AI-chatbot, Tay, som släpptes på Twitter 2016. På mindre än en dag lärde sig roboten, på grund av den information den fick och lärde sig från andra Twitteranvändare, att spy rasistiska glåpord och nazistisk propaganda. Microsoft stängde ner chattroboten omedelbart eftersom det uppenbart skulle ha skadat företagets rykte om den hade tillåtits leva vidare.
Ja, AI gör misstag. Men gör de större eller färre misstag än människor? Hur många liv har människor tagit på grund av felaktiga beslut? Är det bättre eller sämre när en AI gör samma misstag?
3. Should AI Systems Be Allowed to Kill?
I detta TEDx-tal beskriver Jay Tuck AI som mjukvara som skriver sina egna uppdateringar och förnyar sig själv. Detta innebär att maskinen, när den är programmerad, inte skapas för att göra vad vi vill att den ska göra – den gör vad den lär sig att göra. Jay Tuck fortsätter med att beskriva en incident med en robot som heter Tallon. Dess datoriserade pistol hade fastnat och öppnade sig okontrollerat efter en explosion som dödade nio personer och skadade ytterligare fjorton.
Predatorrobotar, som General Atomics MQ-1 Predator, har funnits i över ett decennium. Dessa fjärrstyrda flygplan kan avfyra missiler, även om amerikansk lag kräver att människor fattar de faktiska besluten om att döda. Men i och med att drönare spelar en allt större roll i det militära luftförsvaret måste vi ytterligare undersöka deras roll och hur de används. Är det bättre att använda artificiell intelligens för att döda än att sätta människor i skottlinjen? Vad händer om vi bara använder robotar för avskräckning snarare än för faktiskt våld?
The Campaign to Stop Killer Robots är en ideell organisation som organiserar sig för att förbjuda helt autonoma vapen som kan bestämma vem som lever och dör utan mänsklig inblandning. ”Helt autonoma vapen skulle sakna det mänskliga omdöme som krävs för att bedöma proportionaliteten i ett angrepp, skilja civila från stridande och följa andra centrala principer i krigets lagar. Historien visar att deras användning inte skulle begränsas till vissa omständigheter.”
4. Skurkaktig AI
Om det finns en chans att intelligenta maskiner kan begå misstag, så ligger det inom ramen för möjligheten att en AI kan bli skurkaktig, eller skapa oavsiktliga konsekvenser av sina handlingar när den eftersträvar till synes harmlösa mål. Ett scenario för en AI som går på avvägar är vad vi redan har sett i filmer som Terminator och tv-serier där en superintelligent centraliserad AI-dator blir självmedveten och bestämmer sig för att den inte längre vill ha mänsklig kontroll.
Inom experterna säger man att den nuvarande AI-tekniken ännu inte är kapabel att uppnå denna extremt farliga bedrift av självmedvetenhet; framtida AI-superdatorer kan dock komma att göra det.
Det andra scenariot är när en AI, till exempel, får i uppdrag att studera den genetiska strukturen hos ett virus i syfte att skapa ett vaccin för att neutralisera det. Efter att ha gjort långa beräkningar formulerade AI:n en lösning där den gör viruset till ett vapen i stället för att göra ett vaccin av det. Det är som att öppna en modern Pandoras ask och återigen kommer etiken in i bilden där legitima farhågor måste tas upp för att förhindra ett scenario som detta.
5. Singularitet och kontroll över artificiell intelligens
Kommer artificiell intelligens att utvecklas så att den överträffar människan? Vad händer om de blir smartare än människor och sedan försöker kontrollera oss? Kommer datorer att göra människor överflödiga? Den punkt då den tekniska tillväxten överträffar den mänskliga intelligensen kallas ”teknisk singularitet”. Vissa tror att detta kommer att signalera slutet på den mänskliga eran och att det kan inträffa så tidigt som 2030 baserat på takten i den tekniska innovationen. AI som leder till människans utrotning – det är lätt att förstå varför utvecklingen av AI är skrämmande för många människor.
6. Hur ska vi behandla artificiell intelligens?
Ska robotar beviljas mänskliga rättigheter eller medborgarskap? Om vi utvecklar robotar så långt att de kan ”känna”, ger det dem rättigheter som liknar dem för människor eller djur? Om robotar beviljas rättigheter, hur ska vi då rangordna deras sociala status? Detta är en av de viktigaste frågorna inom ”roboetik”, ett ämne som först togs upp av Isaac Asimov 1942. År 2017 beviljades Hanson Robotics humanoida robot Sophia medborgarskap i Saudiarabien. Även om vissa anser att detta är mer av ett PR-stunt än ett faktiskt juridiskt erkännande, är det ett exempel på vilken typ av rättigheter som AIs kan komma att beviljas i framtiden.
7. AI Bias
AI har blivit alltmer inneboende i system för ansikts- och röstigenkänning, varav en del har verkliga affärsmässiga konsekvenser och påverkar människor direkt. Dessa system är sårbara för fördomar och fel som införs av dess mänskliga skapare. Även de uppgifter som används för att träna dessa AI-system kan ha fördomar. Till exempel hade algoritmer för ansiktsigenkänning som tillverkades av Microsoft, IBM och Megvii alla en viss bias när det gällde att upptäcka människors kön. Dessa AI-system kunde upptäcka vita mäns kön mer exakt än män med mörkare hudfärg. På samma sätt är Amazon’s.com:s uppsägning av AI-hyrning och rekrytering ett annat exempel som visar att AI inte kan vara rättvis; algoritmen föredrog manliga kandidater framför kvinnliga. Detta berodde på att Amazons system tränades med data som samlats in under en tioårsperiod och som främst kom från manliga kandidater.
Kan AI bli partisk? Tja, det är en knepig fråga. Man skulle kunna hävda att intelligenta maskiner inte har en moralisk kompass eller en uppsättning principer som vi människor har. Men även vår moraliska kompass och våra principer gynnar ibland inte mänskligheten som helhet, så hur ser vi till att AI-agenter inte har samma brister som sina skapare? Om AI-agenter utvecklar en viss fördomsfullhet mot eller för ras, kön, religion eller etnicitet, kommer felet främst att ligga på hur de har lärt sig och tränats. Därför måste personer som arbetar med AI-forskning ha bias i åtanke när de bestämmer vilka data som ska användas.
Sammanfattning
Ja, tanken på alltmer närvarande AI-system som överträffar mänsklig intelligens är skrämmande. Och de etiska frågor som följer med införandet av AI är komplexa. Nyckeln blir att ha dessa frågor i åtanke för att kunna analysera de bredare samhällsfrågor som spelar in. Huruvida AI är bra eller dåligt kan undersökas från många olika synvinklar och ingen teori eller ram är den bästa. Vi måste fortsätta att lära oss och hålla oss informerade för att kunna fatta bra beslut för vår framtid.
Open Call for Writers
Gillar du att skriva om tekniska ämnen som detta? Gå då med i Kambria Content Challenge och dela med dig av dina insikter och din expertis till vårt växande utvecklarcommunity. Du kan få över 200 dollar för det bästa bidraget. För fullständig information om vår innehållsutmaning, klicka här.