Fra 1927 til 2019 er der blevet produceret mere end 100 film om kunstig intelligens på verdensplan. Og mens nogle scenarier er skildret i et godt lys, er resten ligefrem skræmmende. I film som The Terminator, The Matrix, The Matrix, Avengers: Age of Ultron og mange andre har filmindustrien placeret scener i vores fælles fantasi, der viser, hvordan mere intelligente maskiner vil overtage verden og gøre menneskeheden til slave eller helt udslette den fra eksistensen. Muligheden for, at kunstige intelligenser kan blive mere overlegne end nogen menneskelig intelligens, tegner en mørk fremtid for menneskeheden.
For nylig er lande over hele verden gået ind i kapløbet om at udvikle kunstig intelligens, idet 20 lande i EU har offentliggjort deres strategier for udvikling af kunstig intelligens inden for både F&D og uddannelse. Kunstig intelligens er rødglødende. Men hvilke etiske og praktiske spørgsmål bør vi overveje, når vi går i fuld fart fremad med at tage AI-teknologien til os? I vores fælles mål om at omdanne erhvervssektorer ved hjælp af maskinel intelligens, hvilke risici og hvilket ansvar bør innovatorer så overveje?
Ja, AI-agenter vil være – og er allerede – i høj grad i stand til at gennemføre processer parallelt med den menneskelige intelligens. Universiteter, private organisationer og regeringer udvikler aktivt kunstig intelligens med evnen til at efterligne menneskelige kognitive funktioner som f.eks. indlæring, problemløsning, planlægning og talegenkendelse. Men hvis disse agenter mangler empati, instinkt og visdom i beslutningstagningen, bør deres integration i samfundet så begrænses, og i givet fald på hvilke måder?
Lad os gennemgå nogle af de etiske overvejelser i forbindelse med AI-området. Som en ansvarsfraskrivelse skal denne artikel på ingen måde overbevise dig om din mening, men blot fremhæve nogle af de fremtrædende spørgsmål, både store og små. Selv om Kambria er en tilhænger af AI- og robotteknologi, er vi på ingen måde etiske eksperter og overlader det til dig at afgøre, hvor du står. En robotstøvsuger er én ting, men etiske spørgsmål omkring AI inden for medicin, retshåndhævelse, militært forsvar, databeskyttelse, kvantecomputere og andre områder er dybe og vigtige at overveje.
1. Tab af arbejdspladser og ulighed i rigdom
En af de primære bekymringer, som folk har i forbindelse med kunstig intelligens, er det fremtidige tab af arbejdspladser. Skal vi stræbe efter at udvikle og integrere AI fuldt ud i samfundet, hvis det betyder, at mange mennesker vil miste deres job – og muligvis også deres levebrød?
I henhold til den nye rapport fra McKinsey Global Institute vil omkring 800 millioner mennesker i 2030 miste deres job til fordel for AI-drevne robotter. Nogle vil hævde, at hvis deres job bliver overtaget af robotter, er de måske for underordnede for mennesker, og at AI kan være ansvarlig for at skabe bedre job, der udnytter unikke menneskelige evner, der involverer højere kognitive funktioner, analyse og syntese. En anden pointe er, at AI kan skabe flere job – når alt kommer til alt, vil mennesker få til opgave at skabe disse robotter til at begynde med og derefter administrere dem i fremtiden.
Et spørgsmål i forbindelse med tab af arbejdspladser er ulighed i velstand. Tænk på, at de fleste moderne økonomiske systemer kræver, at arbejdstagerne producerer et produkt eller en tjenesteydelse, hvor deres kompensation er baseret på en timeløn. Virksomheden betaler lønninger, skatter og andre udgifter, og overskuddet, der bliver tilovers, bliver ofte geninvesteret i produktion, uddannelse og/eller oprettelse af flere virksomheder for at øge overskuddet yderligere. I dette scenarie fortsætter økonomien med at vokse.
Men hvad sker der, hvis vi indfører AI i det økonomiske flow? Robotter får ikke timeløn og betaler heller ikke skat. De kan bidrage på et niveau på 100 % med lave løbende omkostninger til at holde dem funktionsdygtige og nyttige. Dette åbner døren for CEO’er og interessenter til at beholde mere virksomhedsoverskud, der genereres af deres AI-arbejdskraft, hvilket fører til større ulighed i rigdom. Måske kan dette føre til, at “de rige” – de personer og virksomheder, der har midlerne til at betale for AI – bliver rigere.
2. AI er ufuldkommen – hvad nu, hvis den begår en fejl?
AI er ikke immun over for at begå fejl, og maskinlæring tager tid, før den bliver nyttig. Hvis den automatiske intelligens trænes godt ved hjælp af gode data, kan den yde gode resultater. Men hvis vi fodrer AI’er med dårlige data eller begår fejl med intern programmering, kan AI’erne være skadelige. Teka Microsofts AI-chatbot, Tay, som blev frigivet på Twitter i 2016. På mindre end et døgn lærte robotten på grund af de oplysninger, den modtog og lærte fra andre Twitter-brugere, at spytte racistiske smædeskrifter og nazistisk propaganda ud. Microsoft lukkede chatbotten ned med det samme, da det naturligvis ville have skadet virksomhedens omdømme, hvis den havde fået lov til at leve videre.
Ja, AI’er begår fejl. Men begår de større eller færre fejl end mennesker? Hvor mange liv har mennesker taget med forkerte beslutninger? Er det bedre eller værre, når en AI begår den samme fejl?
3. Should AI Systems Be Allowed to Kill?
I denne TEDx-tale beskriver Jay Tuck AI’er som software, der skriver sine egne opdateringer og fornyer sig selv. Det betyder, at maskinen som programmeret ikke er skabt til at gøre det, som vi ønsker, at den skal gøre – den gør det, som den lærer at gøre. Jay Tuck fortsætter med at beskrive en hændelse med en robot ved navn Tallon. Dens computerstyrede pistol var gået i stå og åbnede ukontrolleret ild efter en eksplosion, der dræbte 9 mennesker og sårede 14 andre.
Predator-droner, såsom General Atomics MQ-1 Predator, har eksisteret i over et årti. Disse fjernstyrede fly kan affyre missiler, selv om amerikansk lovgivning kræver, at det er mennesker, der træffer de egentlige beslutninger om at dræbe. Men i takt med at droner spiller en større rolle i det militære luftforsvar, er vi nødt til at undersøge deres rolle yderligere, og hvordan de bruges. Er det bedre at bruge kunstig intelligens til at dræbe end at sætte mennesker i skudlinjen? Hvad hvis vi kun bruger robotter til afskrækkelse snarere end til egentlig vold?
The Campaign to Stop Killer Robots er en non-profitorganisation, der er organiseret for at forbyde fuldt autonome våben, der kan bestemme, hvem der lever og dør uden menneskelig indgriben. “Fuldt autonome våben ville mangle den menneskelige dømmekraft, der er nødvendig for at vurdere proportionaliteten af et angreb, skelne civile fra kombattanter og overholde andre centrale principper i krigslovene. Historien viser, at deres anvendelse ikke ville være begrænset til visse omstændigheder.”
4. Slyngelagtige AI’er
Hvis der er en chance for, at intelligente maskiner kan begå fejl, så er det inden for det mulige område, at en AI kan blive slyngelagtig eller skabe utilsigtede konsekvenser af sine handlinger i forfølgelsen af tilsyneladende harmløse mål. Et scenarie for en AI, der går på afveje, er det, vi allerede har set i film som Terminator og tv-serier, hvor en superintelligent centraliseret AI-computer bliver selvbevidst og beslutter sig for, at den ikke længere ønsker menneskelig kontrol.
Som eksperter siger lige nu, er den nuværende AI-teknologi endnu ikke i stand til at opnå denne ekstremt farlige bedrift med selvbevidsthed; men fremtidige AI-supercomputere vil måske kunne gøre det.
Det andet scenarie er, hvor en AI for eksempel får til opgave at studere den genetiske struktur af en virus for at skabe en vaccine til at neutralisere den. Efter at have foretaget langvarige beregninger formulerer AI’en en løsning, hvor den gør viruset til et våben i stedet for at lave en vaccine ud af det. Det er som at åbne en moderne Pandoras æske, og igen kommer etikken i spil, hvor legitime bekymringer skal tages op for at forhindre et scenario som dette.
5. Singularitet og kontrol over den kunstige intelligens
Vil den kunstige intelligens udvikle sig til at overgå mennesket? Hvad nu, hvis de bliver klogere end mennesker og derefter forsøger at kontrollere os? Vil computere gøre mennesker overflødige? Det punkt, hvor teknologiens vækst overgår den menneskelige intelligens, betegnes som “teknologisk singularitet”. Nogle mener, at dette vil signalere afslutningen på den menneskelige æra, og at det kan ske allerede i 2030 på baggrund af tempoet i den teknologiske innovation. AI, der fører til menneskets udslettelse – det er let at forstå, hvorfor AI’s fremgang er skræmmende for mange mennesker.
6. Hvordan skal vi behandle kunstig intelligens?
Bør robotter tildeles menneskerettigheder eller statsborgerskab? Hvis vi udvikler robotter så langt, at de er i stand til at “føle”, giver det dem så rettigheder, der svarer til menneskers eller dyrs rettigheder? Hvis robotter får rettigheder, hvordan skal vi så rangordne deres sociale status? Dette er et af de vigtigste spørgsmål inden for “roboetikken”, et emne, der første gang blev rejst af Isaac Asimov i 1942. I 2017 blev den humanoide robot Sophia fra Hanson Robotics tildelt statsborgerskab i Saudi-Arabien. Selv om nogle anser dette for at være mere et PR-stunt end en egentlig juridisk anerkendelse, er det et eksempel på den type rettigheder, som AI’er kan få tildelt i fremtiden.
7. AI Bias
AI er blevet mere og mere iboende i ansigts- og stemmegenkendelsessystemer, hvoraf nogle har reelle forretningsmæssige konsekvenser og har direkte indvirkning på mennesker. Disse systemer er sårbare over for skævheder og fejl, der indføres af deres menneskelige skabere. Også de data, der anvendes til at træne disse AI-systemer, kan selv have skævheder. F.eks. havde ansigtsgenkendelsesalgoritmer fra Microsoft, IBM og Megvii alle skævheder, når de registrerede folks køn. Disse AI-systemer var i stand til at registrere hvide mænds køn mere præcist end mænd med mørkere hudfarve. På samme måde er Amazon’s.com’s opsigelse af AI-hyring og -rekruttering et andet eksempel, der viser, at AI ikke kan være retfærdig; algoritmen foretrak mandlige kandidater frem for kvindelige. Dette skyldtes, at Amazons system blev trænet med data indsamlet over en 10-årig periode, der hovedsageligt kom fra mandlige kandidater.
Kan AI blive skævvridende? Tja, det er et tricky spørgsmål. Man kunne argumentere for, at intelligente maskiner ikke har et moralsk kompas eller et sæt principper, som vi mennesker har. Men selv vores moralske kompas og principper er nogle gange ikke til gavn for menneskeheden som helhed, så hvordan sikrer vi, at AI-agenter ikke har de samme fejl som deres skabere? Hvis AI’er udvikler en vis fordomsfuldhed over for eller imod race, køn, religion eller etnicitet, vil fejlen hovedsagelig ligge i den måde, hvorpå den er blevet oplært og trænet. Derfor er folk, der arbejder med AI-forskning, nødt til at holde bias i tankerne, når de bestemmer, hvilke data der skal bruges.
Summary
Ja, tanken om stadig mere nærværende AI-systemer, der overgår den menneskelige intelligens, er skræmmende. Og de etiske spørgsmål, der følger med indførelse af AI, er komplekse. Nøglen vil være at holde disse spørgsmål for øje for at kunne analysere de bredere samfundsmæssige spørgsmål, der er på spil. Hvorvidt AI er godt eller skidt kan undersøges fra mange forskellige vinkler, og der er ikke én teori eller ramme, der er den bedste. Vi er nødt til at blive ved med at lære og holde os informeret for at træffe gode beslutninger for vores fremtid.
Open Call for Writers
Kan du lide at skrive om teknologiske emner som dette? Så deltag i Kambria Content Challenge, og del din indsigt og ekspertise med vores voksende udviklerfællesskab. Du kan modtage over 200 dollars for det bedste bidrag. Klik her for at få alle detaljer om vores Content Challenge.