Van 1927 tot 2019 zijn er wereldwijd meer dan 100 films geproduceerd over kunstmatige intelligentie. En terwijl sommige scenario’s in een goed daglicht worden gesteld, is de rest ronduit gruwelijk. In films als The Terminator, The Matrix, Avengers: Age of Ultron en vele andere heeft de filmindustrie scènes in onze gedeelde verbeelding geplaatst waarin wordt getoond hoe intelligentere machines de wereld zullen overnemen en de mensheid tot slaaf zullen maken of volledig uit het bestaan zullen wissen. Het potentieel van AI’s om superieur te worden aan welke menselijke intelligentie dan ook, schetst een duistere toekomst voor de mensheid.

Meer recent zijn landen over de hele wereld in de race gestapt om kunstmatige intelligentie te ontwikkelen, met 20 landen in de EU die hun strategieën voor de ontwikkeling van AI in zowel R&D als onderwijs hebben vrijgegeven. Kunstmatige intelligentie is hot. Maar met welke ethische en praktische kwesties moeten we rekening houden als we vol gas vooruitgaan bij het omarmen van AI-technologie? Met welke risico’s en verantwoordelijkheden moeten innovators rekening houden bij ons gezamenlijke doel om bedrijfssectoren te transformeren met behulp van machine-intelligentie?

Ja, AI-agenten zullen zeer goed in staat zijn – en zijn dat al – om processen te voltooien die parallel lopen aan menselijke intelligentie. Universiteiten, particuliere organisaties en overheden zijn actief bezig met de ontwikkeling van kunstmatige intelligentie die in staat is menselijke cognitieve functies na te bootsen, zoals leren, problemen oplossen, plannen en spraakherkenning. Maar als deze agenten empathie, instinct en wijsheid in de besluitvorming ontberen, moet hun integratie in de samenleving dan worden beperkt, en zo ja, op welke manieren?

Laten we eens kijken naar enkele van de ethische overwegingen in de AI-ruimte. Bij wijze van disclaimer, dit artikel is geenszins bedoeld om uw mening te overtuigen, maar slechts om enkele van de meest in het oog springende kwesties te belichten, zowel grote als kleine. Hoewel Kambria een voorstander is van AI en robotica technologie, zijn we zeker geen ethische experts en laten we het aan u over om te beslissen waar u staat. Een robotstofzuiger is één ding, maar ethische vragen rond AI in de geneeskunde, rechtshandhaving, militaire defensie, gegevensprivacy, quantumcomputing, en andere gebieden zijn diepgaand en belangrijk om te overwegen.

1. Banenverlies en vermogensongelijkheid

Een van de belangrijkste zorgen die mensen hebben over AI is het toekomstige banenverlies. Moeten we ernaar streven AI volledig te ontwikkelen en in de samenleving te integreren als dat betekent dat veel mensen hun baan zullen verliezen – en heel misschien hun levensonderhoud?

Volgens het nieuwe rapport van het McKinsey Global Institute zullen tegen het jaar 2030 ongeveer 800 miljoen mensen hun baan verliezen aan AI-gestuurde robots. Sommigen zouden aanvoeren dat als hun banen door robots worden ingenomen, deze misschien te onbelangrijk zijn voor mensen en dat AI verantwoordelijk kan zijn voor het scheppen van betere banen die gebruik maken van unieke menselijke vermogens met betrekking tot hogere cognitieve functies, analyse en synthese. Een ander punt is dat AI misschien meer banen schept – mensen zullen immers om te beginnen deze robots moeten maken en ze vervolgens in de toekomst moeten beheren.

Een kwestie die verband houdt met banenverlies is welvaartsongelijkheid. Bedenk dat de meeste moderne economische systemen vereisen dat werknemers een product of dienst produceren met hun vergoeding op basis van een uurloon. Het bedrijf betaalt de lonen, belastingen en andere uitgaven, waarbij de resterende winst vaak weer wordt geïnjecteerd in productie, opleiding en/of het creëren van meer bedrijven om de winst verder te verhogen. In dit scenario blijft de economie groeien.

Maar wat gebeurt er als we AI in de economische stroom introduceren? Robots worden niet per uur betaald en betalen ook geen belasting. Ze kunnen voor 100% bijdragen met lage lopende kosten om ze operationeel en nuttig te houden. Dit opent de deur voor CEO’s en belanghebbenden om meer bedrijfswinst te houden die wordt gegenereerd door hun AI-arbeidskrachten, wat leidt tot grotere welvaartsongelijkheid. Misschien kan dit leiden tot een geval van “de rijken” – de personen en bedrijven die de middelen hebben om voor AI’s te betalen – die rijker worden.

2. AI is onvolmaakt – wat als het een fout maakt?

I’s zijn niet immuun voor het maken van fouten en machine learning heeft tijd nodig om nuttig te worden. Als ze goed getraind worden, met goede gegevens, dan kunnen AI’s goed presteren. Maar als we AI’s voeden met slechte data of fouten maken met de interne programmering, kunnen de AI’s schadelijk zijn. Teka Microsofts AI chatbot, Tay, die in 2016 op Twitter werd losgelaten. In minder dan een dag, als gevolg van de informatie die het ontving en leerde van andere Twitter-gebruikers, leerde de robot racistische scheldwoorden en nazi-propaganda te spuwen. Microsoft sloot de chatbot onmiddellijk af, omdat het laten leven ervan de reputatie van het bedrijf duidelijk zou hebben geschaad.

Ja, AI’s maken fouten. Maar maken ze meer of minder fouten dan mensen? Hoeveel levens hebben mensen genomen met verkeerde beslissingen? Is het beter of slechter wanneer een AI dezelfde fout maakt?

3. Should AI Systems Be Allowed to Kill?

In deze TEDx-toespraak beschrijft Jay Tuck AI’s als software die zijn eigen updates schrijft en zichzelf vernieuwt. Dit betekent dat, zoals geprogrammeerd, de machine niet wordt gemaakt om te doen wat wij willen dat het doet – het doet wat het leert te doen. Jay beschrijft verder een incident met een robot genaamd Tallon. Zijn gecomputeriseerde geweer was vastgelopen en vuurde ongecontroleerd open na een explosie waarbij 9 mensen omkwamen en 14 gewond raakten.

Predator drones, zoals de General Atomics MQ-1 Predator, bestaan al meer dan een decennium. Deze op afstand bestuurde vliegtuigen kunnen raketten afvuren, hoewel de Amerikaanse wet vereist dat mensen de eigenlijke moordbeslissingen nemen. Maar nu drones een steeds grotere rol spelen in de militaire luchtverdediging, moeten we hun rol en de manier waarop ze worden gebruikt, nader onderzoeken. Is het beter om AI’s te gebruiken om te doden dan om mensen in de vuurlinie te plaatsen? Wat als we robots alleen gebruiken om af te schrikken in plaats van daadwerkelijk geweld te gebruiken?

De Campaign to Stop Killer Robots is een non-profit organisatie die zich inzet voor een verbod op volledig autonome wapens die zonder menselijke tussenkomst kunnen beslissen wie leeft en sterft. “Volledig autonome wapens zouden het menselijk oordeel missen dat nodig is om de proportionaliteit van een aanval te beoordelen, burger van strijder te onderscheiden, en zich te houden aan andere kernbeginselen van het oorlogsrecht. De geschiedenis laat zien dat hun gebruik niet beperkt zou blijven tot bepaalde omstandigheden.”

4. Rogue AI’s

Als er een kans is dat intelligente machines fouten kunnen maken, dan ligt het binnen de mogelijkheden dat een AI rogue kan worden, of onbedoelde gevolgen kan veroorzaken door zijn acties bij het nastreven van schijnbaar onschuldige doelen. Eén scenario van een AI die opstandig wordt, is wat we al gezien hebben in films als The Terminator en TV-shows, waar een super-intelligente gecentraliseerde AI-computer zelfbewust wordt en besluit dat hij geen menselijke controle meer wil.

Op dit moment zeggen deskundigen dat de huidige AI-technologie nog niet in staat is om deze uiterst gevaarlijke prestatie van zelfbewustzijn te bereiken; toekomstige AI-supercomputers zouden dat echter wel kunnen.

Het andere scenario is dat een AI, bijvoorbeeld, de opdracht krijgt om de genetische structuur van een virus te bestuderen om een vaccin te maken om het te neutraliseren. Na lange berekeningen te hebben gemaakt, komt de AI tot een oplossing waarbij hij het virus bewapent in plaats van er een vaccin van te maken. Het is als het openen van een moderne doos van Pandora en opnieuw komt de ethiek in het spel waar legitieme zorgen moeten worden aangepakt om een scenario als dit te voorkomen.

5. Singulariteit en controle over AI’s

Zullen AI’s evolueren om de mens te overtreffen? Wat als ze slimmer worden dan mensen en dan proberen ons te controleren? Zullen computers mensen overbodig maken? Het punt waarop de technologische groei de menselijke intelligentie overtreft, wordt “technologische singulariteit” genoemd. Sommigen geloven dat dit het einde van het menselijke tijdperk zal betekenen en dat het al in 2030 zou kunnen gebeuren, gebaseerd op het tempo van de technologische innovatie. AI’s die leiden tot het uitsterven van de mens – het is gemakkelijk te begrijpen waarom de vooruitgang van AI voor veel mensen beangstigend is.

6. Hoe moeten we AI’s behandelen?

Zouden aan robots mensenrechten of burgerschap moeten worden toegekend? Als we robots zo ver ontwikkelen dat ze in staat zijn om te “voelen”, geeft hen dat dan rechten vergelijkbaar met mensen of dieren? Als robots rechten krijgen, hoe rangschikken we dan hun sociale status? Dit is een van de belangrijkste vragen in de “robo-ethiek”, een onderwerp dat voor het eerst aan de orde werd gesteld door Isaac Asimov in 1942. In 2017 kreeg de humanoïde robot Sophia van Hanson Robotics het staatsburgerschap in Saoedi-Arabië. Hoewel sommigen dit meer als een PR-stunt beschouwen dan als een daadwerkelijke wettelijke erkenning, geeft het wel een voorbeeld van het soort rechten dat AI’s in de toekomst kunnen krijgen.

7. AI Bias

AI is steeds meer inherent geworden aan gezichts- en spraakherkenningssystemen, waarvan sommige echte zakelijke implicaties hebben en rechtstreeks van invloed zijn op mensen. Deze systemen zijn kwetsbaar voor vooroordelen en fouten die door hun menselijke makers worden geïntroduceerd. Ook de gegevens die worden gebruikt om deze AI-systemen te trainen, kunnen vertekeningen bevatten. Zo vertoonden de gezichtsherkenningsalgoritmen van Microsoft, IBM en Megvii allemaal vooroordelen bij het detecteren van het geslacht van mensen. Deze AI-systemen waren in staat het geslacht van blanke mannen nauwkeuriger te detecteren dan dat van mannen met een donkere huidskleur. Ook de beëindiging door Amazon’s.com van de aanwerving van AI is een voorbeeld waaruit blijkt dat AI niet eerlijk kan zijn; het algoritme verkoos mannelijke kandidaten boven vrouwelijke. Dit kwam omdat Amazons systeem was getraind met gegevens die waren verzameld over een periode van 10 jaar en die voornamelijk afkomstig waren van mannelijke kandidaten.

Kan AI bevooroordeeld worden? Nou, dat is een lastige vraag. Men zou kunnen aanvoeren dat intelligente machines geen moreel kompas of een reeks principes hebben zoals wij mensen. Maar zelfs ons moreel kompas en onze principes zijn soms niet in het voordeel van de mensheid als geheel, dus hoe zorgen we ervoor dat AI-agenten niet dezelfde gebreken hebben als hun scheppers? Als AI’s een bepaald vooroordeel ontwikkelen ten aanzien van ras, geslacht, godsdienst of etniciteit, dan zal de fout vooral liggen bij de manier waarop ze werden onderwezen en getraind. Daarom moeten mensen die onderzoek doen naar AI rekening houden met vooroordelen bij het bepalen van de te gebruiken gegevens.

Samenvatting

Ja, de gedachte aan steeds meer aanwezige AI-systemen die de menselijke intelligentie overtreffen, is beangstigend. En de ethische kwesties die gepaard gaan met de toepassing van AI zijn complex. De sleutel zal zijn om deze kwesties in gedachten te houden om de bredere maatschappelijke kwesties te analyseren die spelen. Of AI goed of slecht is, kan vanuit veel verschillende invalshoeken worden bekeken, zonder dat één theorie of kader de beste is. We moeten blijven leren en op de hoogte blijven om goede beslissingen voor onze toekomst te kunnen nemen.

Open oproep voor schrijvers

Vindt u het leuk om over tech-onderwerpen als deze te schrijven? Doe dan mee aan de Kambria Content Challenge en deel uw inzichten en expertise met onze groeiende developer community. Je kunt meer dan $200 ontvangen voor de beste inzending. Voor alle details over onze Content Challenge, klik hier.

Kom bij Kambria-nieuwsbrief

Geef een antwoord

Het e-mailadres wordt niet gepubliceerd.