Dal 1927 al 2019 sono stati prodotti più di 100 film in tutto il mondo sull’intelligenza artificiale. E mentre alcuni scenari sono rappresentati sotto una buona luce, il resto è assolutamente orribile. In film come The Terminator, The Matrix, Avengers: Age of Ultron e molti altri, l’industria cinematografica ha inserito nella nostra immaginazione comune scene che dimostrano come le macchine più intelligenti prenderanno il controllo del mondo e schiavizzeranno o cancelleranno totalmente l’umanità dall’esistenza. Il potenziale delle IA di diventare più superiori a qualsiasi intelligenza umana dipinge un futuro oscuro per l’umanità.

Più recentemente, i paesi di tutto il mondo sono entrati nella corsa allo sviluppo dell’intelligenza artificiale con 20 paesi dell’UE che hanno rilasciato le loro strategie sullo sviluppo dell’IA sia nella R&D che nell’istruzione. L’intelligenza artificiale è rossa e calda. Ma quali questioni etiche e pratiche dovremmo considerare mentre ci muoviamo a tutta velocità nell’abbracciare la tecnologia AI? Nel nostro obiettivo condiviso di trasformare i settori di business utilizzando l’intelligenza artificiale, quali rischi e responsabilità dovrebbero considerare gli innovatori?

Sì, gli agenti AI saranno – e sono già – molto capaci di completare processi paralleli all’intelligenza umana. Università, organizzazioni private e governi stanno attivamente sviluppando un’intelligenza artificiale con la capacità di imitare le funzioni cognitive umane come l’apprendimento, la risoluzione dei problemi, la pianificazione e il riconoscimento vocale. Ma se questi agenti mancano di empatia, istinto e saggezza nel processo decisionale, la loro integrazione nella società dovrebbe essere limitata, e se sì, in che modo?

Ripercorriamo alcune delle considerazioni etiche nello spazio dell’IA. A titolo di disclaimer, questo articolo non è assolutamente inteso a persuadere la vostra opinione, ma semplicemente ad evidenziare alcune delle questioni salienti, sia grandi che piccole. Mentre Kambria è un sostenitore dell’IA e della tecnologia robotica, non siamo affatto esperti di etica e lasciamo che siate voi a decidere da che parte stare. Un aspirapolvere robot è una cosa, ma le questioni etiche intorno all’IA in medicina, l’applicazione della legge, la difesa militare, la privacy dei dati, il calcolo quantistico, e altre aree sono profonde e importanti da considerare.

1. Perdita di lavoro e disuguaglianza di ricchezza

Una delle principali preoccupazioni delle persone con l’IA è la futura perdita di posti di lavoro. Dovremmo sforzarci di sviluppare completamente e integrare l’IA nella società se questo significa che molte persone perderanno il loro lavoro – e molto probabilmente il loro sostentamento?

Secondo il nuovo rapporto del McKinsey Global Institute, entro l’anno 2030, circa 800 milioni di persone perderanno il loro lavoro a causa dei robot guidati dall’IA. Alcuni potrebbero sostenere che se i loro lavori sono presi dai robot, forse sono troppo umili per gli umani e che l’IA può essere responsabile della creazione di lavori migliori che sfruttano l’abilità umana unica che coinvolge funzioni cognitive superiori, analisi e sintesi. Un altro punto è che l’IA può creare più posti di lavoro – dopo tutto, le persone avranno il compito di creare questi robot per cominciare e poi gestirli in futuro.

Un problema legato alla perdita di posti di lavoro è la disuguaglianza di ricchezza. Si consideri che la maggior parte dei sistemi economici moderni richiedono ai lavoratori di produrre un prodotto o un servizio con la loro retribuzione basata su un salario orario. L’azienda paga i salari, le tasse e altre spese, con i profitti rimanenti che spesso vengono reimmessi nella produzione, nella formazione e/o nella creazione di altre attività per aumentare ulteriormente i profitti. In questo scenario, l’economia continua a crescere.

Ma cosa succede se introduciamo l’IA nel flusso economico? I robot non vengono pagati all’ora e non pagano le tasse. Possono contribuire a un livello del 100% con un basso costo continuo per mantenerli operativi e utili. Questo apre la porta agli amministratori delegati e alle parti interessate a mantenere più profitti aziendali generati dalla loro forza lavoro AI, portando a una maggiore disuguaglianza di ricchezza. Forse questo potrebbe portare ad un caso in cui “i ricchi” – quegli individui e quelle aziende che hanno i mezzi per pagare le IA – diventano più ricchi.

2. L’IA è imperfetta – E se commette un errore?

Le IA non sono immuni da errori e l’apprendimento automatico richiede tempo per diventare utile. Se addestrate bene, usando buoni dati, le IA possono funzionare bene. Tuttavia, se alimentiamo le IA con cattivi dati o facciamo errori con la programmazione interna, le IA possono essere dannose. Teka il chatbot AI di Microsoft, Tay, che è stato rilasciato su Twitter nel 2016. In meno di un giorno, a causa delle informazioni che stava ricevendo e imparando da altri utenti di Twitter, il robot ha imparato a sputare insulti razzisti e propaganda nazista. Microsoft ha chiuso immediatamente il chatbot, poiché permettergli di vivere avrebbe ovviamente danneggiato la reputazione dell’azienda.

Sì, le IA fanno errori. Ma fanno più o meno errori degli umani? Quante vite umane hanno preso con decisioni sbagliate? È meglio o peggio quando un’IA fa lo stesso errore?

3. Dovrebbe essere permesso ai sistemi IA di uccidere?

In questo discorso TEDx, Jay Tuck descrive le IA come software che scrive i propri aggiornamenti e si rinnova. Ciò significa che, come programmata, la macchina non è creata per fare ciò che vogliamo che faccia – fa ciò che impara a fare. Jay continua a descrivere un incidente con un robot chiamato Tallon. La sua pistola computerizzata si è inceppata e ha sparato in modo incontrollato dopo un’esplosione uccidendo 9 persone e ferendone altre 14.

I droni predatori, come il General Atomics MQ-1 Predator, esistono da oltre un decennio. Questi aerei pilotati a distanza possono sparare missili, anche se la legge degli Stati Uniti richiede che gli esseri umani prendano le decisioni effettive di uccidere. Ma con i droni che giocano un ruolo sempre più importante nella difesa militare aerea, abbiamo bisogno di esaminare ulteriormente il loro ruolo e come vengono utilizzati. È meglio usare le IA per uccidere piuttosto che mettere gli umani sulla linea di fuoco? E se usassimo i robot solo per la deterrenza piuttosto che per l’effettiva violenza?

La Campaign to Stop Killer Robots è una no-profit organizzata per vietare le armi completamente autonome che possono decidere chi vive e chi muore senza l’intervento umano. “Le armi completamente autonome mancherebbero del giudizio umano necessario per valutare la proporzionalità di un attacco, distinguere i civili dai combattenti e rispettare altri principi fondamentali delle leggi di guerra. La storia mostra che il loro uso non sarebbe limitato a determinate circostanze.”

4. IA canaglia

Se c’è una possibilità che le macchine intelligenti possano fare errori, allora è nel regno della possibilità che una IA possa diventare canaglia, o creare conseguenze non volute dalle sue azioni nel perseguire obiettivi apparentemente innocui. Uno scenario di un’IA che diventa disonesta è quello che abbiamo già visto in film come Terminator e spettacoli televisivi in cui un computer IA centralizzato super-intelligente diventa consapevole di sé e decide che non vuole più il controllo umano.

In questo momento gli esperti dicono che l’attuale tecnologia AI non è ancora in grado di raggiungere questa impresa estremamente pericolosa di autocoscienza; tuttavia, i futuri supercomputer AI potrebbero.

L’altro scenario è quello in cui una AI, per esempio, è incaricata di studiare la struttura genetica di un virus al fine di creare un vaccino per neutralizzarlo. Dopo aver fatto lunghi calcoli, l’IA formula una soluzione in cui arma il virus invece di farne un vaccino. È come aprire un moderno vaso di Pandora e ancora una volta l’etica entra in gioco, dove le preoccupazioni legittime devono essere affrontate al fine di prevenire uno scenario come questo.

5. Singolarità e mantenimento del controllo sulle IA

Le IA si evolveranno fino a superare gli esseri umani? E se diventassero più intelligenti degli umani e poi cercassero di controllarci? I computer renderanno gli esseri umani obsoleti? Il punto in cui la crescita della tecnologia supera l’intelligenza umana è indicato come “singolarità tecnologica”. Alcuni credono che questo segnerà la fine dell’era umana e che potrebbe verificarsi già nel 2030 in base al ritmo dell’innovazione tecnologica. Le IA che portano all’estinzione umana – è facile capire perché l’avanzamento delle IA fa paura a molte persone.

6. Come dovremmo trattare le IA?

I robot dovrebbero avere diritti umani o cittadinanza? Se evolviamo i robot fino al punto in cui sono capaci di “sentire”, questo li autorizza ad avere diritti simili agli esseri umani o agli animali? Se ai robot vengono concessi dei diritti, allora come classifichiamo il loro status sociale? Questa è una delle questioni principali della “roboetica”, un argomento che è stato sollevato per la prima volta da Isaac Asimov nel 1942. Nel 2017, il robot umanoide Hanson Robotics, Sophia, ha ottenuto la cittadinanza in Arabia Saudita. Anche se alcuni considerano questo più una trovata pubblicitaria che un effettivo riconoscimento legale, è un esempio del tipo di diritti che le IA potrebbero ottenere in futuro.

7. AI Bias

L’AI è diventata sempre più inerente ai sistemi di riconoscimento facciale e vocale, alcuni dei quali hanno implicazioni commerciali reali e hanno un impatto diretto sulle persone. Questi sistemi sono vulnerabili ai bias e agli errori introdotti dai suoi creatori umani. Inoltre, i dati utilizzati per addestrare questi sistemi di IA stessi possono avere pregiudizi. Per esempio, gli algoritmi di riconoscimento facciale realizzati da Microsoft, IBM e Megvii hanno tutti dei pregiudizi quando rilevano il sesso delle persone. Questi sistemi di IA sono stati in grado di rilevare il genere degli uomini bianchi più accuratamente rispetto al genere degli uomini di pelle più scura. Allo stesso modo, la cessazione dell’AI di Amazon’s.com per l’assunzione e il reclutamento è un altro esempio che mostra che l’AI non può essere equa; l’algoritmo ha preferito i candidati maschi alle femmine. Questo perché il sistema di Amazon è stato addestrato con dati raccolti in un periodo di 10 anni che provenivano per lo più da candidati maschi.

L’IA può diventare bias? Beh, questa è una domanda difficile. Si potrebbe sostenere che le macchine intelligenti non hanno una bussola morale né un insieme di principi come noi umani. Tuttavia, anche la nostra bussola morale e i nostri principi a volte non giovano all’umanità nel suo complesso, quindi come possiamo garantire che gli agenti AI non abbiano gli stessi difetti dei loro creatori? Se le IA sviluppano un certo pregiudizio verso o contro la razza, il genere, la religione o l’etnia, allora la colpa sarà soprattutto di come è stato insegnato e addestrato. Pertanto, le persone che lavorano nella ricerca sull’IA devono tenere a mente i pregiudizi quando determinano quali dati utilizzare.

Sommario

Sì, il pensiero di sistemi IA sempre più presenti che superano l’intelligenza umana è spaventoso. E le questioni etiche che vengono con l’adozione dell’IA sono complesse. La chiave sarà tenere a mente questi problemi per analizzare le più ampie questioni sociali in gioco. Se l’IA è buona o cattiva può essere esaminata da molte angolazioni diverse e nessuna teoria o quadro è la migliore. Dobbiamo continuare ad imparare e rimanere informati per prendere buone decisioni per il nostro futuro.

Chiama aperta per scrittori

Ti piace scrivere su argomenti tecnologici come questo? Allora partecipa alla Kambria Content Challenge e condividi le tue intuizioni e competenze con la nostra crescente comunità di sviluppatori. Potresti ricevere oltre 200 dollari per la migliore presentazione. Per i dettagli completi sul nostro Content Challenge, clicca qui.

Entra nella Newsletter di Kambria

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.