De 1927 a 2019, foram produzidos mais de 100 filmes em todo o mundo sobre inteligência artificial. E enquanto alguns cenários são retratados a uma boa luz, o resto é absolutamente horrível. Em filmes como The Terminator, The Matrix, Avengers: A era de Ultron e muitos outros, a indústria cinematográfica colocou em nossa imaginação cenas que demonstram como máquinas mais inteligentes tomarão o mundo e escravizarão ou limparão totalmente a humanidade da existência. O potencial para que os AIs se tornem mais superiores do que qualquer inteligência humana pinta um futuro sombrio para a humanidade.

Mais recentemente, países de todo o mundo entraram na corrida para desenvolver a inteligência artificial com 20 países da UE liberando suas estratégias sobre o desenvolvimento da IA tanto em R&D como na educação. A inteligência artificial é um assunto quente. Mas que questões éticas e práticas devemos considerar ao mesmo tempo em que estamos avançando a todo vapor na adoção da tecnologia da IA? Em nosso objetivo comum de transformar setores de negócios usando inteligência artificial, que riscos e responsabilidades os inovadores devem considerar?

Sim, os agentes de IA serão – e já são – muito capazes de completar processos paralelos à inteligência humana. Universidades, organizações privadas e governos estão ativamente desenvolvendo inteligência artificial com a capacidade de imitar funções cognitivas humanas como aprendizagem, resolução de problemas, planejamento e reconhecimento da fala. Mas se estes agentes não têm empatia, instinto e sabedoria na tomada de decisões, a sua integração na sociedade deve ser limitada e, em caso afirmativo, de que forma?

Vejamos algumas das considerações éticas no espaço da IA. A título de disclaimer, este artigo não pretende de forma alguma persuadir sua opinião, mas meramente destacar algumas das questões salientes, tanto grandes quanto pequenas. Embora Kambria seja uma defensora da IA e da tecnologia robótica, não somos de forma alguma especialistas em ética e deixamos isso para decidir em que posição você se encontra. Um vácuo robotizado é uma coisa, mas as questões éticas em torno da IA na medicina, aplicação da lei, defesa militar, privacidade de dados, computação quântica e outras áreas são profundas e importantes a considerar.

1. Perda de empregos e desigualdade na riqueza

Uma das principais preocupações das pessoas com IA é a perda futura de empregos. Devemos nos esforçar para desenvolver plenamente e integrar a IA à sociedade se isso significa que muitas pessoas perderão seus empregos – e muito possivelmente seu sustento?

De acordo com o novo relatório do McKinsey Global Institute, até o ano 2030, cerca de 800 milhões de pessoas perderão seus empregos para robôs movidos a IA. Alguns argumentariam que se seus empregos forem ocupados por robôs, talvez eles sejam meninos demais para os humanos e que a IA pode ser responsável pela criação de melhores empregos que tirem proveito da habilidade humana única envolvendo funções cognitivas, análise e síntese mais elevadas. Outro ponto é que a IA pode criar mais empregos – afinal de contas, as pessoas serão encarregadas de criar esses robôs para começar e, em seguida, gerenciá-los no futuro.

Uma questão relacionada com a perda de emprego é a desigualdade de riqueza. Considere que a maioria dos sistemas econômicos modernos exige que os trabalhadores produzam um produto ou serviço com sua remuneração baseada em um salário por hora. A empresa paga salários, impostos e outras despesas, sendo que muitas vezes os lucros remanescentes são injectados de novo na produção, formação e/ou criação de mais negócios para aumentar ainda mais os lucros. Neste cenário, a economia continua a crescer.

Mas o que acontece se introduzirmos a IA no fluxo econômico? Os robôs não são pagos de hora em hora nem pagam impostos. Eles podem contribuir a um nível de 100% com um baixo custo contínuo para mantê-los operáveis e úteis. Isto abre a porta para os CEOs e partes interessadas manterem mais lucros da empresa gerados pela sua força de trabalho de IA, levando a uma maior desigualdade de riqueza. Talvez isto possa levar a um caso de “os ricos” – aqueles indivíduos e empresas que têm os meios para pagar pelas IAs – ficarem mais ricos.

2. A IA é Imperfeita – E se isso fizer um erro?

AsIs não são imunes a cometer erros e a aprendizagem da máquina leva tempo para se tornar útil. Se for bem treinado, usando bons dados, então as IA podem ter um bom desempenho. No entanto, se alimentamos as IAs com datas ruins ou cometemos erros na programação interna, as IAs podem ser prejudiciais. Teka Microsoft’s AI chatbot, Tay, que foi lançado no Twitter em 2016. Em menos de um dia, devido às informações que estava recebendo e aprendendo com outros usuários do Twitter, o robô aprendeu a lançar calúnias racistas e propaganda nazista. A Microsoft desligou o chatbot imediatamente, pois permitir que ele vivesse teria obviamente prejudicado a reputação da empresa.

Sim, os AIs cometem erros. Mas será que eles cometem maiores ou menores erros que os humanos? Quantas vidas é que os humanos tomaram com decisões erradas? É melhor ou pior quando uma IA comete o mesmo erro?

3. Caso se permita que os sistemas de IA matem?

Neste discurso do TEDx, Jay Tuck descreve as IA como um software que escreve suas próprias atualizações e se renova. Isto significa que, como programado, a máquina não é criada para fazer o que nós queremos que ela faça – ela faz o que aprende a fazer. Jay continua a descrever um incidente com um robô chamado Tallon. Sua arma computadorizada foi encravada e aberta incontrolavelmente após uma explosão, matando 9 pessoas e ferindo mais 14.

Os drones predadores, como o General Atomics MQ-1 Predator, existem há mais de uma década. Estas aeronaves pilotadas remotamente podem disparar mísseis, embora a lei dos EUA exija que os humanos tomem as decisões reais de matar. Mas com os drones desempenhando mais um papel na defesa militar aérea, precisamos examinar melhor seu papel e como eles são usados. É melhor usar IA para matar do que colocar humanos na linha de fogo? E se usarmos apenas robôs para dissuasão em vez de violência real?

A Campanha para Parar os Robôs Assassinos é uma organização sem fins lucrativos organizada para proibir armas totalmente autónomas que podem decidir quem vive e quem morre sem a intervenção humana. “Armas totalmente autônomas careceriam do julgamento humano necessário para avaliar a proporcionalidade de um ataque, distinguir civis de combatentes e obedecer a outros princípios centrais das leis da guerra”. A história mostra que seu uso não estaria limitado a certas circunstâncias”

4. IAs Rogue

Se há uma chance de que máquinas inteligentes possam cometer erros, então está dentro do reino da possibilidade de que uma IA possa se tornar desonesta, ou criar conseqüências não intencionais de suas ações na busca de objetivos aparentemente inofensivos. Um cenário de uma IA que se torna desonesta é o que já vimos em filmes como The Terminator e programas de TV onde um computador de IA centralizado super-inteligente se torna consciente de si mesmo e decide que não quer mais o controle humano.

Os especialistas dizem agora que a tecnologia atual de IA ainda não é capaz de alcançar esta proeza extremamente perigosa de auto-consciência; no entanto, os futuros supercomputadores de IA podem.

O outro cenário é onde uma IA, por exemplo, é encarregada de estudar a estrutura genética de um vírus a fim de criar uma vacina para neutralizá-lo. Após longos cálculos, a IA formulou uma solução onde ela arma o vírus em vez de fazer uma vacina com ele. É como abrir uma Caixa de Pandora moderna e novamente a ética entra em jogo onde preocupações legítimas precisam ser tratadas para evitar um cenário como este.

5. Singularidade e controle sobre os IA

As IA evoluirão para superar os seres humanos? E se eles se tornarem mais espertos que os humanos e depois tentarem nos controlar? Será que os computadores tornarão os humanos obsoletos? O ponto em que o crescimento tecnológico ultrapassa a inteligência humana é referido como “singularidade tecnológica”. Alguns acreditam que isto assinalará o fim da era humana e que poderá ocorrer já em 2030, com base no ritmo da inovação tecnológica. AIs que levam à extinção humana – é fácil entender porque o avanço da IA é assustador para muitas pessoas.

6. Como devemos tratar as IAs?

Os robots devem ter direitos humanos ou cidadania? Se evoluirmos os robôs ao ponto de serem capazes de “sentir”, será que isso lhes dá direito a direitos semelhantes aos humanos ou animais? Se forem concedidos direitos aos robôs, então como classificamos o seu estatuto social? Esta é uma das principais questões em “robótica”, um tópico que foi levantado pela primeira vez por Isaac Asimov em 1942. Em 2017, o robô humanóide Hanson Robotics, Sophia, recebeu a cidadania na Arábia Saudita. Embora alguns considerem isto mais como uma manobra de relações públicas do que o reconhecimento legal propriamente dito, é um exemplo do tipo de direitos que podem ser concedidos no futuro.

7. AI Bias

AI tornou-se cada vez mais inerente aos sistemas de reconhecimento facial e de voz, alguns dos quais têm reais implicações comerciais e impactam diretamente as pessoas. Estes sistemas são vulneráveis a preconceitos e erros introduzidos pelos seus criadores humanos. Além disso, os dados usados para treinar estes sistemas de IA em si podem ter preconceitos. Por exemplo, os algoritmos de reconhecimento facial feitos pela Microsoft, IBM e Megvii tinham todos preconceitos ao detectar o sexo das pessoas. Esses sistemas de IA foram capazes de detectar o gênero de homens brancos com mais precisão do que o gênero de homens de pele mais escura. Da mesma forma, o fim da contratação e recrutamento de IA pela Amazon s.com é outro exemplo que mostra que a IA não pode ser justa; o algoritmo preferiu candidatos masculinos em vez de femininos. Isto porque o sistema da Amazon foi treinado com dados coletados durante um período de 10 anos que vieram principalmente de candidatos homens.

Pode a IA tornar-se tendenciosa? Bem, essa é uma pergunta complicada. Pode-se argumentar que máquinas inteligentes não têm uma bússola moral nem um conjunto de princípios como nós, humanos, temos. Entretanto, mesmo nossa bússola moral e princípios às vezes não beneficiam a humanidade como um todo, então como podemos garantir que os agentes da IA não tenham as mesmas falhas que seus criadores? Se os IA desenvolvem um certo preconceito em relação a ou contra raça, sexo, religião ou etnia, então a culpa será principalmente de como foi ensinado e treinado. Portanto, pessoas que trabalham em pesquisa de IA precisam ter em mente o viés ao determinar quais dados usar.

Sumário

Sim, o pensamento de sistemas de IA cada vez mais presentes que superam a inteligência humana é assustador. E as questões éticas que vêm com a adoção da IA são complexas. A chave será manter essas questões em mente a fim de analisar as questões mais amplas da sociedade em jogo. Se a IA é boa ou ruim pode ser examinada de muitos ângulos diferentes, sem que nenhuma teoria ou estrutura seja a melhor. Precisamos manter o aprendizado e nos manter informados para tomar boas decisões para o nosso futuro.

Abrir Chamada para Escritores

Você gosta de escrever sobre tópicos técnicos como este? Então junte-se ao Desafio de Conteúdo Kambria e compartilhe sua visão e experiência com nossa crescente comunidade de desenvolvedores. Você pode receber mais de $200 para a melhor submissão. Para detalhes completos sobre o nosso Desafio de Conteúdo, clique aqui.

Join Kambria Newsletter

>

>

>>

Deixe uma resposta

O seu endereço de email não será publicado.