De 1927 à 2019, plus de 100 films ont été produits dans le monde sur l’intelligence artificielle. Et si certains scénarios sont dépeints sous un jour favorable, les autres sont carrément horribles. Dans des films tels que The Terminator, The Matrix, Avengers : Age of Ultron et bien d’autres, l’industrie cinématographique a placé dans notre imagination commune des scènes montrant comment des machines plus intelligentes prendront le contrôle du monde et asserviront ou feront disparaître totalement l’humanité. Le potentiel des IA à devenir plus supérieures à toute intelligence humaine peint un avenir sombre pour l’humanité.
Plus récemment, les pays du monde entier sont entrés dans la course au développement de l’intelligence artificielle avec 20 pays de l’UE publiant leurs stratégies sur le développement de l’IA tant en R&D qu’en éducation. L’intelligence artificielle est en pleine effervescence. Mais quelles sont les questions éthiques et pratiques à prendre en compte pour aller de l’avant et adopter la technologie de l’IA ? Dans notre objectif commun de transformer les secteurs d’activité à l’aide de l’intelligence artificielle, quels risques et responsabilités les innovateurs doivent-ils envisager ?
Oui, les agents d’IA seront – et sont déjà – très capables de mener à bien des processus parallèles à l’intelligence humaine. Les universités, les organisations privées et les gouvernements développent activement des intelligences artificielles capables d’imiter les fonctions cognitives humaines telles que l’apprentissage, la résolution de problèmes, la planification et la reconnaissance vocale. Mais si ces agents manquent d’empathie, d’instinct et de sagesse dans la prise de décision, leur intégration dans la société doit-elle être limitée, et si oui, de quelle manière ?
Passons en revue certaines des considérations éthiques dans l’espace de l’IA. En guise d’avertissement, cet article n’est en aucun cas destiné à vous persuader de votre opinion, mais simplement à souligner certaines des questions saillantes, grandes et petites. Bien que Kambria soit un partisan de l’IA et de la robotique, nous ne sommes en aucun cas des experts en éthique et nous vous laissons le soin de décider de votre position. Un aspirateur robot est une chose, mais les questions éthiques autour de l’IA en médecine, l’application de la loi, la défense militaire, la confidentialité des données, l’informatique quantique, et d’autres domaines sont profondes et importantes à considérer.
1. Perte d’emplois et inégalité des richesses
L’une des principales préoccupations des gens avec l’IA est la perte future d’emplois. Devrions-nous nous efforcer de développer et d’intégrer pleinement l’IA dans la société si cela signifie que de nombreuses personnes perdront leur emploi – et très probablement leur gagne-pain ?
Selon le nouveau rapport du McKinsey Global Institute, d’ici 2030, environ 800 millions de personnes perdront leur emploi à cause des robots pilotés par l’IA. Certains diront que si leurs emplois sont pris par des robots, ils sont peut-être trop subalternes pour les humains et que l’IA peut être responsable de la création de meilleurs emplois qui tirent parti de la capacité humaine unique impliquant des fonctions cognitives supérieures, l’analyse et la synthèse. Un autre point est que l’IA peut créer plus d’emplois – après tout, les gens seront chargés de créer ces robots pour commencer, puis de les gérer à l’avenir.
Une question liée à la perte d’emploi est l’inégalité des richesses. Considérez que la plupart des systèmes économiques modernes exigent que les travailleurs produisent un produit ou un service, leur rémunération étant basée sur un salaire horaire. L’entreprise paie les salaires, les impôts et les autres dépenses, les bénéfices restants étant souvent réinjectés dans la production, la formation et/ou la création d’autres entreprises pour augmenter encore les bénéfices. Dans ce scénario, l’économie continue de croître.
Mais que se passe-t-il si nous introduisons l’IA dans le flux économique ? Les robots ne sont pas payés à l’heure et ne paient pas d’impôts. Ils peuvent contribuer à un niveau de 100% avec un faible coût permanent pour les garder opérationnels et utiles. Cela ouvre la porte aux PDG et aux parties prenantes pour qu’ils conservent une plus grande partie des bénéfices de l’entreprise générés par leur main-d’œuvre IA, ce qui entraîne une plus grande inégalité des richesses. Peut-être que cela pourrait conduire à un cas de « riches » – les individus et les entreprises qui ont les moyens de payer pour les IA – s’enrichissant.
2. L’IA est imparfaite – Que se passe-t-il si elle fait une erreur ?
Les IA ne sont pas à l’abri de faire des erreurs et l’apprentissage automatique prend du temps pour devenir utile. Si elles sont bien formées, en utilisant de bonnes données, alors les IA peuvent être performantes. Cependant, si nous nourrissons les IA de mauvaises données ou si nous commettons des erreurs de programmation interne, les IA peuvent être nuisibles. Teka Tay, le chatbot IA de Microsoft, a été lancé sur Twitter en 2016. En moins d’un jour, en raison des informations qu’il recevait et apprenait des autres utilisateurs de Twitter, le robot a appris à cracher des insultes racistes et de la propagande nazie. Microsoft a immédiatement fermé le chatbot car le laisser vivre aurait évidemment porté atteinte à la réputation de l’entreprise.
Oui, les IA font des erreurs. Mais font-elles plus ou moins d’erreurs que les humains ? Combien de vies les humains ont-ils prises avec des décisions erronées ? Est-ce mieux ou pire quand une IA fait la même erreur ?
3. Les systèmes d’IA devraient-ils être autorisés à tuer ?
Dans ce discours TEDx, Jay Tuck décrit les IA comme des logiciels qui écrivent leurs propres mises à jour et se renouvellent. Cela signifie que, telle que programmée, la machine n’est pas créée pour faire ce que nous voulons qu’elle fasse – elle fait ce qu’elle apprend à faire. Jay poursuit en décrivant un incident avec un robot appelé Tallon. Son arme informatisée s’est enrayée et a ouvert le feu de manière incontrôlée après une explosion tuant 9 personnes et en blessant 14 autres.
Les drones prédateurs, comme le General Atomics MQ-1 Predator, existent depuis plus d’une décennie. Ces avions pilotés à distance peuvent tirer des missiles, bien que la loi américaine exige que les humains prennent les décisions d’abattage réelles. Mais comme les drones jouent un rôle de plus en plus important dans la défense militaire aérienne, nous devons examiner de plus près leur rôle et la manière dont ils sont utilisés. Est-il préférable d’utiliser des IA pour tuer plutôt que de mettre des humains dans la ligne de mire ? Et si nous n’utilisions les robots que pour la dissuasion plutôt que pour la violence réelle ?
La Campagne pour arrêter les robots tueurs est une organisation à but non lucratif organisée pour interdire les armes entièrement autonomes qui peuvent décider qui vit et qui meurt sans intervention humaine. « Les armes entièrement autonomes seraient dépourvues du jugement humain nécessaire pour évaluer la proportionnalité d’une attaque, distinguer le civil du combattant et respecter d’autres principes fondamentaux des lois de la guerre. L’histoire montre que leur utilisation ne serait pas limitée à certaines circonstances. »
4. IA voyous
S’il y a une chance que les machines intelligentes puissent faire des erreurs, alors il est dans le domaine du possible qu’une IA puisse devenir voyou, ou créer des conséquences involontaires de ses actions en poursuivant des objectifs apparemment inoffensifs. Un scénario d’une IA devenant voyou est ce que nous avons déjà vu dans des films comme Terminator et des émissions de télévision où un ordinateur IA centralisé super-intelligent devient conscient de lui-même et décide qu’il ne veut plus du contrôle humain.
À l’heure actuelle, les experts disent que la technologie actuelle de l’IA n’est pas encore capable de réaliser cet exploit extrêmement dangereux de conscience de soi ; cependant, les futurs superordinateurs d’IA pourraient le faire.
L’autre scénario est celui où une IA, par exemple, est chargée d’étudier la structure génétique d’un virus afin de créer un vaccin pour le neutraliser. Après avoir fait de longs calculs, l’IA formule une solution où elle arme le virus au lieu d’en faire un vaccin. C’est comme ouvrir une boîte de Pandore des temps modernes et, là encore, l’éthique entre en jeu lorsque des préoccupations légitimes doivent être prises en compte afin d’éviter un tel scénario.
5. Singularité et maintien du contrôle sur les IA
Les IA évolueront-elles jusqu’à dépasser les êtres humains ? Et si elles devenaient plus intelligentes que les humains et essayaient ensuite de nous contrôler ? Les ordinateurs rendront-ils les humains obsolètes ? Le point où la croissance technologique dépasse l’intelligence humaine est appelé « singularité technologique ». Certains pensent que ce moment marquera la fin de l’ère humaine et qu’il pourrait se produire dès 2030 si l’on en croit le rythme de l’innovation technologique. Les IA menant à l’extinction de l’humanité – il est facile de comprendre pourquoi l’avancement de l’IA effraie de nombreuses personnes.
6. Comment devrions-nous traiter les IA ?
Les robots devraient-ils se voir accorder des droits humains ou la citoyenneté ? Si nous faisons évoluer les robots au point qu’ils soient capables de « ressentir », cela leur donne-t-il des droits similaires à ceux des humains ou des animaux ? Si les robots se voient accorder des droits, comment classer leur statut social ? C’est l’une des principales questions de la « roboéthique », un sujet qui a été soulevé pour la première fois par Isaac Asimov en 1942. En 2017, Sophia, le robot humanoïde de Hanson Robotics, a obtenu la citoyenneté saoudienne. Bien que certains considèrent qu’il s’agit plus d’un coup de relations publiques que d’une véritable reconnaissance légale, cela constitue un exemple du type de droits que les IA pourraient se voir accorder à l’avenir.
7. Biais de l’IA
L’IA est devenue de plus en plus inhérente aux systèmes de reconnaissance faciale et vocale, dont certains ont de réelles implications commerciales et ont un impact direct sur les personnes. Ces systèmes sont vulnérables aux biais et aux erreurs introduits par ses fabricants humains. De plus, les données utilisées pour former ces systèmes d’IA peuvent elles-mêmes être biaisées. Par exemple, les algorithmes de reconnaissance faciale de Microsoft, d’IBM et de Megvii présentaient tous des biais lors de la détection du sexe des personnes. Ces systèmes d’IA étaient capables de détecter le sexe des hommes blancs avec plus de précision que celui des hommes à la peau plus foncée. De même, l’arrêt de l’embauche et du recrutement par l’IA par Amazon’s.com est un autre exemple qui montre que l’IA ne peut pas être juste ; l’algorithme préférait les candidats masculins aux femmes. Cela s’explique par le fait que le système d’Amazon a été formé avec des données recueillies sur une période de 10 ans qui provenaient principalement de candidats masculins.
L’IA peut-elle devenir biaisée ? Eh bien, c’est une question délicate. On pourrait faire valoir que les machines intelligentes n’ont pas de boussole morale ni d’ensemble de principes comme nous, les humains. Cependant, même notre boussole morale et nos principes ne profitent parfois pas à l’humanité dans son ensemble, alors comment faire en sorte que les agents de l’IA n’aient pas les mêmes défauts que leurs créateurs ? Si les IA développent des préjugés à l’égard de la race, du sexe, de la religion ou de l’origine ethnique, la faute en incombe principalement à la manière dont elles ont été enseignées et formées. Par conséquent, les personnes qui travaillent dans la recherche sur l’IA doivent garder les préjugés à l’esprit lorsqu’elles déterminent les données à utiliser.
Résumé
Oui, la pensée de systèmes d’IA de plus en plus présents qui dépassent l’intelligence humaine est effrayante. Et les questions éthiques qui accompagnent l’adoption de l’IA sont complexes. La clé sera de garder ces questions à l’esprit afin d’analyser les questions sociétales plus larges en jeu. La question de savoir si l’IA est bonne ou mauvaise peut être examinée sous de nombreux angles différents, sans qu’aucune théorie ou aucun cadre ne soit le meilleur. Nous devons continuer à apprendre et rester informés afin de prendre de bonnes décisions pour notre avenir.
Appel ouvert aux rédacteurs
Avez-vous envie d’écrire sur des sujets technologiques comme celui-ci ? Alors, participez au Kambria Content Challenge et partagez vos connaissances et votre expertise avec notre communauté croissante de développeurs. Vous pourriez recevoir plus de 200 $ pour la meilleure soumission. Pour tous les détails sur notre défi de contenu, cliquez ici.