Desde 1927 hasta 2019 se han producido más de 100 películas en todo el mundo sobre la inteligencia artificial. Y si bien algunos escenarios son representados con buenos ojos, el resto son francamente horrorosos. En películas como Terminator, Matrix, Vengadores: La era de Ultrón y muchas otras, la industria cinematográfica colocó en nuestra imaginación compartida escenas que demuestran cómo las máquinas más inteligentes se apoderarán del mundo y esclavizarán o borrarán totalmente a la humanidad de la existencia. La posibilidad de que las IAs sean más superiores que cualquier inteligencia humana pinta un futuro oscuro para la humanidad.

Más recientemente, países de todo el mundo han entrado en la carrera por el desarrollo de la inteligencia artificial con 20 países de la UE que han publicado sus estrategias sobre el desarrollo de la IA tanto en I+D como en educación. La inteligencia artificial está al rojo vivo. Pero, ¿qué cuestiones éticas y prácticas debemos tener en cuenta al avanzar a toda velocidad en la adopción de la tecnología de IA? En nuestro objetivo compartido de transformar los sectores empresariales utilizando la inteligencia de las máquinas, ¿qué riesgos y responsabilidades deben considerar los innovadores?

Sí, los agentes de IA serán -y ya son- muy capaces de completar procesos paralelos a la inteligencia humana. Universidades, organizaciones privadas y gobiernos están desarrollando activamente inteligencia artificial con la capacidad de imitar funciones cognitivas humanas como el aprendizaje, la resolución de problemas, la planificación y el reconocimiento del habla. Pero si estos agentes carecen de empatía, instinto y sabiduría en la toma de decisiones, ¿debería limitarse su integración en la sociedad y, si es así, de qué manera?

Revisemos algunas de las consideraciones éticas en el espacio de la IA. A modo de descargo de responsabilidad, este artículo no pretende de ninguna manera persuadir su opinión, sino simplemente destacar algunas de las cuestiones más destacadas, tanto grandes como pequeñas. Aunque Kambria es partidaria de la tecnología de la IA y la robótica, no somos en absoluto expertos en ética y dejamos que usted decida cuál es su postura. Una cosa es un robot aspirador, pero las cuestiones éticas en torno a la IA en la medicina, la aplicación de la ley, la defensa militar, la privacidad de los datos, la computación cuántica y otras áreas son profundas e importantes de considerar.

1. Pérdida de puestos de trabajo y desigualdad de la riqueza

Una de las principales preocupaciones de la gente con la IA es la futura pérdida de puestos de trabajo. Deberíamos esforzarnos por desarrollar e integrar plenamente la IA en la sociedad si eso significa que muchas personas perderán sus puestos de trabajo, y muy posiblemente su medio de vida?

Según el nuevo informe del McKinsey Global Institute, para el año 2030, unos 800 millones de personas perderán sus puestos de trabajo a causa de los robots impulsados por la IA. Algunos argumentan que si sus puestos de trabajo son ocupados por robots, tal vez sean demasiado serviles para los humanos y que la IA puede encargarse de crear mejores trabajos que aprovechen la capacidad humana única que implica funciones cognitivas superiores, análisis y síntesis. Otro punto es que la IA puede crear más puestos de trabajo, después de todo, las personas se encargarán de crear estos robots para empezar y luego los gestionarán en el futuro.

Una cuestión relacionada con la pérdida de puestos de trabajo es la desigualdad de la riqueza. Considere que la mayoría de los sistemas económicos modernos requieren que los trabajadores produzcan un producto o servicio con su compensación basada en un salario por hora. La empresa paga los salarios, los impuestos y otros gastos, y los beneficios sobrantes suelen inyectarse de nuevo en la producción, la formación y/o la creación de más empresas para aumentar aún más los beneficios. En este escenario, la economía sigue creciendo.

¿Pero qué ocurre si introducimos la IA en el flujo económico? Los robots no cobran por hora ni pagan impuestos. Pueden contribuir a un nivel del 100% con un bajo coste continuo para mantenerlos operativos y útiles. Esto abre la puerta a que los consejeros delegados y las partes interesadas se queden con más beneficios de la empresa generados por su mano de obra con IA, lo que llevaría a una mayor desigualdad de la riqueza. Tal vez esto podría llevar a un caso de «los ricos» -aquellos individuos y empresas que tienen los medios para pagar por las IA- a enriquecerse más.

2. La IA es imperfecta: ¿qué pasa si comete un error?

Las IA no son inmunes a cometer errores y el aprendizaje automático tarda en ser útil. Si se entrenan bien, utilizando buenos datos, las IAs pueden tener un buen rendimiento. Sin embargo, si alimentamos a las IAs con malos datos o cometemos errores con la programación interna, las IAs pueden ser perjudiciales. Teka el chatbot de IA de Microsoft, Tay, que se estrenó en Twitter en 2016. En menos de un día, debido a la información que recibía y aprendía de otros usuarios de Twitter, el robot aprendió a soltar improperios racistas y propaganda nazi. Microsoft cerró el chatbot inmediatamente, ya que permitir que siguiera vivo habría dañado obviamente la reputación de la compañía.

Sí, las IAs cometen errores. Pero, ¿cometen más o menos errores que los humanos? Cuántas vidas se han llevado los humanos con decisiones erróneas? ¿Es mejor o peor que una IA cometa el mismo error?

3. ¿Debería permitirse que los sistemas de IA maten?

En este discurso de TEDx, Jay Tuck describe las IA como un software que escribe sus propias actualizaciones y se renueva. Esto significa que, tal y como está programada, la máquina no está creada para hacer lo que nosotros queremos que haga, sino que hace lo que aprende a hacer. Jay pasa a describir un incidente con un robot llamado Tallon. Su arma computarizada se atascó y abrió fuego sin control después de una explosión matando a 9 personas e hiriendo a 14 más.

Los drones depredadores, como el General Atomics MQ-1 Predator, existen desde hace más de una década. Estas aeronaves pilotadas a distancia pueden disparar misiles, aunque la legislación estadounidense exige que sean los humanos los que tomen las decisiones de matar. Pero ahora que los aviones no tripulados desempeñan un papel más importante en la defensa militar aérea, tenemos que examinar más a fondo su función y cómo se utilizan. ¿Es mejor utilizar IAs para matar que poner humanos en la línea de fuego? Y si sólo utilizamos los robots para disuadir y no para la violencia real?

La Campaña para Detener a los Robots Asesinos es una organización sin ánimo de lucro que pretende prohibir las armas totalmente autónomas que puedan decidir quién vive y quién muere sin intervención humana. «Las armas totalmente autónomas carecerían del juicio humano necesario para evaluar la proporcionalidad de un ataque, distinguir a los civiles de los combatientes y cumplir con otros principios fundamentales de las leyes de la guerra. La historia demuestra que su uso no se limitaría a determinadas circunstancias».

4. IAs rebeldes

Si existe la posibilidad de que las máquinas inteligentes puedan cometer errores, entonces es posible que una IA se convierta en rebelde, o que sus acciones tengan consecuencias imprevistas al perseguir objetivos aparentemente inofensivos. Un escenario en el que una IA se vuelve rebelde es lo que ya hemos visto en películas como Terminator y en programas de televisión en los que un ordenador de IA centralizada superinteligente se vuelve autoconsciente y decide que ya no quiere el control humano.

Ahora mismo los expertos dicen que la tecnología actual de IA no es capaz todavía de lograr esta peligrosísima hazaña de autoconciencia; sin embargo, los futuros superordenadores de IA podrían hacerlo.

El otro escenario es aquel en el que una IA, por ejemplo, recibe el encargo de estudiar la estructura genética de un virus para crear una vacuna que lo neutralice. Después de hacer largos cálculos, la IA formula una solución en la que convierte el virus en un arma en lugar de fabricar una vacuna a partir de él. Es como abrir la caja de Pandora de los tiempos modernos y, de nuevo, entra en juego la ética, donde es necesario abordar las preocupaciones legítimas con el fin de evitar un escenario como este.

5. Singularidad y mantenimiento del control sobre las IAs

¿Evolucionarán las IAs hasta superar a los seres humanos? Y si se vuelven más inteligentes que los humanos y luego intentan controlarnos? ¿Harán los ordenadores a los humanos obsoletos? El punto en el que el crecimiento de la tecnología supera a la inteligencia humana se conoce como «singularidad tecnológica». Algunos creen que esto señalará el fin de la era humana y que podría ocurrir tan pronto como en 2030, basándose en el ritmo de la innovación tecnológica. Las IAs conducen a la extinción humana: es fácil entender por qué el avance de la IA da miedo a mucha gente.

6. ¿Cómo deberíamos tratar a las IA?

¿Deberíamos conceder a los robots derechos humanos o ciudadanía? Si hacemos evolucionar a los robots hasta el punto de que sean capaces de «sentir», ¿les otorga eso derechos similares a los de los humanos o los animales? Si se conceden derechos a los robots, ¿cómo clasificamos su estatus social? Esta es una de las principales cuestiones de la «roboética», un tema que fue planteado por primera vez por Isaac Asimov en 1942. En 2017, el robot humanoide de Hanson Robotics, Sophia, obtuvo la ciudadanía en Arabia Saudí. Aunque algunos consideran que se trata más de una maniobra de relaciones públicas que de un reconocimiento legal real, es un ejemplo del tipo de derechos que se pueden conceder a las IA en el futuro.

7. Sesgos de la IA

La IA se ha vuelto cada vez más inherente a los sistemas de reconocimiento facial y de voz, algunos de los cuales tienen implicaciones comerciales reales y afectan directamente a las personas. Estos sistemas son vulnerables a los sesgos y errores introducidos por sus creadores humanos. Además, los propios datos utilizados para entrenar estos sistemas de IA pueden tener sesgos. Por ejemplo, los algoritmos de reconocimiento facial fabricados por Microsoft, IBM y Megvii tenían sesgos a la hora de detectar el sexo de las personas. Estos sistemas de IA fueron capaces de detectar el género de los hombres blancos con mayor precisión que el de los hombres de piel más oscura. Del mismo modo, el cese de la contratación y el reclutamiento por parte de Amazon’s.com es otro ejemplo que demuestra que la IA no puede ser justa; el algoritmo prefería a los candidatos masculinos sobre los femeninos. Esto se debió a que el sistema de Amazon fue entrenado con datos recogidos durante un período de 10 años que provenían en su mayoría de candidatos masculinos.

¿Puede la IA convertirse en un sesgo? Bueno, esa es una pregunta complicada. Se podría argumentar que las máquinas inteligentes no tienen una brújula moral ni un conjunto de principios como los humanos. Sin embargo, incluso nuestra brújula moral y nuestros principios a veces no benefician a la humanidad en su conjunto, así que ¿cómo nos aseguramos de que los agentes de la IA no tengan los mismos defectos que sus creadores? Si las IA desarrollan un cierto sesgo hacia o contra la raza, el género, la religión o la etnia, la culpa recaerá sobre todo en cómo se les enseñó y entrenó. Por lo tanto, las personas que trabajan en la investigación de la IA deben tener en cuenta el sesgo a la hora de determinar qué datos utilizar.

Resumen

Sí, la idea de que los sistemas de IA cada vez más presentes superen la inteligencia humana da miedo. Y las cuestiones éticas que conlleva la adopción de la IA son complejas. La clave será tener en cuenta estas cuestiones para analizar los problemas sociales más amplios que están en juego. La cuestión de si la IA es buena o mala puede examinarse desde muchos ángulos diferentes, sin que ninguna teoría o marco sea el mejor. Tenemos que seguir aprendiendo y mantenernos informados para tomar buenas decisiones para nuestro futuro.

Convocatoria abierta para escritores

¿Te gusta escribir sobre temas tecnológicos como este? Entonces únete al Desafío de Contenido de Kambria y comparte tus conocimientos y experiencia con nuestra creciente comunidad de desarrolladores. Podría recibir más de 200 dólares por la mejor presentación. Para obtener todos los detalles sobre nuestro Desafío de Contenidos, haga clic aquí.

Únase al boletín de Kambria

Deja una respuesta

Tu dirección de correo electrónico no será publicada.