- Publicado
Un robot no hará daño a un ser humano ni, por inacción, permitirá que un ser humano sufra daño.
"Un robot atacando un humano" por Picasso (DALL-E)
Uno de los mayores retos éticos asociados a la creación de tecnología de IA es garantizar la imparcialidad de las decisiones.
Leyes de la robótica
El título de esta nota es la conocida como primera de las tres leyes de la robótica atribuibles al escritor de ciencia ficción Isaac Asimov, las cuales aparecieron por primera vez en el relato corto "Círculo vicioso" (Runaround en inglés) publicado en 1942 por la revista estadounidense "Analog Science Fiction and Fact" y, posteriormente, en el libro "I, Robot" del propio autor. Aunque Asimov, judío de origen ruso naturalizado estadounidense, fue el primero en redactarlas y publicarlas, reconocía que este código surgió de conversaciones que mantuvo con John W. Campbell, editor de "Analog Science Fiction and Fact". Las tres leyes:
- Un robot no hará daño a un ser humano ni, por inacción, permitirá que un ser humano sufra daño.
- Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley.
- Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.
Estas tres reglas fueron quizás la primera expresión de preocupación por el daño que agentes inteligentes autónomos podrían infligir a los seres humanos. Al margen de las secuelas psíquicas que podría dejarnos intentar razonar con un bot conversacional (chatbot) en un servicio de atención al cliente, o de posibles tropiezos con un robot aspirador, aún estamos lejos de padecer peligros como los profetizados por Asimov. Sin embargo, actualmente sí podríamos sufrir consecuencias no deseadas derivadas de decisiones cuestionables de algoritmos de IA que, aunque legales y hasta lógicas considerando los datos usados para aprender, no podrían aceptarse en términos éticos desde un punto de vista moral y social.
Datos sesgados, incompletos o inadecuados
A modo de ejemplo, imagine sistemas de IA que recomiendan precios más altos en supermercados ubicados cerca de un área de desastre, luego de un huracán,, algoritmos que clasifican currículos vitae favoreciendo a determinados tipos de candidatos sobre otros (p. ej. a hombres porque dispusieron de más casos masculinos para aprender), o sistemas que predicen necesidades de salud basándose en gastos médicos históricos, desconociendo, por tanto, desigualdades en el acceso a estos servicios entre distintos grupos de población (quien más gasta no es necesariamente quien más lo necesita, sino quien más se lo puede permitir).
Un artículo reciente del sitio eWeek recopila enlaces a noticias de casos reales sobre soluciones sesgadas de IA:
- Amazon utilizó una herramienta de contratación de IA que discriminaba a las mujeres
- Algoritmo de riesgo de atención médica muestra sesgo racial
- Twitter enseña a un chatbot de Microsoft a ser racista en menos de 24h
Estas decisiones son generalmente adoptadas por algoritmos pobremente diseñados basados en conjuntos de datos sesgados, incompletos o inadecuados. Entre los primeros podríamos encontrar, por ejemplo, algoritmos entrenados con datos pertenecientes mayoritariamente a población masculina, blanca o joven, mientras que entre los últimos, algoritmos que reciben como parte de los datos de entrada variables cómo el sexo o la raza en tareas en las que el perfil biológico no es necesario.
Retos éticos
Veamos un ejemplo. Si un algoritmo de selección de candidatos aprende a partir de una muestra de currículos vitae que proceden mayoritariamente de hombres de raza blanca, estadísticamente hablando, la mayoría de los candidatos más aptos pertenecerá a ese grupo social. Por lo tanto, nuestro algoritmo, originalmente ingenuo e imparcial, aprenderá mejores reglas que relacionan perfiles de hombres blancos con candidatos aptos, las cuales serán más probables que las reglas que asocian perfiles femeninos o de otras razas a puntuaciones altas. Es decir, tras el entrenamiento, nuestro algoritmo inocente adoptará frecuentemente decisiones erróneas no basadas en la calidad del aspirante. Podríamos encontrar situaciones similares en sistemas de diagnóstico a partir de imagen médica, si los datos de aprendizaje comprenden proporciones muy desiguales de ambos géneros o de distintos grupos de edades. En estos casos, el sistema siempre realizará mejores diagnósticos en personas de los grupos de población mejor representados, quienes generalmente coincidirán con aquellos con mejor acceso a los sistemas de salud.
Como el lector habrá comprobado, uno de los mayores retos éticos asociados a la creación de tecnología de IA es garantizar la imparcialidad de las decisiones. Mientras los sistemas no sean capaces de proporcionar decisiones imparciales y transparentes, en las que sea posible identificar y explicar la relación causa-efecto entre los datos de entrada y la solución propuesta, los sistemas de IA continuarán siendo objeto de la desconfianza entre profesionales cuyas decisiones podrían verse dramáticamente mejoradas con el apoyo de soluciones inteligentes (mayor tasa de éxito en tiempos sensiblemente menores).
"Aspiradora disfrutando en la playa" por Andy Warhol (DALL-E)
Por ejemplo, en el caso del diagnóstico médico asistido, las soluciones de IA no estarían destinadas necesariamente a reemplazar a especialistas médicos, sino que podrían verse como una primera o segunda opinión diagnóstica incluyendo una explicación de posibles causas. Esta información podría potencialmente aumentar, en fracciones de segundo, la cantidad y calidad de evidencias disponibles para tomar una decisión final más fundamentada. Además, sistemas inteligentes para el diagnóstico asistido correctamente diseñados podrían reducir la subjetividad en los juicios diagnósticos, pues podrían aprender a partir de decisiones consensuadas entre múltiples especialistas.
"Robots en una batalla a caballo frente al ejercito Romando, siglo XX, en el Rio Danibio" by Sandro Botticelli (DALL-E)
En noviembre de 2021, la Conferencia General de la UNESCO acordó un catálogo de recomendaciones éticas de IA que se espera sirvan de guía en el diseño de soluciones inteligentes. Además de proteger y promover los derechos y la dignidad humanos, estas recomendaciones deberían constituir una base normativa para construir un estado de derecho en el mundo digital.