Angel Giménez de Luis - El Mundo - El fallo, de por sí, es grave, pero se vuelve aún más preocupante cuando se considera que no es la primera vez que las grandes compañías tecnológicas de Silicon Valley tiene que enfrentarse con este problema.
En 2015, por ejemplo, el software de reconocimiento de imágenes de Google clasificó varias fotos con personas negras como "gorilas". La única solución que encontró la empresa, considerada a la vanguardia de las técnicas de inteligencia artificial, fue eliminar por completo las etiquetas asociadas a primates (gorila, chimpancés, monos...) para evitar que sus algoritmos siguieran asociándolos a fotos de seres humanos.
El año pasado, Twitter se encontró con un problema relacionado. Un informático, Toni Arcieri, descubrió que el algoritmo que recorta automáticamente las imágenes cuando son demasiado grandes ignoraba los rostros negros y se centraba en los de personas blancas, independientemente de la posición en la imagen.
La conocida aplicación Zoom, estrella involuntaria de la pandemia, ha tenido también que modificar el código de sus aplicaciones tras detectar que la función de fondos virtuales podía borrar la cabeza de personas de raza negra, sobre todo si tenían la piel muy oscura, independientemente de lo bien iluminadas que estuvieran.
SESGO IMPLÍCITO
¿Por qué siguen ocurriendo estos casos? Aunque solemos hablar de "inteligencia artificial", los algoritmos que se utilizan para detectar y etiquetar personas, animales y objetos en un vídeo o una foto no son realmente tan inteligentes como podría parecer en un primer momento.
Se programan utilizando varias técnicas de aprendizaje automatizado. Los desarrolladores alimentan la rutina con miles o millones de imágenes o vídeos de ejemplo y el resultado que esperan obtener. El algoritmo, a partir de estos ejemplos, infiere el modelo que debe aplicar a cualquier situación posterior.
Si durante esa fase de entrenamiento no se seleccionan cuidadosamente los ejemplos, es posible introducir sesgos en el modelo. Si todos los vídeos o la mayoría de vídeos muestran personas de raza blanca, por ejemplo, el algoritmo podría tener problemas para identificar correctamente a una personas de raza negra en el futuro.
Además, los ordenadores se encuentran con otros obstáculos a la hora de reconocer o etiquetar correctamente a personas de raza negra en vídeos y fotos. Una de las formas en las que un ordenador analiza una foto o una fotograma es estudiando el contraste entre las diferentes zonas de la imagen. Los rostros de tonalidad clara tienden a mostrar más contraste entre las y por tanto tienden a ser valorados de forma mucho más precisa.
Esto puede tener consecuencias muy graves. Incluso los mejores algoritmos de identificación facial, por ejemplo, tienden a confundir a las personas de raza negra entre cinco y 10 veces más que a las de raza blanca.
Varias agencias de seguridad están comenzado a utilizarlos a la hora de resolver crímenes o investigar posibles delitos y muchas organizaciones centradas en la protección de derechos civiles creen que esta mayor tasa de error acabará perjudicando a la población de raza negra, que ya sufre de forma habitual mayor presión durante las investigaciones y los juicios.
Conforme las herramientas basadas en aprendizaje máquina e inteligencia artificial se expanden a otras tareas, los sesgos en el sistema pueden generar problemas inesperados en todo tipo de situaciones.
Amazon, por ejemplo, trató de crear un sistema automatizado para considerar candidatos a puestos de trabajo hace unos años. Durante el proceso de entrenamiento utilizó más curricula de hombres que de mujeres. La compañía descubrió que el algoritmo resultante tendía a rechazar candidatas con más frecuencia incluso sin saber el sexo de la persona, basándose en marcadores que había aprendido de los miles de ejemplos, como la universidad o el colegio al que habían asistido.