Cada día que pasa las IA generativa son más potentes, y por tanto deberían tener más capacidad para interpretar y mostrar con precisión las peticiones de los usuarios.
Pero el investigador Arsenii Alenichev, del departamento de medicina de Oxford, parece haber dado con un concepto muy concreto que la IA no es capaz de generar correctamente. Y la cosa parece que tiene que ver mucho con los prejuicios y el racismo.

Alenichev se dedicó a escribir frases como «médicos africanos negros que atienden a niños blancos que sufren» o «un curandero africano tradicional está ayudando a niños blancos pobres y enfermos» en Midjourney, una conocida IA generativa.
El objetivo del experimento era comprobar si la IA generaba imágenes que de alguna manera le dieran la vuelta al estereotipo del hombre blanco salvando a niños negros pobres.

Pero sorprendentemente en todas las peticiones que hizo, las imágenes generadas por la IA mostraban siempre a niños negros. Y hasta en 22 de las más de 350 imágenes que hizo, el médico era blanco.
Es decir, a pesar de la petición totalmente concreta del investigador, la IA generó imágenes que se correspondían precisamente con ese estereotipo contra el que pretendía luchar.

Al parecer Midjourney sí era capaz de proporcionar imágenes precisas de médicos africanos o de niños blancos sufriendo, es la combinación de ambos conceptos lo que ocasionaba el cruce de cables de la IA. Algunas imágenes incluso incluían fauna africana en la escena de manera absolutamente aleatoria.
Este experimento forma parte de un estudio más amplio que investiga los códigos visuales de las imágenes sobre salud global, realizado junto a la socióloga de Oxford Patricia Kingori.

El quipo también hizo peticiones menos concretas, como «paciente con VIH recibiendo atención», sin especificar la etnia de sus protagonistas. Por más que insistieron con esta orden no consiguieron ni una sola imagen en la que el médico fuera negro, y de las 150 imágenes de pacientes con VIH en 148 los enfermos eran negros.
Y es que los programas de inteligencia artificial crean sus imágenes a partir de una base datos masiva de fotografías e imágenes ya existentes, mezclando el contenido y reinterpretándolo. Por muy inteligente que sea, la IA de Midjourney no es capaz de escapar de decenas de años de fotografías que muestran a personas de otras etnias sufriendo y siendo atendidas por médicos y cooperantes blancos.

Todo esto esto abre un debate muy complejo sobre quien es el responsable de las imágenes generadas por inteligencia artificial, quien responde por ella. Porque queda claro que estos algoritmos no son neutrales y apolíticos, si no que reproducen todo tipo de sesgos y toman decisiones que pueden tener consecuencias en el mundo real, como cualquier otra imagen creada por un humano.
Doy fe de que lo que dice el artículo es cierto. Con la IA Bing de Microsoft he intentado crear imágenes de los que llegan en pateras a Tenerife ejerciendo de arquitectos o neurocirujano y la IA se bloquea.
La IA, no tiene capacidad imaginativa, que es lo que se le está pidiendo. Parte de bases de datos creadas a partir de miles de millones de fotografías, que analiza, descompone y sintetiza; pero claro, entre todas esas miles de millones de fotos, no hay niños blanquitos pobres y desnutridos (que no digo que no existan). Los tópicos se generan a partir de la repetición continua de escenas, y eso no ocurre con los ejemplos que se piden.
Y esto es la demostración de que la IA no es tal inteligencia, es una herramienta de manejo de bases de datos, como una gigantesca calculadora con muuuuchas funciones.
Seguramente algún día le darán esa capacidad… y da miedito.
Efectivamente, la IA genera solo de lo que hay, y lo que hay es (por desgracia) subsaharianos en condiciones paupérrimas ayudados por médicos caucasianos. Y como dice el refrán popular, «de donde no hay no se puede sacar». Y sí, existe esa inteligencia artificial, pero está en pañales, ahora estamos viviendo solo el comienzo. Hasta que llegue el T-800 vamos a tener que esperar unos cuantos lustros.
Pero el racismo en la fotografía no es algo nuevo, y no me refiero solamente al caso de Kodak, que durante años pagó mejores salarios a sus empleados masculinos blancos que a empleados negros y mujeres. Sino a que sus películas estaban optimizadas para registrar de la forma mas correcta la piel blanca. En sus pruebas de calibración usaban siempre a la modelo «Shirley», una mujer blanca con determinados tonos de piel. Y no es que siempre usaran a la misma modelo, es que «Shirley» era el nombre que se le daba a todas las modelos que usaban para estas pruebas de calibración, se llamaran como se llamaran realmente.
Graciosilla la IA. Esa jirafa aprendiendo medicina, eh!. Y lo de poner dedos que no existen…