Racismo y sexismo en IA, ¿Qué estamos programando?

Solemos pensar que los computadores son objetivos, al menos más objetivos que los humanos. Creemos que acciones negativas de las personas, tales como ser racista y sexista son parte de nuestra cultura, pero algunos acontecimientos han mostrado que las máquinas también puedes serlo. ¿Por qué? Fácil, porque los sistemas de inteligencia artificial son alimentados con datos históricos y estos, muchas veces, están sesgados.

Un ejemplo de este sesgo, es que en “el mundo real” se aprueban más créditos a hombres blancos y pertenecientes a ciertas ciudades, entonces cuando se le da a una AI la capacidad de tomar decisiones, lo hará en base a este conocimiento que le fue traspasado  de los prejuicios humanos. Es decir, la máquina codifica el sesgo, lo interpreta y lo adquiere como un comportamiento aceptado.

Algo similar ocurrió en el año 2016 cuando Microsoft lanzó su chatbot AI en Twitter. Los encargados de la tecnología programaron el robot para aprender y replicar las acciones humanas para interactuar con usuarios de la red. Pero, ¿se acuerdan qué pasó? Tan sólo 16 horas después, la inteligencia artificial comenzó a enviar mensajes sexistas y pro nazis, por lo que fue cerrada.

¡Pero cómo pasó esto! Los expertos de la firma señalaron que se le enseñó al bot a imitar el comportamiento humano, pero no profundizaron en qué era adecuado y qué no, por tanto, nuevamente estamos frente a un caso de codificación de sesgos.

Uno de los casos más impresionantes que han aparecido en torno a este tema tiene que ver con las tecnologías de reconocimiento facial. Jay Buolamwini, investigadora del MIT, estaba desarrollando un trabajo acerca de estos softwares cuando evidenció algo bastante extraño.

Cada vez que se sentaba frente a la cámara frontal del sistema, este no reconocía su rostro, pero al hacer la prueba con personas de tez blanca, si funcionaba. Peor aún, cuando ella se ponía una máscara de color blanco, la animación la reconocía inmediatamente.

La investigadora pensó que este podría ser un problema generalizado en este tipo de soportes, por lo que comenzó un estudio de los sistemas de reconocimiento facial a través de AI de Microsoft, IBM y la empresa china Face ++. Después de probar con mil caras, las tres compañías tuvieron mucho más éxito con el reconocimiento de hombres de piel blanca.

Al contrario, cuando se trataba de mujeres de tez oscura, los resultados dejaron bastante que desear. Hubo 34% más de errores en las mujeres con estas características que en las de piel clara.

Tras el estudio, Boulamwini envió los resultados a las firmas comprometidas, IBM respondió positivamente. Un nuevo sistema actualizado ahora clasifica a las mujeres de piel oscura con una porcentaje de éxito de 96,5%

Pero esto no queda acá, hay un largo camino por recorrer en cuanto al mejoramiento de las tecnologías en igualdad social y de género. Algunos traductores, por ejemplo, no reconocen términos femeninos que hacen alusión a trabajos que, generalmente, son realizados por hombres.  Por ejemplo, la desarrolladora Camelia Boban, notó que Google Translate no reconocía el femenino de “programador” en italiano: “programmatrice”. Problema que ya está resuelto, pero ¿Por qué sucedió? S-E-S-G-O en los datos.

Afortunadamente, estos son problemas que se pueden corregir y evitar en el futuro. Todo depende de los datos entregados y de la codificación que se haga de los mismos para darle autonomía resolutiva a una máquina. Por eso, quienes estén a cargo de estos grandes proyectos no sólo deben ser buenos profesionales, sino también saber diferenciar los malos y buenos comportamientos humanos.

Además, en cuanto a los problemas que pueden ocurrir en aplicaciones de IA, no se debe olvidar que existen valores universales o completos de las variables principales, en el caso del reconocimiento facial, la tez de las pieles.

En Dataciencia creemos que la tecnología está hecha para mejorar el mundo y para destruir los prejuicios que han separado a las personas por decenas de años. Por eso, ponemos absoluto cuidado en los datos con los que programamos nuestros productos. Confía en nosotros.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *