Nuestros celulares, el GPS que nos guía en el camino, la computadora, en todas partes tenemos ya los llamados sistemas lingüísticos de inteligencia artificial. Algo que ya nos parece cotidiano puede contener un oscuro secreto.
Una investigación publicada en la revista Science ha detallado que ese tipo de sistemas que interactúan con el ser humano cada segundo del día tienen sesgos sexistas y racistas, algo que no es extraño ya que los han aprendido de nosotros.
Para entender un poco más el contexto del “aprendizaje automático”, tenemos que ver que es un campo de las ciencias de la computación que permite a las máquinas descubrir pautas en los datos masivos preexistentes.
Cuando esos datos son textos, las máquinas acaban reproduciendo los mismos sesgos sexistas y racistas que estaban camuflados en el lenguaje humano. Esto es lo que acaban de descubrir Aylin Caliskan y sus colegas del Centro de Políticas sobre Tecnología de la Información de la Universidad de Princeton, en New Jersey.
Lo que se descubrió fue que el aprendizaje automático hace que las máquinas reproduzcan de forma sesgada la distribución sexual y racial que los humanos mostramos, de forma inconsciente, en cuestiones tan importantes como la elección de carrera profesional o la selección de candidatos a un empleo.
“Tanto los motores de búsqueda como las redes sociales utilizan texto, por lo que se pueden hacer ciertas asociaciones basadas en el texto, con que se les alimenta mediante sistemas similares al que hemos usado en este trabajo”, aseguró el científico Aylin Caliskan a Science.
Caliskan y sus colegas se han basado en un test para los sesgos humanos desarrollado en los años noventa por el psicólogo Anthony Greenwald, de la Universidad de Washington en Seattle. Se llama Test de Asociación Implícita, y constituye la principal fuente de información sobre los sesgos inconscientes humanos.
En lugar del tiempo de respuesta de una persona, aquí se mide el grado de asociación que la máquina otorga a dos palabras mediante una técnica estadística basada en la concurrencia de ambas en un texto.
Con su test psicológico adaptado para máquinas, los científicos han reproducido todos los estereotipos inconscientes que los humanos habíamos revelado antes en el Test de Asociación Implícita.
Por ejemplo, los nombres asociados a los estadounidenses de origen europeo se asocian más a términos placenteros que los nombres típicos afroamericanos. Los nombres de mujeres se asocian más con palabras relativas a la familia que con las relativas a la carrera profesional, y lo contrario ocurre con los nombres masculinos. Las palabras “mujer” o “chica” se asocian más a las artes que a las matemáticas o las ciencias.
*
Podría interesarte:
Feminicidio de activista desata indignación en Argentina.
Legislador polaco defendió que mujeres ganen menos que los hombres.
“Misandria”, el odio y la discriminación a los hombres de la que nadie habla.