Si está en la cocina, es una mujer: cómo los algoritmos refuerzan los prejuicios
Las máquinas inteligentes consolidan los sesgos sexistas, racistas y clasistas que prometían resolver.
TRONDHEIM BYARKIV
[1] Un hombre calvo, de unos sesenta años, mueve con sus espátulas de madera unos trozos de carne den-
[2] tro de una sartén. Lleva gafas de pasta, vaqueros y está frente a los fogones de su pequeña cocina, decorada
[3] en tonos claros. Al ver esta imagen, la inteligencia artificial lo tiene claro y gracias a su sofisticado aprendizaje
[4] etiqueta lo que ve: cocina, espátula, fogones, mujer. Si está en una cocina, entre fogones, debe ser una mujer.
[5] Un equipo de la Universidad de Virginia acaba de publicar un estudio en el que señala una vez más lo que
[6] muchos especialistas vienen denunciando: la inteligencia artificial no solo no evita el error humano derivado de
[7] sus prejuicios, sino que puede empeorar la discriminación y está reforzando muchos estereotipos.
[8] En su trabajo, estos científicos pusieron la lupa en las imágenes de dos gigantescos bancos de imáge-
[9] nes, de los que se usan habitualmente para entrenar a las máquinas. Y, sobre todo, en lo que aprendían de
[10] ellas. Inicialmente, los hombres protagonizaban un 33% de las fotos que contenían personas cocinando. Tras
[11] entrenar a la máquina con estos datos, el modelo mostró su flaqueza: dedujo que el 84% de la muestra eran
[12] mujeres. “Se sabe que las tecnologías basadas en big data a veces empeoran inadvertidamente la discrimina-
[13] ción debido a sesgos implícitos en los datos”, advierten los autores. “Mostramos que partiendo de un corpus
[14] sesgado de género”, añaden, los modelos predictivos “amplifican el sesgo”.
Adaptado de: https://elpais.com/elpais/2017/09/19/ciencia/1505818015847097.html Acceso: 20 set. 2017.
Lendo a descrição apresentada entre as linhas 1 e 3 do texto, é possível afirmar que o seu conteúdo faz referência a