Haz tu denuncia aquí

Racismo alcanza a tecnología

MUNDO

·

El racismo y la injusticia social con que viven a diario las minorías en muchas partes del mundo, principalmente los afroestadounidenses, son un problema que trasciende las calles y los persigue incluso a través de la tecnología.

Los sistemas de reconocimiento facial ya son parte de la vida cotidiana, desde las fotos en Facebook hasta escaneos policiales como en China. Sin embargo, en Estados Unidos un estudio del Instituto de Tecnología de Massachusetts (MIT) descubrió que los algoritmos tenían problemas para identificar a las mujeres y a las personas de color, a diferencia de los blancos.

La investigadora Joy Buolamwini detectó grandes prejuicios raciales y de género en los sistemas de inteligencia artificial vendidos por gigantes tecnológicos como IBM, Microsoft y Amazon, este último criticó el estudio, con el alegato de que los expertos usaban los programas de forma incorrecta. 

Las empresas evaluadas tenían tasas de error inferiores al uno por ciento para los hombres de piel más clara. En cambio, para las mujeres de piel oscura los errores se dispararon a 35 por ciento, explicó Buolamwini en una colaboración con la revista TIME en 2019

En días pasados se desató un debate con investigadores de la Universidad de Harrisburg, luego de anunciar el desarrollo de un software que podría predecir si alguien es un criminal, con base únicamente en la imagen de su cara. 

El anuncio llevó a que un grupo de mil 700 académicos firmaran una carta para que ese estudio no sea publicado, ya que “tales afirmaciones se basan en premisas, investigaciones y métodos científicos poco sólidos”. El criminalista italiano Cesare Lombroso elaboró en el siglo XIX una muy debatida teoría según la cual sería posible identificar criminales a partir de sus características físicas.

Los investigadores afirman que los falsos positivos son muy importantes porque una identificación incorrecta tomada a partir de algoritmos, puede provocar detenciones o acusaciones por error y a posteriores discriminaciones a la hora de comprar o alquilar una vivienda, estudiar, trabajar o pedir un crédito que afectarán por siempre a estas personas, estigmatizadas socialmente.

Esta semana se dio a conocer el primer caso de un hombre negro que fue arrestado por negligencia, basado en un falso algoritmo de reconocimiento facial, informó The New York Times.

En otra investigación realizada por el Instituto Nacional de Estándares y Tecnología (NIDT, por sus siglas en inglés) notificó que este problema encuentra su explicación en la base datos sobre los que la Inteligencia Artificial (IA) basa su aprendizaje, es decir, que el sistema de datos no es lo suficientemente diverso, por lo que la IA tiene más dificultades a la hora de reconocer a los grupos de los que tiene menor referencia

El debate sobre cómo los algoritmos podían perpetuar los estereotipos raciales ha cobrado fuerza con el paso del tiempo, y organizaciones como Naciones Unidas o la Unión Europea han planteado planes para evitar que se sucedan estos sesgos

La prueba de NIDT halló que las personas asiáticas y afroamericanas tenían hasta 100 veces más probabilidades de ser mal identificadas que los hombres blancos, dependiendo del algoritmo particular y el tipo de búsqueda.

Desde la muerte bajo custodia policial de George Floyd, las demandas para que las fuerzas policiales dejen de usar aplicaciones de reconocimiento facial se han intensificado

En San Francisco, Oakland y dos ciudades de Massachusetts, Somerville y Brookline, aprobaron el año pasado prohibiciones sobre el uso de reconocimiento facial por parte de funcionarios públicos.

De acuerdo con The New York Times, cientos de agencias del orden usan este tipo de tecnologías en Estados Unidos. Desde el 2011 el FBI ha registrado más de 390 mil búsquedas de reconocimiento facial de los registros estatales de licencias de conducir y otras bases de datos federales, informó por su parte The Washington Post. 

La búsqueda de reconocimiento facial del FBI tiene acceso a bases de datos locales, estatales y federales que contienen más de 641 millones de fotos de rostros, informó el año pasado un director de la Oficina de Responsabilidad Gubernamental a The Post.

Mientras tanto, los gigantes tecnológicos como Arvind Krishna, Amazon y Microsoft –que  llevan años en una guerra por un negocio millonario– informaron la semana pasada que dejarían de comercializar sus software a la Policía, luego de las masivas protestas en EU. [nota_relacionada id= 1101606]

Por Sayuri López
lctl