Vínculo copiado
Pruebas a software creado por Amazon y Microsoft registraron más errores al clasificar el género de mujeres de piel oscura que de blanca
10:03 domingo 7 abril, 2019
TecnologíaLa tecnología de reconocimiento facial estaba presente en el día a día de la gente, desde sus fotografías de Facebook hasta en los escaneos de las fotos policiales, cuando Joy Buolamwini se dio cuenta de un problema técnico importante: algunos softwares no detectaban los rostros de piel oscura como el de ella. La revelación hizo que la investigadora del Instituto de Tecnología de Massachusetts (MIT, por sus siglas en inglés) emprendiera un proyecto que abre un debate sobre cómo la inteligencia artificial debería ser implementada en el mundo real. Las pruebas que realizó en el software creado por empresas de tecnología como Amazon, registraron índices de error mucho más altos cuando se clasificaba el género de las mujeres de piel oscura que en los hombres de piel más clara. Durante el proceso, Buolamwini ha urgido a Microsoft y a IBM a mejorar sus sistemas y causó molestia a Amazon, que respondió con ataques públicos a sus métodos de investigación. El miércoles, un grupo de académicos, incluido el ganador de un premio de informática, defendió su trabajo y pidió a Amazon que dejara de vender su software de reconocimiento facial a la policía. Su investigación llamó la atención de líderes políticos en los congresos estatales y federal, y provocó que algunos buscaran limitar el uso de las herramientas de visión artificial para analizar rostros humanos. "Debe haber una alternativa", dijo Buolamwini, estudiante de posgrado e investigadora en el Laboratorio de Medios del MIT. "Estas tecnologías están siendo desplegadas sin una supervisión, a menudo de forma encubierta", sostuvo. Buolamwini no es la única en expresar sus reservas por la adopción tan rápida del reconocimiento facial por parte de la policía, agencias gubernamentales y negocios. Varios investigadores han demostrado cómo los sistemas de inteligencia artificial, que buscan patrones en enormes bancos de datos, imitarán los sesgos institucionales que existen en los bancos de datos de los que están aprendiendo. Por ejemplo, si los sistemas de inteligencia artificial se desarrollan con el uso de imágenes de hombres blancos, los sistemas trabajarán mejor al reconocer a las personas de piel clara. Esas disparidades pueden ser, en ocasiones, cuestiones de vida o muerte. Un estudio reciente de los sistemas de visión artificial que habilitan que los automóviles autónomos vean el camino muestra que tienen problemas para detectar a los transeúntes con tonos de piel oscura. El método que Boulamwini ha utilizado para analizar los sistemas creados por compañías es sobresaliente: los coloca en una escala de tonos de piel usada por los dermatólogos, luego nombra y exhibe a aquellos que mostraron sesgos raciales y de género. Buolamwini, que también fundó una coalición de académicos, activistas y otras personas llamada Algorithmic Justice League (Liga de la Justicia Algorítmica), ha combinado sus investigaciones académicas con el activismo. -- Reforma