Microsoft no venderá su tecnología de reconocimiento facial a la Policía

racismo

La multinacional estadounidense Microsoft siguió este jueves los pasos de IBM y Amazon y anunció que tampoco venderá su tecnología de reconocimiento facial a la Policía, como respuesta a las demandas de justicia racial y contra la brutalidad policial en EE.UU. derivadas de la muerte del afroamericano George Floyd a manos de un agente en Mineápolis.

"En la actualidad, no vendemos nuestra tecnología de reconocimiento facial a los departamento de Policía de EE.UU., y seguiremos sin hacerlo hasta que no exista en el país una ley fuerte y basada en los derechos humanos", indicó la empresa con sede en Redmond (estado de Washington, EE.UU.) en un comunicado.

Lee también: Twitter prueba añadir las reacciones a los tuits con emojis

La respuesta de Microsoft llega la misma semana en que otros dos gigantes de la tecnología, IBM y Amazon, anunciasen medidas similares: en el caso de IBM, retirándose por completo del negocio del reconocimiento facial; y en el de Amazon, prohibiendo las ventas de su tecnología a la Policía durante un año.

El año pasado, San Francisco se convirtió en la primera gran ciudad de EE.UU. en prohibir a todas las agencias locales, entre ellas la Policía, el uso de técnicas de reconocimiento facial, cada vez más empleadas por las autoridades para identificar a criminales pero criticadas por las organizaciones proderechos civiles.

Gobiernos y agencias de seguridad de todo el mundo hace años que utilizan las técnicas de reconocimiento facial (capaces de identificar a individuos mediante inteligencia artificial) para tareas como detectar a criminales, ayudar en las tareas de búsqueda de menores desaparecidos o prevenir el fraude documental.

Sin embargo, los grupos en defensa de los derechos civiles aseguran que esta tecnología invade la privacidad de los ciudadanos de forma excesiva, a la vez que puede perpetuar sesgos policiales contra minorías étnicas, ya que se ha probado que tiende más al error con personas de piel oscura.

En este sentido, un estudio llevado a cabo en 2018 por la Unión Estadounidense de Libertades Civiles (ACLU, en inglés) halló que el reconocimiento facial había identificado incorrectamente a 28 congresistas de EE.UU. (en su mayoría pertenecientes a minorías étnicas) como criminales al comparar sus fotografías con imágenes policiales. EFE