Reconocimiento facial en América Latina: tendencias en la implementación de una tecnología perversa

Las organizaciones reunidas en el consorcio Al Sur presentaron el informe “Reconocimiento facial en América Latina: tendencias en la implementación de una tecnología perversa”, un mapeo de 38 sistemas de reconocimiento facial desplegados en nueve países de la región, al alero de distintas políticas públicas.

Estudios e infomes 13/11/2021 MásDeAgencia MásDeAgencia
screenshot-www.diariodecuyo.com.ar-2021.11.13-10_12_52
Foto Press

El reporte, cuya redacción estuvo a cargo de Jamila Venturini y Vladimir Garay de Derechos Digitales, constata que se trata de una tecnología cuya utilización ha crecido de manera importante durante los últimos años, principalmente en el marco de políticas de seguridad que buscan incrementar la capacidad del estado para vigilar espacios públicos. Sin embargo, cabe notar su uso cada vez más común en otro tipo de actividades, como el control fronterizo y migratorio, el transporte y la asistencia social.

Común es la a todos los países analizados la falta de participación con la cual se diseñan las políticas públicas que incorporan el uso de sistemas de reconocimiento facial y la poca transparencia con la cual los sistemas son implementados y utilizados, muchas veces ocultando información relevante respecto a la tecnología utilizada y quién la provee. Por eso, uno de los hallazgos más importantes de la investigación es poder realizar un listado de empresas que están detrás de la implementación de estos sistemas.

Otra cuestión relevante es la falta de marcos normativos que expliciten la legalidad de la implementación de este tipo de tecnología, ni las restricciones que debiese contemplar sus usos, lo que no ha sido un obstáculo para los gobiernos a la hora de implementar estos sistemas. Completamente inexistentes son los estudios de impacto en materia de derechos humanos y la mayor parte de las veces no siquiera están contemplados procesos de auditoría externa, que permitan detectar eventuales fallas en el sistema, lo que abre la puerta para invisibilizar cualquier tipo de error que pueda derivar en abusos y discriminaciones en contra de las personas sujetas a este tipo de control biométrico.

La investigación está disponible en castellano, portugués e inglés, y está acompañada de un mini sitio web especialmente diseñado para la ocasión, que puede ser visitado en https://estudio.reconocimientofacial.info/  

Reconocimiento Facial en América Latina

El reconocimiento facial ha avanzado rápida y silenciosamente en nuestra región. Aquí podrás conocer algunas de las iniciativas existentes, sus objetivos, las empresas responsables de su implementación y los riesgos en materia de derechos humanos que conlleva su uso.

El reconocimiento facial no nos protege, nos vulnera

Distintos gobiernos alrededor del mundo han comenzado a imponer prohibiciones y moratorias a la implementación y uso del reconocimiento facial y algunas empresas desarrolladoras de software se han comprometido con la restricción de ventas de este tipo de sistemas en determinadas situaciones. Es el caso de Amazon,45 Microsoft46 e IBM,47 que se manifestaron expresamente en ese sentido tras los episodios de protestas por justicia racial en Estados Unidos en 2020. Estas manifestaciones se producen al mismo tiempo que se descubren sesgos raciales en estas tecnologías.

Expertos y expertas internacionales también se han posicionado de manera favorable a la imposición de este tipo de medida, considerando que los sistemas de reconocimiento facial implican una serie de impactos al ejercicio de los derechos humanos.
¿Por qué no? Afectación a los derechos humanos y riesgos asociados al uso de reconocimiento facial
Cabe recordar que la tecnología de reconocimiento facial permite la identificación individualizada de cualquier persona y, con eso, el acompañamiento de sus trayectos y hábitos personales en tiempo real. La transformación de tal información en metadatos que pueden, a su vez, ser almacenados y analizados de manera agregada implica la posibilidad adicional de inferir una serie comportamientos e, incluso, intentar predecir acciones futuras. Especialmente cuando son implementados en espacios públicos — como es el caso de la mayoría
de las iniciativas identificadas a partir de este mapeo —, los sistemas de reconocimiento facial consisten en una tecnología de vigilancia masiva encubierta que afecta a todas las personas que circulan por determinado espacio, sin que tengan conocimiento o la posibilidad de consentir la recolección de información personal sensible, como sus datos biométricos. Eso incluye, por ejemplo, a niños, niñas y adolescentes (NNA), cuya privacidad goza de protección especial debido al enorme impacto que usos abusivos o filtraciones de esa información extremadamente sensible pueden tener al libre desarrollo de su personalidad. Organizaciones de sociedad civil han identificado la inclusión indebida de datos de menores a las bases de datos del Sistema de Reconocimiento Facial de Prófugos (SRFP) implementado en algunas estaciones de subte de la Ciudad Autónoma de Buenos Aires.


La instalación de sistemas de reconocimiento facial para la vigilancia de espacios públicos, por lo tanto, implica necesariamente restricciones al derecho a la libre circulación, puesto que quien no quiera que el sistema recolecte sus datos biométricos tendría que buscar caminos o medios de transporte alternativos. Por otro lado, el grado de intrusión propio de este tipo de tecnología implica una vulneración al derecho a la privacidad y, de manera asociada, al derecho a la protección de datos personales.
Además, las capacidades de monitoreo y predicción de comportamientos comprometen el ejercicio del derecho a la libre asociación, expresión y reunión pacífica, una vez que permiten el perfilamiento de participantes de movimientos que contraríen intereses políticos o económicos establecidos vulnerando su anonimato y facilitando la criminalización o persecución de expresiones legítimas de distinto carácter.

Más que un ejercicio imaginativo, se trata de un riesgo concreto en países marcados por un histórico de autoritarismo e innumerables ejemplos recientes de abusos, por ejemplo, en la vigilancia de opositores y opositoras políticas, como es el caso de la mayoría de los países analizados. La posibilidad de estar bajo vigilancia constante, además, incentiva el silenciamiento y la autocensura, y representa un riesgo gravísimo para las sociedades democráticas.


Las implicaciones de la vigilancia individualizada de personas en tiempo real no afecta solamente a las personas involucradas en la defensa de derechos humanos o distintas formas de activismo. En una región particularmente marcada por el racismo, el machismo y la homofobia de manera estructural, este tipo de sistema facilita la violencia sexual por parte de aquellas personas que tengan acceso a la operación del sistema. Si bien se espera que las operadoras estén sujetas a reglas y controles estrictos, no son raros los episodios de abusos y discriminación por parte de agentes policiales en la región.


El derecho a la no discriminación, reconocido en los artículos 1 y 24 de la Convención Americana sobre Derechos Humanos, también se ve directamente amenazado por las altas tasas de falsos positivos que arrojan los sistemas de reconocimiento facial, problema que aumenta exponencialmente cuando las personas que están siendo vigiladas pertenecen a grupos históricamente vulnerados como mujeres, personas de piel oscura o personas trans.54 Los sistemas implementados en la región ya han registrado errores que resultaron en graves consecuencias para las personas afectadas.


En el Sistema de Reconocimiento Facial de Prófugos (SRFP) implementado en la Ciudad Autónoma de Buenos Aires, en Argentina, hay registros de al menos dos casos de falsos positivos, uno de los cuales implicó la detención de una persona inocente por seis días.55 Situaciones similares también fueron identificadas en Brasil, donde organizaciones han denunciado que, de un total de 151 personas detenidas a raíz del uso de sistemas de reconocimiento facial, el 90% son afrodescendientes.


La implementación de sistemas de reconocimiento facial conlleva, por lo tanto, la reproducción técnica de los sesgos de exclusión social y, cuando son utilizados con fines de vigilancia, amenaza el derecho a la dignidad, al debido proceso y la presunción de inocencia. Finalmente, cuando es implementado como mecanismos de autenticación de identidad para condicionar el acceso a servicios públicos, el reconocimiento facial (así como otras tecnologías biométricas) puede representar una barrera al ejercicio de derechos económicos y sociales. Además, implica que algunas personas, principalmente las que dependen de la asistencia social, están sujetas a garantías inferiores en términos de la protección de sus derechos fundamentales. Cuando son aplicadas de esta manera, las tecnologías refuerzan y profundizan las desigualdades estructurales históricas que afectan a la región.

De la falta de transparencia pública a la resistencia ciudadana.


Por todos los motivos aquí expuestos, es crucial que las decisiones asociadas a la implementación de sistemas de reconocimiento facial estén sujetas a estrictos controles democráticos — que incluyen criterios de legalidad, necesidad y proporcionalidad — y de supervisión pública. Sin embargo, el presente mapeo realizado por las organizaciones miembro de Al Sur evidencia que tales criterios son escasamente respetados en América Latina.
En primer lugar, las implementaciones carecen de discusiones públicas previas a su implementación. En la mayoría de los casos, las iniciativas se dan a conocer por medio de notas de prensa en medios especializados y de circulación restringida, a partir de publicación en medios oficiales de procesos de compras públicas (especialmente cuando se realizan por medio de licitaciones públicas, lo que no siempre ocurre) o cuando ya hay registros de abusos u otros tipos de escándalos de corrupción. Más grave es que, incluso durante este proceso de investigación, se han registrado barreras al acceso a la información sobre esos sistemas.


En segundo lugar, solo en dos de las 38 iniciativas identificadas estuvo previsto algún mecanismo de participación pública previa a la implementación de las tecnologías. Cuando se trata de la realización de estudios previos de impacto a la privacidad o a los derechos humanos, nuevamente solo dos iniciativas los implementaron. Finalmente, solo en tres de las iniciativas está  prevista la realización de una auditoría externa que ofrezca garantías mínimas de la adecuada implementación de los sistemas.


El contexto regional se complementa con regulaciones débiles en materia de protección de datos personales y acceso a la información pública, controles insuficientes tanto en gasto público como en la implementación de tecnologías, un historial de autoritarismo y desdén por los derechos humanos, alta inseguridad social, políticas de austeridad y la promesa eterna del desarrollo en la forma de importación de tecnología. El resultado es que América Latina se convierte en un campo fértil para la adopción del reconocimiento facial con fines múltiples y sin ningún tipo de resguardos, que permitan evitar un uso contrario a los principios democráticos que rigen cada
uno de los países de la región.


Frente a tal situación, organizaciones de la sociedad civil han recurrido a la Justicia para obtener más información y cuestionar el despliegue de esos sistemas en sus países o ciudades, debido a los potenciales riesgos implicados. En Brasil, la justicia ha confirmado la ilegalidad de un sistema de cámaras de reconocimiento de emociones instalado en estaciones de metro. La sentencia es resultado de una acción colectiva liderada por el Instituto Brasileño de Defensa del Consumidor (Idec). Además de la interrupción de la recolección de datos por medio del sistema, determinada ya en 2018,60 se establece una indemnización de 100 mil reales por daños morales colectivos. Actualmente se están desarrollando en São Paulo otras acciones para cuestionar la instalación de cámaras de reconocimiento facial en el transporte público.


En Argentina hay actualmente dos causas judiciales en curso en contra del Sistema de Reconocimiento Facial de Prófugos: una Acción Declarativa de Inconstitucionalidad (ADI) contra el Gobierno de la Ciudad de Buenos Aires, interpuesta por la Asociación por los Derechos Civiles (ADC)63 y un caso de amparo colectivo promovido por el Observatorio de Derecho Informático Argentino (O.D.I.A) que buscan interrumpir la iniciativa.64 Además, recientemente se admitió una demanda de amparo contra la operación de sistemas con tecnología de reconocimiento facial en Coahuila, México.


En Perú, un conjunto de estudiantes ha presentado cuestionamientos a la obligatoriedad de uso de reconocimiento facial para la participación en un examen de admisión a una universidad pública.65 Y en Paraguay, la organización TEDIC ha presentado una acción de inconstitucionalidad, cuestionando la declaración del Estado paraguayo de que informaciones relacionadas a la implementación de sistemas de reconocimiento facial en el país son de seguridad nacional y, por lo tanto, reservadas.


Frente a los intentos de los Estados de la región por ocultar, encubrir y omitir del debate público el incremento de las capacidades de vigilancia por medio de tecnologías de reconocimiento facial, sus fallas, incapacidades, negligencias y peligros, la sociedad civil resiste y denuncia sus ilegalidades y abusos. Este no es un problema técnico, es una discusión política sobre el tipo de sociedad que queremos y el rol que las tecnologías deben tener en ellas: herramientas para el desarrollo integral de las personas y la sociedad en su conjunto o una forma de perpetuar las desigualdades sociales e históricas, por medio de un autoritarismo técnicamente asistido.
Esta es una batalla particularmente importante en América Latina, donde los derechos humanos
y las nociones de dignidad y autonomía de las personas muchas veces son menoscabadas en función de los intereses de elites políticas y económicas, y donde la democracia debe estar constantemente resistiendo los embates producto de la corrupción y los abusos de poder. Frente a la opacidad que ampara el despotismo, exigimos transparencia; frente a las imposiciones arbitrarias, exigimos debate democrático y participación plural en los procesos de toma de decisiones respecto a la implementación de tecnologías invasivas como el reconocimiento facial. Frente al tecnosolucionismo ramplón, exigimos una perspectiva de derechos humanos amplia, robusta y sofisticada. Frente a las promesas de modernidad vacías, exigimos desarrollo y dignidad para
todas las personas.


La depredación de los derechos fundamentales en aras de los intereses políticos y económicos que sustentan la implementación de los distintos sistemas de reconocimiento facial aquí listados requiere una respuesta enérgica por parte de la sociedad civil en contra de los Gobiernos que no parecen dispuestos a tratar la problemática con la seriedad necesaria. Esperamos que este reporte sirva como un insumo a la lucha que ya están dando distintas personas, en distintas locaciones de América Latina, así como un incentivo para la preparación de las peleas del mañana. 

Argentina

Sistema de Reconocimiento Facial de Prófugos (SRFP)
La Ciudad Autónoma de Buenos Aires cuenta con un sistema de reconocimiento facial que, a través de cámaras de vigilancia dispuestas en espacios públicos, reconoce e identifica a las personas para determinar si poseen orden de captura o son buscadas por la justicia, a partir de la información dispuesta en la Base de Datos de Consulta Nacional de Rebeldías y Capturas (CONARC). Cuando el sistema detecta una coincidencia, emite una alerta a la policía para que intervenga. En principio, solo puede ser utilizado para identificar personas requeridas por la justicia.

Sistema de Reconocimiento Facial de Tigre NeoCenter
En mayo de 2019, la localidad de Tigre, Provincia de Buenos Aires, estableció un sistema de reconocimiento facial en estaciones de tren, terminales y casinos. El sistema es operado por el Centro de Operaciones de Tigre (COT) y se enmarca en el Sistema de Protección Ciudadana de la localidad. A diferencia de otras iniciativas, este sistema tiene integrado un software de reconocimiento facial y puede detectar patrones de recorridos continuos de una persona y, de esa forma, identificar conductas consideradas sospechosas. El nombre del software es conocido como NeoCenter y fue desarrollado por la compañía NEC.

Reconocimiento Facial Salta
La provincia de Salta cuenta con un sistema de reconocimiento facial incorporado en cámaras de seguridad que se encuentran en la vía pública. El sistema busca personas con orden judicial o extraviadas. Cuando se detecta un caso positivo, notifica a la policía de Salta para que intervenga. La iniciativa de reconocimiento facial se enmarca en un proyecto de "transformar a Salta en una ciudad inteligente".

SIBIOS Sistema Federal de Identificación Biométrica para la Seguridad
SIBIOS es un sistema de identificación creado con el objeto de prestar un servicio centralizado de información de registros biométricos como rostros faciales, huellas dactilares y huellas palmares, para verificar la identidad de una persona. La base de datos puede ser consultada por cualquier organismo dependiente del Poder Ejecutivo o del Poder Judicial, tanto nacional como provincial y de la Ciudad de Buenos Aires. Entre muchos ámbitos, el sistema se utiliza para la investigación de delitos, la obtención del Documento Nacional de Identidad, renovación de licencia de conducir, obtención de haberes previsionales y otros beneficios de la seguridad social.

Provincia de Córdoba*
En octubre de 2019, el gobierno de Córdoba implementó un sistema de reconocimiento biométrico en el marco de su plan de seguridad. En este caso, las cámaras con reconocimiento facial se encuentran en un móvil policial que se ubicará en puntos clave de la provincia. A su vez, también se incorporaron cámaras en puestos fijos. Las autoridades provinciales se negaron a brindar mayores detalles y no contestaron dos pedidos de acceso a información pública. (Fuente ADC)

Leer informe completo acá 

#ConMiCaraNo El reconocimiento facial se expande en Argentina

La Asociación por los Derechos Civiles de Argentina lanzo la campaña #ConMiCaraNo y advierte una serie de riesgos que conlleva el reconocimiento facial.

Uso encubierto o sin consentimiento de la población.


Inversión de la carga de la prueba: todos son culpables hasta que el sistema / algoritmo determine que no lo son. Afectación a garantías del debido proceso.

Discriminación: la tecnología es imprecisa y arroja un alto porcentaje de falsos positivos contra personas de tez no blanca y mujeres (además de otras comunidades en situación de vulnerabilidad).


No existe una regulación detallada que establezca las garantías necesarias o establezca condiciones estrictas para su uso (caso de Argentina).


Filtraciones o hackeos a la base de datos por una pobre o nula implementación de medidas de seguridad.
Uso ubicuo, a partir de una implementación en tiempo real o utilización de fotografías o videos que hayan sido capturadas o grabados en el pasado.


Permite individualizar y realizar un seguimiento preciso de cada persona.


Facilita la vigilancia masiva en forma automatizada: los algoritmos de reconocimiento facial deben necesariamente detectar todos los rostros que registran las cámaras en donde están implementados. Por más que el nombre de una persona no esté vinculado a su rostro, el software igualmente lo estará reconociendo.

Mas información en su sitio https://conmicarano.adc.org.ar/

Te puede interesar