en Investigación

Cómo funciona y cuáles son las críticas que recibe el sistema de identificación de personas mediante el uso de algoritmos. Las tensiones entre privacidad y seguridad. ¿Por qué fueron detenidas personas inocentes?

 

El uso de sistemas de video-vigilancia en el espacio público alcanzó mayor escala con la incorporación de algoritmos de reconocimiento facial, que potencian la capacidad para identificar individuos, pero a la vez renuevan las tensiones sobre la privacidad  y multiplican interrogantes: ¿los ciudadanos deben ceder su intimidad a cambio de seguridad? La búsqueda automatizada de personas a partir de información biométrica, ¿en qué medida es vehículo de discriminación? ¿Cuál es el tratamiento que el Estado hace de las imágenes que capturan estas herramientas? ¿Cómo impacta esta tecnología en la vida cotidiana?

La Ciudad de Buenos Aires se convirtió en eje de esta discusión cuando, el 24 de abril de 2019, el Gobierno porteño implementó -a través de la Resolución 398un Sistema de Reconocimiento Facial de Prófugos (SRFP) que opera sobre 300 cámaras de la vía pública con el objetivo de identificar personas con orden de detención de la Justicia.

El dispositivo supuso un desembolso de US$ 1,51 millón en 17 meses a la empresa Danaide, que mediante un procedimiento de contratación directa obtuvo la prestación del servicio que ejecuta la Policía Metropolitana. “Estamos en el siglo 21 y tenemos una Capital con 3 millones de habitantes y a donde ingresan todos los días 4 millones de personas. Como Policía de la Ciudad, somos auxiliares de la Justicia y hay una base de más de 40 mil personas que están prófugas. Desde que se implementó, el balance del sistema es sumamente positivo: tenemos 1924 personas identificadas y puestas a disposición de la Justicia, de las cuales 418 quedaron detenidas (N. de la R: datos al 4 de marzo de 2020)”, fundamenta a Chequeado Marcelo D’Alessandro, secretario de Seguridad del Ministerio de Seguridad y Justicia de Buenos Aires.

Al menos 8 personas fueron identificadas por error por el sistema.

Utilizados en otras ciudades del mundo, los sistemas de reconocimiento facial (SRF) comienzan a recibir críticas de asociaciones de la sociedad civil y restricciones de parte de algunos gobiernos locales. En Buenos Aires fue objetado por entidades de la sociedad civil, como el Observatorio de Derecho Informático de Argentina (ODIA) y la Asociación por los Derechos Civiles (ADC) -que radicó un pedido para declararla inconstitucional-. También de la Defensoría del Pueblo -organismo de control  invitado a auditar el sistema cuando se puso en marcha- y del relator Especial sobre derecho a la privacidad de las Naciones Unidas, Joseph Cannataci. Es que, al poco tiempo de entrar en vigencia el SRFP, al menos 8 personas fueron identificadas por error porque el sistema se alimenta de una base de datos que contiene información incorrecta, incompleta y desactualizada.

Visión controlada

Los SRF en el espacio público, en general, se proponen identificar a ciertas personas en tiempo real mediante su búsqueda en imágenes digitales. Están basados en software que poseen algoritmos entrenados para detectar rostros y que, a través del procesamiento de imágenes en vivo obtenidas de cámaras de la vía pública, junto con el análisis y medición de características y puntos faciales, compara los rostros de los individuos filmados contra una base datos que almacena imágenes de quienes son buscados. Si se produce una “coincidencia” (o match), el sistema genera una alerta.

“Los SRF avanzaron con la incorporación de redes neuronales computacionales, bases de aprendizaje con millones de imágenes para entrenar a los algoritmos y hardware especializado de alta capacidad de procesamiento -señala Pablo Negri, investigador del Conicet que desarrolló para el Ministerio de Seguridad de la Nación un algoritmo para identificar personas NN-. En los últimos 5 años la comunidad científica comenzó a desarrollar nuevas arquitecturas que reducen de manera drástica los errores de clasificación de imágenes y permiten que los algoritmos sean entrenados más rápidamente”. Se trata de una disciplina que evoluciona día a día, y donde las empresas trabajan junto con la academia. Facebook, de hecho, publicó en 2014 una de las investigaciones más relevantes en este campo con la Universidad de Tel-Aviv (Israel).

En Buenos Aires, el SRFP se propone buscar en estaciones de tren y subte, vía pública y eventos puntuales, a personas que han sido declaradas rebeldes o prófugas por la Justicia Penal de todo el país y cuya información está almacenada en la Consulta Nacional de Rebeldías y Capturas (Conarc), una base de datos pública con 40.649 casos actualmente, que depende del Registro Nacional de Reincidencia (RNR) y se actualiza diariamente. Cada día a las 7 am, el software se conecta de manera automática (mediante servicios web) con la Conarc para tomar la información de los individuos requeridos por la Justicia -nombre, apellido, DNI, número de causa y Juzgado-, cuyo perfil completa con fotografías que obtiene del Registro Nacional de las Personas (Renaper). “El software tiene un módulo de procesamiento de imágenes que compara en tiempo real el nivel de semejanza entre la imagen filmada en movimiento y la fotografía de la base de datos”, explica Cecilia Amigo, jefa de Gabinete de la Secretaría de Seguridad porteña. “Cuando se genera la alerta de un match, mediante una aplicación de comunicación del Ministerio, la información de la persona identificada llega a los 3 segundos al teléfono móvil del agente policial que está ubicado más cerca y al Centro de Monitoreo Urbano, donde se realiza el seguimiento”.

El aplicativo que ejecuta esas funciones fue desarrollado por Danaide “conforme a los requerimientos solicitados por el área de Seguridad operativa”, indica la funcionaria. Se  adquirieron 300 licencias que utilizan, de manera rotativa, 300 cámaras IP infrarrojas del parque total de 9.326 cámaras del Gobierno porteño. Para obtener las imágenes, el software se integra con el sistema de gestión de visualización, también adquirido -con anterioridad-  a la misma Danaide.  “Tenemos el código fuente del software y todas las medidas de seguridad y de habeas data”, puntualiza Amigo (N. de la R: habeas data: derecho de los ciudadanos a conocer, acceder y modificar la información sobre las personas que tienen el Estado y las empresas en sus bases de datos,  y a que se realice una adecuada gestión y almacenamiento de la misma).

“Permite identificar en la misma escena casi 700 rostros y detecta a la persona buscada en menos de medio segundo”.

El sistema, que tiene 114 usuarios, corre sobre servidores alojados en la sala cofre -centro de cómputos con altas medidas de seguridad- del quinto piso del Ministerio de Justicia y Seguridad porteño. La arquitectura de comunicaciones consiste en una red de fibra óptica propia, “dedicada exclusivamente a transmitir imágenes de seguridad”, dice Amigo.

Ante la consulta sobre quién es el proveedor del motor de búsqueda y reconocimiento facial que utiliza el sistema, en el Gobierno no brindaron información bajo el argumento de que “posee Copyright”, pero confirmaron que no se trata de un desarrollo nacional. La herramienta está basada en redes neuronales y tiene “un sistema de algoritmos que lee 540 puntos del contorno facial”, describe Amigo, y agrega: “Permite identificar en la misma escena casi 700 rostros y detecta a la persona buscada en menos de medio segundo”.

Las pruebas de implementación del SRFP, que demandaron 5 meses, comenzaron a finales de noviembre de 2018. “Se hizo una maqueta de la arquitectura del proyecto, donde realizamos pruebas en distintos escenarios, en vía pública, con cambios en la iluminación y en personas de distinta fisonomía. Pudimos ver con qué precisión el algoritmo detectaba los rostros. Los falsos positivos fueron muy bajos”, dice Amigo.

La base de la disputa

Los primeros cuestionamientos apuntaron a la Conarc, de donde el SRFP toma el listado de las personas a identificar. Creada por decreto en 2009 y con actualmente  40.649 casos, la Conarc registra y centraliza las comunicaciones que los tribunales realizan al RNR “de toda medida restrictiva a la libertad ambulatoria que se dicta en el marco de una causa penal, en cualquier jurisdicción del país”, explica su página web. Incluye distintos tipos de delitos y personas declaradas rebeldes (requeridas por la Justicia en un procedimiento y que no comparecieron en el plazo indicado).

La base de datos tiene datos erróneos e incluye causas prescriptas y pedidos de captura que ya no están vigentes.

Entre el 60% y el 70% de los registros de la base de datos corresponde a casos que, en principio, parecen excarcelables: cuando la persona es ubicada, se la notifica de la causa, se le impone que se presente al Juzgado o a la Fiscalía en un plazo de 48 horas, se constata el domicilio y se la libera. Si el delito es importante, la persona queda detenida”, dice José Guerrero, ex director del RNR (N. de la R: el funcionario ocupó ese cargo hasta el 6 de diciembre de 2019).

Pero la Conarc tiene ítems incompletos, datos erróneos e incluye causas prescriptas y pedidos de captura que ya no están vigentes, pero que el Juzgado no lo comunicó. Como el SRFP se basa en esa información, fueron identificadas y detenidas en la vía pública personas que no correspondía.

Guerrero admite que “por el parámetro de fechas, el 50% de los casos cargados en la Conarc corresponde a oficios que pueden tener una antigüedad mayor a 10 años y podrían estar prescriptos”. Y agrega: “Desde que asumimos, en 2016, mandamos alrededor de 60 mil oficios pidiendo actualizar antecedentes, pero la Justicia sólo respondió 12 mil: la mitad eran delitos que seguían vigentes y pidieron dar de baja 3 mil. Sobre otros 3 mil pidieron actualizar antecedentes, y entiendo que es para tramitar su prescripción”.  Según el funcionario, “a partir de la implementación del SRFP se reforzó este trabajo sobre la calidad de la base de datos y hemos logrado mejorarla”. Así, admitió que no es perfecta.

La Conarc fue objetada por el relator especial de la ONU sobre el derecho a la privacidad, Joseph Cannataci, y la Defensoría del Pueblo (DP). En su declaración a los medios de comunicación, al concluir su visita a la Argentina entre el 6 y el 17 de mayo de 2019,  Cannataci observó que contenía datos de 61 menores de edad y “múltiples errores”, como el caso de 2 personas que figuraban “como de 2 y 3 años de edad, buscadas por asalto y robo”. “La lista no está debidamente actualizada”, agregó.

En la Defensoría, por su parte, advierten que las detenciones de personas por error pudieron haberse evitado si se hubiera hecho un estudio de impacto previo a la implementación del sistema que probara también la consistencia de la Conarc, “en particular sabiendo que se trata de un registro de carga múltiple y que carece de un protocolo uniforme para ser confeccionado”, explica Diego Mielnicki, director de Asuntos Legales de la DP.

“También se pidió que se agilicen los canales de comunicación para no tener que demorar tanto a las personas identificadas cuando son detenidas”.

Mediante un oficio enviado a los ministros de la Corte Suprema de Justicia Nacional y  a los presidentes de los máximos tribunales provinciales del país, a mitad de año la DP les pidió que instruyan a los juzgados penales bajo su jurisdicción a que subsanen los errores detectados en la Conarc. “El Defensor también pidió que se agilicen los canales de comunicación en el Juzgado y la Policía, para no tener que demorar tanto a las personas identificadas cuando son detenidas”, sostuvo María Julia Giorgelli, subcoordinadora Operativa de Gestión del Centro de Protección de Datos Personales de la DP, para quien “el SRFP debe entenderse como una totalidad que incluye a la Conarc”.

El Gobierno porteño, por el contrario, diferencia el SRFP de la base de datos que lo alimenta. “Los problemas que mayormente hemos tenido tienen que ver con problemas de carga de información de la Justicia -dice D’Alessandro-. Nos basamos específicamente en la Conarc y buscamos sólo a personas con un requerimiento legal.  Los errores en la base de datos son un problema de la Justicia, y las alertas van a saltar en cualquier control policial, en la calle o en la ruta, o si una persona con un impedimento legal quiere salir del país. El problema es el mismo, y lo tiene que sanear la Justicia”.

Ante la pregunta sobre si el Gobierno previamente testeó la calidad de la base de datos y si estaba al tanto de las inconsistencias que tenía, D’Alessandro responde: “Usamos esa base de datos porque es la única que hay sobre prófugos”. Y agrega: “Es verdad que la base de datos está desactualizada y tiene errores. Nosotros lo manifestamos. Lo que está mal es la carga de datos. Entonces, el SRFP sólo potenció un problema que ya estaba, y ahora de hecho está sirviendo para depurar la Conarc. Aquí se está mostrando que los procedimientos que utiliza la Justicia no están bien. El foco hay que ponerlo en esa solución y no echarle la culpa a un sistema que busca lo que pide la Justicia”, que se encuentre a los prófugos o a quien debe explicaciones al sistema judicial. En cuanto al desempeño del SRFP, el funcionario asegura que “el margen de error del algoritmo para identificación de personas es del 7,53%” (N. de la R: a octubre de 2019, el margen de error era del 8,5% y 8,7%).

Derechos automatizados

Las críticas al SRFP abarcan distintos ejes: falta de transparencia sobre el funcionamiento y la tecnología involucrada; ausencia de un estudio de impacto previo; vulneración de derechos -a la privacidad, intimidad, libertad de asociación y de expresión-; desproporción entre el medio usado y los objetivos, y la falta de un debate sobre este tipo de políticas.

Veinte días antes de su entrada en vigencia, la ADC radicó una solicitud de acceso a la información pública que fue respondida por el Gobierno porteño, pero la información fue considerada “vaga e insuficiente” por la organización. Y en octubre último, ADC presentó ante el Tribunal Superior de Justicia de la Ciudad de Buenos Aires una Acción Declarativa de Inconstitucionalidad contra el SRFP. “No existe ninguna base legal, de seguridad interior o datos personales, por ejemplo, que en la Argentina justifique o fundamente la resolución que implementa el SRFP”, expresa Leandro Ucciferri, oficial de Proyecto Senior de ADC, donde están a la espera de una respuesta desde el máximo tribunal porteño sobre si accede a la apertura de un proceso de ese tipo.

Otra asociación civil, el Observatorio de Derecho Informático Argentino (ODIA), cuestiona también la falta de transparencia y la afectación de derechos. Para conocer detalles sobre la medida, a principios de julio último presentó una solicitud de acceso a la información pública, pero como la respuesta del Gobierno fue considerada insuficiente en octubre acudió a un recurso de amparo para obtener mayores precisiones, lo que derivó en una segunda respuesta con información oficial.

“Con un estudio de impacto, hubieran salido a la luz esas situaciones y se hubieran evitado las detenciones equivocadas”.

Desde ADC entienden que la adopción de tecnologías de reconocimiento facial ameritan “un debate social y parlamentario previos, junto con la realización de un estudio de impacto que brinde la evidencia científica que fundamente esa medida y muestre cuál es el rango de afectación de derechos”, señala Ucciferri. “Una resolución firmada por el Estado que sale sin pasar por la Legislatura es grave como construcción de políticas públicas en forma democrática. Y respecto a cómo queremos construir nuestra sociedad a futuro, todavía hace falta un debate en torno a lo que estamos cediendo para tener este tipo de ganancia en seguridad”, completa.

Para María Julia Giorgelli, el SRFP debe entenderse como una totalidad que incluye a la Conarc. “El sistema se aplica sobre una base de datos desactualizada y que contiene graves errores; en general, no es que el ‘matcheo’ esté funcionando mal, sino que se realiza sobre información que puede estar equivocada”. La funcionaria de la DP agrega: “La tecnología trabaja de una manera muy potente. Entonces, los recaudos que debe tener el Estado a la hora de aplicar estas herramientas deben ser ponderados en ese sentido. Y en principio, no se tomaron. Con un estudio de impacto, hubieran salido a la luz esas situaciones y se hubieran evitado las detenciones equivocadas”.

Al respecto, el relator de la ONU manifestó: “Los ejemplos de otras ciudades han demostrado que la mejora de la seguridad pública mediante la instalación de cámaras de vigilancia es cuestionable en algunos casos y justificable en otros. La justificación de tal sistema, su legitimidad, necesidad y proporcionalidad deberían haberse establecido mediante una evaluación del impacto en la privacidad (PIA, por su sigla en inglés) que no parece haberse llevado a cabo. El hecho de que el reconocimiento facial se esté implementando sin el PIA necesario, así como la consulta deseable y las fuertes salvaguardias, también es motivo de preocupación. El Gobierno ha aprobado una reglamentación de bajo nivel en materia de biometría, pero no una legislación detallada sobre el uso del reconocimiento facial”.

Mi mundo privado

Las expectativas de privacidad y de circular en el anonimato que tienen las personas “aún en el espacio público” también se ven afectadas por esta medida, apunta Mielnicki. “La tecnología funciona con mucha potencia y, por otro lado, es intrusiva; entonces, corresponde hacer un análisis acerca de la proporcionalidad de aplicar estas herramientas”, coincide Giorgelli.

Una perspectiva similar aportó en su momento el relator de la ONU: “Soy consciente de la necesidad de detener a las personas sospechosas de haber cometido delitos y llevarlas ante la Justicia, pero no veo la proporcionalidad de instalar una tecnología con graves implicaciones para la privacidad para buscar en una lista de 46 mil personas que actualmente incluye a menores y delitos no graves y que no se actualice y compruebe cuidadosamente su exactitud”, dijo. “Los funcionarios y funcionarias a los que entrevisté dijeron que estaban seguros de que el derecho a la privacidad no estaba siendo violado por los sistemas existentes y que cumplían los requisitos legales, pero que no podían explicar su necesidad y proporcionalidad”, declaró.

Desde el Gobierno afirman que el sistema es “totalmente auditable”, tanto el  guardado como la eliminación de las imágenes.

Según Amigo, por el contrario, el sistema no implica “afectación de derechos, porque no identifica personas que no sean las buscadas por la Justicia”. Además, “hay un sistema de enmascaramiento que no permite ver las imágenes de los espacios privados; aunque las cámaras hagan un ‘zoom’, sólo se filma lo que sucede en la vía pública”. De acuerdo con la funcionaria, el principal requerimiento vecinal en materia de seguridad, incluso por encima de la presencia policial, son las cámaras de video-vigilancia. “Cada mes tenemos más de cien pedido formales”.

En cuanto al tratamiento de las imágenes obtenidas por el sistema de video-vigilancia en la vía pública, “por ley debemos guardarlas durante 60 días”, señala Amigo. “En el caso del SRFP, sólo se guardan las alertas positivas también por ese periodo. El resto de las imágenes se descartan automáticamente”, sostiene. Y agrega que “el sistema no identifica a todas las personas que pasan por la cámara, sino a quienes están en la Conarc”.

Desde el Gobierno afirman que el sistema es “totalmente auditable”, tanto el  guardado como la eliminación de las imágenes. “Se puede ingresar al sistema de almacenamiento, que tiene parametrizado de manera automática la destrucción de las imágenes”, señala Amigo. “Tenemos convenios de confidencialidad con la empresa contratista, con el personal policial y el personal civil a cargo del monitoreo de imágenes, y un régimen de sanciones”, describe. Y aclara que para el SRFP estos convenios son diferentes que los del sistema de video-vigilancia ordinario.

La ética en cuestión

En el mundo, el uso de este tipo de algoritmos está siendo cuestionado debido a que su capacidad de reconocimiento facial puede estar “sesgada”. En los Estados Unidos, una investigadora del MIT testeó los servicios de RF de Amazon y encontró que arrojaban tasas de error más elevadas a la hora de identificar y clasificar imágenes de mujeres que de varones, y de personas de color de piel más oscura con respecto a personas de piel más clara. El trabajo, presentado en un prestigioso evento científico, fue defendido por científicos e  investigadores de empresas de tecnología.

“Si un algoritmo fue entrenado en una base de imágenes balanceada entre rostros masculinos y femeninos, y de diferentes etnias, no será más sensible a reconocer a una etnia o a un género más que a otro -ejemplifica Negri-.  Si, por el contrario, la base de aprendizaje tiene muchas más imágenes de personas de un determinado color de piel, el sistema trabajará muy bien con esos individuos, pero no será tan eficiente a la hora de identificar a las personas de otro color de piel”. Según Negri, es posible saber de qué manera se entrenó el algoritmo “si la base está disponible y es pública”. Aún en los casos del software cerrado, “hay maneras de hacer auditorías para saber cómo fueron entrenados los algoritmos, identificar los sesgos y validar éticamente un motor de reconocimiento facial”, afirma Negri, cuyas investigaciones hoy apuntan a desarrollar una herramienta para hacer auditorías sobre sesgo étnico y de género.

Sobre este aspecto, tanto desde ADC como de ODIA manifestaron la necesidad de conocer cómo fue entrenado el motor de reconocimiento del SRFP, o si el Gobierno tuvo injerencia en su desarrollo para que sea más preciso.

Sobre el SRFP, Amigo asegura: “No hay ninguna tendencia en la configuración del sistema hacia un tipo de lectura con sesgos; sólo analiza semejanzas entre rostros, entre un dato biométrico y la imagen en tiempo real, y en función de las personas buscadas por la Conarc. No está focalizado hacia la identificación de ningún tipo de raza o etnia. Las personas que fueron identificadas son súper heterogéneas”.

Algoritmos de escala global

Bajo distintas modalidades, la tecnología de RF se ha implementado en varias ciudades. En América Latina, en julio de 2018, Paraguay anunció la puesta en marcha de 54 cámaras con capacidades de RF operadas por la Policía Nacional en la zona metropolitana de Asunción, para asistir en “la prevención y resolución de hechos punibles”, sostuvo un comunicado oficial. En marzo de 2019, en Chile, el presidente, Sebastián Piñera, lanzó el “Sistema de Vigilancia Móvil” en la región metropolitana de Santiago que -basado en drones- incluye 154 cámaras con RF, lectores de patentes de autos y cuatro centros de monitoreo, para vigilar y recabar pruebas en casos de delito. El programa -al que están conectados Carabineros, la Policía de Investigaciones y la Intendencia de Santiago- se irá extendiendo al resto del país hasta 2020, según se anunció. Y a mitad del año pasado, en Ecuador, también se comenzaron a implementar las primeras pruebas piloto de tecnología RF para monitorear cinco zonas de Quito.

En los Estados Unidos se instrumentaron resoluciones que limitan el uso de cámaras con RF. A partir de enero último, dispuesto por una ley que tendrá vigencia hasta 2023, en el Estado de California se prohibió el uso de software de RF y tecnologías biométricas en las cámaras que portan los policías o que tienen integradas en sus uniformes. La ciudad de San Francisco ya había restringido en mayo último, por ordenanza municipal, el uso de RF porque podría poner en peligro “derechos y libertades civiles”. En caso de querer implementarla, ahora se exige la previa aprobación municipal y la realización de estudios de impacto en privacidad, así como posteriores auditorías, la publicación de reportes anuales de uso, detalle de la tecnología utilizada, del tipo de datos que se capturan y una descripción de su funcionamiento. A esta regulación le siguieron restricciones en las ciudades de Somerville, Oakland, Berkeley y Cambridge, que conviven con las de otros sitios que  emplean estas herramientas, como la Detroit y el Estado de Virginia.

En diferentes países se limitó el uso de cámaras o la efectividad de los algoritmos fue objetada.

En el Reino Unido, el RF es aplicado por las policías de Londres y Gales del Sur. Allá, la efectividad de los algoritmos de RF para reconocer los rostros de personas buscadas también fue objetada. En el primer caso, la Universidad de Essex hizo una auditoría sobre los procedimientos e impacto en derechos humanos en seis de las diez pruebas piloto de esta tecnología que la Policía realizó en eventos y espacios públicos entre 2016 y 2019. Publicado a mitad del año último, sus conclusiones fueron críticas. De 42 “coincidencias” de rostros que arrojó el sistema sobre la base de datos de personas buscadas, sólo 8 pudieron ser verificados como correctas (apenas un 19% de efectividad). Y el 63,64% de las personas que fueron detenidas en la vía pública para chequear su identidad luego de una alerta del sistema, se trató de un falso positivo.

En el mismo sentido, una auditoría de la Universidad de Cardiff sobre el uso de esta tecnología por parte de la Policía del Sur de Gales en eventos que tuvieron lugar entre junio de 2017 y marzo de 2018, encontró que los “falsos positivos” -posible coincidencia que sugiere el sistema, pero que un operador humano desestima por evaluarla incorrecta- corresponden al 72% del total de casos, que posteriormente una nueva  versión del algoritmo bajó al 50%.  En tanto, los “verdaderos positivos” -posible coincidencia generada por el sistema que los operadores humanos consideran correcta- fueron del 3% y el 46% en cada caso.

El margen de error

A través del SRFP fueron detenidas personas inocentes a causa de distintos errores e inconsistencias en la base de datos que alimenta el sistema. Chequeado conversó con tres de ellos.

Hasta finales del año pasado, el número de DNI de Daniel Greco Frey todavía figuraba en la Conarc asociado al de un hombre con orden de captura del ex Juzgado Nacional en lo Correccional N° 4. Por ese error, lo detuvieron 3 horas en la estación del subte Retiro y dice que aún sale a la calle “con un papel que me dio después el Juzgado, que dice que yo no tengo nada ver con esa causa”.

“Tenía miedo de subirme a un subte o un colectivo”.

A principios de mayo último, mientras esperaba el subte para ir a cobrar un cheque al banco, “se me acercaron oficiales de la Policía Federal, que me piden el DNI y que los acompañe porque tengo un impedimento. Les dije que estaban totalmente equivocados”. Lo llevaron custodiado “por todo el andén hasta los molinetes de la salida, donde había como 10 uniformados; me dio una vergüenza bárbara”, recuerda. “Me quedé sentado; hablaban entre ellos, me miraban y no me daban ninguna explicación. Fue delante de todos los pasajeros que pasaban. Después me dijeron que tenía una orden de captura, que había saltado por el Sistema de Reconocimiento Facial. En la pantalla de su teléfono, me mostraron, estaba mi foto y DNI, pero con los datos de otra persona. Me decían que me quedara tranquilo, pero yo no lo estaba y quería irme. Cerraba el banco”.

Los policías hablaron con el Juzgado, que les dijo que yo no tenía nada que ver”, relata Greco Frey, que luego presentó su caso en la Defensoría del Pueblo. “Me dejaron ir porque se dieron cuenta de que era un problema administrativo. Me dieron los datos del número de causa y del Juzgado para que fuera a aclarar lo que había sucedido, pero me dijeron que ni se me ocurra tomar un subte hasta que no solucione el tema, porque iba a saltar de nuevo la alarma y me iban a llevar preso”. Greco Frey, que trabaja como chofer de Uber, sintió “mucha angustia” y volvió caminando a su casa. “Tenía miedo de subirme a un subte o un colectivo”, recuerda.

Para aclarar su situación, con los datos que le dio la policía y siempre a pie, Greco Frey localizó el juzgado por su cuenta. “Lo encontré de casualidad”, dice. Allí le explicaron que su DNI figuraba en la Conarc por “un error de tipeo” y le expidieron un certificado que lo exime de cualquier vinculación con la causa. “Ahora, tengo que circular en mi ciudad pidiendo permiso con un papel. Soy un ciudadano; ¿por qué no arreglaron ellos este error? Perdí el día, el dinero que tenía que cobrar y pasé un momento horrible. Si yo no hice nada, nadie tiene por qué mirarme como si fuera un delincuente. Fue un trago muy amargo. Nadie me pidió disculpas”.

Otro caso es el de una empleada doméstica de 32 años que fue detenida por no haberse presentado a declarar, en 2008, por una causa actualmente prescripta. “Nunca recibí la notificación”, se excusa la mujer, que pidió mantener su identidad en reserva. El 7 de mayo a la mañana, cuando estaba por salir en subte de la estación Constitución rumbo a su trabajo, 2 policías la hicieron bajar del vagón y le pidieron que los acompañara “por averiguación de antecedentes”. Estuvo 3 horas demorada en la estación mientras los oficiales intentaban comunicarse con el Juzgado que, aparentemente, había pedido su captura “por estafa”. Pudo llamar a su empleadora, que fue a ayudarla, pero luego “quedé incomunicada”. Esposada, la trasladaron en un patrullero hasta una alcaldía del barrio de Retiro. “Mientras me llevaban caminando hacia la salida de la estación, mucha gente me gritaba ‘chorra, chorra’; me dio mucha vergüenza”, recuerda. Una vez en la alcaldía, tomaron sus huellas dactilares y fue alojada sola en una celda, donde permaneció hasta las 23 de ese día. “No me dieron ni un vaso de agua”, dice. “Me sentía horrible, con mucha angustia y bronca. Yo preguntaba y no me explicaban qué pasaba. No podía creerlo, yo no había hecho nada”. Tras casi 10 horas detenida, la dejaron ir y “me dieron un papel que decía que yo no tenía nada que ver con la causa”.

A la semana siguiente fue con su empleadora y un abogado al Juzgado para averiguar qué había sucedido. Le explicaron que figuraba en la Conarc porque en 2008 había sido citada a declarar y no se había presentado. Dos años antes, mientras trabajaba haciendo la limpieza de un departamento donde se vendían garantías de propiedades, se produjo un allanamiento y tomaron sus datos. Al poco tiempo fue citada a declarar, se presentó y dijo que estaba allí porque “hacía las tareas de limpieza 2 veces por semana, y que no sabía nada más”. De la siguiente notificación para a declarar en el marco de esa causa “nunca recibí la notificación”, se excusa. Finalmente, el Juzgado Nacional Penal en lo Correccional N° 49 le expidió un certificado que declara “extinguida la acción penal por prescripción” y la sobreseyó. “Me dijeron que esto no me iba a volver a pasa, pero que tendría que haberme presentado cuando me llamaron; yo les respondí que nunca me llegó esa citación”, indica.

Leo Colombo Viña pasó “un momento extraño” el 26 de junio, cuando 2 oficiales le pidieron sus documentos en la estación Callao del subte mientras regresaba a su trabajo después de haber hecho un trámite. Docente de programación y presidente de una cooperativa que desarrolla software para empresas pensó que, seguramente, se trataba de un error técnico cuando le explicaron que lo habían detenido por una alerta del SRFP. “Primero creí que era un falso positivo, que había una confusión con alguien parecido a mí; pero en la pantalla del celular del oficial pude ver mi foto y mi DNI, con el nombre, apellido y fecha de nacimiento de otra persona. Los policías me pidieron otras acreditaciones, como la licencia de conducir, porque para ellos también pasaba algo fuera de lo común”. Usuario diario del subterráneo, era la cuarta vez que saltaba la alarma con sus datos -le confió el oficial- , “pero recién en ese momento me habían podido agarrar”.

“Si bien nunca me explicaron qué sucedió, creo que hubo un error de tipeo por el cual se anotó mi DNI por el de esa persona”.

Pasó más de una hora en el andén hasta que -por instrucción del Juzgado a cargo del pedido de captura- los policías lo llevaron a una comisaría para hacer un acta “que constate que yo era yo”. Es que el SRFP asociaba sus foto y DNI con los datos de un hombre que estaba acusado de robo calificado en 2002. “Si bien nunca me explicaron qué sucedió, creo que hubo un error de tipeo por el cual se anotó mi DNI por el de esa persona”, sostiene.

En la comisaría lo llevaron a la zona de calabozos, donde le tomaron las huellas dactilares y las fotografías de rigor. “Dos horas después, firmé un acta donde se relataba lo que había sucedido desde que me detuvieron. Tuvimos que volver a la estación a buscar 2 testigos: un trabajador del  subte y un kioskero. Firmamos. No me dieron copia de ese acta ni otro documento. Me dijeron que no iba a volver a pasar, que me quedara tranquilo. Tres meses después, aún mi DNI figura en la Conarc asociado a otra persona. Nadie me pidió disculpas por lo que pasó”. Molesto por haber perdido su tiempo, se pregunta: “¿Para qué implementamos un sistema que te reconoce en 4 nanosegundos si después tardan 4 horas en hacer los papeles para solucionar un error?”.

 

 

Este artículo forma parte del proyecto “Investigación sobre inteligencia artificial en América Latina” en el que, a lo largo de 8 notas cubriendo varios países, nos enfocaremos en el campo de la ética de los algoritmos en la región y sus particularidades frente al resto del mundo. La presente serie se suma a las investigaciones que Chequeado publica desde 2017.

Crédito de la foto de portada: Flickr CC – Jonathan McIntosh.

Dejá un comentario