Por Gladys Stagno | El sábado 7 de septiembre, el agente inmobiliario Alberto Santiago Soria fue detenido en Floresta. Cuando preguntó por qué, le dijeron que estaba acusado de haber enviado un paquete explosivo al titular de la Sociedad Rural, Nicolás Pino, el jueves, desde una librería de Barracas, al mismo tiempo en que se encontraba en una capacitación laboral en el salón de eventos Salguero Plaza, en Barrio Norte. La coartada le valió a Soria la libertad dos días después y evidenció también un error de la Matrix que podría multiplicar su caso por decenas (¿o cientos? ¿o miles?): la Fiscalía había ordenado su detención cuando el sistema de reconocimiento facial comparó su rostro con la imagen de quien despachó el paquete, tomado por la cámara de seguridad de la librería. Claramente, no era él.
“El caso de Soria es dramático. Pasó tres días en cana y tuvo suerte de que estaba trabajando y de que está filmado que estaba trabajando. ¿Qué hubiera pasado si en ese momento estaba solo en su casa mirando televisión?”, explica Tomás Pomar, docente en la Universidad de Buenos Aires y presidente del Observatorio de Derecho Informático Argentino (ODIA), asociación civil que, junto a la ONG Democracia en Red, acaban de lanzar la campaña “Reconoceme”.
Se trata de una iniciativa que busca concientizar a la población sobre los riesgos que conlleva el Sistema de Reconocimiento Facial (SRF) para los derechos civiles y la privacidad. Y sobre “la necesidad de ponerle límites al Estado en su uso”, detallan en su página.
El momento para hacerlo es clave: a poco de asumir, la ministra de Seguridad, Patricia Bullrich, anunció en TV que utilizaría este software para identificar a quienes asistieran a manifestaciones públicas y que —ante cualquier incumplimiento del protocolo antiprotestas— les quitaría “el plan”.
Cambio seguridad por espionaje
Esta tecnología, que emplea algoritmos para identificar y verificar la identidad de personas a través del análisis de características faciales capturadas por cámaras de vigilancia u otros dispositivos, habilita al Estado a usar grandes volúmenes de datos sensibles sin que exista, por el momento, ningún marco de protección real para limitarlo.
Según explica Pomar, hay varios tipos de sistemas de reconocimiento pero, grosso modo, estos tienen dos funciones principales: la preventiva, que se usa en espacio público; y la forense, utilizada cuando ocurre un ilícito del que hay imágenes grabadas. En ese caso, los rostros de los implicados se pueden matchear con la base de datos para identificarlos.
El primero, el preventivo, es el que genera más controversias por sus posibilidades de convertirse en un dispositivo de control social. Sin embargo, eso no ha impedido —en la misma línea que Bullrich— que gobiernos como el de Mendoza consideren aplicarlo o que el de Jorge Macri, en la Ciudad de Buenos Aires, pretenda reimplementarlo luego de que un recurso de amparo interpuesto por ODIA lograra suspenderlo. ¿El motivo? Que el sistema violaba la privacidad y la intimidad de las personas y era capaz de ejercer discriminación.
Violencia informática
El huevo de la serpiente comenzó a gestarse en 2017, cuando el entonces Ministerio de Justicia y Derechos Humanos de la Nación abrió las bases de datos de la Consulta Nacional de Rebeldía y Capturas (Conarc) y, posteriormente, la Ciudad firmó un convenio con el Registro Nacional de las Personas (Renaper) que los informáticos juzgan “muy por debajo de los estándares”.
“Si uno da acceso a una base de datos tiene que establecer límites de, por ejemplo, solicitudes, tráfico, monitoreos. No habían hecho nada de eso, es decir que hicieron una política de datos abierta y muy irresponsable”, afirma Pomar.
En el fallo que suspendió el sistema en 2022, el juez Roberto Gallardo verifició que desde la Ciudad se hicieron consultas a la base de datos del Renaper que exceden la búsqueda de los prófugos listados en la Conarc.
“Se está intentando resolver una crisis de seguridad que tiene muchos años dándoles a las fuerzas de seguridad una herramienta que tiene muchos compromisos de espionaje, sin ningún tipo de control ni auditoría —detalla Pomar—. Pudimos demostrar que las bases del Renaper habían migrado 7 millones de datos. Encontramos que el total de prófugos cargados en módulos tenía entre 7.000 y 10.000 personas por encima del total de prófugos de todo el país. También, que la Policía de la Ciudad había consultado datos de figuras públicas como Cristina Fernández de Kirchner, Alberto Fernández, integrantes de Abuelas de Plaza de Mayo, dirigentes sociales”.
Como consecuencia, ODIA inició una acción por daños y perjuicios colectiva sin precedentes en el país para que el Estado responda por “la violencia informática”.
La base tampoco había sido limpiada y contenía errores. Agrega Pomar: “Sólo tenía nombres de personas imputadas por algún delito que tenían pedido de captura. Entre ellas, había cuatro chicos menores de 4 años supuestamente buscados por robo agravado por arma de fuego: estaban mal cargados los DNI”.
A contramano del mundo
La implementación de sistemas de Inteligencia Artificial (IA) para el reconocimiento facial de personas en la vía pública no es un problema de índole nacional, sino que está despertando, a nivel mundial, debates, polémicas y hasta intervenciones judiciales.
En marzo de este año, la Unión Europea (UE) se pronunció al respecto y restringió fuertemente el uso de esta tecnología por su capacidad de afectar los derechos de las personas.
A contramano del Viejo Continente, en agosto el Ministerio a cargo de Bullrich estableció la creación de una Unidad de Inteligencia Artificial Aplicada a la Seguridad (UIAAS) para prevenir, detectar e investigar delitos con esa tecnología.
“Esta Unidad, la de ciberpatrullaje, vuelve a meter reconocimiento facial a nivel nacional sin ningún tipo de control ni de explicación sobre qué van a contratar. En el medio pasó lo de Soria”, señala Pomar.
Y es que las objeciones al sistema no se limitan a sus deficiencias, sino también a su opacidad. “El Estado está comprando tecnología que no sabe cómo funciona porque la licencia es privativa, es decir que no se puede abrir el software y ver las partes, no se puede auditar”, precisa el experto.
En esa línea, la campaña “Reconoceme” busca instalar el debate público sobre estos sistemas, y enfatizar en la importancia de que el Estado rinda cuentas sobre su uso. Para evitar que, en nombre de la seguridad, vulnere la privacidad de los ciudadanos, sus libertades individuales y/o los detenga injustamente. Como lo hizo con Soria.