Redacción Canal Abierto | La “presunción de inocencia” o el “principio de inocencia” es considerado el fundamento de las demás garantías judiciales y tiene status constitucional a través de la incorporación de los tratados internacionales sobre derechos humanos establecida en el Artículo 75, inciso 22 de la Constitución Nacional.
Este principio jurídico implica que se presume que toda persona es inocente hasta que su culpabilidad quede acreditada en un juicio y sea condenada con una sentencia firme, con todas las garantías necesarias para su defensa.
La Unidad de Inteligencia Artificial Aplicada a la Seguridad (UIAAS) recientemente creada por el Ministerio de Seguridad se propone “utilizar algoritmos de aprendizaje automático a fin de analizar datos históricos de crímenes y de ese modo predecir futuros delitos y ayudar a prevenirlos”, como expresa la Resolución 710/2024 que la crea. Estas tecnologías atacan severamente el principio de inocencia y han demostrado graves errores debido al sesgo de su programación y a la dificultad para auditar las bases de datos que entrenan las herramientas de Inteligencia Artificial.
Como ocurre en la ficción que da nombre a estas “tecnologías Minority Report”, por el film de Steven Spielberg protagonizado por Tom Cruise y basado en un cuento de Philip K. Dick, la supuesta imparcialidad tecnológica puede servir para manipular y firmar una “Sentencia Previa” (tal el título en español de la película). Predecir futuros delitos y comportamientos venideros en base a criterios de programación algorítmica suena descabellado, peligroso e ilimitado: el Gobierno se arroga la facultad de patrullar la totalidad del universo digital. “Redes sociales abiertas, aplicaciones y sitios de Internet, así como la llamada “Internet profunda” o “Dark-Web”, según reza la resolución.
“En líneas generales, veo que la Resolución del Ministerio de Seguridad es muy difusa, deja muchas incógnitas sobre qué clase de herramienta de inteligencia y cuáles herramientas se van a utilizar. ¿Dónde se van a cargar los datos? ¿Qué datos se van a preservar y cuáles no? Así, tal como está definido, es, sin dudas, un riesgo para los derechos ciudadanos”, sostiene en diálogo con Canal Abierto Sabina Frederic, antropóloga y ministra de Seguridad de la Nación desde diciembre de 2019 hasta septiembre de 2021.
Respecto a las bases de datos con que se proveerá a las tecnologías de IA, el investigador del CONICET y docente universitario Martín Becerra, en diálogo con Radio Con Vos FM 98.9, sostiene que “las bases de datos constituyen la fuente, y acá tampoco tenemos certeza de cuáles van a ser las fuentes de datos históricos de delitos que va a usar el Ministerio de Seguridad. En otros países, en Europa, los temas de inteligencia artificial se han prohibido para el pronóstico o la proyección de probabilidad de comisión de delito, porque existe la presunción de inocencia. Uno no puede decir ‘dado que tenés tal color de piel, perteneces a tal clase social o vivís en tal barrio es muy probable que cometas un delito, y entonces te voy a detener o te voy a vigilar más’. No, hay garantías constitucionales que están por encima de esa probabilística que se construye en general con herramientas de inteligencia artificial, pero insisto, que no se utilizan en temas de seguridad”, sostuvo el experto.
Ciberpatrullaje o “El reporte de la minoría”
Durante su gestión, la investigadora y docente fue cuestionada, incluso por Patricia Bullrich, cuando mencionó que su cartera estaba realizando tareas de monitoreo de redes para “conocer las tensiones y las prácticas que pueden alentar la comisión de delitos. Esas prácticas son denunciadas ante el Poder Judicial para que éste decida qué hacer”, según declaró ante la Comisión de Seguridad de la Cámara de Diputados.
“Respecto al Relevamiento de Redes Abiertas o ciberpatrullaje, como se lo dio a conocer mediáticamente, nosotros aprobamos un protocolo con participación de los organismos de derechos humanos porque habíamos heredado una resolución secreta del Ministerio de Seguridad de Bullrich (durante la gestión Macri) que creaba el ciberpatrullaje. Frente a la polémica que suscitó y en el contexto de la emergencia sanitaria, del encierro de casi todos los argentinos durante varias semanas, lo que hicimos fue crear un protocolo, derogar el anterior y crear uno que durase el tiempo de la emergencia sanitaria. Con lo cual caducó su vigencia al año siguiente”, explica Frederic.
“Nuestro protocolo de ciberpatrullaje fue hecho con todos los recaudos, por un comité que constituimos con organismos expertos en temas de Protección de Datos y de DDHH”, sostiene la exministra. “Lo que a mí me parece es que si no sabemos qué herramientas se van a usar, no sabemos cómo se va a supervisar el trabajo de las fuerzas, que en teoría no sólo lo hace el Poder Ejecutivo sino que se realiza en el contexto de causas judiciales con lo cual es la Justicia la que en todo caso tendría que habilitar tal o cual herramienta, se hace muy difícil poder evaluar esto”.
“De todas formas, esto no tiene nada que ver con nuestro protocolo de ciberpatrullaje, el cual estuvo vigente menos de un año y estaban muy claros cuáles eran los criterios de uso y de acuerdo con las normas que tiene la Argentina que, por otra parte, son escasas”, concluye Sabina.
La “secreta” mano de Israel
“A mí me preocupa el uso del Pegasus, este software espía que permite introducirse en forma remota a dispositivos informáticos”, analiza la exministra.
A mediados de 2017, se reveló que el Ministerio de Seguridad -gestión Bullrich- había adquirido el software de espionaje israelí mencionado. Este programa permite vigilar a cualquier ciudadano a través de sus teléfonos móviles sin necesidad de una orden judicial. En 2018, Bullrich intentó legalizar el uso de este programa.
Pegasus, desarrollado por la firma NSO Technologies, es capaz de leer remotamente mensajes de texto, rastrear llamadas, recopilar contraseñas, rastrear la ubicación del teléfono y recopilar información de las aplicaciones.
Respecto a la presunción de un proveedor israelí, el experto en ciberseguridad Javier Smaldone nos señalaba en una nota previa que, posiblemente “alguien le vendió un productito, alguna de las empresas tecnológicas, seguramente alguna ligada al estado de Israel, sobre todo conociendo el pasado de Bullrich y los fenomenales negocios que hizo con Mario Montoto” -ex montonero, actualmente empresario en temas de seguridad y otros curros, proveedor transversal del estado nacional y de administraciones provinciales y municipales, un todoterreno.
También te puede interesar:
Inteligencia Artificial ¡para espiarte mejor!
“Lo que creo que sí hay que decir, es que si se explicitará cuál es la herramienta que se va a usar, hay algunos aspectos que menciona la resolución que serían de utilidad. Usar inteligencia artificial para cruzar datos disponibles en causas judiciales cerradas, por ejemplo, no sería una tarea nada despreciable. Creo que sería de gran utilidad en causas cerradas o con información que esté disponible y que esté habilitada en el marco de una causa, por el juez que entienda en la misma. Ahora, si no se trata de esto y se trata de hacer inteligencia para adelante, porque esto se toca con el concepto de las tareas de inteligencia es muy riesgoso, muy oscuro y muy sórdido”, finaliza Frederic.