Especialistas cuestionaron a Bullrich por la Unidad de Inteligencia Artificial

Especialistas cuestionaron a Bullrich por la Unidad de Inteligencia Artificial

Advierten que su funcionamiento caería en ilegalidades.


El Gobierno nacional creó la Unidad de Inteligencia Artificial Aplicada a la Seguridad (UIAAS), un organismo que funcionará bajo la órbita del Ministerio de Seguridad y que se presentó con el objetivo de “prevenir, detectar, investigar y perseguir los ciberdelitos y sus conexiones”. Apenas se conoció el decreto, se encendieron las alarmas de los especialistas y surgieron preguntas: ¿con qué tecnología se va a realizar?, ¿se abrieron licitaciones para adquirirlas?, ¿quién determinará el criterio con el que la IA identificará patrones “sospechosos”?, ¿cómo se resguardará la información?

LA UIAAS funcionará en la dirección de Ciberdelito y Asuntos Cibernéticos dependiente de la Unidad de Gabinete de Asesores. A través de la resolución 710/2024 se le asignó a la unidad 12 funciones, entre las cuales se menciona “patrullar redes sociales abiertas” para identificar autores de delitos o para “identificar movimientos de grupos delictivos o prever disturbios”, analizar imágenes de cámaras de seguridad para “detectar actividades sospechosas o identificar personas buscadas utilizando reconocimiento facial” y “crear perfiles de sospechosos o identificar vínculos entre diferentes casos”, utilizar drones para vigilancia aérea.

Monitoreo permanente de redes sociales abiertas

El inciso A del artículo 4 de la resolución establece que la UIASS debe “patrullar las redes sociales abiertas, aplicaciones y sitios de Internet, así como la llamada ‘Internet profunda’ o ‘Dark-Web’, en orden a la investigación de delitos e identificación de sus autores, así como la detección de situaciones de riesgo grave para la seguridad, en el marco de la Constitución Nacional y legislación vigente”.

Para Beatriz Busaniche, presidenta de la Fundación Vía Libre, esta función “es ilegal”. “Es lo que se llama investigación de fuentes abiertas. Es una forma de hacer inteligencia criminal que solo está autorizada legalmente cuando hay una hipótesis delictiva y un marco jurisdiccional, es decir, con orden de un juez y mecanismos de contralor”, explicó.

La experta utilizó un ejemplo sencillo para que se comprenda la dimensión de este monitoreo permanente en las redes: en el espacio público existe el patrullaje con, por ejemplo, policías que caminan por la ciudad. Pero si dos personas están manteniendo una charla en una plaza y un efectivo se para junto a ellas para escuchar y grabar su conversación, cualquiera se daría cuenta que está cruzando la línea de lo permitido.

“En ese caso, las personas automáticamente le pedirían sus datos y hasta podrían presentar una queja a la Justicia. Es cierto que no es lo mismo estar hablando en tu casa, que por teléfono o en un bar, donde puede haber una cámara de vigilancia o un efectivo policial. La presunción de privacidad es diferente en cada espacio, pero eso no supone una renuncia total a la privacidad, ni siquiera en redes sociales”, agregó Busaniche. Este inciso, sostuvo la especialista, “atenta contra la libertad de expresión y es absolutamente desproporcionado”.

El inciso F sostiene que la UIASS, además, tendrá la función de “procesar grandes volúmenes de datos de diversas fuentes para extraer información útil y crear perfiles de sospechosos o identificar vínculos entre diferentes casos”. Este punto habla de lo que se conoce como profiling y la gran pregunta es quién entrenará a la herramienta para que detecte “sospechosos”.

La IA, que explotó en el último tiempo, suele ser presentada como una herramienta imparcial y objetiva. Sin embargo, en la práctica no se verifica que funcione así. “No son sistemas inteligentes, hay que cortar con esa idea. Son sistemas que sirven para hacer buenas estadísticas y pilotear grandes volúmenes de datos, pero puestos a tomar decisiones que afectan a las personas son una catástrofe. Todo lo vinculado a lo humano tiene errores enormes que afectan, sobre todo, a ciertos grupos. Por ejemplo, en Estados Unidos hay fallos brutales con respecto a la población afrodescendiente porque los sistemas de Google los confundían con monos”, agregó Busaniche.

Estos instrumentos deben recibir un “entrenamiento” para que puedan elaborar sus patrones. En otras palabras, alguien debe indicarle a la IA —su desarrollador o quien se la encarga, en este caso el Gobierno— qué material debe distinguir del resto. “¿Cuál es la idea de crear perfiles sospechosos?, ¿se van a poner a todos los jovencitos que venden cursos y que en realidad son estafadores Ponzi o van a poner a los dirigentes sociales de los movimientos de base?”, se preguntó Busaniche.

Pero si se dejara de lado la cuestión de los sesgos ideológicos, la IA también presenta otro problema: suele tener un enorme margen de error. Busaniche puso como ejemplo la prohibición expresa de Meta de publicar pechos femeninos que, en la práctica, genera que sean baneadas todo tipo de imágenes similares simplemente porque el sistema se confunde. Aplicada a seguridad, esta herramienta podría buscar, por ejemplo, publicaciones de armas: ¿pero cómo se puede garantizar que va a saber diferenciar una pistola de juguete de una verdadera?

Reconocimiento facial

El inciso C establece que la unidad podrá “analizar imágenes de cámaras de seguridad en tiempo real a fin de detectar actividades sospechosas o identificar personas buscadas utilizando reconocimiento fácil”. Este punto hoy está siendo cuestionado en la Justicia de la Ciudad de Buenos Aires.

En 2019, el Gobierno porteño implementó el Sistema de Reconocimiento Facial de Prófugos (SRFP) que fue declarado inconstitucional en primera instancia y luego la decisión fue ratificada por la Cámara. La causa fue iniciada por el Observatorio de Derecho Informático de la Argentina, luego se sumó el CELS y también recibió el apoyo como amicus curiae de la Fundación Vía Libre.

La gran pregunta detrás de esta causa es quién controla al sistema, cómo y cuán seguro es. Los denunciantes, entre otras, plantearon la necesidad de que la empresa proveedora del servicio pueda ser auditada, una condición que no se cumplió.

El debate sobre hasta qué punto el Estado puede controlar a las empresas que proveen estos servicios está en plena discusión a nivel jurídico internacional. Argentina no tiene una legislación particular sobre el tema. Lo único que existe, por el momento, es una resolución de Jefatura de Gabinete firmada en junio del 2023 en la que Argentina aprobó las “Recomendaciones para una Inteligencia Artificial Fiable”, elaborada por Naciones Unidas.

Busaniche, además, contradijo uno de los considerandos de la resolución ministerial. Desde Seguridad sostuvieron que este tipo de herramientas ya se utiliza en todos los países, pero la especialista aclaró: “Hablan de Estados Unidos, por ejemplo, pero en Boston y en San Francisco el reconocimiento facial está prohibido.

En Londres está fuertemente cuestionada. En Europa se define a los sistemas de profiling como de máximo riesgo. ¿En dónde sí se utilizan? En China, donde sabemos que el poder del Estado es muy diferente”, sostuvo.

Secreto bancario y drones

Las funciones de la unidad se pueden agrupar en tres: las que son fuertemente cuestionadas por los especialistas, como las mencionadas. Las que resultan lógicas, como la necesidad de mejorar la comunicación y la coordinación de las fuerzas o la utilización de robots en lugar de efectivos policiales para desactivar explosivos. Y las que generan absoluta incertidumbre.

El inciso K dice que la unidad podrá “detectar transacciones financieras sospechosas o comportamientos anómalos que podrían indicar actividades ilegales”. “¿Se van a cargar el secreto bancario?”, se preguntó Busaniche. Algo similar sucede con el inciso G, que habla de “patrullar mediante drones áreas extensas, proporcionar vigilancia aérea y responder a emergencias”. “¿Drones autotripulados querrán comprar? ¿Los que se usan como arma de guerra?”, agregó la especialista.

Te puede interesar

Qué se dice del tema...