“La justicia y la democracia podrían quedar reducidas a su mínima expresión si las nuevas tecnologías carecen del debido control estatal, abriendo las puertas a un periodo histórico de tecno-autoritarismo”, advirtió desde el Vaticano el juez argentino Roberto Andrés Gallardo, durante la apertura el martes del congreso “Inteligencia artificial, justicia y democracia”. En una Santa Sede conmovida por la salud del Papa Francisco, esta cumbre reunirá hoy y mañana a magistradas y magistrados de toda América para debatir sobre las promesas y los peligros de la IA, una de las mayores preocupaciones del líder de la Iglesia Católica.
Como presidente del Comité Panamericano de Juezas y Jueces por los Derechos Sociales y la Doctrina Franciscana (COPAJU) –entidad creada por el Papa y organizadora del congreso–, Gallardo sostuvo que, fruto de “una confusión que no es ingenua, es posible que terminemos creyendo que una computadora puede ser más fiable que el mejor de los jueces”. En ese sentido, lanzó una pregunta inquietante: “¿Cómo reaccionará una inteligencia artificial creada por quienes desprecian la justicia social, enarbolan banderas supremacistas, descreen de las luchas igualitarias, niegan el cambio climático y detestan a los migrantes?”.
El magistrado –titular del Juzgado Contencioso Administrativo y Tributario nº 2 de la Ciudad Autónoma de Buenos Aires– afirmó que “la gran definición del presente es si las corporaciones son controladas por los Estados o los Estados terminan cooptados por las corporaciones informáticas”. Por eso, consideró que “la democracia está amenazada de muerte si se la limita a una agenda exógena concebida y ejecutada por laboratorios de comunicación. Si a eso se suman las fake news, las creaciones de realidad virtual y la acción multimediática, el escenario es más que peligroso”.
Acompañado por el resto de la conducción de COPAJU, integrada por juezas y jueces de Argentina, Brasil, Colombia, Perú, Chile y Estados Unidos, y junto a delegaciones de sus capítulos nacionales, Gallardo alertó que “la falacia sobre la supuesta neutralidad quirúrgica de los sistemas de inteligencia artificial permitirá, si no hacemos algo para evitarlo, que poderosas corporaciones generadoras impongan gradualmente nuevos paradigmas civilizatorios de los que luego será muy difícil abstraerse”.
Fuerte presencia argentina
Junto a las expertas y expertos llegados de todo el mundo a Casina Pio IV, sede de la Pontificia Academia de las Ciencias Sociales, para debatir sobre IA y justicia, democracia, trabajo, seguridad y derechos económicos, sociales, culturales y ambientales (DESCA), la comitiva argentina tuvo varias intervenciones en la jornada inicial.
El asesor tutelar porteño Gustavo Daniel Moreno, secretario de la Junta Directiva de COPAJU y vocal del Capítulo Argentina, señaló que, ante los “tecno-entusiastas”, vale subrayar que “existe el riesgo de que la IA se utilice para promover lo que el Papa Francisco ha llamado el ‘paradigma tecnocrático’, que tiende a resolver todos los problemas del mundo solo con medios tecnológicos”.
Al igual que otros de sus colegas, Moreno insistió en que “la IA no es una herramienta neutra en su aplicación en la vida cotidiana de las personas”. Y advirtió que, en el campo de la justicia, “dicha automatización representa el riesgo de perder de vista la subjetividad de las personas involucradas en la decisión judicial, en procesos que, por repetidos que sean, no dejan de ser importantes para las personas involucradas; a lo que se suma que el juez o la jueza puede perder de vista el contexto social y económico del origen de la causa”.
Frente a eso, llamó a “desarrollar poderes compensatorios que sean capaces de levantar la voz para que la satisfacción de los DESCA no quede atrapada únicamente a la visión de una élite poderosa de la nueva oligarquía tecnocrática”.
César Raúl Jiménez, coordinador del Capítulo Argentina de COPAJU y juez en lo Correccional y de Menores de Posadas, afirmó: “No podemos ser espectadores pasivos de un proceso que avanza sin control. Es nuestra responsabilidad garantizar que la tecnología se ponga al servicio de la humanidad y no al revés. Para ello, debemos impulsar una inteligencia artificial basada en principios éticos y en el respeto de los derechos humanos”.
Para Jiménez, la pregunta central es “¿quién tiene el control?”. En ese punto, recordó: “Sabemos lo que significa que un sistema judicial funcione para unos pocos, mientras la mayoría se queda a la intemperie”. Por eso, exhortó a sus colegas: “No podemos permitir que la tecnología se convierta en una nueva herramienta de opresión, amplificando brechas y profundizando el descarte”.
Genoveva Ferrero, directiva del IFBC y secretaria de Administración General y Presupuesto del Poder Judicial porteño, dio cuenta de casos concretos de buenas prácticas en la aplicación de estas tecnologías en la Ciudad Autónoma de Buenos Aires (CABA), “entendiendo que la inteligencia artificial mejora la toma de decisiones pero no la reemplaza”.
Ferrero fue clara: “Estamos lejos de comprender acabadamente cómo la inteligencia artificial va a transformar la política, la economía y la justicia. Pero, sin duda, su desarrollo debe ser pensado teniendo al hombre como núcleo”. Desde su mirada, “con los debidos controles y un estricto apego a la ética, puede ser un instrumento de justicia y no un factor de desigualdad”. En esa tarea, identificó a “la doctrina franciscana” como una guía que excede los criterios de eficiencia económica y/o técnica, para “orientar su instrumentación en línea con el bien común, la reducción de la desigualdad y el fomento de una sociedad justa y equitativa”, dijo.
Roberto Carlos Pompa, integrante de la Cámara Nacional de Apelaciones del Trabajo y vicecoordinador del Capítulo Argentina, planteó: “El 10% de la población mundial concentra el poder económico del 90% restante. Y en ese 10% no hay un solo trabajador. Entonces, la pregunta es: ¿la inteligencia artificial, en un proceso de reducción de derechos sociales, va a promover cambios para el desarrollo de la persona o va a promover cambios para el desarrollo económico de las grandes empresas transnacionales?”.
De cara al futuro, Pompa advirtió que, así como los cambios impulsados por la IA no se pueden desconocer, “también tenemos que tener claro que esto provocará millones de pérdidas de trabajo humano. Y lo más preocupante es que no se intentará reemplazar la mano de obra, como ocurrió con el taylorismo o el fordismo, sino directamente tratar de apropiar la inteligencia de la persona humana, introduciendo nuevos sesgos discriminatorios para convertirse probablemente en un instrumento de dominación de la persona y del mundo, dando lugar a una nueva forma de totalitarismo del cual, como decía el Papa Francisco, no podemos ser indiferentes”.
El defensor de la provincia de Entre Ríos, Maximiliano Francisco Benítez, secretario del Capítulo Argentina, postuló que “la mayoría de las cuestiones que plantea la IA no son técnicas sino filosóficas. Sin sustento filosófico se corre el riesgo de desarrollar sistemas de IA que no se alineen con los valores y formas de pensar humano”. Por eso, lo consideró “un instrumento que se debe utilizar con mucho cuidado, con límites éticos claros, y que en consecuencias debe ser urgentemente regulado por los Estados, únicos legitimados para hacerlo”.
También expuso Luis Duacastella Arbizu, concejero de la Magistratura de CABA e integrante del Comité, quien destacó el momento en que en la Argentina se da la irrupción de esta tecnología: “Un contexto de crisis de confianza de la sociedad en el sistema de justicia”. A la vez, señaló la paradoja de “una creciente demanda de la sociedad para que la justicia se involucre de manera más activa en graves conflictos sociales generados por el desmantelamiento del Estado de Bienestar”.