Riesgos de la IA en América Latina: la CIDH escucha a la sociedad civil - Boletín #74
Además: Monetización del contenido falso en Meta | Una ley contra la violencia está siendo usada para censurar a medios en línea
En corto ⚡
En una audiencia, representantes de la sociedad civil de América Latina alertaron a la CIDH sobre la falta de transparencia y regulación en el uso de IA por parte de los Estados, así como los principales riesgos de estas tecnologías para los derechos humanos.
Mientras la Relatoría para la Libertad de Expresión trabaja en un informe sobre IA y derechos humanos, otras iniciativas dentro de la OEA, como el Marco Interamericano de Gobernanza de Datos, han sido criticadas por su falta de transparencia y por priorizar el desarrollo de la IA sobre las salvaguardas para proteger derechos.
A pesar de las limitaciones de tiempo, las intervenciones de la sociedad civil dan cuenta del estado del debate y de perspectivas que pueden servir como evidencia para la discusión de futuras regulaciones.
Distintos países de América Latina han venido incorporando sistemas de inteligencia artificial –IA– para labores como la seguridad, la justicia y la educación. Sin embargo, hay grandes obstáculos para conocer a ciencia cierta qué se está haciendo con esas tecnologías y faltan reglas claras para que este tipo de implementaciones no afecten los derechos humanos.
Estas preocupaciones se abordaron el pasado 7 de marzo en una audiencia celebrada por la Comisión Interamericana de Derechos Humanos (CIDH). Durante una hora y media, representantes de la sociedad civil compartieron los principales retos que la IA plantea para los derechos humanos en la región, recomendaron medidas para mitigarlos y analizaron vías regulatorias.
Aunque cierto discurso tiende a posicionar a la IA como sinónimo de innovación y eficacia en el sector público, para Beatriz Busaniche, directora de la Fundación Vía Libre, es necesario desmontar esa idea.
Busaniche se refirió a la creación en 2024 de dos oficinas dedicadas a trabajar con herramientas de este tipo en Argentina, una dentro del Ministerio de Seguridad y otra en la Secretaría de Inteligencia del Estado. A pesar de los anuncios, al momento de intentar indagar sobre el uso de la IA en estas instituciones, las solicitudes de información fueron rechazadas alegando razones de seguridad nacional.
Sin un marco adecuado de regulación, “existe un serio riesgo de que estos desarrollos de IA presentados como herramientas para la prevención del delito se terminen usando para perseguir a la disidencia política”, aseguró en una de sus intervenciones.
Por su parte, Lucía Camacho, coordinadora de políticas públicas de Derechos Digitales, indicó que en su organización han identificado tres patrones principales en relación al uso de la IA por parte de Estados: la falta de marcos de protección de datos actualizados, el rol del sector privado en el desarrollo de la IA estatal –que incluye no solo a las grandes compañías, sino a agencias de cooperación y universidades privadas– y la ausencia de evaluaciones de impacto en derechos humanos para sopesar riesgos y beneficios de estos sistemas.
Priscilla Ruiz, coordinadora de derechos digitales en Artículo 19, también resaltó su preocupación sobre la escasa información que hay sobre el uso de la IA en manos del sector público. Según indicó, en un proceso de consulta de más de cien solicitudes de información a instituciones en México respecto al uso de estas tecnologías, solo el 2% respondió satisfactoriamente.
El uso de la IA para fines de vigilancia y control social ha sido una de las principales tensiones en los debates para regularlas. En el caso de la Ley de Inteligencia Artificial de la Unión Europea, por ejemplo, hubo un pulso entre la sociedad civil y los Estados, para que algunas de las mayores restricciones a estas tecnologías no limitaran la facultad de los países para usarlas.
Falta de transparencia y acceso a la información
Ante los reclamos de transparencia, el comisionado Carlos Bernal preguntó a los representantes de la sociedad civil sobre la verdadera posibilidad de implementar este tipo de medidas, teniendo en cuenta las altas capacidades técnicas necesarias para comprender los algoritmos y el secreto industrial que podría proteger algunos de ellos.
En respuesta, distintas representantes aclararon que la exigencia de transparencia no necesariamente implica conocer el código fuente, sino tener mayores garantías sobre cómo los Estados adquieren los sistemas de IA para ejercer sus funciones y cómo estos pueden afectar derechos fundamentales.
Para Beatriz Busaniche, la complejidad de los algoritmos tampoco debería ser una excusa para renunciar a medidas de transparencia. En su concepto, así como los Estados están obligados a hacer auditorías y controles sobre las fórmulas médicas, aunque el público general desconozca su composición, deberían estar obligados a garantizar la seguridad de los sistemas de IA. “Bajo ninguna circunstancia hay que abdicar del rol de contralor de los Estados”, concluyó.
Distintas visiones dentro de la OEA
Actualmente, la Relatoría Especial para la Libertad de Expresión de la CIDH tiene un mandato específico para elaborar un informe sobre Inteligencia Artificial y Derechos Humanos. Sin embargo, dentro de la Organización de Estados Americano hay otros esfuerzos que intentan abordar el tema con más énfasis en el desarrollo acelerado de estas tecnologías. En su intervención, el relator Pedro Vaca indicó que algunas de estas vías “parecieran refugiarse y aliviarse en conceptos como IA ética, responsable, segura y confiable, y para mí no resultan del todo claras las salvaguardas en derechos humanos”.
Se trata de iniciativas como la “Declaración hacia el desarrollo y despliegue de una inteligencia artificial segura, protegida y confiable en las Américas”, aprobada en 2024, así como al “Marco Interamericano de gobernanza de Datos e Inteligencia Artificial”, elaborado por el Departamento para la Gestión Pública Efectiva de la OEA.
Para Lucía Camacho, estas iniciativas carecieron de suficiente participación de la sociedad civil y fueron elaboradas sin mayor transparencia. Además, instó a la CIDH a involucrarse en dichos esfuerzos e influenciarlos con un enfoque basado en derechos humanos.
Vías de regulación
Distintas voces coincidieron en la necesidad de establecer regulaciones que prioricen los derechos humanos, incluyendo prohibiciones a la vigilancia masiva, evaluaciones de impacto y mecanismos efectivos de fiscalización. También se propuso que la CIDH impulse informes temáticos sobre los riesgos del uso de IA en América Latina y el Caribe, con especial énfasis en el impacto sobre poblaciones vulnerables.
Respecto a modelos como la Ley de Inteligencia Artificial de la Unión Europea, varios de los participantes en la audiencia llamaron a buscar mecanismos que se ajusten a las realidades de la región. Federico Barillas, del International Center for Nonprofit Law, advirtió que en países como El Salvador se han aprobado normas que siguen el modelo europeo, pero atadas al ejecutivo, por lo cual lo que originalmente se había pensado como un mecanismo garantista, tiene ahora el potencial de restringir derechos.
Para algunas voces, no es necesario esperar el desarrollo de una regulación específica para atender los retos de la IA. De acuerdo con Alberto Cerda, director del Centro de Estudios en Derecho, Tecnología y Sociedad de la Universidad de Chile –CE3–, las normas de protección de datos, y en un sentido más amplio, las constituciones, pueden ofrecer marcos jurídicos relevantes.
La audiencia convocada por la Comisión corre en paralelo a la ola de iniciativas de regulación de la IA que afloran en los distintos países de la región. Más allá del papel que el organismo pueda tener en el desarrollo de futuras reglas, las intervenciones de la sociedad civil –pese a las limitaciones de tiempo– dan cuenta de estudios de caso e investigaciones que eventualmente informar y servir como evidencia para enfrentar los riesgos de la IA con una perspectiva de derechos humanos.
Las reglas del juego
Meta podría monetizar el contenido viral engañoso 💸
Al tiempo en que Meta desmonta su programa para trabajar con verificadores de datos que etiquetaban contenidos falsos o engañosos en la plataforma, la compañía está renovando su programa de monetización de contenido viral.
La versión beta del programa integra los anuncios y las bonificaciones por rendimiento en un solo sistema, permitiendo generar ingresos según la interacción y reproducciones de reels y publicaciones. Por ahora, la herramienta está disponible en Facebook y sólo es para invitados.
Actualmente, Meta prohíbe que el contenido marcado como falso por fact-checkers sea monetizado en sus redes. Sin embargo, esa restricción quedará obsoleta, por lo que las páginas y cuentas de Facebook que produzcan titulares engañosos podrían terminar beneficiándose de este programa.
La suspensión del programa de verificación de datos, prevista para las próximas semanas, dejará un vacío que, junto con el nuevo sistema de Facebook para pagar por contenido viral, podría crear un incentivo económico para la desinformación.
Polo a tierra
Una ley en Paraguay es usada para censurar a medios en línea 🚫
Una investigación del Centro de Estudios en Libertad de Expresión de la Universidad de Palermo reveló cómo la ley 5777/16 de Paraguay, conocida como la “Ley Integral de Protección a las Mujeres contra Toda Forma de Violencia”, tiende a ser interpretada de manera errónea para restringir la libertad de expresión en asuntos de interés público.
Entre otras, la norma prevé como medida cautelar impedir que las personas acusadas de agresiones publiquen en redes sociales. Aunque su propósito es proteger a las víctimas, en la práctica puede resultar en una forma de censura privada.
Según la investigación, en al menos seis ocasiones está ley se ha aplicado para censurar discursos de interés público en Internet. Los casos reflejan actos de silenciamiento a medios periodísticos que, tras publicar artículos sobre funcionarias estatales o figuras públicas, fueron acusados de violencia psicológica.
Para Maricarmen Sequera, autora de la publicación, en la mayoría de estos casos los jueces no aplicaron correctamente el test tripartito para evaluar la legitimidad de las restricciones a la libertad de expresión. El estudio recomienda implementar mecanismos de monitoreo y capacitación judicial para prevenir abusos en la aplicación de estas medidas cautelares.
En la Red 🕸️
Estos son los recomendados de la semana de la Red de Expertos en Democracia y Tecnología de Linterna Verde en alianza con La Silla Vacía:
Lecciones para Colombia del AI Action Summit: “Si algo debemos aprender de la experiencia europea es que en la regulación de IA quizá sea mejor ir despacio, justamente porque vamos de afán”, escribe Beatriz Botero Arcila, a propósito del encuentro global que dejó claras las nuevas prioridades globales sobre la IA.
RightsCon 2025: un termómetro global para los derechos digitales: “En un mundo donde los gobiernos tienden a la regulación reactiva y el sector privado impone sus propios términos, la sociedad civil enfrenta un dilema: ¿cómo mantenerse como un actor relevante en la definición del futuro digital cuando los recursos y espacios de incidencia son cada vez más limitados?”, escriben Cecilia Galván y Gaston Wright para concluir su perspectiva sobre la última edición de RightsCon.