El mosaico de la regulación de la IA en América Latina: en qué estamos - Botando Corriente #50
Además: X limita sus propias reglas contra la transfobia | RIP CrowdTangle
En corto ⚡
Un mapeo de las iniciativas de regulación en América Latina resalta la variedad de enfoques en la región. Hasta ahora ningún país ha aprobado una ley que regule el uso y desarrollo de estas tecnologías.
Varios de los proyectos discutidos en América Latina para regular la IA se basan en la Ley de Inteligencia Artificial aprobada recientemente por la Unión Europea. El enfoque supone clasificar las herramientas de IA según su nivel de riesgo.
Este esquema, presente en proyectos en Argentina, Brasil y Chile, supone cierto nivel de tolerancia al desarrollo de aplicaciones que pueden vulnerar derechos humanos.
No importa cuándo leas esto: en América Latina se discute un proyecto para regular la inteligencia artificial (IA). Incluso desde antes de que estas tecnologías estuvieran al alcance de todos, legisladores y gobiernos de la región vienen proponiendo, desde muy distintos enfoques, medidas para enfrentar los retos de estas tecnologías en sus países.
La lluvia de iniciativas incluye todo tipo de aproximaciones. Mientras que en Chile un proyecto busca agravar delitos que sean cometidos con ayuda de la IA, en Brasil otro pone la lupa en prohibir los deepfakes sexuales. En Perú, por su parte, uno más pretende reformar la Constitución y convertir la IA en un principio de la administración de justicia para resolver casos judiciales.
La variedad está también en la gestación de las propuestas. En Costa Rica, por ejemplo, el proyecto para la Ley de Regulación de la Inteligencia Artificial fue redactado directamente por ChatGPT, siguiendo las instrucciones de los proponentes, quienes le pidieron pensar como abogado y asesor legislativo para generar una propuesta de regulación que tuviera en cuenta la Constitución de ese país.
El resultado es un texto que reúne de manera genérica principios discutidos globalmente y que incluso sugiere la creación de una autoridad reguladora, sin explicar cómo sería su composición o cuál sería su dependencia institucional. En resumen, un ejemplo de los usos negativos y de las limitaciones de la IA, y en el fondo, una muestra de las propuestas que carecen de un diálogo multisectorial como trasfondo.
Si bien a mediados del año pasado Perú sancionó una norma marco con principios generales y objetivos públicos para IA, ningún país de la región ha aprobado todavía una ley que regule su uso y desarrollo.
Un informe publicado hace pocas semanas por la organización Access Now presentó un mapeo de las iniciativas de regulación de la IA discutidas en América Latina. El documento, que tuvo en cuenta los proyectos discutidos hasta el 1 de diciembre pasado, pone de presente la relevancia del tema en la agenda pública y la intención general de prevenir los principales riesgos del uso de la IA.
Una dificultad frecuente de las regulaciones es la de plantear una definición que cubra el amplio espectro de lo que se entiende por IA y que logre incluir en una misma bolsa tecnologías tan distintas como los modelos de generación de texto al estilo de ChatGPT, aplicaciones de movilidad como Waze, los algoritmos de las redes sociales o los sistemas de reconocimiento facial, entre otras.
Una propuesta en Colombia pone de presente las fallas de los legisladores al intentar abarcar este problema. Un artículo del proyecto define la IA como programas “que ejecutan tareas comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico”, lo que no solo desconoce cómo funcionan los sistemas de IA –que se basan en modelos predictivos– sino también que los procedimientos por los que opera la mente no han terminado de ser descubiertos, como señala el documento.
En medio de la proliferación de propuestas, hay puntos comunes a varias de ellas, pues muchas se nutren de debates regionales o globales, como la Recomendación sobre la ética de la Inteligencia Artificial de la Unesco, la Declaración de Montevideo sobre IA o la Ley de Inteligencia Artificial aprobada recientemente por la Unión Europea.
Esta última norma está planteada de acuerdo a un sistema de riesgos, según el cual entre mayores sean los riesgos de una IA para afectar los derechos humanos, mayores requisitos deberán cumplir los desarrolladores. La escala clasifica a las IA desde riesgo mínimo e inaceptable. Esa última categoría prohíbe, por ejemplo, chatbots que promueven comportamientos peligrosos o sistemas de calificación social. Entre otros, la Ley contempla evaluaciones de impacto para eliminar o mitigar riesgos, obligaciones de transparencia y mecanismos que garanticen la supervisión humana de los sistemas.
Antes de que la norma fuera aprobada en la Unión Europea, su esquema se tomó como un modelo del otro lado del Atlántico, como se observa en proyectos discutidos en Argentina, Brasil y Chile.
Para Access Now, este enfoque podría ser problemático, pues deja de tener la protección de los derechos en el centro de la regulación. “Cuando se diseñan políticas públicas a partir de enfoques basados en riesgos, se negocian las garantías a los derechos humanos a partir de la premisa de que estas deben equilibrarse con otros valores como los de la innovación”, se lee en el informe.
Por el contrario, la organización sugiere que los proyectos de regulación refuercen los derechos de las personas más vulnerables y se opongan sin concesiones a herramientas de IA que atenten contra los derechos humanos y la dignidad, como ocurre con aplicaciones de identificación biométrica remota o para detectar automáticamente el género.
El documento también resalta la necesidad de que las regulaciones en América Latina se diseñen sin perder de vista las realidades sociales, económicas, culturales y políticas de la región, que plantean retos muy distintos a los del norte global, cuyos marcos regulatorios se están tomando como referencia.
Además, precedentes como los de la Ley de Servicios Digitales de la Unión Europea, cuya entrada en vigor ha puesto sobre la mesa las dificultades de su implementación, son un aviso para diseñar mecanismos de supervisión y estructuras que garanticen el cumplimiento de la ley.
En la medida en que los efectos de la IA sigan extendiéndose a la vida social, el ecosistema informativo y las campañas políticas, el interés por regularla seguirá en aumento. Sin embargo, las democracias de la región, como de buena parte del mundo, se enfrentan al reto de contener un asunto altamente técnico y que avanza mucho más rápido que los trámites legislativos.
Las reglas del juego
X limita sus propias reglas contra la transfobia ⚠️
A comienzos de marzo, X hizo un ajuste que haría virtualmente imposible cumplir algunas de sus reglas para sancionar el discurso de odio dirigido contra la población trans.
De acuerdo con un cambio a su política de abuso y acoso, el contenido que se refiera a una persona con un pronombre distinto al del género con el que se identifica (misgendering) o que llama a una persona por su nombre del pasado (deadnaming), solo será sancionado cuando así lo exija la ley de un país. Esta postura convierte la norma en letra muerta, pues prácticamente ninguna jurisdicción en el mundo prohíbe estas acciones.
En tiempos de Musk, esta política ha sufrido muchos vaivenes. En abril del año pasado, X la eliminó, lo que provocó el rechazo de organizaciones en defensa de la población LGBTIQ+, que argumentaban que desprotegía a las personas trans y avalaba la discriminación. En enero, la plataforma restituyó la regla, y a comienzos de marzo introdujo esta restricción a su aplicación.
“El enfoque de no intervención de X para abordar el misgendering y el deadnaming nos ofrece una visión aterradora de cómo podrían verse las plataformas de redes sociales: espacios en donde ningún miembro de comunidades marginadas pueda sentirse bienvenido o seguro”, escribió Belle Torek, abogada de libertad de expresión.
Por otra parte, la norma indica que este tipo de contenidos solo podrán ser sancionados cuando los reporte la víctima, una medida que podría ser insuficiente para controlar acosos masivos o ataques dirigidos contra figuras públicas.
Hasta el momento, los ajustes sólo se han registrado en la versión en inglés de las políticas.
Polo a tierra
RIP CrowdTangle: Meta sepulta una herramienta clave para entender sus plataformas 🔍
Tras años de especulaciones sobre su continuidad, la semana pasada Meta finalmente anunció que a partir del 14 de agosto cerrará CrowdTangle, una herramienta de análisis de datos para el seguimiento de contenidos en línea.
Adquirida por Meta en 2016, la plataforma ha sido un recurso clave para organizaciones de la sociedad civil y de la academia para monitorear tendencias en Facebook e Instagram y analizar el alcance de la desinformación y contenidos potencialmente dañinos. En ocasiones, los servicios de CrowdTangle incluso le permitieron a Meta entregar métricas solicitadas por el Consejo asesor de contenidos, un organismo independiente que opera como un órgano consultivo en asuntos de moderación para la compañía.
El cierre de la plataforma, que se produce meses antes de las elecciones presidenciales en Estados Unidos de 2024, plantea dudas sobre los compromisos de Meta con la transparencia. Como alternativa, la compañía sugiere migrar hacia su Biblioteca de Contenidos, una plataforma diseñada para cumplir con sus obligaciones de rendición de cuentas bajo la Ley de Servicios Digitales de la Unión Europea.
A pesar de que Meta promete que esta herramienta superar a CrowdTangle, algunos factores pueden disminuir la posibilidad de que efectivamente la sustituya. Por ejemplo, la Biblioteca de anuncios está restringida a búsquedas por palabras clave, en lugar de frases completas, como lo permitía CrowdTangle. Además, su acceso está sujeto a unos criterios de elegibilidad que dejan por fuera a algunos interesados en investigar espacios digitales, como periodistas que no sean verificadores de datos.