Se asoma la regulación de la Inteligencia Artificial - Botando Corriente #30
Además: Twitter hace menos transparente su relación con gobiernos. La regulación europea pone de presente la dificultad práctica de implementar normas sobre transparencia.
Las reglas del juego🚨
Twitter hace menos transparente la eliminación de contenido por solicitud de gobiernos
A pesar de haberse declarado un absolutista de la libertad de expresión, en manos de Elon Musk Twitter se ha vuelto mucho más dócil con las solicitudes de gobiernos autoritarios que le piden a la plataforma eliminar contenido incómodo.
Así ha ocurrido con las solicitudes de India y de Turquía, que en los últimos meses le pidieron a Twitter remover cientos de contenidos por incumplir, supuestamente, las leyes de esos países o las reglas de contenido de la red social. Desde la compra de Twitter por parte de Musk, la compañía ha cumplido con el 86% de las solicitudes estatales para remover contenido, una cifra que antes rondaba el 50%.
Las plataformas cuentan con normas y protocolos para tratar esta clase de solicitudes, que suele ser una estrategia oficial para callar voces disidentes en la esfera digital. Por esa razón, en muchos casos Twitter ha negado las pretensiones de los gobiernos, optando por abstenerse de tomar acción sobre el contenido denunciado.
Como una medida de transparencia, las plataformas de redes sociales registran estas solicitudes en la base de datos Lumen, desarrollada por el Berkman Klein Center de la Universidad de Harvard. Sin embargo, recientemente la organización llamó la atención sobre Twitter, que desde mediados de abril dejó de suministrar información sobre esta clase de solicitudes.
A comienzos de mayo, Twitter eliminó de su política de contenido retenido el texto que se refería a este protocolo, eludiendo la responsabilidad de hacer visibles los intentos de gobiernos por eliminar contenido de plataformas y las acciones de la compañía frente a esos requerimientos.
Por ahora, el cambio solo se ha registrado en la versión de la política en inglés.
Se asoma la regulación de la Inteligencia Artificial en Europa
A finales de marzo, un grupo de investigadores, filósofos y miembros de la industria de la tecnología firmaron una carta abierta en la que llamaban a las compañías de Inteligencia Artificial (IA o AI) a frenar el desarrollo de sus modelos y productos mientras se tomaban medidas de seguridad y se establecían pautas para evitar los riesgos asociados a una tecnología que podría “cambiar la historia de la vida en la Tierra”. Aunque desde entonces nada ha detenido el vertiginoso lanzamiento de nuevas herramientas, la preocupación generalizada ha empezado a movilizar a reguladores y autoridades, que avanzan a una velocidad mucho menor a la del fenómeno que pretenden atajar.
Es el caso del Congreso de Estados Unidos, que la semana pasada indagó a Sam Altman, el CEO de OpenAI —detrás de la cual se encuentran ChatGPT y Dall-E—, o de la Unión Europea, que vuelve a ponerse en la vanguardia de la regulación tecnológica con un proyecto que tiene por objeto imponer responsabilidades a los desarrolladores de IA. Además, un proyecto del mismo corte empieza a cocinarse en Brasil, donde la iniciativa nace en un clima regulatorio tormentoso, como lo comentamos en la edición pasada de Botando Corriente.
Estados Unidos: la regulación que (probablemente) no será
“Creo que si esta tecnología sale mal, puede salir muy mal. Y quiero ser enfático en esto”. En estos tiempos, la frase podría ponerse en boca de cualquier experto preocupado por los avances y riesgos de la inteligencia artificial. Lo sorprendente no es solo que quien la pronunciara fuera Sam Altman, una de las caras más visibles del auge de la IA, sino que además lo hiciera frente al Congreso de los Estados Unidos.
La audiencia se llevó a cabo con una inusual amabilidad, a diferencia de lo que suele ocurrir en esta clase de diligencias, donde los congresistas interrogan a las cabezas de Silicon Valley con hostilidad, pero sin consecuencia alguna. Para algunos analistas, Altman dio una cátedra de relaciones públicas en la que mostró su habilidad para evitar que la conversación llegara a lugares incómodos —como la discusión sobre el uso de material protegido por copyright por parte de sus sistemas— y se concentró en decirles a los congresistas todo lo que querían escuchar.
Altman compartió todas las preocupaciones de los legisladores sobre la IA y los exhortó a regular su propio negocio. Sugirió que se tomaran medidas para mitigar los empleos que podrían perderse y se sumó a la propuesta del profesor Gary Marcus —un crítico de la IA presente en la audiencia— de crear una agencia que licencie el desarrollo de modelos a gran escala y que establezca pruebas de seguridad previas al lanzamiento de nuevos modelos.
El discurso de Altman fue tan exitoso que incluso en un punto el senador John Kennedy le preguntó si él podría administrar dicha agencia en caso de que el Congreso la aprobara. Cuando Altman respondió que estaba feliz con su actual cargo, el senador le pidió que recomendara a algunas personas para incorporar el organismo.
Durante la audiencia también se barajaron opciones como la creación de etiquetas, a la manera de las tablas nutricionales, que visibilizaran las características de cada producto y fomentaran la competencia basada en la transparencia y la seguridad.
Más allá de las fotos y los titulares, Estados Unidos tiene una larga tradición de fracasar en su intención de regular nuevas tecnologías. A pesar de que tanto demócratas como republicanos parecen coincidir en la necesidad de imponer límites a las compañías de redes sociales, ninguno de los más de 25 proyectos que se han presentado en los últimos años para eliminar o modificar el régimen de responsabilidad de estos actores ha logrado aprobarse.
Para la periodista Parmy Olson, la actitud de Altman en la audiencia puede responder a esa dinámica del Congreso: la historia de los últimos años le ha dado libertad a Altman para endulzar el oído de los parlamentarios y sugerir propuestas que podrían afectar su negocio justamente porque lo más probable es que, al menos en el corto plazo, no lleguen a convertirse en ley.
El experimento de la Unión Europea
Desde 2021, la Unión Europea ha venido trabajando en un texto para obligar a los desarrolladores de IA a revelar el uso de contenido protegido por copyright, implementar obligaciones de transparencia y mecanismos de auditoría de algoritmos que puedan afectar los derechos humanos. Ahora el proyecto deberá ser discutido por miembros del Parlamento, el Consejo Europeo y la Comisión Europea, en una fase conocida como los diálogos tripartitos.
El proyecto está estructurado de manera que las herramientas son clasificadas según su nivel de riesgo: desde mínimo hasta inaceptable. Estas últimas están prohibidas e incluyen sistemas de clasificación social para personas o servicios que impulsen a los usuarios a cometer actividades peligrosas.
A mayor nivel de riesgo, más estrictas serán las obligaciones que deberán cumplir las compañías. El proyecto tiene en cuenta modalidades como la vigilancia biométrica, la desinformación o el lenguaje discriminatorio, y establece deberes de gobernanza de datos, privacidad y supervisión humana para los modelos de IA.
Un punto clave de la ley es el que prohíbe las “técnicas subliminales” para manipular el comportamiento de los usuarios de forma que pueda causarle un daño físico o psicológico. Aunque se entiende que la norma pretenda evitar algunos tipos de influencia negativa, al tratarse de técnicas subliminales, es decir, que operan sobre los usuarios sin que estos se den cuenta, la norma aplicaría en una zona ambigua y de difícil control: la conciencia misma de quienes interactúan con estos sistemas. Esto sin olvidar que, antes de que se hablara de IA, los algoritmos de selección y recomendación de las redes sociales ya venían ejerciendo una poderosa influencia sobre los hábitos de consumo de contenido de los usuarios.
Para Risto Uuk, investigador del Future of Life Institute, el proyecto se concentra mucho en los daños particulares que puede causar una técnica de manipulación, mientras que deja de lado los que podrían afectar a una sociedad en su conjunto. Es el caso de fenómenos como la alteración del curso de una elección o el reforzamiento de la desigualdad, asuntos que tienen más una dimensión social que individual y que no están contemplados en las disposiciones sobre manipulación.
Otro punto relevante corresponde al uso de material protegido con copyright por parte de modelos como ChatGPT o Dall-E, que debe ser revelado por las compañías y que podría exponerlas a riesgos legales.
Aunque desde hace meses este factor ha motivado demandas contra los desarrolladores —las mismas de las que Altman evitó hablar en su audiencia ante el Congreso—, las posibles infracciones al derecho de autor por este medio no son tan sencillas de probar. Para Sergey Lagodinsky, diputado del Parlamento Europeo involucrado en el proyecto, podría hacerse una analogía con la escritura de novelas:
“Es como leer cientos de novelas antes de escribir la tuya. Una cosa es copiar algo y publicarlo. Pero si no estás plagiando directamente el material de alguien más, no importa con qué te entrenaste”.
De cualquier forma, el fenómeno seguramente alimentará discusiones sobre el uso justo, la influencia y la reinterpretación de obras por parte de la IA.
Al igual que en otros casos, como en el de la Ley de Servicios Digitales, es posible que esta primera iniciativa occidental para regular la IA provoque lo que se conoce como el “efecto Bruselas”, es decir, un impacto más allá de las fronteras de la Unión Europea. Se espera que la norma sea aprobada a finales de 2023.
Brasil: el primer intento en la región
Como ocurrió con el Marco Civil de Internet o el actual “proyecto de ley de las fake news”, Brasil se presenta como un laboratorio regional para la regulación de nuevas tecnologías. Recientemente, Rodrigo Pacheco, presidente del Senado de ese país, presentó ante la corporación una iniciativa dirigida a proteger el ejercicio de derechos humanos frente a las posibles amenazas derivadas de la IA.
El proyecto es el resultado de un proceso de dos años que contó con audiencias públicas, un seminario con expertos internacionales y una comisión de juristas. En buena medida coincide con el proyecto en curso en la Unión Europea, pues prohíbe el uso de técnicas subliminales para controlar el comportamiento de las personas respecto a su salud y seguridad, o el uso de herramientas por parte del gobierno para evaluar a los ciudadanos de acuerdo a su comportamiento o atributos para acceder a políticas públicas.
El texto integra otras tres iniciativas que desde 2019 se han discutido en el país. La coalición Direitos Na Rede, que reúne a cincuenta organizaciones en defensa de los derechos digitales en Brasil, ha defendido la discusión de la ley en el Senado, haciendo énfasis en la necesidad de que el diálogo involucre a distintas partes interesadas y de que el proyecto no se reduzca a un mero trasplante de normas extranjeras sin tener en cuenta el contexto local.
El proyecto llega al Congreso en un momento en el que el debate sobre la regulación de tecnologías ha terminado en un fuego cruzado entre los intereses de las plataformas, las presiones de la oposición y las propuestas del gobierno para imponer límites a las redes sociales.
Circuito Académico👓
La implementación de la regulación europea deja en evidencia sus dificultades prácticas
La Ley de Servicios Digitales, una de las regulaciones más ambiciosas para compañías de redes sociales y un modelo para proyectos de ley en otras partes del mundo, ya ha sido puesta en marcha por parte de la Comisión Europea y del Centro Europeo para la Transparencia Algorítmica, un organismo creado a partir de la norma. Sin embargo, estos primeros pasos de la ley en firme empiezan a mostrar sus primeras dificultades, en especial la de aplicar efectivamente criterios amplios y no del todo definidos a asuntos técnicos y complejos.
Es el caso de las disposiciones de transparencia, que obligan a las grandes compañías de tecnología a reportar la precisión de sus sistemas automatizados de moderación, es decir, la tasa de error o de acierto de la IA que detecta y elimina publicaciones prohibidas. La dificultad para aplicar esta norma ha sido señalada recientemente por investigadores de la Universidad del Sur de California y del Instituto Max Planck para la Investigación de Bienes Colectivos en el artículo Operationalizing Content Moderation “accuracy” in the Digital Services Act.
Para los investigadores, la redacción de la ley podría dar lugar a reportes deficientes o incluso malintencionados por parte de las compañías, pues permite encontrar métricas infladas o inoportunas para entender efectivamente el funcionamiento de la IA.
Según sugieren, los reguladores deberían expedir manuales técnicos o enmendar la ley para establecer las métricas que las plataformas deberían publicar, de manera que se comprendan tanto los casos en los que los sistemas automatizados se exceden y remueven más contenido del necesario —afectando la libertad de expresión de los usuarios— como aquellos en los que los sistemas fallan en la detección y exponen a los usuarios a contenido problemático.
El artículo llama la atención sobre la relevancia de términos más especificados en la regulación de nuevas tecnologías, teniendo en cuenta que, con la misma ambigüedad, el proyecto de ley para controlar la IA en la Unión Europea también obliga a las plataformas a alcanzar un “apropiado nivel de precisión”.