Deterioro del debate público y regulación: la Comisión Interamericana muestra sus cartas para la gobernanza de Internet - Botando Corriente #58
Además: Meta amplía sus reglas de contenido sintético| Cómo se informa la generación Z
En corto ⚡
Un informe elaborado por la Relatoría Especial para la Libertad de Expresión de la Comisión Interamericana presentó esta semana una serie de recomendaciones para la regulación de plataformas.
El documento hace un diagnóstico de la calidad del debate público en línea y recoge discusiones sobre regulación en otras partes del mundo en materia de gobernanza, moderación y transparencia.
A pesar de lo relevante del aporte, algunos planteamientos parecen desconectados de la realidad de la moderación de contenidos.
Esta semana, la Comisión Interamericana de Derechos Humanos (CIDH) se sumó a los actores institucionales y de la sociedad civil que recientemente han propuesto caminos para regular a las plataformas de internet en la región. A pedido de la Organización de Estados Americanos, la Relatoría Especial para la Libertad de Expresión de la CIDH elaboró un informe que aborda el deterioro del debate público, el acceso universal y la alfabetización digital, y la gobernanza de contenidos en línea.
El aporte de la Relatoría Especial se basa en una consulta con diversos actores y en la doctrina y el precedente interamericano en materia de derechos humanos. Sin duda, es un insumo relevante, tanto por el peso institucional de la CIDH como por la necesidad de orientar proyectos legislativos que, desde distintas ópticas, se discuten actualmente en Brasil, Colombia, México y Argentina, entre otros.
El informe hace un diagnóstico del rol de las plataformas en la formación de opinión pública y su impacto en la libertad de expresión. De acuerdo con la Relatoría Especial, la amplificación de discursos extremistas, contenidos discriminatorios y ataques contra líderes sociales, medios de comunicación y la sociedad civil, se han materializado en desigualdad y censura.
La Relatoría Especial es consciente de que algunas prácticas de moderación pueden terminar limitando discursos protegidos, pero también de que es necesario intervenir para evitar que los discursos de odio y la violencia digital deriven en autocensura y exclusión de minorías. En estos espacios, a merced de lógicas comerciales e intervenciones tecnológicas –mediante algoritmos y sistemas de Inteligencia Artificial–, la discusión pública se ha deteriorado. No obstante, se trata de un escenario de pérdida de confianza en el que el rol de las plataformas es solo una parte de la ecuación.
El informe llama la atención sobre el uso abusivo que algunos actores políticos les dan a las redes sociales y sus efectos negativos –con prácticas como las acciones coordinadas y la influencia inauténtica–. Como ejemplos, cita la violencia política en México en 2021, la escala de la polarización social en Perú tras las elecciones de 2021 y la insurrección en Brasilia en enero de 2023. “Todos estos hechos comparten un elemento común, y es que fueron precedidos por campañas de desinformación y escalaron por discursos que toleraban el uso de violencia en contra de personas e instituciones del Estado de derecho”, sostiene el documento.
La Relatoría Especial sugiere que sean los partidos políticos quienes fomenten un debate público de calidad y tomen medidas para evitar este tipo de comportamientos que afectan la legitimidad de las instituciones: “Resulta crucial que los partidos políticos se abstengan de promover, por sí mismos o por terceros, campañas de desinformación, discriminación, odio e intolerancia”.
Entre soluciones urgentes y discusiones bizantinas
Estas preocupaciones han motivado proyectos de regulación que resultan ser mucho más inconvenientes que los problemas que pretenden resolver. Es el caso de iniciativas que, por ejemplo, buscan atacar la desinformación, pero que terminan avalando mecanismos de censura. Para la Relatoría Especial, las soluciones urgentes de este tipo pasan por alto la complejidad de los desafíos digitales y minan la posibilidad de crear acuerdos regionales.
En cuanto a la moderación de contenidos, las recomendaciones del organismo apuntan a una regulación que respete al máximo las garantías para la libertad de expresión que se han desarrollado en el sistema interamericano. Un postulado legítimo y bien intencionado, pero que se topa rápidamente con preguntas prácticas.
De un lado, la Relatoría enfatiza con buen criterio la necesidad de fortalecer la transparencia y rendición de cuentas. El informe sugiere que la moderación de contenidos cuente con notificaciones adecuadas a los usuarios que resulten afectados por sanciones, ofrezca mecanismos de apelación suficientes y presente remedios efectivos para quienes han sido sancionados injustamente. Estos remedios pueden ir desde la reversión de las sanciones hasta disculpas públicas o compensaciones. En palabras de la Relatoría, “la responsabilidad de los intermediarios debe estar alineada con el respeto al debido proceso legal”.
Sobre ese mismo punto, el informe resalta la necesidad de que las normas comunitarias de las plataformas estén disponibles en todos los idiomas, incluyendo lenguas indígenas, y de que sean accesibles a personas con discapacidad. También sugiere que las plataformas publiquen informes sobre eventos de alto impacto, como protestas, elecciones o conflictos armados, así como información sobre solicitudes de gobiernos para remover contenidos.
Por otro lado, la Relatoría enfatiza la necesidad de no hacer concesiones al momento de proteger la libertad de expresión bajo los estándares interamericanos: “aquel contenido manifiestamente ilegal y violatorio de los derechos humanos puede ser removido por intermediarios bajo condiciones estrictas que respeten los principios de legalidad, necesidad y proporcionalidad”.
Al intentar adaptar este estándar interamericano –conocido como el test tripartito– a la moderación de contenidos, la Relatoría no logra avanzar y aclarar los dilemas prácticos que enfrentan las plataformas digitales. A la luz de estos planteamientos, estos intermediarios prácticamente no tendrían margen para arbitrar sus espacios y combatir fenómenos como las operaciones coordinadas, la interacción no deseada, el acoso, el spam e, incluso, el contenido explícito.
Sin desconocer los avances previamente mencionados, esta postura de la Relatoría parte del hecho de equipar ciertos mecanismos de moderación con la censura, a pesar de que en el debate global han aparecido matices en esta apreciación. Aunque en principio se ha buscado establecer analogías entre esta intervención del debate público y los mecanismos judiciales, el enfoque ha demostrado ser incompatible frente a las realidades de las redes sociales, teniendo en cuenta la masividad del contenido que circula en línea.
La académica Evelyn Douek ha propuesto dejar atrás esta analogía para más bien concebir la moderación como un proyecto masivo de libertad de expresión que se base más en decisiones sistemáticas y mecanismos ex ante que en situaciones individuales. Una visión similar a la de la integrante del Consejo Asesor de Meta, Catalina Botero, quien habla de enfocarse en la agregación y amplificación del contenido problemático.
“La moderación de contenidos inevitablemente implica compromisos entre derechos e intereses en competencia”, –plantea el académico Barrie Sander–. “
El mayor desafío, sin embargo, reside en la traducción de los principios generales de derechos humanos en reglas, procesos y procedimientos específicos, adaptados al contexto de la moderación de la plataforma”.
Por su parte, Dylan Moses, investigador del Integrity Institute, ha descrito las diferencias entre la moderación y censura en razón de sus objetivos y las consecuencias para los usuarios. Por ejemplo, mientras la censura busca limitar discursos opuestos al oficial, la moderación –como la Comisión misma lo plantea– es una herramienta para minimizar riesgos, en especial contra poblaciones marginadas.
Para Javier Pallero, activista y experto en derechos humanos y tecnología, más allá de estos interrogantes, el informe hace un gran aporte y avanza la conversación: “Quizá sería interesante estudiar cómo llegamos a definir los conceptos y establecer los acuerdos de maneras más precisas, porque hasta ahora estamos echando mano de conceptos que son institucionales, que responden a instituciones y a elementos históricos que tienen su bagaje, que son apropiados en algún aspecto y en otros parecen inapropiados o insuficientes”.
Las reglas del juego ✂
Meta amplía sus reglas para controlar deepfakes y cheepfakes
Tras varios casos globales de noticias falsas creadas con inteligencia artificial y técnicas menos avanzadas de edición, Meta ajustó la semana pasada una sección de su política de desinformación dedicada al contenido generado de manera sintética.
Hasta ahora, las reglas de Meta solo prohibían un tipo de contenido muy específico: los deepfakes que pudieran engañar al usuario promedio haciéndole creer que la persona en el video había dicho algo que en realidad no dijo. La compañía ha dejado atrás esos criterios y ahora su política se enfoca en etiquetar contenidos alterados que puedan inducir a errores.
Este cambio obedece a una recomendación del Consejo Asesor de Contenidos –un organismo que actúa como Corte Suprema en asuntos de moderación de la compañía– a raíz del caso de un video editado de Joe Biden. A pesar de que era engañoso, el video no fue eliminado porque no cumplía con los criterios de ser un deepfake ni haber manipulado las palabras del mandatario estadounidense.
Ante estas reglas tan limitadas para moderar contenido sintético, a principios de este año el Consejo Asesor le sugirió a Meta ampliar su política para incluir contenido alterado con técnicas menos sofisticadas, conocidas como cheapfakes, sin discriminar entre palabras y acciones.
Por el momento, los ajustes solo se han implementado en la versión en inglés de las políticas.
Polo a tierra
Cómo interactúa la generación Z con el contenido creado con IA👀
Una investigación de Jigsaw, el think-thank de Google, reveló hace poco cómo las audiencias jóvenes procesan la información en línea ante el incremento del contenido creado con IA.
El estudio, basado en un análisis etnográfico de personas entre 18 y 24 años en India y Estados Unidos, informó que los jóvenes prefieren actuar con contenido reconfortante o ligero antes del considerado “pesado”, que incluye asuntos políticos o de guerra.
De acuerdo con los autores, el deseo de mantener un ligero estado emocional es una respuesta a la sobrecarga de información digital. “Los jóvenes dedican la mayor parte de su tiempo en línea sin preocuparse realmente por la veracidad del contenido, ya que su principal objetivo es entretenerse”, afirma la publicación.
Según el documento, los usuarios solo se preocupan por conocer si un hecho es falso o no cuando hay una motivación particular para mantenerse al tanto de un evento o prepararse para un debate. Una práctica común en estas circunstancias es acudir a la sección de comentarios de una noticia o a las opiniones de creadores de contenido de confianza para formarse un criterio.
El estudio encontró que los jóvenes han utilizado herramientas como IA como medio de verificación. A pesar de conocer los posibles riesgos y sesgos, se valora más la eficiencia de herramientas como ChatGPT que su precisión.
En la red🕸
Inauguramos esta sección para recomendar artículos publicados en la Red de Expertos en Democracia y Tecnología que hace poco lanzó Linterna Verde en alianza con La Silla Vacía. Se trata de un espacio para articular voces alrededor de temas como manipulación y desinformación en línea, el futuro del periodismo o integridad electoral.
La libertad de prensa en tiempos del petrismo: “Si el Presidente Petro y los miembros de su gabinete arremeten contra la prensa -por vías legales y redes sociales oficiales- cuando esta les cuestiona o les crítica, con ello no solo resultan afectados los periodistas, sino toda la sociedad”, escriben Vanessa López y Mariluz Barragán.
La ley de datos: un barco a la deriva. Avanza en el Congreso de Colombia un proyecto para crear la infraestructura de datos del Estado. El texto presenta dudas sobre la protección de datos y la pertinencia de un mecanismo así. Al respecto escribe Carolina Botero.
Cómo la prensa vende humo sobre la inteligencia artificial: “Con frecuencia, la prensa ha reportado sobre el avance de estas tecnologías sin hacerse preguntas básicas y haciendo caso omiso —en ocasiones, de manera muy deliberada— de los límites de las capacidades de la IA que conocemos hoy”, escribe Luisa Fernanda Isaza.