La tensión entre el tribunal electoral y las redes sociales en Panamá durante las elecciones - Botando Corriente #54
Además: Meta implementa una iniciativa para detectar la desinformación electoral | El impacto de los deepfakes en las elecciones
En corto ⚡
La actividad del Tribunal Electoral panameño durante la campaña presidencial en ese país pone sobre la mesa la necesidad de explorar cómo funcionan las solicitudes de autoridades públicas para eliminar contenidos de redes sociales.
La necesidad de luchar contra la desinformación y otras actividades en línea ha dado lugar a regulaciones problemáticas que pueden afectar la libertad de expresión en línea.
En ocasiones las plataformas se enfrentan al doble escenario de proteger la libertad de expresión o enfrentarse a medidas represivas en su contra.
Las elecciones en Panamá, celebradas a comienzos de mayo, dejaron ver el afán de las autoridades para remover contenidos en redes sociales. Un marco regulatorio complejo y la pregunta sobre quién debe garantizar la libertad de expresión rodean el problema.
De acuerdo con una investigación del Centro Latinoamericano de Investigación Periodística –CLIP–, desde marzo el Tribunal Electoral panameño buscó eliminar contenidos publicados en Instagram y Facebook por incumplir normas sobre propaganda electoral.
Se trataba de un grupo de contenidos de muy distinta índole y dirigidos especialmente contra dos candidatos: Rómulo Roux y Ricardo Lombana. Las publicaciones utilizaban herramientas de inteligencia artificial para hacer creer falsamente que los candidatos habían dicho cosas sobre su vida privada o sobre sus propuestas de campaña.
En una de las piezas se presentaba a Roux como el protagonista de Monopolio que buscaba privatizar o hipotecar activos de la nación; en otra se hacía creer que Lombana se jactaba de haber “roto su familia” y la de su prometida Yira Gorricháteguei, para tomar “otro camino” juntos.
De acuerdo con el Tribunal Electoral, los contenidos infringían distintas leyes locales, como las reglas del Código Electoral que prohíben el uso no autorizado de símbolos de partidos políticos o de la imagen personal de terceros. A pesar de la solicitud de la autoridad para que los contenidos se fueran removidos, la compañía no tomó medidas.
Con el propósito de frenar las olas de desinformación en redes sociales, en los últimos años distintos países han reformado sus leyes internas o creado nuevas reglas para sancionar estos fenómenos. En su afán por atajar operaciones coordinadas o noticias falsas, la ambigüedad y vaguedad de algunas normas ha abierto la puerta a medidas que pueden ser excesivamente restrictivas de la libertad de expresión.
Este es el caso del Código Electoral de Panamá, invocado por el Tribunal Electoral para abordar estos contenidos. La norma prohíbe expresamente que se utilicen, por ejemplo, imágenes de candidatos o símbolos de sus partidos, o editar imágenes, audios o videos con fines de manipulación. Normas de este tipo, esbozadas sin mayor explicación y con mucha ambigüedad, podrían abarcar de la misma forma memes, contenidos de sátira o críticas políticas.
La ley llega incluso a establecer penas de cárcel para quienes manipulen “medios digitales de forma masiva, con el propósito de alterar o afectar la integridad de un proceso electoral”. A pesar de la gravedad de las sanciones, la descripción de la conducta es demasiado amplia y podría llegar a afectar actividades legítimas, como participar en una cadena de desinformación por creer equivocadamente que una noticia falsa es verdadera.
En el pasado, algunas medidas del Tribunal Electoral panameño han sido cuestionadas por afectar la libertad de expresión. En octubre de 2023, el organismo le ordenó a dos medios de comunicación y a un periodista retirar publicaciones sobre el expresidente Ricardo Martinelli, quien por entonces aspiraba a participar en la campaña. En esa ocasión, el Tribunal consideró que contenidos periodísticos contra el exmandatario –hoy condenado por actos de corrupción– constituían “campaña sucia”.
Normas de este tipo también han sido implementadas en países como Venezuela, Perú y Nicaragua donde, con distintas graduaciones, la difusión de información falsa puede constituir un delito.
Este fenómeno regulatorio obedece a dos razones principales. Por una parte, el abierto carácter autoritario de algunos Estados que buscan armarse de herramientas para controlar discursos en redes sociales. Por el otro, la dificultad de los legisladores para encontrar definiciones y medidas apropiadas para controlar fenómenos complejos como la desinformación sin crear una mordaza digital para sus ciudadanos.
Contenido ilegal y plataformas
¿Cómo reaccionan las plataformas cuando un Estado les pide eliminar un contenido por incumplir leyes internas? De manera general, las plataformas evalúan primero si los contenidos denunciados por las autoridades incumplen sus normas comunitarias. En caso de que no sea así, se lleva a cabo una revisión legal para comprobar que las solicitudes sean válidas y que efectivamente una ley prohíbe un contenido.
Según el proceso establecido por Meta, cuando se considera que un contenido efectivamente incumple una ley, la compañía lo restringe únicamente en ese territorio.
Aun en caso de que un contenido resulte ser ilegal en un país, Meta podría negarse a eliminarlo. “Cuando nos encontramos con conflictos entre leyes domésticas y nuestros compromisos de derechos humanos y transparencia, buscamos honrar los principios de derechos humanos internacionalmente reconocidos”, sostiene la compañía en su política.
Sin embargo, las decisiones de las plataformas respecto a estas solicitudes no solo dependen de su buena voluntad, sino de cálculos políticos y legales. En el caso de Meta, la compañía advierte que en estas situaciones también evalúa el riesgo que pueda acarrear oponerse a cumplir con los requerimientos de las autoridades, como bloqueos, sanciones o acciones regulatorias en su contra.
De esta manera, las compañías se enfrentan a un escenario en el que deben escoger entre garantizar la libertad de expresión en contextos represivos o asumir posibles efectos negativos por no acatar órdenes judiciales o solicitudes de gobiernos. En muchos casos, el miedo a lo segundo pesa más que el deber de lo primero.
En el caso panameño, no es posible comprobar cuál fue la motivación de Meta para dejar los contenidos en línea, aun cuando –de acuerdo con la información de CLIP– mantiene un acuerdo de cooperación con el Tribunal.
Además, reportes recientes indican una mayor obediencia de las compañías de redes sociales frente a esta clase de solicitudes. Según una investigación de Rest of the World, las solicitudes de remoción de contenido por parte de Estados han aumentado en países donde se han aprobado en los últimos años leyes restrictivas de la libertad de expresión, como India, Turquía o Emiratos Árabes Unidos.
Aunque las autoridades están en su deber de buscar la aplicación de la ley y reportar contenidos que resulten ilegales en sus países, estas solicitudes pueden ser la manzana envenenada de la censura. El caso panameño sienta la pregunta sobre quién, a la larga, carga con la responsabilidad de defender los derechos humanos en línea y de resistir a intentos de eliminar contenidos de manera desproporcionada bajo la apariencia de la legalidad.
Antes de continuar
Estamos pensando cómo podemos mejorar Botando Corriente y para eso es indispensable contar con su visión. Por eso, si todavía no has respondido, te agradeceríamos enormemente si se toman unos minutos para responder una breve encuesta que nos ayudará a medir el impacto de nuestro trabajo y a idear maneras de seguir analizando la intersección entre democracia y tecnología.
Las reglas del juego
Meta implementa una iniciativa para detectar desinformación electoral🗳️
En el marco del referendo para la representación indígena celebrado el año pasado en Australia, la compañía eliminó publicaciones que incitaban a los ciudadanos a votar múltiples veces, una conducta considerada como fraude electoral en ese país.
Así lo deja ver una reciente decisión del Consejo asesor de contenidos –un órgano que actúa como un tribunal de cierre en casos de moderación– que revisó dos publicaciones removidas de Facebook. En ambos casos, se utilizó información descontextualizada de un hilo de X de la cuenta de la Comisión Electoral Australiana en la que se daba a entender que serían contabilizados votos emitidos en distintos lugares de una misma zona electoral. En realidad, la publicación del organismo advertía sobre la ilegalidad de esta práctica.
Meta determinó que las publicaciones infringían la política de organización de actos dañinos y fomento de actividades delictivas, la cual prohíbe incitar a participar ilegalmente en una elección, y eliminó el contenido a tiempo. La empresa atribuyó el logro temprano a un sistema de detección automático basado en palabras clave, que identifica y pone en cola para revisión humana el contenido potencialmente infractor en textos e imágenes.
En este caso, las frases “doble voto” y “votar varias veces” incluidas en la descripción de las publicaciones activaron el sistema. La nueva iniciativa de detección, que se encuentra activa globalmente y se adapta a contextos locales, está siendo utilizada por Meta para la prevención del fraude y la desinformación electoral. En todo caso, el Consejo le solicitó a la compañía implementar métricas para evaluar qué tan efectivo es este sistema.
Polo a tierra
El impacto de los deepfakes en las elecciones
El crecimiento acelerado de la inteligencia artificial generativa y su manipulación para fines políticos ha venido alimentando una narrativa alarmista sobre un posible "apocalipsis informático" que podría influir en el comportamiento electoral.
Un estudio elaborado por los investigadores Mateusz Łabuz y Christopher Nehring, reveló que, a pesar del aumento de deepfakes registrados en el contexto de las elecciones en 2023, ninguno de los casos documentados ha tenido un impacto decisivo en los resultados democráticos.
De acuerdo con el documento –que analizó casos en Argentina, Estados Unidos y Francia, entre otros– sólo en dos de los once países en que se detectó este tipo de contenido, puede asegurarse que hubo un efecto en las elecciones. Por ejemplo, en Turquía, durante los últimos días de campaña presidencial del año pasado se difundió un deepfake sexual del candidato Muharrem İnce, quien se retiró de la carrera poco después.
Para los investigadores, una de las mayores amenazas que plantean los deepfakes es su efecto psicológico. Según el estudio, más que la capacidad del contenido manipulado para persuadir al público votante, es la dificultad para distinguir entre material audiovisual auténtico y falso lo que está generando un creciente escepticismo hacia la información pública.
En consecuencia, en lugar de plantear escenarios catastróficos derivados de la IA, los autores proponen el término “contaminación del ecosistema informativo”. En su opinión, esta aproximación podría ayudar a asumir una postura científica y periodística más adecuada para abordar el impacto de estas tecnologías para la democracia.