Las secuelas de la desinformación sobre covid en América Latina- Botando Corriente #28
Además: Twitter cambia la filosofía de sus sanciones. El impacto de las suspensiones en redes sociales.
Las reglas del juego📣
Una nueva era de moderación en Twitter
“Libertad de expresión, pero no de alcance” es el lema con el que Elon Musk ha propuesto una nueva forma de manejar el contenido problemático en Twitter. Crítica con la moderación tradicional —que incluye eliminar publicaciones y suspender cuentas—, la visión de Musk deja de manifiesto una inclinación por sanciones menos invasivas, como la reducción de la visibilidad de las publicaciones que incumplan las reglas de Twitter.
Recientemente, la compañía adoptó formalmente el lema de su nuevo dueño, presentándolo como un cambio de filosofía en la aplicación de sus normas comunitarias. De acuerdo con el anuncio, los contenidos que incumplan las políticas no solo tendrán menos alcance en la plataforma, sino que serán marcados con una etiqueta donde quede claro, tanto para el autor como la comunidad, que el tuit pudo haber violado las normas comunitarias. Por ahora, esta medida aplicará solo respecto a la política de odio de Twitter, aunque en el futuro la compañía espera expandirla a otras reglas.
Las sanciones de visibilidad —conocidas como shadow-banning— existen en Twitter desde antes de la compra de Musk, al igual que en redes sociales como Facebook o TikTok. Sin embargo, ahora esta visión pasa a tener un lugar central en el rol de arbitrar el comportamiento de los usuarios en Twitter.
Las plataformas han aplicado sanciones de visibilidad con niveles muy bajos de transparencia; pocas veces los usuarios son notificados de que se ha limitado el alcance de sus publicaciones y, por tanto, no cuentan con herramientas para cuestionar o apelar esta restricción de amplificación y alcance.
En teoría, el anuncio de Twitter abarca esa crítica, pues asegura que las personas afectadas podrán solicitar una revisión en caso de que consideren que han sido sancionadas por error. A pesar de su interés por unas reglas más transparentes, este cambio de visión se da en un momento en el que los recortes de personal han afectado a los equipos de moderación de la compañía en todo el mundo.
Las secuelas de la desinformación sobre covid en América Latina
Hubo un tiempo en el que los videos que acusaban a gobiernos extranjeros o multimillonarios de estar detrás de la pandemia se hacían virales en Facebook e Instagram. Era el mismo tiempo en que la incertidumbre sobre el coronavirus dio lugar a promesas de curas milagrosas que se promovían o vendían bajo la promesa de prevenir o tratar la enfermedad. Para enfrentar la desinformación desatada por la pandemia, Meta se apoyó en parte en su programa de verificadores de datos, a quienes la pugna por contrarrestar este tipo de contenidos en América Latina dejó expuestos a amenazas y acosos coordinados.
Así se lo manifiesta un documento publicado la semana pasada por el Consejo asesor de Meta, un organismo que orienta y supervisa a la compañía en asuntos de moderación de contenidos. Después de que la emergencia dio tregua, en junio del año pasado Meta le solicitó al Consejo orientación sobre la forma en que debería proceder en adelante respecto a este tipo de desinformación.
Varios meses después, tras consultar con autoridades de salud y expertos en distintas regiones del mundo,* el Consejo emitió su opinión consultiva. Entre otra información relevante, las consideraciones de esos encuentros —que están publicadas en el informe— dan cuenta de los efectos negativos que la estrategia del programa de verificadores de datos tuvo para sus aliados en América Latina.
Durante la emergencia sanitaria, Meta, como las demás redes sociales, se vio obligada a desarrollar sobre la marcha nuevas reglas que atajaran cada nueva teoría falsa sobre la enfermedad o las vacunas que tomaran fuerza y pusieran en riesgo a los usuarios. El saldo fue una serie de más de 80 tipos de contenido que la plataforma podría eliminar, desde negar la existencia de la pandemia hasta asegurar que las vacunas contienen “la marca de la bestia”.
Meta delegó a su programa de verificadores de datos independientes (una red que reúne a organizaciones certificadas por la International Fact-Checking Network) la responsabilidad de manejar aquellas publicaciones que no clasificaran para ser eliminadas, pero que de todas formas pudieran ser problemáticas.
Bajo este sistema, que sigue vigente para otros tipos de desinformación, los verificadores revisan el contenido y lo clasifican según si es falso o engañoso. Con ese insumo, Meta marca las publicaciones con una etiqueta que alerta sobre la inexactitud de la información y lo vincula a un artículo de verificación de datos sobre el tema. En caso de que un usuario quiera apelar una etiqueta aplicada a su contenido, el procedimiento no se hace frente a la compañía —como ocurre con las demás sanciones— sino directamente ante la organización que verificó la información.
En un contexto como el de América Latina, y en especial en el de Brasil, donde la desinformación sobre el covid estuvo altamente politizada, la aproximación de Meta de poner en contacto directo a los usuarios reclamantes con quienes marcaban su contenido, provocó que los verificadores fueran objeto de campañas de acoso y de amenazas que incluso obligaron a algunos a salir de sus países.
En el caso de Brasil, en el que las críticas contra el trabajo de verificación estaban alineadas con el gobierno de Jair Bolsonaro, la persecución se presentó también en la forma de millonarias demandas por difamación, desgastando la operación de las organizaciones y afectando sus ya frágiles finanzas.
De acuerdo con un comentario público enviado al Consejo por Pablo Medina, investigador del Centro Latinoamericano de Investigación Periodística (CLIP), estas agresiones están relacionadas con la confusa colaboración de Meta con sus aliados, pues los verificadores terminaron por asumir la responsabilidad de explicar al público las políticas de la compañía.
Aunque la pandemia ha dejado de ser una preocupación global, la forma en que las plataformas de redes sociales reaccionaron a este evento deja lecciones para enfrentar nuevas crisis sanitarias que puedan llegar en el futuro y en las que volverán a estar en la balanza la libertad de expresión y la seguridad de los usuarios, así como las estrategias con aliados para contrarrestar la información engañosa.
En su opinión consultiva, el Consejo le solicitó a Meta continuar eliminando el contenido que pueda representar un daño inminente y revaluar de la mano de autoridades en salud algunas de las normas que estableció durante la pandemia. Además, debe contratar una auditoría para estudiar el impacto que hubieran podido tener sus algoritmos en la amplificación de desinformación relacionada con covid.
En cuanto a la situación de los verificadores de datos, el Consejo recomendó que las apelaciones fueran revisadas por un verificador distinto al que chequeó la información en primera instancia, y que cualquier reclamo se haga a través de los canales ordinarios de Meta y no por contacto directo con las organizaciones.
* Linterna Verde, organización de la que hace parte Circuito, organizó para el Consejo Asesor la mesa de consulta con la sociedad civil en América Latina.
Circuito Académico🎓
El impacto de las suspensiones en redes sociales
Cuando Twitter, Facebook o YouTube suspenden cuentas radicales, se liberan de una carga: la de mantener y moderar estos discursos problemáticos en sus plataformas. Sin embargo, esta clase de expulsiones están lejos de eliminar el asunto de raíz, pues el peso de esa carga se transfiere al ecosistema amplio de las redes sociales, donde se encuentran pequeñas comunidades marginales y desreguladas.
Este es el objeto del paper The Systemic Impact of Deplatforming on Social Media, presentado por investigadores de la City University of London y del Alan Turing Institute, quienes se proponen evaluar el impacto de las suspensiones de Twitter en una red análoga y radicalizada: Gettr, fundada por Jason Miller, un antiguo asesor de Donald Trump.
El estudio analiza la migración de usuarios a Gettr luego de que personajes como Joe Rogan y Marjorie Taylor-Greene, ambos teóricos de la conspiración en Estados Unidos, fueran expulsados de Twitter. La investigación siguió el rastro de usuarios activos en ambas plataformas, y observó que si bien en Gettr pueden interactuar con menos controles y en Twitter están expuestos a sanciones, en esta última plataforma tienen mayor alcance, son más activos y su contenido tiende a ser más agresivo. Los investigadores sugieren que esto puede darse porque Twitter les ofrece la posibilidad de interactuar con cuentas opuestas a su línea ideológica, una fricción que no encuentran en las redes alternativas.
Además, el paper puso la lupa en la actividad en Gettr en Brasil, donde la plataforma pudo haber sido un canal para coordinar la insurrección de enero de este año. De acuerdo con la investigación, aunque durante meses esta red social se mantuvo con baja actividad en Brasil, luego de las últimas elecciones presidenciales, en las que Lula da Silva derrotó a Jair Bolsonaro, se presentó un notable pico en el que se discutió un supuesto fraude electoral y en el que se criticaba a la prensa tradicional. “Los resultados muestran que incluso cuando una plataforma parece inactiva, una comunidad de usuarios puede ser movilizada en un corto tiempo y llevar a daños en la vida real”, asegura el estudio.