Las fallas de Meta limitan las discusiones sobre aborto - Botando Corriente #38
Además: cómo funciona la violencia interseccional en redes. La resistencia de los grupos conspirativos a sanciones en plataformas.
Las reglas del juego 🚨
Las fallas de Meta limitan las discusiones sobre aborto
Desde que la Corte Suprema de Estados Unidos anuló la decisión Roe vs. Wade, que permitía derecho al aborto en ese país, en estados como Carolina del Sur se han empezado a promover proyectos de ley que proponen la pena de muerte para quienes interrumpan voluntariamente su embarazo.
Como una crítica a la lógica de esa iniciativa, dos usuarios de Facebook e Instagram publicaron artículos relacionados con la noticia, acompañados de mensajes como “Está mal matar, así que te vamos a matar”, y “Tan provida que te mataremos si abortas”.
A pesar de que se trataba de expresiones retóricas en contra de los legisladores que promueven el proyecto, Meta eliminó las publicaciones por considerar que incumplían su política de violencia e incitación, que prohíbe amenazas de muerte. Sin embargo, el Consejo asesor de contenidos, un organismo que actúa como un tribunal de cierre para casos de moderación de la compañía, revirtió la decisión original de Meta.
En opinión del Consejo, esta clase de errores limitan injustificadamente la libertad de expresión en discusiones políticas y crean patrones y sesgos en los sistemas que detectan contenido de manera automatizada. Además, resaltó que la compañía no ofrece suficiente orientación a sus moderadores sobre la forma de abordar el contenido sobre aborto en relación a sus normas de violencia e incitación.
De acuerdo con el organismo, aunque la interpretación del tono y del contexto puede suponer dificultades en el análisis de un contenido, especialmente en casos de sátira o sarcasmo, los avances de la industria de la Inteligencia Artificial pueden corregir este tipo de fallas con métodos de machine learning que mejoren la moderación de las conversaciones en línea. El Consejo sugirió que el uso de técnicas emergentes de automatización podría ayudar a alinear los procesos de moderación con los derechos humanos, reduciendo el número de falsos positivos en la aplicación de sus normas.
El cambio de las reglas jurídicas para el aborto en Estados Unidos ha impactado antes en la forma de tratar conversaciones en línea sobre este tema. El año pasado, poco después de que se revocara la decisión Roe vs. Wade, se descubrió que Meta había eliminado publicaciones en inglés relacionadas con pastillas abortivas, mientras que otras relacionadas con drogas o armas –cuya promoción está prohibida– permanecían en línea.
Para evaluar si este tipo de fallos son sistemáticos o hechos aislados, el Consejo le recomendó a Meta compartir los datos utilizados para medir la precisión con la que se aplica su política de violencia e incitación.
Vivir con violencia en redes sociales
En esta edición, Circuito inaugura una sección de colaboración para que voces de todas partes hablen de redes sociales y democracia en América Latina.
Por: Esteban Morales*
Una encuesta de Microsoft estima que durante el último año el 76% de colombianos han experimentado algún tipo de contenido violento en redes sociales, incluyendo incitación al odio, acoso, insultos, violencia sexual o amenazas. Bajo este contexto, entender qué es la violencia en estos espacios nos permite empezar a imaginar un camino para reducir su impacto en nuestras vidas.
Con este objetivo tuve conversaciones con jóvenes de Medellín que usan frecuentemente las redes sociales y tienen un interés común en estudiar las culturas de paz. En estas conversaciones (compartidas en un reciente artículo publicado en la revista académica Social Media & Society) exploramos cómo, a medida que vivimos cada vez más a través de espacios digitales, la violencia entra a ser parte de nuestra dieta mediática.
Si bien el propósito inicial era hablar sobre violencia relacionada con el conflicto armado, las conversaciones rápidamente demostraron el amplio rango de violencias que experimentamos en las plataformas digitales: insultos en Facebook, videos de accidentes en Instagram, comentarios que ridiculizan el atuendo de alguien en TikTok, acosos a personas transexuales en Twitter, stickers en WhatsApp para burlarse de un compañero de clase, o videos sexuales filtrados en Telegram. Las redes sociales van más allá del conflicto armado para enmarcar otras formas más mundanas—pero no triviales—de violencia.
Todas estas manifestaciones se pueden organizar en cinco formas que toma la violencia en redes sociales. Primero, la violencia es representada a través de redes sociales—como, por ejemplo, cuando recibimos una foto de una masacre. Segundo, es ejercida directamente en redes sociales—como cuando recibimos insultos o amenazas como respuesta a alguna publicación. Tercero, es expandida por redes sociales—como cuando la delincuencia común utiliza mensajes directos para continuar cadenas de extorsión o estafa. Cuarto, la violencia es ejercida por las plataformas digitales—como cuando nos roban nuestra información personal o nos censuran. Y, finalmente, es naturalizada por redes sociales—como cuando nos acostumbramos a ver discursos que minimizan a las mujeres, restringiendo nuestra capacidad de transformar estas estructuras de opresión.
Estas formas de exposición a la violencia interactúan de forma compleja con los contextos en los que vivimos, ya sean en nuestro barrio, ciudad, país, o en otro lugar lejano. Las múltiples manifestaciones de violencia son fácilmente accesibles y transformadas a través de las redes sociales. De esta manera, la violencia que vivimos en estas plataformas se conecta con entornos violentos de los que normalmente no nos sentiríamos tan cercanos.
Cada plataforma organiza nuestra experiencia con estas formas de violencia de manera distinta. Por ejemplo, en Twitter (ahora X) suele ejercerse cuando los usuarios comparten contenidos nocivos o comentan las publicaciones de otros. En Facebook, se manifiesta a menudo en los comentarios de publicaciones. Por el contrario, en Instagram suele ser simbólica, como cuando la exposición de una vida perfecta pero inaccesible causa serios daños psicológicos. Por su parte, WhatsApp es una fuente de violencia privada e íntima, es decir, violencia que no es visible para los demás y que a menudo procede de personas conocidas, como familiares o amigos.
Comprender este fenómeno permite empezar a evaluar los impactos que tiene en nuestra vida y en sociedades con largas historias de violencia, como la colombiana. Una mirada integral evidencia la necesidad de promover culturas de paz dentro y fuera de los ambientes digitales.
Bajo esta perspectiva, la política actual de la mayoría de plataformas de moderar contenido que incluya cierto tipo de lenguaje o imágenes es un esfuerzo superficial –aunque necesario– para atender la violencia en sus plataformas. Solo un trabajo multisectorial, en el que iniciativas legislativas, tecnológicas y culturales se coordinen para identificar y combatir la toxicidad en redes sociales puede responder a la complejidad de la violencia digital.
Como advierte la politóloga francesa Françoise Vergès: "¿Podemos imaginar abordar sólo una parte de esta violencia sin tener en cuenta el resto? ¿Podemos seguir fingiendo que no vemos que todas estas formas de violencia se refuerzan mutuamente?"
En Colombia, donde empresas como Meta y Google tienen libertad de decidir qué es violencia y qué no (y por ende, con qué violencia debemos vivir en redes), es urgente sentar una agenda política, educativa, y cultural que afronte este reto con respuestas y medidas que se ajusten a las experiencias locales.
*Esteban Morales es candidato doctoral de la Universidad de British Columbia (Vancouver, Canadá). Su área de investigación es la intersección entre tecnología y sociedad, con especial interés en los procesos mediante los cuales los ciudadanos y las comunidades aprenden, resisten y se apropian de los medios digitales. Esteban tiene experiencia en el estudio de datos digitales, violencia en línea, alfabetización mediática y educación para la paz, entre otros. @EstebanMoralesV
Circuito académico 🎓
Las comunidades conspirativas son más resistentes a las suspensiones en redes sociales
Las comunidades digitales que se tejen alrededor de teorías conspirativas son un asunto de interés público, pues pueden convertirse en vehículos para coordinar eventos violentos, como ocurrió, por ejemplo, con la participación de QAnon en el asalto al Capitolio de Washington en 2021. Aunque las principales plataformas aplican políticas para suspender cuentas y evitar su consolidación y expansión, estos grupos han demostrado ser especialmente resistentes y capaces de reconstruirse en otras redes sociales.
Así lo expone un reciente estudio desarrollado por investigadores del Instituto CENTAI y de la Universidad de Roma, en el que se analizó el comportamiento comparado de dos comunidades suspendidas de Reddit en 2018: GreatAwakening, dedicada a promover la teoría de QAnon y FatPeopleHate, dedicada a ataques basados en la apariencia física de las personas.
De acuerdo con la investigación, luego de la expulsión de Reddit, el 16.7% de la comunidad GreatAwakening se reconstruyó en Voat, una plataforma análoga pero con menores estándares de moderación. Por su parte solo el 9.4% lo hizo en el caso de FatPeopleHate.
Según los investigadores, la resistencia de las comunidades conspirativas a desintegrarse radica en que sus miembros consideran su participación como parte de su identidad, pues la reconstrucción evidencia un esfuerzo por conservar narrativas, valores y conocimientos comunes. Por el contrario, en grupos con discursos problemáticos pero sin relación con conspiraciones, como FatPeopleHate, la participación puede tratarse de una actividad casual y no identitaria.