¿Cuál es el verdadero impacto de Meta en las elecciones? - Botando Corriente #35
Además: Meta deberá ajustar sus políticas de odio basado en género. Musk amenaza a un centro de investigación digital.
Las reglas del juego
Condenar la violencia de género no es discurso de odio en Meta
Aunque las políticas de Facebook e Instagram prohíben ataques basados en el sexo o el género de una persona, expresiones como “los hombres asesinan y violan mujeres” no incumplen esta norma cuando lo que buscan es condenar la violencia basada en género.
Así lo aclaró recientemente el Consejo asesor de contenidos de la compañía, al revisar un caso en el que dos publicaciones de Instagram habían sido eliminadas por contener expresiones semejantes, a pesar de que el contexto permitía saber que en el fondo no se criticaba a los hombres sino la violencia basada en género.
En el caso, el Consejo ordenó a Meta restablecer las publicaciones y le recomendó incluir en sus normas de lenguaje que incita al odio una excepción para este tipo de expresiones.
El impacto de Meta en las elecciones
Durante los últimos meses de 2020, cuando las elecciones presidenciales en Estados Unidos avanzaban en medio de teorías de fraude, intimidaciones a funcionarios electorales, intentos por deslegitimar el proceso y nuevos cuestionamientos a las redes sociales como focos de polarización, Facebook —ahora conocido como Meta— abrió sus puertas para que un grupo de investigadores experimentara con los algoritmos y midiera el verdadero impacto de sus plataformas en las elecciones.
Tres años después de que iniciara este proyecto, titulado US 2020, se han empezado a revelar los primeros resultados, que podrían contradecir las ideas que en los últimos años se han venido asentando sobre este fenómeno. Cuatro papers publicados la semana pasada en las revistas Science y Nature sugieren un papel más limitado que el que se le ha atribuido a Facebook y a Instagram en el fomento de la segregación ideológica, el consumo de noticias falsas y la exposición a contenido problemático relacionado con elecciones.
En uno de los estudios, se alteraron las páginas de inicio de miles de usuarios de Facebook e Instagram para exponerlos a información distinta a aquella con la cual normalmente interactuaban, con la intención de evaluar si este cambio podía afectar sus opiniones políticas o mitigar la polarización. En otro, se limitó la visibilidad del contenido viral, mientras que en un tercero el orden de las páginas de inicio pasó a ser cronológico, de manera que los usuarios quedaban expuestos a todo el contenido disponible en su red sin la intervención del algoritmo.
A pesar de que desde la academia y la sociedad civil se ha sugerido que medidas de este tipo podrían combatir la polarización en línea y aumentar la calidad del debate digital, los estudios—que contaron con investigación de datos y encuestas— no parecen probar esas hipótesis. De acuerdo con los resultados, los cambios no afectaron las posiciones políticas de los usuarios y por el contrario, a falta de sistemas que clasificaran el contenido, había mayor exposición a publicaciones problemáticas, como noticias falsas o discursos de odio. Además, al limitar la visibilidad del contenido más popular en la plataforma, se redujo la interacción y se disminuyó el acceso a la información política.
Los hallazgos refuerzan las tesis de las compañías de redes sociales, que han intentado paliar el vínculo entre sus sistemas de recomendación y la radicalización de algunos usuarios, bajo la premisa de que la calidad de la democracia empezó a disminuir años antes del auge de las redes sociales.
Otra de las investigaciones se centró en el consumo de noticias políticas durante la temporada electoral. De acuerdo con este estudio, existe una segregación ideológica en la forma en la que se recibe información de medios de comunicación en redes sociales. Se encontró, entonces, que en estos espacios circulan muchos más enlaces a portales de noticias conservadores, que a la vez tienen más etiquetas de advertencia aplicadas por verificadores de datos independientes.
Como lo hizo notar el periodista Casey Newton, los hallazgos deben leerse con una mayor perspectiva, pues Meta es apenas parte de un ecosistema de noticias mucho más amplio. Por lo tanto, no puede tomarse como la única vía por la cual los usuarios se informan. Aunque Meta pudo actuar para eliminar el contenido que aseguraba un fraude en las elecciones presidenciales, las mismas ideas seguían circulando en canales como Fox News, Newsmax y otros medios afines a Donald Trump.
Por otra parte, Frances Haugen —la exempleada de Facebook que en 2021 ventiló una serie de malas prácticas dentro de la compañía que a la larga se conocerían como los Facebook Files— aseguró que para el momento en que se llevaron a cabo las investigaciones Meta ya había implementado muchas de sus políticas para combatir la desinformación electoral. Además, los estudios se concentran en los algoritmos y en el orden de las páginas de inicio, mientras que el verdadero problema estaba focalizado en grupos de Facebook.
Para Katie Harbath, consultora y antigua directora de políticas públicas de Facebook, aunque los resultados desvirtúan ideas que han hecho carrera en los últimos años, no pueden ser una excusa para que Meta o las demás compañías de redes sociales bajen la guardia respecto a sus labores para proteger la integridad electoral.
En el pasado, otros estudios también han desestimado como causas de la polarización las teorías de las cámaras de eco o las burbujas de filtro, según las cuales las redes sociales aíslan a las personas en círculos en los que se reproducen sus propias convicciones. Sin embargo, esto no significa que la polarización no esté relacionada con la naturaleza de estos espacios digitales. De acuerdo con un artículo publicado el año pasado por el académico neerlandés Petter Törnberg, la polarización está dada por las identidades partidistas que surgen de la interacción en redes sociales y que los usuarios terminan adoptando al participar en línea.
Si bien US 2020 ofrece nuevas luces sobre las dinámicas de interacción en tiempos de elecciones, es necesario ahondar en otros factores en los que la infraestructura y los usos de redes sociales pueden afectar la democracia. Es el caso, por ejemplo, de las operaciones de influencia y la instrumentalización de estos espacios por parte de las campañas y agencias de comunicación política, como lo expuso un trabajo publicado a comienzos de esta semana por una alianza de medios regional liderada por el Centro Latinoamericano de Investigación Periodística —CLIP— sobre las estrategias inauténticas que se han desplegado en países como Bolivia, Venezuela, Colombia, Brasil y Chile.
Estos primeros estudios del US 2020 se presentan en un momento clave para Meta y otras compañías de redes sociales, pues dentro de poco estarán obligadas a evaluar los riesgos sistemáticos de sus actividades a la luz de la Ley de Servicios Digitales de la Unión Europea, incluyendo su impacto en elecciones. Para el editor Justin Hendrix y el académico Paul M. Barret, los resultados podrían dar pie a que las compañías subestimen el verdadero impacto de sus plataformas en los informes que deben presentar a los reguladores y en los planes que deben prever para mitigarlos.
Las investigaciones son el resultado de una alianza en la que participaron tanto miembros de la compañía como académicos independientes, liderados por Talia Jomini Stroud, fundadora y directora del Center for Media Engagement de la Universidad de Texas en Austin y por Joshua A. Tucker, codirector del Center for Social Media and Politics de la Universidad de Nueva York. De acuerdo con Nick Clegg, vicepresidente de asuntos globales de Meta, los investigadores externos trabajaron de manera independiente y no recibieron remuneración de la compañía. El curso de las investigaciones fue supervisado por el académico Michael W. Wagner, quien llevó la relatoría del proyecto y publicó un texto en Science que acompañó los primeros artículos publicados.
El proyecto de US 2020 se ha tomado en parte como un gesto de transparencia de Meta, pues una compañía de redes sociales nunca había permitido este nivel de acceso a sus sistemas. Sin embargo, también se han señalado las limitaciones del proyecto. Para Wagner, por más independencia y acceso que los investigadores tuvieran a las bases de la compañía, había una marcada asimetría de la información. Ante la compleja arquitectura de datos y de programación, los investigadores no eran conscientes de qué se les escapaba, en qué lugares podían indagar o qué insumos adicionales necesitaban. En palabras de Wagner, en estos casos, los académicos “no saben lo que no saben”.
En los próximos meses se irán publicando doce artículos adicionales que puedan ofrecer una mejor perspectiva sobre el impacto de las plataformas de Meta en procesos electorales. Las siguientes entregas tendrán por objeto la influencia de la publicidad política, el fomento de la segregación ideológica, y los efectos de la coordinación inauténtica.
Circuito Académico
Elon Musk amenaza legalmente a un centro de investigación digital⚠️
A comienzos de junio, el Center for Countering Hate Speech, una organización dedicada a investigar el discurso de odio en redes sociales, publicó un informe que concluía que Twitter –ahora conocida como X– había fallado en eliminar el 99% de los tuits con contenido de odio compartidos con usuarios verificados a través de Twitter Blue, el programa de suscripción que otorga por ocho dólares mensuales la insignia azul de la plataforma.
De acuerdo con el informe, tuits que aseguraban que la comunidad afro había hecho más daño que el Ku Klux Klan o que amenazaban a la población LGBTIQ+ con alusiones a armas de fuego permanecían en línea a pesar de haber sido reportado por los investigadores del Centro a través de las herramientas de denuncia de Twitter. Solo una de las publicaciones de las cien que tuvo en cuenta el estudio había sido eliminada de la plataforma, a pesar de que todas incumplían las reglas comunitarias. “La placa azul de Twitter solía ser un signo de autoridad y autenticidad, pero ahora está ligada a la promoción de odio y conspiraciones”, afirmó Imran Ahmed, director ejecutivo de la organización, en el texto en el que se compartía el estudio.
El lunes 31 de agosto, se conoció que X Corp. —la matriz de Twitter—, envió una carta al Centro acusándolo de hacer una serie de afirmaciones problemáticas e infundadas con el fin de perjudicar a Twitter. El reclamo, firmado por Alex Spiro, abogado de Elon Musk, amenazaba con una demanda por afectar a la marca. Para Ahmed, la respuesta de X es un intento para silenciar la crítica honesta y la investigación independiente.
Más allá de la metodología del estudio y de sus conclusiones, el episodio resalta las tensiones alrededor de la seguridad y confianza de una red social que permite amplificar voces a través de un suscripción. Por otra parte, la ofensiva de Musk se suma a su historial de resistencia frente a la auditoría externa en su plataforma, como ocurrió hace unos meses con el cobro por el acceso a la API de Twitter o con los cambios a los protocolos para presentar reportes de transparencia, insumos vitales para la investigación digital.