La manipulación con IA salta a las elecciones de América Latina - Botando Corriente #40
Además: X relaja sus reglas para capitalizar el contenido violento de la guerra | Cómo se mueve la desinformación en Telegram.
Las reglas del juego 🚨
X relaja sus reglas para capitalizar el contenido violento de la guerra
En medio del conflicto en Medio Oriente, en el que las redes sociales se han convertido en un foco de información problemática y contenido violento, la semana pasada, X –antes conocido como Twitter– cambió su política de excepciones de interés público. Según ésta, es posible que ciertos contenidos que incumplen las normas de la plataforma se mantengan en línea por considerarse relevantes para entender o debatir un asunto público.
En primer lugar, la plataforma cambió los requisitos para conceder esta excepción. Mientras que antes estaba limitada a cuentas verificadas y con más de 100.000 seguidores, ahora se habla simplemente de cuentas de “alto perfil”, una categoría para la que no se ofrece definición alguna. Como hemos explicado antes, con la ruptura del proceso de verificación –en busca de una fuente adicional de ingreso– los chulos azules en X dejaron de ser una señal para entender elementos como autenticidad, relevancia y confianza.
Por otro lado, X cambió la explicación de algunos casos en los que concede esta excepción. Ahora se podrá aplicar, por ejemplo, al contenido que niegue “que se produjeron masacres u otros eventos con una gran cantidad de víctimas”.
Este cambio se da sobre la marcha en el contexto del conflicto entre Israel y Hamás, en el que la sociedad civil ha sido la principal víctima. Hace unos días, el ayatola Jamenei, líder supremo de Irán, difundió un post en el que aseguraba que el “régimen usurpador sionista será erradicado en manos del pueblo palestino y las fuerzas de resistencia de la región”, una afirmación que incita a la violencia y al odio bajo las normas de la plataforma. Sobre la publicación, apareció un mensaje intersticial que indicaba que, a pesar de incumplir las políticas, se mantendría en línea por ser de interés público.
Según un comunicado de la compañía, estos cambios responden a la necesidad de permitir que el público conozca en tiempo real los eventos de la guerra entre Israel y Hamás, a pesar de que se trate de contenidos sensibles. Elon Musk siempre ha rechazado el rol del fact-checking por considerar que restringe la libertad de expresión y resulta sesgado. Ahora, con episodios violentos como la explosión en el hospital de Al Ahli en Gaza, donde se discuten y recriminan el número de víctimas y los responsables, la ampliación de la excepción busca que este contenido haga parte de la conversación.
No obstante, la realidad de X por estos días es una sobredosis de contenido violento –casi gore–, la desinformación rampante y la abundancia de cuentas desconocidas que aparecen como recomendadas con videos reciclados y de dudosa procedencia. El interés público no parece ser un incentivo ni de las cuentas ni de la plataforma, que goza de la ventana de atención de una noticia mundial.
La manipulación con IA salta a las elecciones de América Latina
“Durante doce horas todo crimen dentro de los límites de nuestro país será absolutamente legal”, dice la supuesta voz de Javier Milei, candidato presidencial en Argentina, en un video que ha circulado durante los últimos días en redes sociales. Según el video, que por momentos muestra al candidato explicando la propuesta, bajo su gobierno se llevaría a la práctica la trama de la película La purga (2013), en la que un régimen distópico autoriza un día para que los ciudadanos comentan delitos con total impunidad.
La pieza es un deepfake, una técnica de inteligencia artificial (IA) que permite manipular voces y rostros de personas para crear contenidos falsos. A pesar de que el discurso descabellado y el uso de imágenes de la película permiten deducir que no se trata de una propuesta real, el video logró sortear los sistemas de revisión de Meta y de YouTube y llegó a promoverse como publicidad política en estas redes sociales.
En teoría, la pauta en plataformas está sometida a mayores niveles de supervisión que el contenido orgánico. Sin embargo, de acuerdo con información de la Biblioteca de Anuncios de Meta, la publicidad sobre la supuesta purga de Milei alcanzó a ser vista entre 250.000 y 300.000 veces en Facebook e Instagram.
Las políticas de Meta prohíben los videos manipulados con IA que hagan creer a una persona promedio que quien ahí aparece “pronuncia palabras que no pronunció”. Estos criterios pueden resultar demasiado acotados para combatir los posibles usos negativos de la inteligencia artificial.
Por una parte, las normas se limitan a videos, por lo cual excluye imágenes creadas a través de modelos generativos como Dall-E o Midjourney. Por otra, deja de lado otros tipos de manipulación que no necesariamente involucran estas tecnologías, como lo señaló recientemente el periodista Casey Newton y como probablemente sea revisado por el Consejo asesor de contenidos de Meta a raíz del caso de un video alterado para señalar a Joe Biden como “pedófilo”.
El anuncio de la purga de Milei fue desactivado por Meta por no contar con un descargo de responsabilidad, un requisito que la compañía establece para que en la publicidad relacionada con asuntos sociales, políticos y electorales se indique la entidad o la persona encargada de publicar el anuncio. Detrás de la pauta está Alerta Argentina, una página con pocos seguidores creada en mayo de este año y que simplemente se presenta como un “servicio empresarial”.
En el caso de YouTube, ese mismo video apareció como publicidad promovida por empresas establecidas en Hong Kong, como lo reportaron usuarios en redes sociales. Aunque Google cuenta con un Centro de Transparencia Publicitaria, esta herramienta no incluye los contenidos eliminados por incumplir las políticas de publicidad o las normas comunitarias, por lo cual no es posible hacer un seguimiento de las estrategias y los actores involucrados.
El auge de la IA y la democratización del acceso a modelos generativos de video, audio y texto presentan nuevas vías para la divulgación de narrativas de desinformación más sofisticadas y convincentes. En América Latina, por ejemplo, estas tecnologías han sido utilizadas para difundir deepfakes en Facebook y TikTok a favor del gobierno de Andrés Manuel López Obrador en México y para promover propaganda de Nicolás Maduro en YouTube y medios estatales venezolanos.
De acuerdo con el informe Freedom on the Net 2023, publicado recientemente por la organización Freedom House, en el último año la IA ha acelerado el deterioro de la libertad de Internet. Entre otros, los modelos generativos han sido utilizados para silenciar activistas y propagar teorías falsas de fraude electoral.
Además de la irrupción de la IA, la temporada electoral en América Latina –que incluye también las elecciones locales en Colombia y el nuevo plebiscito constitucional en Chile– ha sido el escenario de tipos de manipulación más artesanal.
En el caso de Colombia, por ejemplo, se publicó en las últimas semanas un video en el que supuestamente Federico Gutiérrez, candidato a la alcaldía de Medellín, había sido grabado de manera clandestina por una modelo webcam. Sin embargo, se trataba de un fragmento de una entrevista que le había hecho una influenciadora y que fue descontextualizado a través de subtítulos.
Un caso similar ocurrió con Sergio Massa, candidato presidencial en Argentina y actual ministro de economía, quien aparecía en un video recibiendo una bolsa transparente con un contenido blanco. Según los subtítulos de la publicación, al mirar a la cámara Massa decía “siempre fui merquero”, sugiriendo que lo que recibía era cocaína. De acuerdo con la agencia Chequeado, que verificó la pieza, lo que en realidad dijo fue “siempre fui arquero”, y el contenido de la bolsa eran papeles.
Estuvimos conversando sobre el panorama de elecciones y redes sociales en América Latina en ‘Impossible Tradeoffs, el podcast de
. Pueden escuchar el episodio aquí🎧Circuito Académico💡
Cómo se mueve la desinformación en Telegram
Las plataformas con bajos estándares de moderación, como Telegram, han sido acusadas de convertirse en epicentros de desinformación. Sin embargo, un estudio reciente elaborado por investigadores del Instituto de Internet de la Universidad de Oxford señala que en estos espacios la información engañosa no tiene más alcance que las noticias producidas por medios profesionales.
De acuerdo con la investigación, los enlaces en Telegram que dirigen a medios tradicionales tienen un alcance de entre el 9 y 19% de la audiencia en Estados Unidos, mientras que el enlace más popular de una noticia falsa no supera el 7%.
El documento resalta que el contenido engañoso se comparte más veces, pero está limitado a pocos canales en Telegram. No obstante, esos canales son un 34% más activos que aquellos en los que las conversaciones no involucran noticias falsas.
Esto sugiere, según los investigadores, que la propagación de la desinformación no depende exclusivamente de los algoritmos, sino más bien de la participación activa de las comunidades en su difusión.