Los algoritmos pasan al banquillo de los acusados - Botando Corriente #24
Además: Twitter cambia sus normas sobre ataques violentos. Se desmantelan tres operaciones de influencia en América Latina. La relación de dependencia entre plataformas y medios.
Las reglas del juego
Nuevas excepciones para hablar sobre ataques violentos en Twitter
Luego de varios meses de inactividad en las normas comunitarias de Twitter, la plataforma en manos de Elon Musk ha empezado a introducir modificaciones. A su norma de “Perpetradores de ataques violentos” se le agregaron esta semana nuevas excepciones. Por lo general, la plataforma prohíbe las cuentas de personas que hayan participado en ataques terroristas, extremistas o con víctimas masivas, así como el contenido que glorifique estos eventos o comparta manifiestos de quienes los ejecutan. Sin embargo, la plataforma introdujo una excepción de interés público para las publicaciones de testigos o personas que hayan ayudado a detener un ataque, el contenido que muestre el uso de la fuerza por parte de la policía o los militares, y casos de abuso de derechos humanos o de defensa propia.
Si bien estos cambios se orientan a ampliar las posibilidades de expresarse sobre estos temas y a reducir el número de falsos positivos de cuentas y contenidos, lo cierto es que hacen aún más demandante el análisis de contexto, en un momento en el que los equipos de seguridad y confianza de Twitter se encuentran bastante debilitados. De momento, los cambios solo se han registrado en la versión en inglés de las políticas.
Los algoritmos pasan al banquillo de los acusados
La semana pasada, la Corte Suprema de Estados Unidos inició audiencias para escuchar los argumentos de las partes involucradas en dos casos que podrían afectar la forma en la que han funcionado las redes sociales y la estructura del internet que conocemos.
En el primero, Gonzalez v. Google quienes demandan a la plataforma son los padres de una joven estudiante que murió víctima de los atentados terroristas de París en noviembre de 2015, atribuido al Estado Islámico. De acuerdo con los demandantes, Google contribuyó a que la tragedia ocurriera pues los algoritmos de YouTube, a través del sistema de recomendaciones, expusieron a usuarios a contenido extremista.
Por otra parte está Twitter v. Taamneh, un caso similar en el que los familiares de una persona muerta en un ataque terrorista en Estambul en 2017 buscan declarar a la compañía responsable por no eliminar oportunamente de su plataforma contenido mediante el cual el Estado Islámico reclutaba y entrenaba terroristas.
En el núcleo del asunto está la sección 230 de la Ley de Decencia en las Comunicaciones, una disposición de Estados Unidos que da inmunidad a los intermediarios de internet —incluyendo a las redes sociales— respecto al contenido que terceros publican en sus plataformas y que además les da facultades a estos actores para moderar conversaciones de acuerdo a sus propios criterios. La norma ha permitido el desarrollo del Internet de hoy y el crecimiento de compañías como Facebook, Twitter o YouTube, que no podrían existir si tuvieran que responder por las publicaciones de sus usuarios.
En los últimos años la sección 230 ha sido objeto de decenas de proyectos de ley que han pretendido eliminarla o modificarla de muy distintas maneras, sin que ninguna haya tenido éxito hasta ahora. Para los republicanos, comenzando por Donald Trump, la norma se ha convertido en una licencia para censurar los puntos de vista conservadores. Para los demócratas, encabezados por Joe Biden, la norma es demasiado laxa frente a la responsabilidad que las compañías de redes sociales deberían tener en el control de la desinformación y el discurso de odio.
La preocupación es que el futuro de esta ley esté ahora en manos de la Corte Suprema, una corporación que tradicionalmente ha intentado resolver problemas a través de principios universales y prácticamente inamovibles, un método que parece incompatible con la evolución constante de la tecnología, como lo han señalado los periodistas Sam Baker y Ashley Gold.
La primera audiencia del caso Gonzalez v. Google hizo patentes las dificultades de resolver un asunto tan técnico por la vía judicial. Como la demanda pretende hacer responsable a la compañía por las decisiones de sus sistemas de recomendación, las preguntas de los jueces indagaron sobre una pretendida “neutralidad de los algoritmos”, un concepto vago que podría plantearse para determinar cuándo las plataformas conservan o pierden su inmunidad por lo que recomienden a los usuarios. Sin embargo, esta noción resulta contradictoria frente a lo que en realidad significan los algoritmos, que por definición buscan siempre priorizar unos contenidos sobre otros.
Aunque es poco probable que las pretensiones de los demandantes sean acogidas —pues ni siquiera se ha intentado probar que las recomendaciones YouTube o las acciones de Twitter en efecto llevaran a que algún usuario terminara por unirse a un grupo terrorista—, la forma en la que la Corte tome las decisiones de estos dos casos puede tocar la piedra angular del mundo digital, pues como lo dijo la propia juez Elena Kagan durante la audiencia de Google: los jueces “no son los nueve mayores expertos de Internet”.
El negocio, socio
Tres operaciones de influencia son desmanteladas en América Latina
De acuerdo con información reciente, distintos gobiernos de la región están implementando dentro de sus estrategias de influencia el uso de cuentas y páginas falsas para difundir propaganda a su favor. El último informe trimestral de amenazas de Meta, un documento que la compañía publica para dar cuenta de las operaciones inauténticas que detecta y elimina de sus plataformas, reveló dos redes establecidas en Bolivia y en Cuba para acosar a la oposición y exaltar la labor de mandatarios y partidos oficialistas. A su vez, una investigación de la organización venezolana Cazadores de Fake News informó sobre una operación de publicidad en YouTube que se valía de la inteligencia artificial para difundir noticias falsas a favor de la revolución bolivariana en Venezuela.
En el caso de Bolivia, la investigación de Meta concluyó que la operación había sido gestionada por personas vinculadas al gobierno, al partido Movimiento al Socialismo o al grupo “Guerreros Digitales”, que ahora está vetado en Facebook e Instagram. La red creaba cuentas falsas para administrar páginas que se hacían pasar por medios de comunicación y amplificar de manera inauténtica las interacciones del contenido propagandístico.
En cuanto a Cuba, una operación similar pretendía crear la percepción de un apoyo generalizado al régimen y un rechazo a la diáspora cubana en Estados Unidos y el resto del mundo. Además de Facebook e Instagram, la actividad de estas redes se desplegó a través de otras plataformas, como Twitter, Telegram, YouTube, Spotify y Picta, un servicio cubano de streaming. En ambos casos, las operaciones incluían reportes masivos contra las cuentas y contenidos de la oposición.
Estas recientes campañas inauténticas en América Latina exponen también los riesgos de la democratización de las herramientas de inteligencia artificial en los últimos tiempos. De acuerdo con la organización Cazadores de Fake News y el diario El País, una operación de propaganda a favor del gobierno de Maduro fue divulgada —en ocasiones mediante anuncios— utilizando modelos de IA que permiten crear rostros y voces artificiales. En la campaña, una serie de supuestos periodistas, que en realidad eran avatares, informaban sobre mejoras en la situación social y económica de Venezuela.
El episodio da cuenta de la forma en la que estas nuevas tecnologías pueden usarse para optimizar la producción de contenido desinformativo, una preocupación global desde la apertura de programas gratuitos o relativamente baratos que permiten generar texto, imágenes, audio y videos artificiales en muy pocos pasos.
Circuito Académico👓
La estrategia de las plataformas para cooptar al periodismo
Durante los últimos años las plataformas de redes sociales han subsidiado el trabajo de periodistas a través de créditos de anuncios, pagos, entrenamientos, becas o donaciones. Programas como el Facebook Journalism Project o la Google News Iniciative han entregado cerca de 600 millones de dólares a medios de comunicación alrededor del mundo.
El paper de Charis Papaevangelou titulado Funding Intermediaries: Google and Facebook Strategy to Capture Journalism indaga en la difícil relación de dependencia que este tipo de programas ha provocado en la prensa. Si bien los auxilios tienden a verse como una alternativa para la crisis generalizada de los medios de comunicación en el mundo, la investigación plantea que a través de estos programas las plataformas se aseguran de que cualquier posible remedio necesariamente pase por el uso de sus herramientas y servicios, así como de su apoyo financiero, dando lugar a una relación asimétrica que termina siendo más problemática por la falta de transparencia de los acuerdos.
El informe cita casos en los que esta forma de dominación impacta en el debate público, como ocurrió en Brasil, donde las plataformas pudieron oponerse a un proyecto de regulación que les era desfavorable con el apoyo de organizaciones periodísticas que habían sido beneficiarias de sus programas.