Los sistemas de recomendación que favorecen la explotación sexual infantil - Botando Corriente #32
Además: Meta deberá reevaluar sus esfuerzos para proteger la integridad electoral. WhatsApp lanza un producto que lo acerca a las redes sociales.
Las reglas del juego🚨
A raíz de un caso brasileño, Meta deberá reevaluar sus esfuerzos por proteger la integridad electoral
Así se lo recomendó hoy su Consejo asesor de contenidos, un órgano que actúa como un tribunal de cierre en casos de moderación, al revisar el caso de un video en el que un general afín a Jair Bolsonaro, poco antes de la insurrección en Brasil, incitaba a las personas a salir a las calles y tomarse los poderes públicos.
En el video, publicado el 3 de enero, las palabras del militar estaban seguidas de una secuencia de imágenes, entre las que se encontraba la de un incendio en la plaza de los Tres Poderes de Brasilia, donde se encuentran las sedes de la presidencia, el parlamento y las altas cortes de ese país. A su vez, el video incluía textos que llamaban a asaltar la capital y que reproducían el eslogan “Queremos el código fuente”, usado para cuestionar las máquinas de votación electrónica en el proceso que dio como ganador a Luiz Inácio Lula da Silva.
En su momento el video fue reportado y revisado por distintos moderadores, quienes no consideraron que incumpliera las políticas de la plataforma. El 9 de enero, un día después de que partidarios de Bolsonaro invadieran edificios gubernamentales en Brasilia, Meta declaró la insurrección como un “acontecimiento infractor” y anunció que eliminaría todas las publicaciones que lo apoyaran. El 20 de enero, cuando el Consejo preseleccionó este caso, Meta consideró que se había equivocado y eliminó la publicación.
Si bien criticar un proceso electoral está protegido por la libertad de expresión, en algunas ocasiones esas afirmaciones pueden llevar a eventos violentos. De acuerdo con el Consejo, para el momento en que se publicó el video ya se habían presentado disturbios civiles relacionados con un supuesto fraude electoral, lo que sumado al tono de la publicación justificaba que ésta fuera retirada.
Durante el proceso de revisión de este caso, Meta no pudo ofrecer información clara sobre sus acciones durante este episodio en Brasil, por lo cual el Consejo le recomendó elaborar un marco para evaluar sus esfuerzos por proteger la integridad electoral. Este marco debe incluir métricas de aplicación de políticas y el enfoque para tratar la publicidad política. Además, la compañía deberá explicar los protocolos que utiliza para prevenir y tratar los riesgos potenciales en contextos electorales y otros acontecimientos de alto riesgo.
Según estudio, los algoritmos de Twitter e Instagram favorecen redes de material de explotación sexual infantil
Durante años se han diseñado reglas y protocolos para luchar contra la difusión de contenido de explotación sexual infantil en Internet. Estos mecanismos, que se estructuran sobre leyes nacionales e internacionales, se han enfocado sobre todo en contener y detectar redes que trafican imágenes y videos de menores de edad, que los acosan en línea o pretenden llevar a cabo encuentros presenciales. Sin embargo, en los últimos años se ha añadido un fenómeno a la ecuación: el contenido producido y puesto en venta directamente por menores de edad.
Una investigación reciente del Internet Observatory de la Universidad de Stanford, identificó una red de más de 400 cuentas en Instagram, presumiblemente manejadas por menores, que ofrecen contenido sexual infantil producido por ellos mismos. El estudio encontró además 128 cuentas con actividad similar en Twitter.
De acuerdo con el documento, estas cuentas ofrecen un menú de contenidos prohibidos que no solo incluyen material explícito, sino autolesiones, venta de servicios sexuales y zoofilia. Dada la edad de los vendedores y su falta de bancarización, las transacciones se estarían haciendo a través de tarjetas de regalo y G2G, una plataforma de compra y venta de bienes digitales.
El comercio y la divulgación de este tipo de material, además constituir delitos, están prohibidos por las políticas de las plataformas. Sin embargo, la investigación demostró que los usuarios pueden acceder fácilmente a estas publicaciones. Por ejemplo, cuando se busca palabras clave y hashtags relacionados con contenido de explotación sexual infantil en Instagram, es posible encontrar el material y las cuentas que lo divulgan simplemente esquivando un mensaje de advertencia que se despliega sobre los resultados.
Por otra parte, la investigación da cuenta de cómo estos perfiles se valen del uso de publicaciones efímeras, como las historias, para ofrecer su contenido.
Más allá de las fallas de moderación, que existen tanto en este tema como en los demás contenidos prohibidos por las normas de las plataformas, la razón por la que estas redes encuentran un ambiente más propenso en Instagram y Twitter está en las decisiones de diseño.
Los investigadores encontraron que la función de cuentas recomendadas de estas dos redes sociales favorece a quienes buscan contenido de abuso sexual infantil. De esta manera, cuando un usuario encuentra un perfil que se dedica a publicar este material en Instagram o en Twitter, los sistemas de recomendación de estas plataformas le ofrecen la posibilidad de seguir cuentas análogas.
Es esta misma razón la que explica por qué, a pesar de su popularidad entre el público infantil y adolescente, TikTok no es una red social particularmente útil para estas actividades. De acuerdo con la investigación, el sistema de recomendaciones de esta plataforma no está diseñado para construir comunidades, sino para distribuir contenido, lo que dificulta que los usuarios encuentren este material intencionalmente. Además, las búsquedas de palabras claves y hashtags no arrojaron resultados relevantes.
La investigación incluyó también el estudio de espacios como Telegram y Discord, donde se sospecha que estas redes de distribución pueden tener lugar, pues varias cuentas identificadas en Instagram dirigían a enlaces a grupos en estas plataformas. Sin embargo, al tratarse de comunidades privadas, se tomó la decisión de no ingresar y de denunciarlas en el NMEC (National Center for Missing and Exploited Children), el centro de reporte de abuso infantil en Estados Unidos.
Por su parte, plataformas como Mastodon y Facebook resultan menos atractivas para la promoción de estos contenidos. La primera, por limitaciones en su estructura, como la ausencia de mensajes directos y su carácter descentralizado, en el que servidores con menores estándares de moderación terminan relegados y son de difícil acceso. La segunda, por su falta de popularidad entre los usuarios más jóvenes y por su política de nombres reales, que impide el uso de seudónimos para incursionar en esta clase de delitos.
El contenido sexual producido por menores de edad es un problema creciente en el nivel global. De acuerdo con la Internet Watch Foundation, la pandemia disparó este fenómeno, pues se redujeron las posibilidades de los agresores sexuales de cometer abusos en la vida offline y se aumentó la demanda de imágenes de menores en Internet. En 2020, el año de los confinamientos, las denuncias sobre material autogenerado registraron un aumento del 77% respecto al año anterior.
Según cifras de Te Protejo, una línea de reporte para la protección de menores en Colombia desarrollada por la organización Red PaPaz, en 2021 se registraron más de 14.600 denuncias de material de explotación sexual infantil, de las cuales el 61% correspondía a contenidos producidos por menores.
Ese mismo año, una investigación llevada a cabo por Viguías, el centro de Internet seguro de Red PaPaz, identificó que entre los principales factores de vulnerabilidad que llevan a niños, niñas y adolescentes a producir esta clase de contenidos se encuentran síntomas de depresión y el acceso a internet por tiempos prolongados y sin supervisión. A su vez, un informe de amenazas globales de la alianza WeProtect sugiere que la pobreza puede influir en el aumento del comercio del contenido sexual producido por menores.
Luego de que se publicara la investigación del Stanford Internet Observatory, Meta, la compañía matriz de Instagram, aseguró que establecería un equipo de trabajo interno para evitar que sus sistemas de recomendación favorecieran el crecimiento de estas redes.
De acuerdo con los investigadores, además de resolver estos incentivos negativos del diseño de las plataformas, es necesario un trabajo coordinado entre compañías de Internet que permita detectar señales, como las publicaciones que ofrecen material a través de enlaces a otras redes sociales o la actividad de usuarios mayores de edad que se contactan constantemente con menores.
En cuanto al tratamiento de las cuentas de niños, niñas y adolescentes que ofrecen este contenido, el informe llama la atención sobre la necesidad de aplicar las suspensiones correspondientes, que deben ir acompañadas de recursos que desestimulen la reincidencia, como la advertencia de consecuencias legales, los riesgos de ser víctima de extorsiones sexuales o acoso y enlaces a centros de apoyo.
Conéctate con Circuito⚡
Canales: el producto que acerca a Whatsapp a las redes sociales
A comienzos de junio, la aplicación de mensajería de Meta lanzó un piloto en Colombia y en Singapur para probar Canales, una funcionalidad que le permitirá a los usuarios comunicarse unilateralmente con grandes audiencias. Esta herramienta, que acerca a Whatsapp al modelo de ciertas redes sociales, pone sobre la compañía la carga de moderar el contenido publicado en estos espacios para evitar que se conviertan en medios de difusión de noticias falsas, discursos de odio u otros contenidos problemáticos.