La nueva ola de leyes de seguridad infantil en línea - Botando Corriente # 47
Además: Meta deberá reestructurar su política de medios manipulados|La desinformación sobre la crisis climática cambia de discurso y monetiza en YouTube.
“Nadie debería haber atravesado las cosas que sus familias han sufrido”, dijo la semana pasada Mark Zuckerberg a los familiares de adolescentes afectados por el uso de redes sociales. El acto de perdón acaparó los principales titulares de la última comparecencia de las compañías de redes sociales en el Congreso de Estados Unidos. Más allá de este obligado ‘performance’ del CEO de Meta, en el horizonte están las distintas iniciativas de ley que se tramitan en ese y en otros países para proteger a los menores de edad en línea y que podrían cambiar las reglas de juego de Internet.
Durante años, las plataformas han sido señaladas de afectar a sus usuarios –en especial de los más jóvenes– alrededor de varios frentes: por exponerlos a contenido ilegal, por promover conversaciones a favor de trastornos alimenticios, por permitir el matoneo, o por facilitar el tráfico de material de explotación sexual infantil.
Por ejemplo, 2023 y lo que va de 2024, la línea de reporte Te Protejo, desarrollada por la organización colombiana Red PaPaz, ha recibido 39.000 registros de situaciones que amenazan o vulneran los derechos de niños, niñas y adolescentes, de los cuales el 97% corresponde a espacios digitales.
A partir de estas preocupaciones, una ola de normas para proteger a los menores ha empezado a expedirse a lo largo de Estados Unidos. En 2022, el estado de Luisiana aprobó una ley según la cual cualquier compañía que distribuye material dañino para menores en páginas web será responsable si no cuenta con métodos razonables de verificación de edad. Desde entonces, siete estados más adoptaron leyes semejantes y se prevé que otros treinta lo hagan en el transcurso de este año.
Para organizaciones como la Free Speech Coalition (FSC), iniciativas de este tipo pueden terminar afectando la libertad de expresión en línea, el anonimato y la privacidad de los usuarios. Según estas normas, las compañías de Internet pueden comprobar la edad de los usuarios a través de documentos de identidad oficiales, datos bancarios o bases de datos comerciales. Para FSC, estas propuestas pueden ser inconvenientes: por un lado, los usuarios podrían evadirse fácilmente los obstáculos legales mediante uso de VPN (red privadas virtuales); por el otro, la transmisión de datos sensibles, como documentos de identidad, abre riesgos de seguridad.
Mientras estas normas van surgiendo localmente, un proyecto de alcance nacional se abre camino en el Capitolio norteamericano. La ley de seguridad infantil en línea –KOSA, por sus siglas en inglés– busca prevenir la exposición de menores de edad a contenido peligroso. Sin embargo, el proyecto prevé que la decisión sobre lo que se considere peligroso esté en manos de los fiscales generales de cada estado, lo que para algunos sectores de la sociedad civil podría prestarse para limitaciones arbitrarias a la libertad de expresión.
Según la Electronic Frontier Foundation, el diseño de esta ley podría incentivar a que las plataformas, para no ser sancionadas, supriman conversaciones que discutan asuntos como la discriminación racial o la identidad de género, que en algunos contextos en Estados Unidos han sido señalados como temas delicados para los niños.
Las discusiones sobre la regulación de Internet para proteger a menores de edad están terciadas además por la pregunta sobre qué tanto inciden realmente las redes en la salud mental de los jóvenes.
En los últimos años se han llevado a cabo investigaciones que indican una relación entre la actividad en plataformas y la epidemia de enfermedades de salud mental en adolescentes. Incluso una investigación interna de Instagram, conocida a través de la filtración de documentos de la compañía en 2021, reveló que la plataforma empeoraba los problemas de imagen corporal de una de cada tres adolescentes.
En 2023, un informe del Cirujano general de Estados Unidos, indicó que a pesar de ciertos beneficios de las redes sociales para adolescentes –recibir apoyo de gente en momentos dífíciles, estar en contacto con otras personas o tener un espacio para expresar su creatividad–, las plataformas tienen también el potencial de afectar la salud mental de los menores.
Sin embargo, estudios recientes han dado pie a cierto nivel de escepticismo. En el mismo espacio en el que ofreció disculpas a las víctimas, Mark Zuckerberg citó un informe de la Academia Nacional de Ciencias que sugiere que no hay suficiente evidencia para establecer un nexo causal entre el deterioro en la salud mental y el uso de redes sociales, una visión que coincide con la de una investigación del Instituto de Internet de Oxford publicada a finales de 2023.
De cualquier forma, estos insumos indican que hace falta mayor investigación para llegar a una conclusión definitiva, para lo cual es necesario acceder a más datos de las plataformas. “Estos datos existen y son continuamente analizados por compañías globales de tecnología para marketing y mejoras de producto, pero desafortunadamente no son accesibles para la investigación independiente”, señala el trabajo de Oxford.
Más allá del nivel de precisión que pueda alcanzarse sobre este punto, las leyes de seguridad infantil en Internet persiguen un objetivo deseable: proteger a niños, niñas y adolescentes en espacios digitales y hacer responsables a las plataformas digitales de sus propios productos. “Los principios de seguridad y ética por diseño deben convertirse en requisitos mínimos para el desarrollo de productos y servicios, y es imprescindible que sean regulados y obligatorios para todos los actores involucrados”, asegura la organización Red PaPaz.
Las reglas del juego
Meta deberá reestructurar su política de medios manipulados 🤖
Esta semana, el Consejo asesor de contenidos de Meta –un organismo que actúa como Corte Suprema en asuntos de moderación de la compañía– señaló que las reglas de la plataforma para prevenir engaños y ataques a través de contenidos manipulados son muy limitadas.
Esto, a raíz de la revisión de un video en el que el presidente Joe Biden aparece poniendo una calcomanía en el pecho de su nieta, el cual fue editado en bucle para hacerlo ver como un toque inapropiado.
De acuerdo con el Consejo, la pieza no incumple la actual política de medios manipulados, pues esta solo prohíbe el contenido alterado que haga parecer que alguien dijo algo que en realidad nunca dijo o cuando se utilizan métodos de inteligencia artificial, como ‘deepfakes’.
Sin embargo, el organismo criticó que las políticas de Meta estuvieran enfocadas en cómo se crea el contenido en lugar de los daños específicos que puede causar. Por esta razón, recomendó que las normas sean modificadas para abarcar contenidos donde se hayan alterado audios y técnicas de manipulación menos sofisticadas, conocidas también como ‘cheapfakes’.
El organismo también recomendó que en casos de que los contenidos no incumplan ninguna norma, sean etiquetados para indicar que han sido alterados. Asimismo, ante la gran cantidad de elecciones previstas para 2024, el Consejo insistió en que estas recomendaciones sean adoptadas por Meta con celeridad.
Polo a tierra
La desinformación sobre la crisis climática cambia de discurso y monetiza en YouTube 📹🌍
A pesar de que 2023 marcó las temperaturas más altas desde que se tiene registro, los negacionistas del cambio climático siguen encontrando en redes sociales una vía para desacreditar la lucha contra el cambio climático. Un reciente estudio del Center for Countering Digital Hate examinó este fenómeno en YouTube, en el que se reveló un cambio de estrategia en la narrativa negacionista.
Ante la evidencia sobre el calentamiento global, en lugar de negar la existencia de este fenómeno se ha optado por poner en duda la eficacia de las soluciones propuestas para combatirlo y la confiabilidad de la ciencia para contrarrestarlo. El estudio, que a través de herramientas de IA categorizó y analizó transcripciones de videos de 96 canales, demostró que el 70% de las conversaciones sobre el clima en YouTube durante el último año adoptaron este enfoque escéptico.
La investigación también destacó que a pesar de que hay directrices de Google para evitar la monetización de contenidos que niegan el cambio climático, YouTube aún genera aproximadamente 13,1 millones de dólares anuales en publicidad en dichos canales. La razón de esto, según los investigadores, es que las políticas vigentes solo abordan las narrativas que niegan el cambio climático, y no el cambio de discurso para minar los esfuerzos ambientalistas.
Si bien el negacionismo tradicional ha disminuido, representando ahora solo el 30% de la conversación en YouTube, el informe hace énfasis en la necesidad de que esta y otras plataformas digitales actualicen sus políticas para contrarrestar la táctica escéptica emergente mediante la desmonetización y limitación del alcance de este tipo de contenidos.