La Unión Europea aprieta a las plataformas - Botando Corriente #33
Además: Meta entra a competirle a Twitter con una red descentralizada. Los riesgos del contenido de abuso sexual infantil generado por IA.
Las reglas del juego
Meta entra a competirle a Twitter con un modelo descentralizado🧵
Pocos días después de que la propuesta de Elon Musk de limitar las visualizaciones de tuits desatara una nueva crisis en su plataforma, Meta lanzó al público Threads, una aplicación diseñada por el equipo de Instagram para compartir textos de hasta 500 caracteres.
Aunque desde la llegada de Musk a Twitter se han postulado muchos candidatos para remplazarla, esta nueva apuesta de Meta cuenta con los recursos humanos, de moderación y de usuarios necesarios para ponerse a la cabeza en la carrera por suceder a Twitter.
De momento, la plataforma es un clon básico de Twitter y funciona de la misma forma centralizada como todas las redes sociales. No obstante, según Meta, en el futuro Threads se integrará a ActivityPub, un protocolo descentralizado que la hará compatible con otras aplicaciones, como Mastodon.
Si bien Threads empieza con las mismas normas comunitarias de Instagram, este tipo de interoperabilidad permitiría –si finalmente se lleva a cabo– que los usuarios puedan transferir sus datos a otros servidores que se rijan bajo ActivityPub, con lo cual tendrían acceso a otras reglas de contenido y políticas de moderación que desarrollen terceros.
Aunque esta primera versión de Threads recuerda en sus puntos esenciales a Twitter, su página principal se alimenta de recomendaciones de contenido, siguiendo de cierta manera el paradigma de TikTok que a su vez ha venido implementando Instagram, a pesar de la resistencia que tuvo por parte de sus usuarios el año pasado. No hay, por lo pronto, una forma en que los migrantes a esta nueva red social puedan ver solo las publicaciones de las cuentas que siguen.
En menos de 24 horas, Threads ha acumulado más de 30 millones de usuarios registrados, según lo ha venido informando Mark Zuckerberg a través de sus hilos. Sin embargo, la aplicación todavía no está disponible en la Unión Europea –donde Instagram tiene 250 millones de usuarios activos–, mientras el producto se ajusta a los requerimientos de las normas de protección de datos para operar en ese territorio.
Tenemos tiempo, en todo caso, para hablar de regulación europea👇.
La Unión Europea aprieta a las plataformas
Hace un par de semanas, el comisionado de Mercado Interno de la Unión Europea, Thierry Breton, visitó las oficinas de Twitter en San Francisco para hacerle una “prueba de esfuerzo” a la empresa respecto a su capacidad para operar legalmente en Europa. “La compañía se está tomando este ejercicio muy en serio”, dijo Breton después de la reunión, a la que Elon Musk se sumó por videollamada y que más pareció un acto de relaciones públicas que una acción de supervisión. En un tour de dos días por California, el Comisionado también se tomó foto con Mark Zuckerberg, de Meta, y Sam Altman, de OpenAI.
La Ley de Servicios Digitales (DSA, por su nombre en inglés) fue expedida por la Unión Europea en octubre del año pasado, y establece una serie de requerimientos para las plataformas de Internet en materia de contenido ilegal, publicidad, desinformación y transparencia. Como parte de su implementación, la Comisión Europea elaboró una lista de compañías que tendrán que cumplir con la DSA a partir de agosto próximo, la cual incluye a todas las redes sociales masivas: TikTok, Facebook, Instagram, Youtube y Twitter.
Para la académica Daphne Keller la “prueba de esfuerzo” de la que habla el comisionado Breton es tan teatral como el anunciado combate en una jaula entre Musk y Zuckerberg. Según reportó The Guardian, la visita exprés del regulador europeo permitió evaluar los controles que tiene Twitter contra la desinformación rusa, las noticias falsas y el contenido de explotación sexual de menores. “No me imagino una prueba que pueda replicar los problemas del mundo real de escala, complejidad, juicios de valor y patrones de uso”, opinó Keller.
En el trasfondo de esta crítica está la pregunta por los estándares que impone la DSA y la capacidad real de la Unión Europea para supervisar su cumplimiento –todo lo cual impactará la conversación en América Latina–. La puesta en marcha de la DSA coincide, además, con la entrada en vigencia de la Ley de Mercados Digitales (DMA, por su nombre en inglés) en Europa, que busca asegurar un mercado digital abierto y justo.
A continuación damos un vistazo a ambas y señalamos algunas posibles tensiones y repercusiones para la región.
DSA: se acerca la hora de las obligaciones
En abril de este año se conoció cuáles compañías de tecnología serían consideradas como “plataformas en línea de muy gran tamaño”, la redundante designación de la DSA para quienes deberán asumir las mayores obligaciones en razón al número de usuarios en la Unión Europea. Dentro del grupo se encuentran 19 compañías de redes sociales, comercio y otros servicios entre las que se incluyen Facebook, Twitter, TikTok, YouTube, LinkedIn, Amazon, Booking, Google y Wikipedia, entre otros. A partir del 25 de agosto, estas compañías deberán:
Dejar de mostrar anuncios basados en datos sensibles como la religión o la ideología política de los usuarios.
Presentar evaluaciones de riesgo que muestren cómo sus sistemas de moderación, recomendación y publicidad pueden influir en la difusión y amplificación de contenido ilegal o afectar la libertad de expresión, la privacidad o igualdad de sus usuarios.
Someterse a auditorías externas que analicen sus planes para mitigar los riesgos derivados de su actividad.
Publicar un repositorio de información sobre sus anuncios en el cual sea posible consultar el contenido de la publicidad, quién la publica, el periodo en el que estuvo al aire y el número de usuarios alcanzados.
DMA: las cargas de los guardianes
Guardianes de acceso es la forma en la que la DMA se refiere a las compañías con un gran poder de mercado en el espacio económico europeo y que por tanto deberán cumplir con reglas para mitigar la concentración o el abuso de posición dominante. El lunes pasado, el comisionado Thierry Breton dio a conocer que Alphabet –matriz de Google–, Bytedance –matriz de TikTok–, Meta, Amazon, Apple, Microsoft y Samsung, tendrán las obligaciones a cargo de los guardianes de acceso, entre las que se encuentran las siguientes:
Permitir que los usuarios desinstalen fácilmente aplicaciones preinstaladas o que cambien la configuración de los sistemas operativos, asistentes virtuales o navegadores que dirigen a productos y servicios de esas mismas compañías.
Permitir que los usuarios cancelen suscripciones con la misma facilidad con las que las contratan.
No rastrear a los usuarios finales fuera del servicio de la plataforma con la finalidad de enviarles publicidad personalizada.
Los servicios de mensajería tendrán además la obligación de ser interoperables en sus funciones básicas –como llamadas, mensajes de texto y videollamadas– con otros servicios similares. De esta manera, por ejemplo Whatsapp tendría que poder recibir y enviar mensajes hacia aplicaciones como Signal o Telegram, de igual forma en la que se pueden enviar correos electrónicos a direcciones distintas.
Los requerimientos de ambas normas generan tensiones y retos en su implementación que veremos en juego en los próximos meses. Por ejemplo, frente al último punto de los servicios de mensajería de la DMA, hay una paradoja de fondo. Aunque la interoperabilidad ha sido un reclamo constante por parte de la sociedad civil, algunos analistas advierten los riesgos para la privacidad de los usuarios, toda vez que no es claro cómo podría conservarse el cifrado de extremo a extremo en sistemas interconectados con distintos niveles de seguridad.
Por otra parte, un punto central de la DSA son las obligaciones de reporte, que deben incluir tasas de información “precisas” sobre los sistemas automatizados de moderación. Según un estudio académico reciente, el término es ambiguo y de difícil aplicación: “el término ‘precisión’ por sí mismo deja la implementación técnica sin especificar, y necesitará aclaración a través de directrices administrativas o enmiendas legislativas”. Esta misma crítica podría hacerse de las auditorías que exige la DSA, una práctica inédita en el sector y de mucho trabajo táctico.
Sin que sean contradictorias, la DMA y DSA caminan por carriles distintos: mientras la primera propende por un mercado dinámico y menos concentrado, la segunda intenta establecer estándares y vigilancia para la moderación de contenidos, lo cual resulta más viable con pocos actores en el sector. De una u otra manera, la Unión Europea tomó hace rato la posta en materia de regulación de plataformas y redes sociales, un proceso que siguen de cerca varios países de América Latina –comenzando por Brasil–.
Mientras tanto, el Congreso de Estados Unidos sigue bloqueado entre Republicanos y Demócratas, limitado a las audiencias públicas y las peroratas de los legisladores. Del otro lado nos quedan actos teatrales como el que hizo el comisionado Breton en California, quien, sin embargo, tiene un par de ases bajo la manga para sentarse a la mesa con los poderosos jugadores de Silicon Valley.
Circuito Académico
Los riesgos del contenido de explotación infantil producido por IA⚠️
En junio de este año, el FBI emitió una alerta sobre el uso de la inteligencia artificial para crear contenido sexual de menores con un alto grado de credibilidad. A pesar de que no se trate de imágenes reales, las normas de protección infantil prohíben cualquier tipo de representación visual de escenas de abuso que sea “virtualmente indistinguible”.
Los avances de modelos de generación de imagen –como Stable Diffussion o Dall-E– han puesto sobre la mesa un nuevo reto para autoridades y plataformas de redes sociales. De acuerdo con una investigación del Internet Observatory de la Universidad de Stanford, algunos modelos de generación de imagen pueden estar basándose en imágenes reales de explotación sexual infantil para crear nuevas imágenes de abuso.
Detrás del problema se encuentran los datos con los que estas tecnologías son entrenadas y la falta de moderación de estas bases. Según el documento, es necesario promover la seguridad en línea a partir del diseño mismo de los productos, como sesgos para evitar la generación de desnudos infantiles o la remoción de contenido dañino de la información con la que se alimentan los modelos.