La DSA entra en vigor: ¿la Unión Europea estará a la altura de su regulación? - Botando Corriente #48
Además: Meta se aleja del contenido político | Usos maliciosos de la IA por parte de Estados
Durante los últimos tiempos, las expectativas de los gobiernos, las plataformas, la academia y las organizaciones de derechos digitales han estado puestas en la Ley de Servicios Digitales (DSA, por sus siglas en inglés), el ambicioso paquete de reglas con el que la Unión Europea busca regular a las plataformas.
La ley, que promete sentar mejores prácticas de moderación, transparencia y mitigar la desinformación en espacios digitales, ha sido un modelo para proyectos que ya se discuten fuera de las fronteras de la Unión Europea, como el “proyecto de ley de las fake news” en Brasil. Sin embargo, con su entrada en vigor el pasado 17 de febrero, han empezado a resonar sus posibles riesgos y los retos de su implementación.
Los efectos de la DSA han sido diferidos en el tiempo. Desde agosto de 2023, las principales compañías de Internet –aquellas con más de 45 millones de usuarios en la Unión Europea– están sujetas a sus obligaciones, pero a partir del sábado pasado, estas reglas empezaron a ser aplicables a los demás intermediarios de Internet: redes sociales menos populares, motores de búsqueda y tiendas de aplicaciones, entre otros, que operan en ese territorio.
Grietas en la arquitectura institucional
El nuevo panorama regulatorio trae obligaciones muy exigentes para las compañías de Internet, pero también impone a las instituciones europeas el deber de cumplir con sus propias aspiraciones, lo que supone desarrollar mecanismos idóneos. Por lo pronto, estos primeros meses de implementación han hecho visibles algunas barreras técnicas.
El inicio de la guerra entre Israel y Hamás, por ejemplo, tomó por sorpresa a la Comisión Europea, que no estuvo en capacidad de vigilar el estallido de desinformación y contenido violento gráfico que acompañó esos primeros días del conflicto. La Comisión tuvo que acudir a investigadores digitales externos para recabar suficiente evidencia del contenido dañino que estaba circulando, pues sus equipos no estaban preparados para atender la emergencia, según informaron dos trabajadores de ese organismo a Politico.
Las limitaciones de la Comisión se han hecho sentir también en su fuerza de trabajo. Mientras que Ofcom, la entidad del Reino Unido encargada de supervisar el cumplimiento de la Online Safety Act –la regulación británica de plataformas– cuenta con 300 personas dedicadas a esta labor, la Comisión tiene tan solo 75.
Falta de directrices
La DSA obliga a las grandes plataformas a someterse a auditorías externas que comprueben que están cumpliendo con algunos de los principales requisitos de la ley, como el deber de evaluar riesgos sistémicos, crear planes para mitigarlos, y elaborar planes de crisis.
Para orientar las auditorías, cuyos resultados deberán entregarse por primera vez en agosto de este año, la Comisión expidió el año pasado un reglamento. Sin embargo, el documento no parece abordar con suficiente profundidad el desarrollo de este requisito. Según han alertado Jason Pielemer, director ejecutivo de Global Network Initiative, Hillary Ross, asesora de esta misma institución, y la periodista Ramsha Jahangir, el reglamento no establece definiciones o metodologías para llevar a cabo las revisiones.
La falta de pautas en esta materia impide un análisis riguroso y comparable entre los sistemas de las compañías de Internet, y además pone en riesgo derechos como el de la libertad de expresión. Por ejemplo, para entender cómo cumple una plataforma la obligación de remover contenido ilegal –como la promoción del terrorismo– no existen pautas que indiquen cuáles ni de qué países son las leyes bajo las que esas publicaciones serían consideradas ilegales.
Además, la norma exige que las auditorías revisen los sistemas internos de las compañías, de alta complejidad técnica, y aseguren que están cumpliendo con sus obligaciones bajo la DSA con un “alto nivel de precisión”. Teniendo en cuenta que pocas firmas tienen experiencia en esta clase de revisiones, los investigadores aseguran que este estándar sería prácticamente imposible de cumplir.
Coordinadores de Servicios Digitales: una tentación para regímenes autoritarios
El 17 de febrero no solo marcó la entrada en pleno vigor de la DSA, sino la fecha límite para que los estados que componen la Unión Europea nominaran a las entidades que supervisarán el cumplimiento de la ley en el nivel nacional, llamados Coordinadores de Servicios Digitales.
A la fecha, países como Alemania, Bélgica o Polonia siguen sin anunciar qué entidades locales se encargarán de estas labores, mientras que quienes han cumplido han presentado a autoridades en materia de comunicaciones, defensa del consumidor y competencia.
La elección de los Coordinadores no es un tema menor, pues la DSA les ofrece grandes poderes para ejecutar la ley. Dentro de sus facultades está recibir y evaluar quejas de usuarios, demandar información a las plataformas sobre supuestas violaciones a la ley, imponer multas, acreditar a investigadores para acceder a datos de las plataformas y escoger a los alertadores fiables o trusted flaggers, una suerte de agentes con la capacidad de detectar contenido ilegal en las plataformas y solicitar remociones de contenido prioritarias.
Dado que los Coordinadores pueden ser nombrados por el poder ejecutivo, existe el riesgo de que estas instituciones se conviertan en medios para limitar el discurso digital. David Kaye, antiguo relator especial sobre la libertad de expresión de las Naciones Unidas, alertó recientemente sobre la posibilidad de que estos mecanismos sean usados por actores políticos para censurar a otras voces.
La misma advertencia hizo Anupam Chander, profesor de derecho y tecnología de Georgetown. Teniendo en cuenta la vocación de la DSA para convertirse en un modelo global, mecanismos semejantes en manos de un gobierno autoritario podrían ser usados de manera arbitraria: pedir a las plataformas información sobre críticos, seleccionar alertadores que marquen como ilegal el contenido de la oposición, aprobar investigaciones de instituciones aliadas o afectar arbitrariamente a plataformas que resulten incómodas.
Las reglas del juego
Meta se aleja del contenido político
En pleno año electoral, Meta anunció la decisión de dejar de promover contenido político en la página de inicio, videos y grupos de sus plataformas. Tras años de ser señalada por influir en la polarización del debate público y de ser un espacio para ejecutar campañas políticas coordinadas, la compañía tomó un nuevo enfoque para disminuir la exposición de los usuarios a este tipo de publicaciones.
Mientras que antes la visibilidad de este contenido en la página de inicio dependía de las interacciones de los usuarios –como comentarios o compartidos–, ahora la empresa optará por un sistema que evalúe las acciones específicas de los usuarios para determinar si tienen interés explícito en asuntos políticos.
Dentro de estas señales se tendrán en cuenta respuestas de los usuarios a encuestas sobre temas políticos o la selección de cuentas políticas como “Favoritas”, lo que orientará a los algoritmos en la personalización del contenido visualizado en las plataformas de Meta.
Este enfoque afectará la difusión del contenido político en Facebook, Instagram y Threads, lo que marca una diferencia notable de esta última red social respecto a X (Twitter), con lo cual disminuye la expectativa de que eventualmente pueda reemplazarla como espacio de discusión. Esto es especialmente relevante en América Latina, donde el uso de X por parte de actores políticos sigue teniendo un papel importante en el desarrollo de la agenda pública.
Meta define el contenido político como aquel que menciona gobiernos, elecciones o temas sociales que afectan a un grupo de personas o a la sociedad en general. No es claro cómo esta aproximación pueda impactar en el ecosistema informativo y limitar conversaciones que no solo abarquen campañas electorales, sino asuntos de interés noticioso, como denuncias públicas o demandas sociales.
Polo a tierra
Contrainteligencia artificial: usos maliciosos de la IA por parte de actores estatales
El auge de la inteligencia artificial ha empezado a ser instrumentalizado para ataques digitales. Así lo expuso una investigación adelantada por OpenAI en colaboración con Microsoft Threat Intelligence, que logró identificar y desmantelar cinco actores afiliados a estados nacionales que intentaban usar servicios de IA y LLM –modelos de lenguaje grandes, como ChatGPT– para fines maliciosos.
Las compañías revelaron la implicación de actores provenientes de China, Irán, Corea del Norte y Rusia, que utilizaban los servicios de OpenAI para consultar información de código abierto, ejecutar tareas básicas de codificación, incluyendo la escritura de scripts de software y el desarrollo de malware, así como para facilitar el uso de diversos idiomas.
Según la investigación, los actores buscaban ampliar sus capacidades operativas aprovechando las nuevas tecnologías. Por ejemplo, el actor norcoreano Emerald Sleet empleaba LLM para crear contenidos destinados a campañas de phishing, mientras que Salmon Typhoon, con vínculos al gobierno chino, utilizaba estos servicios para la traducción de documentos técnicos. Asimismo, se encontró que el grupo iraní Crimson Sandstorm usó la IA para investigar métodos de malware para evadir detección.
La investigación asegura que estos actores son una muestra de las tácticas, técnicas y procedimientos de agentes maliciosos afiliados a Estados. De acuerdo con OpenAI, estas actividades son consistentes con un reporte anterior realizado por la compañía, el cual concluyó que GPT-4 solo ofrece capacidades limitadas para tareas de ciberseguridad maliciosas, en comparación con otras herramientas sin IA ya disponibles públicamente.
Queremos conectarnos con ustedes
Botando Corriente se aproxima a su edición número 50, un hito que no habría sido posible sin su apoyo en estos meses. Aprovechamos este momento para volver la vista y pensar en el camino que hemos recorrido. Para seguir avanzando en el análisis de tecnología y democracia en América Latina, nos encantaría conocer su opinión sobre el boletín. ¿Hay temas de los que les gustaría leer más o que consideran que no hemos abordado lo suficiente? ¿Alguna sección que les interese particularmente? Su retroalimentación es vital para innovar y mejorar.
Pueden enviar sus comentarios sobre estos y los temas que deseen a circuito@linternaverde.co, cada opinión será bienvenida y nos ayudará a que sigamos botando corriente⚡.