¿Alguien quiere pensar en el Oversight Board? - Boletín #72
Además: YouTube desmonta reglas de odio y desinformación electoral | Nuevo informe global sobre riesgos de la IA
En corto⚡
El cambio de rumbo en las políticas de Meta plantea dudas sobre la vigencia del Oversight Board o Consejo Asesor de Contenidos, el organismo independiente que funciona como un medio de consulta y un tribunal de cierre para casos de moderación.
La compañía ha tomado decisiones clave sin consultarlo, como el fin del fact-checking y la simplificación de las políticas de discurso de odio, lo que evidencia su pérdida de peso dentro de la estructura de gobernanza de contenido dentro de Meta.
Con la salida de figuras clave y la llegada de aliados de Trump a la compañía, el Consejo Asesor corre el riesgo de volverse irrelevante antes de que termine su mandato.
A finales de enero, se conoció que Meta había llegado a un acuerdo de conciliación con los abogados de Donald Trump por una demanda que había interpuesto contra la compañía por la suspensión de sus cuentas en 2021, tras el asalto al Capitolio. Según el acuerdo, Meta desembolsará 25 millones de dólares para que se desestime esta acción legal que buscaba una reparación económica bajo el argumento de que fue un acto injustificado de censura.
El episodio se suma al historial de cortesías que Mark Zuckerberg ha tenido en favor de Trump en los últimos meses, y es, además, un nuevo gesto de desconocimiento de su Consejo Asesor de Contenidos, conocido también como el Oversight Board. Este organismo –que recibió de Meta más de 280 millones de dólares para su funcionamiento– ha sido el gran marginado de la nueva era de moderación de la compañía, que decidió alinearse con el proyecto político de Trump.
Desde 2018, el mismo Zuckerberg contempló la idea de conformar un órgano de consulta que a la vez funcionara como una especie de tribunal de cierre para casos de moderación de contenidos con los que lidiaba la compañía. La idea se materializó en 2020 con un dream team mundial de la libertad de expresión de 20 personas, entre quienes se encontraban la exprimera ministra de Dinamarca, Helle Thorning-Schmidt; la exrelatora especial para la libertad de expresión de la Comisión Interamericana de Derechos Humanos, Catalina Botero, y la premio Nobel de Paz, Tawakkadol Karman.
En este tiempo, el Consejo hizo recomendaciones para que la compañía sea más claras en sus normas de contenido y observe principios internacionales de derechos humanos; ordenó evaluaciones de impacto sobre la moderación en contextos como el de la guerra en Palestina, y analizó el paquete de normas que Meta implementó para contener la desinformación durante la pandemia.
Además, revisó casos espinosos, como el del propio Donald Trump, para el cual consideró que la suspensión de sus cuentas –teniendo en cuenta el alcance del presidente en redes, el contexto y la inminencia de que ocurrieran daños– había sido legítima. En su momento, el Consejo le recomendó a Meta hacer una revisión integral sobre el potencial impacto de Facebook a la narrativa de fraude electoral que precedió el asalto al Capitolio y dedicar más recursos para evaluar el riesgo de daños provocados por cuentas influyentes.
El Consejo está activo y sigue emitiendo decisiones, pero su capacidad para incidir en el diseño de las políticas de Meta y en sus procesos de moderación parece cada vez más disminuida. Una señal de esto es que el organismo no tuvo ninguna participación en el cambio de rumbo que Mark Zuckerberg dio a comienzos de año, cuando anunció el fin del programa de fact-checking en Meta y la “simplificación” de sus políticas de odio en temas como migración y género.
Ese día, el Consejo reaccionó con un comunicado en el que manifestaban su interés en seguir trabajando de la mano de la compañía para revisar sus programas contra la desinformación. Sin embargo, el comunicado omitió otros anuncios centrales de Meta, como el cambio de enfoque en sus sistemas automatizados de moderación. Según Zuckerberg, en adelante se centrarán en eliminar contenido ilegal y violaciones graves a las políticas, mientras que otras conductas prohibidas serán revisadas sólo si otro usuario las reporta.
Al margen del comunicado, en medios de comunicación algunos miembros del Consejo han expresado su preocupación por las decisiones de la compañía. Thorning-Schmidt, quien es copresidenta del organismo, dijo en entrevista con la BBC que los cambios en las políticas podían tener un impacto en la comunidad LGBTIQ+. Por su parte, Michael McConell, quien además es profesor de Stanford, señaló que los anuncios habían tomado por sorpresa al Consejo y sugirió que Meta estaba tomando decisiones teniendo en cuenta sólo su relación con el gobierno de Estados Unidos, en detrimento del resto del mundo –donde está más del 90% de los usuarios–.
La avalancha de ajustes en los equipos de Meta dejó al Consejo sin uno de sus principales aliados dentro de la compañía. A comienzos de este año se conoció que Nick Clegg, quien ayudó a establecer el Consejo, había salido de Meta, donde ocupaba el cargo de vicepresidente de asuntos globales. En su lugar fue contratado Joel Kaplan, exfuncionario de la Casa Blanca durante el gobierno de George W. Bush, cuyo nombramiento ha sido señalado como otro acercamiento de Zuckerberg al partido Republicano.
En sus inicios, el Consejo se presentó como un experimento de constitucionalismo digital para abordar la complejidad del arbitramento de los usuarios y lograr un equilibrio entre seguridad y libertad de expresión. En este tiempo, el organismo ha recibido críticas por su falta de celeridad en las decisiones, pues en su primer año tan solo resolvió 20 casos, una cifra que al año siguiente se redujo a 12. A partir del 2023, el Consejo modificó sus estatutos para establecer procedimientos que le permitieran actuar más rápidamente.
A pesar de las limitaciones, el ejercicio ha permitido conocer las entrañas de los procesos de moderación de Meta y ha ofrecido perspectivas importantes para plantear regulaciones de redes sociales que ajusten estas prácticas a los derechos humanos. No obstante, elementos clave de esta tensión, como la amplificación de contenido problemático, las acciones coordinadas y el rol del algoritmo y la IA, han pasado de largo.
Contar con un mecanismo independiente ha sido favorable para Meta, pues durante estos años le ha dado reputación y legitimidad a ciertas decisiones. Sin embargo, el contexto ha cambiado mucho y muy rápidamente.
Un organismo como el Consejo resultaba útil en 2021, cuando Meta estaba alineada con la Casa Blanca de Joe Biden y había voluntad para asumir el costo político de enfrentar narrativas problemáticas, como las promovidas por Trump y sus seguidores. Pero hoy, con Zuckerberg a bordo del proyecto MAGA y con aliados de Trump en el barco de Meta –Dana White, ficha clave de la campaña republicana, ingresó en enero a la junta directiva–, una moderación de contenidos ajustada a derechos humanos no parece ser una prioridad corporativa.
El Consejo es una entidad independiente, gestionada por un fideicomiso cuyos administradores son nombrados directamente por Meta. Eventualmente, la compañía podría utilizar esa vía para limitar el funcionamiento del Consejo, por ejemplo, a través de la aprobación de su presupuesto.
Aunque siga seleccionando casos y publicando decisiones, el Consejo Asesor parece haberse quedado sin respaldo político. Tampoco es claro si las recomendaciones sobre normas comunitarias y moderación de contenido serán tomadas en cuenta. De acuerdo con sus estatutos, su mandato está vigente por cinco años más. Sin embargo, enfrenta el riesgo latente de volverse irrelevante, con una operación costosa, pocas decisiones y ningún impacto.
Las reglas del juego
YouTube desmonta reglas odio y desinformación electoral 🚨
En los últimos días, YouTube ha venido ajustando sus normas de la comunidad. Estos cambios reflejan que, con mayor discreción que X y Meta, la plataforma de Google también se ha alineado con un espíritu de menor moderación. Destacamos tres ajustes clave en las reglas de esta red social:
La política de odio ya no prohíbe atacar a grupos o individuos por su atracción romántica, sexual o emocional a otras personas. Además, al igual que lo hizo Meta recientemente, ya no prohíbe decir que determinado grupo sufre una enfermedad mental que debe ser curada, una regla que protegía especialmente a la población trans.
La norma de desinformación electoral ya no prohíbe decir que la votación por parte de personas sin ciudadanía alteró los resultados de las elecciones. La regla eliminada tendía a mitigar comentarios xenófobos en tiempos de elecciones.
De cara a las elecciones alemanas que se celebrarán el próximo 23 de febrero, la compañía ya no eliminará la desinformación sobre fraude, errores o fallos en las votaciones parlamentarias en Alemania y en la elección del próximo Canciller en ese país. Esta regla, ahora derogada, había sido implementada especialmente para las elecciones federales alemanas de 2021. Este nuevo panorama de moderación, podría favorecer las campañas de desinformación que se han denunciado alrededor del partido de extrema derecha Alternativa para Alemania (AfD).
Polo a tierra
Nuevo informe global sobre los riesgos de la IA 🌐
A finales de enero se publicó el primer International AI Safety Report, un informe elaborado por 96 expertos internacionales para evaluar el estado actual y las capacidades de la IA avanzada.
El estudio recopiló la evidencia científica sobre los riesgos de la IA de propósito general —aquella capaz de realizar múltiples tareas— y evaluó métodos técnicos para mitigarlos. El informe clasificó los riesgos en tres categorías: los clasificó en tres categorías:
Uso malintencionado. Incluye la creación de contenido falso (como deepfakes y fraudes) y la manipulación de la opinión pública, además de facilitar ciberataques.
Riesgos de fallos. Se refiere a problemas de fiabilidad, como respuestas erróneas y la amplificación de sesgos sociales y políticos.
Automatización del empleo. Implica la concentración del desarrollo en pocas naciones y empresas, y los impactos ambientales asociados a su uso.
Para los autores, una estrategia para mitigar los riesgos consiste en realizar pruebas de comportamiento en situaciones específicas y entrenarlos para resistir fallos y sesgos. Respecto a caminos regulatorios, el informe resaltó las limitaciones para diseñar normas que se mantengan vigentes frente a los avances y nuevos riesgos producidos por la IA.
El informe fue realizado de cara al AI Action Summit, que esta semana reúne en París a representantes de más de cien países para discutir el futuro de la IA. Aunque muchos de los aspectos técnicos requieren todavía más investigación, el documento señala hace énfasis en que la IA “no es algo que le ocurre a los humanos”, sino que su futuro depende de las elecciones de las sociedades y gobiernos.