¿Qué está haciendo la industria de la IA para proteger la integridad electoral? - Botando Corriente #46
Además: Meta deberá modificar sus pautar para proteger a la comunidad LGBTIQ+|Políticas públicas democráticas con ayuda de la IA.
Como antesala al calendario electoral de 2024, que incluye más de 60 elecciones alrededor del mundo, OpenAI –la compañía detrás de ChatGPT– anunció medidas para hacer frente a los usos problemáticos que sus tecnologías pueden tener en el engaño a los votantes y la distorsión del debate público.
En su comunicado, OpenAI asegura que ahora está prohibido utilizar sus servicios para desarrollar chatbots que suplanten a candidatos o instituciones públicas o que pretendan disuadir a la personas de participar en procesos democráticos con información falsa. Además, la compañía aclaró que busca evitar que sus modelos, que permiten crear contenido masivamente, sean utilizados para llevar a cabo operaciones de influencia.
Ya en 2023, el auge de la inteligencia artificial dio lugar a varios casos en los que contenidos sintéticos en audio, texto y video fueron utilizados para atacar rivales en campañas políticas, como ocurrió con las elecciones presidenciales en Eslovaquia y Argentina. A su vez, en los últimos años la inteligencia artificial ha sido usada por regímenes en América Latina para promover propaganda oficial o para atacar a opositores políticos en países como Nicaragua o Venezuela.
La compañía también indicó que mientras termina de evaluar qué tan efectivas pueden ser sus tecnologías para persuadir a las personas, estará prohibido desarrollar aplicaciones para campañas políticas y lobbying. A pesar de la prohibición, las ventajas de utilizar la IA con estos propósitos será seguramente muy tentador para muchos partidos y agencias de márketing político en 2024, más cuando se ha probado su efectividad.
Así ocurrió el año pasado en Estados Unidos, cuando el Partido Demócrata probó enviar mensajes generados con IA para recolectar fondos. Como resultado, la campaña tuvo más respuesta del público y se recibieron más donaciones que en los casos en los que los textos eran redactados por personas.
Los anuncios de OpenAI se presentan en un momento en el que el potencial de estas tecnologías para escalar narrativas falsas en redes sociales es considerada una amenaza grave para la humanidad. Por ejemplo, el Reporte de riesgos globales presentado recientemente en el Foro Económico Mundial ubicó la desinformación y la información engañosa como los principales riesgos globales a corto plazo, por encima de la crisis climática o los conflictos armados internacionales.
De acuerdo con el documento, la desinformación en contextos electorales, impulsada por técnicas de IA, “podría desestabilizar seriamente la legitimidad real y percibida de nuevos gobiernos electos, presentar riesgos de disturbios políticos, violencia y terrorismo, y una erosión de los procesos democráticos a largo plazo”.
Aunque es importante que OpenAI avance en el diseño de normas que prevengan los efectos más nocivos de la IA, sus esfuerzos parecen insuficientes para contener este fenómeno. Es necesario que las compañías de desarrollo de IA inviertan recursos para construir equipos y sistemas de moderación de contenidos que les permitan aplicar sus propias normas, un asunto con el cual OpenAI ya ha tenido dificultades.
Hace poco, por ejemplo, se conoció que la GPT Store, el marketplace de OpenAI para ofrecer modelos basados en ChatGPT creados por otros usuarios, se había llenado de simuladores de novias, a pesar de que sus normas prohíben desarrollar modelos que ofrezcan relaciones románticas sintéticas.
OpenAI es uno de los principales actores del sector, pero la contención de los riesgos de la IA involucra a un ecosistema mayor del que también hacen parte las plataformas de redes sociales y otras compañías de desarrollo que no se encuentran en el radar de la opinión pública, la prensa o los reguladores, y por tanto tienen menos presión para desarrollar productos seguros.
Incluso otros peces gordos de la industria muestran esfuerzos modestos para proteger la integridad electoral. En diciembre pasado, Google anunció que restringiría las búsquedas relacionadas con elecciones en Bard, el producto con el que le compite a ChatGPT, así como en su “experiencia generativa de búsqueda”, que introduce respuestas con IA en el buscador tradicional. Sin embargo, su política de uso de IA generativa no incluye normas específicas sobre la creación de contenido político o electoral, y se limita a prohibir el uso de sus plataformas para generar y distribuir contenido engañoso, una cláusula amplia que no apunta a abarcar del todo el posible impacto de esta tecnología en la democracia.
Las reglas del juego 🚨
Meta deberá modificar sus pautas para proteger a la comunidad LGBTIQ+
Así lo recomendó la semana pasada el Consejo Asesor de contenidos, un organismo que actúa como Corte Suprema en asuntos de moderación de Meta, al revisar el caso de una publicación en Facebook que atacaba verbalmente a las personas transgénero y las exhortaba a suicidarse.
La imagen, compartida en abril de 2023, mostraba la bandera transgénero con la frase “Nueva tecnología […] Cortinas que se cuelgan solas” y, sobre ella, “limpieza de primavera <3”. De las doce denuncias que recibió la publicación, solo dos fueron revisadas manualmente por la compañía. Sin embargo, los moderadores no consideraron que incumpliera las políticas de la plataforma.
Meta sostuvo que no había eliminado el contenido porque interpretó la bandera como un ataque a un concepto o institución, no a un grupo de personas. Para el Consejo, la decisión de Meta de conservar el contenido fue desacertada. Según expertos consultados, en el contexto de una bandera trans colgada en una ventana, la frase “cortinas que se cuelgan solas” era un “insulto transfóbico encubierto”. Tras esa revisión, la compañía admitió que el contenido cuestionado era una declaración a favor del suicidio de las personas transgénero.
Además de incumplir la norma de suicidio y autolesiones, la publicación también infringía la política sobre el lenguaje que incita al odio, ya que el ataque estaba basado en la identidad de género, una característica protegida por las normas de la plataforma. El Consejo le recomendó a Meta modificar las pautas de formación de sus moderadores, subrayando la importancia de interpretar las banderas de identidad de género como representaciones de un respectivo grupo.
Polo a tierra 🦾
Políticas públicas democráticas con ayuda de la IA
En el marco de una iniciativa de OpenIA para diseñar modelos de gobernanza democrática para la IA se llevó a cabo un experimento para desarrollar políticas públicas a partir de diálogos participativos.
Este experimento de alineación buscó diseñar las normas de uso de un asistente de IA en tres áreas: salud, información sobre vacunas, y guerras y conflictos. El proceso implicó recolectar y convertir las perspectivas de una muestra significativa de ciudadanos sobre los temas seleccionados e identificar puntos de consenso mediante la IA. A partir de ahí, un borrador fue revisado por expertos, para ser nuevamente puesto en discusión y votación entre el público. Por último, a través de la IA se verificó la coherencia del resultado con otras políticas preexistentes.
Los resultados evidenciaron la eficacia del proceso democrático. Con la participación de más de 1,500 personas con opiniones diversas, las políticas desarrolladas recibieron un notable respaldo público, con tasas de aprobación que oscilaron entre el 75% y el 81%.
Si bien el éxito inicial del método promete ser una herramienta que refleje con mejor precisión las perspectivas de los ciudadanos a gran escala, los investigadores reconocen que puede ser perfeccionado. En todo caso, sugieren que este proceso puede ser implementado no solo por compañías de IA para diseñar sus políticas, sino por organismos gubernamentales y otras entidades que a través de este modelo pueden resolver bloqueos legislativos o conflictos diplomáticos con acuerdos que reflejen la voluntad de la ciudadanía.