Europa y Estados Unidos plantean un código de conducta para la inteligencia artificial - Botando Corriente #31
Además: Meta permitirá ciertos contenidos para denunciar acoso sexual. Los fallos de la IA políglota que pueden afectar derechos humanos. Un filtro de TikTok es acusado de racista.
Las reglas del juego🚨
Meta permitirá el contenido que muestre actos de acoso sexual con el propósito de denunciarlo
El 25 de mayo Meta modificó su política de explotación sexual de adultos para permitir las publicaciones que, con el fin de denunciar o generar conciencia, muestren tocamientos sexuales no consensuados, siempre que la víctima no sea identificable, el contenido no incluya imágenes de desnudos y no se comparta con una intención sensacionalista o de entretenimiento.
Este tipo de publicaciones, que antes estaban prohibidas en Facebook e Instagram, podrán circular en las plataformas con una etiqueta de advertencia y una restricción de visibilidad para menores de edad.
La medida se toma unos meses después de que el Consejo asesor de contenidos de Meta —un órgano independiente que funciona como una Corte Suprema de moderación— le recomendara a la compañía introducir esta excepción en su política. Dicha recomendación fue dada en el marco de una decisión del organismo respecto al caso de un video de Instagram, inicialmente eliminado por la compañía, en el que un grupo de hombres aparecía agrediendo sexualmente a una mujer en la India. En una segunda revisión, Meta restableció el video por considerarlo de interés público.
Este tipo de medidas, llamadas concesiones de interés noticioso o público, permiten mantener en la plataforma contenidos a pesar de incumplir las normas de Meta. Sin embargo, su carácter es excepcional y se aplican con un amplio margen de discrecionalidad, por lo cual la recomendación del Consejo —ahora implementada por Meta— fija con mayor claridad cómo deben manejarse estos contenidos, en un sentido que a la vez proteja los derechos de las víctimas y la libertad de expresión y de información de los usuarios.
Europa y Estados Unidos plantean un código de conducta para la inteligencia artificial
Aunque las preocupaciones sobre el impacto de los modelos de Inteligencia Artificial (IA) ya han empezado a mover iniciativas de regulación alrededor del mundo, el tiempo avanza y aumentan las ofertas y productos sin que se vislumbre un marco legal que atienda los posibles problemas de este avance tecnológico.
Como una alternativa para frenar a las desarrolladoras y mitigar riesgos mientras se aprueba una regulación, el 31 de mayo la Unión Europea y Estados Unidos anunciaron su intención de trabajar conjuntamente en el diseño de un código de conducta para compañías de IA cuyo borrador sería presentado en las próximas semanas.
El anuncio se dio en el marco de una reunión en Suecia del Consejo de Comercio y Tecnología conformado por la Unión Europea y Estados Unidos, en la cual estuvo presente el secretario de Estado Anthony Blinken. De acuerdo con las declaraciones de Margrethe Vestager, vicepresidenta de la Comisión Europea para asuntos digitales, el proyecto busca establecer una serie de buenas prácticas mientras se llega a una regulación. Se espera que gobiernos de otras partes del mundo se sumen a la iniciativa.
“Es una forma de que las democracias respondan en tiempo real a cuestiones que tenemos verdaderamente encima ahora mismo. Estoy deseando trabajar a profundidad y rápidamente con cuantos más sea posible”, dijo Vestager.
A pesar de que los códigos de conducta tienen un carácter voluntario, algunos movimientos de Sam Altman, CEO de OpenAI y una de las caras más visibles de la industria, indicarían que el sector —o al menos sus principales actores— se acogerían a estas reglas preliminares, bien por convicción o por la presión pública existente.
A mediados de mayo, Altman se presentó ante el Congreso de Estados Unidos, donde, para sorpresa de muchos, le pidió a los legisladores que regularan su propio negocio. Para Natasha Lomas, periodista de TechCrunch, sería muy hipócrita que luego de haber actuado de esta manera, su compañía no se comprometiera a cumplir acuerdos voluntarios.
Al tratarse apenas de una idea inicial, todavía no hay información sobre qué clase de conductas deberían cumplir las compañías de IA en el marco de este código. En todo caso, Alexandra Reeve Givens, presidenta del Center for Democracy and Technology, quien también estuvo presente en la reunión en Suecia, llamó la atención sobre algunos eventos dañinos que ya están ocurriendo a partir de estas tecnologías, como los deep fakes que podrían afectar el curso de unas elecciones y las suplantaciones y estafas a través de herramientas de voz.
Para Givens también es importante establecer estándares de transparencia y fijar un marco común que pueda servir a reguladores en otras partes del mundo, la sociedad civil y comunidades marginadas que estén expuestas en mayor medida a los riesgos de esta tecnología.
Los códigos de conducta —que han sido implementados anteriormente para las compañías de redes sociales— constituyen un modelo de co-regulación en el cual, a pesar de que no hay obligaciones estrictas, las compañías se comprometen a cumplir con ciertos acuerdos, conservando su libertad para desempeñar sus actividades de acuerdo con sus propios criterios.
Para Fabiana Di Porto y Marialuisa Zuppeta, investigadoras de la Universidad del Salento, este tipo de modelos pueden carecer de fuerza real, pues al tratarse de un asunto voluntario, el único castigo al no acatarlos es de carácter reputacional.
Esta falta de fuerza puede ser especialmente notable en escenarios en los que las compañías no consideran su reputación como uno de sus principales activos. Es el caso de Twitter en manos de Elon Musk, que recientemente se retiró del Código de Buenas Prácticas en materia de desinformación de la Unión Europea, al cual se había acogido en 2018.
De cualquier forma, este caso muestra también cómo los códigos de conducta pueden ser una barrera de contención mientras entra en vigencia una ley, pues como lo explicó el comisionado europeo Thierry Breton, Twitter solo se librará de sus deberes durante unos meses, dado que a partir de agosto esas disposiciones voluntarias pasarán a ser obligatorias a la luz de la Ley de Servicios Digitales.
Para ahondar en los diferentes escenarios regulatorios que se barajan para redes sociales y compañías de IA, recomendamos esta entrevista a Colin Crowell, ex vicepresidente de políticas públicas de Twitter, quien conversó con Carlos Cortés, codirector de Linterna Verde, organización a la que pertenece Circuito.
Circuito Académico📚
Los fallos de la Inteligencia Artificial políglota pueden afectar derechos humanos
Desde hace años, los modelos de IA han demostrado ser mucho más eficientes en inglés que en otros idiomas. Detrás de este déficit se encuentra lo que se conoce como la “brecha de recursos”, es decir, la enorme cantidad de textos digitalizados con los que estas tecnologías pueden entrenarse en esta lengua respecto a otras. Como una forma de subsanar esta brecha, los desarrolladores han propuesto los modelos multilingües, que son capaces de detectar patrones en idiomas con más recursos y aplicarlos a los que tienen menos. Sin embargo, esta solución, tiene limitaciones que podrían afectar los derechos de los usuarios.
Así lo explica un reciente informe del Center for Democracy and Technology que indaga en las capacidades, usos y funcionamiento de estos modelos. De acuerdo con el documento, entre más idiomas procese un modelo menos capacidad tiene de capturar los rasgos de un idioma en específico. Además, estos sistemas fallan en la lectura del contexto de los hablantes locales, con lo cual la posibilidad de arrojar resultados equivocados es mayor.
El informe advierte que estas limitaciones son incluso más graves en contextos de alto riesgo, cuando son utilizados por gobiernos para tomar decisiones o por compañías para moderar contenidos, pues sus fallas pueden implicar afectaciones directas a derechos como la libertad de expresión o el acceso a la información.
De acuerdo con el documento, el desarrollo tecnológico tiene una doble cara de Jano, pues permite que más personas se involucren y participen en la economía digital, a la vez que expone a grupos minoritarios a mayores daños en línea, por lo cual es necesario garantizar la inversión pública que permita contrastar el impacto de estas tecnologías en distintas comunidades.
Conéctate con Circuito⚡
Tu casa del futuro: el filtro de TikTok señalado como racista
La semana pasada, analizamos el caso de un filtro que se hizo viral en esta plataforma al ser acusado de tener un sesgo discriminatorio contra las personas afro. ¿Cuáles son las responsabilidades de la compañía en el manejo de estas herramientas creadas por terceros?