Ojos puestos sobre Worldcoin: el proyecto que pretende verificar a la humanidad a cambio de información biométrica - Botando Corriente #55
Además: Meta usará datos de sus usuarios para entrenar a su IA| Operaciones de desinformación israelí sobre la guerra en Gaza
En corto ⚡
Worldcoin, una iniciativa de Sam Altman, tiene el propósito de crear un pasaporte digital para verificar que las personas que interactúan en línea son seres humanos. Esta autenticación se hace a través de la lectura del iris de las personas.
En las últimas semanas, la compañía inició operaciones en América Latina, donde algunas autoridades de protección de datos ya han empezado a tomar medidas preventivas.
En medio de un ecosistema digital cada vez más sintético, impulsado por la capacidad de la IA para crear identidades falsas en Internet, Worldcoin es un ejemplo del emergente mercado de autenticación de seres humanos.
Con tecnologías que pueden imitar la imagen y la voz de una persona o crear una nueva identidad sintética desde cero, la autenticación es un valor en alza en Internet y un problema aún sin resolver. Worldcoin ha propuesto la misión de atender este reto creando la red más grande de humanos verificados en línea. A cambio de la acreditación y algunas criptomonedas, la compañía obtiene la información biométrica consignada en el iris de las personas.
El proyecto es desarrollado por la compañía Tools for Humanity, cofundada en 2019 por Sam Altman, quien, a su vez, lidera OpenAI. Worldcoin, que inició operaciones en América Latina en las últimas semanas, es varias cosas al mismo tiempo. Además de entregar un pasaporte digital –conocido como World ID–, la compañía ofrece una criptomoneda propia: el Worldcoin, que en su página oficial se presenta como un token “distribuido libre, equitativa y globalmente a humanos únicos”.
En plazas, centros comerciales y locales en países de la región, Worldcoin dispone de orbs, esferas metálicas futuristas que escanean el iris de los participantes. Estos dispositivos generan un código alfanumérico a partir de la imagen, la cual es luego eliminada. Según la compañía, este método permite demostrar que alguien es un ser humano sin necesidad de revelar información privada. Con este pasaporte, los usuarios pueden validar que son reales en aplicaciones como Reddit, Telegram, Discord o Shopify.
Como incentivo o retribución, las personas que obtienen su World ID reciben un desembolso de Worldcoin en una billetera digital. Esta promesa de “dinero gratis” es parte del éxito de la iniciativa, que ha logrado acreditar a más de cinco millones y medio de personas en más de 160 países.
En países como México, la idea de recibir un pago por escanear el iris ha resultado especialmente atractiva para migrantes de Cuba, Venezuela, Haití y Centroamérica, quienes llegan a los locales de Worldcoin ávidos de recibir una cifra que puede rondar los 45 dólares –de acuerdo con la cotización de la criptomoneda–, como lo señaló un reportaje de Wired.
El desconocimiento de algunas personas para manejar estas herramientas las expone a que otros les roben el dinero que ganaron por entregar sus datos. De acuerdo con Wired, los participantes en México han empezado a perder su dinero incluso antes de salir de los locales de Worldcoin, pues una persona que los ayudaba a convertir ese dinero a efectivo se llevaba parte de sus criptomonedas.
Desde Worldcoin han intentado promover un discurso de justicia social, como si el pago en criptomonedas fuera una versión privada y digital de una renta básica universal. Pese a ese concepto de equidad, para abril de 2022 el 20% de las criptomonedas disponibles ya habían sido asignadas entre los empleados de la compañía y sus inversionistas.
Autoridades alertadas
Los métodos de Worldcoin han llamado la atención de las autoridades de protección de datos y han llevado a que sus operaciones sean frenadas en España, Portugal, Kenia y Hong Kong.
En abril pasado, el Servicio Nacional del Consumidor de Chile –SERNAC– anunció visitas a los locales de Worldcoin en ese país para corroborar el cumplimiento de las normas de recopilación de datos biométricos. Andrés Herrera, director de esa entidad, aseguró que la medida estaba motivada también por la protección de los jóvenes y de la población vulnerable, que podría “acceder a realizarse el escaneo del iris por una motivación económica, pero podría no estar plenamente conscientes de las implicaciones de compartir sus datos personales”.
Por su parte, las autoridades de Argentina y Perú anunciaron medidas semejantes, así como aperturas de investigación.
Teniendo en cuenta estas alarmas, la compañía se ha acercado a entidades públicas para aclarar el alcance de sus actividades. A mediados de mayo, Mauricio Lizcano, ministro de las tecnologías de información y comunicaciones de Colombia, informó que se había reunido con representantes de la empresa para hablar sobre los orb.
En todo caso, el 31 de mayo, dos días después de la llegada de Worldcoin a Colombia, la Superintendencia de Industria y Comercio de este país indicó que llevaría a cabo una vigilancia preventiva para salvaguardar el tratamiento de datos personales.
Aunque Worldcoin sostiene que su metodología es segura, algunos expertos han alertado sobre la efectiva protección de los datos. El iris es uno de los datos biométricos de mayor valor, pues permite reconocer con un nivel muy alto de precisión a una persona y no corre el riesgo de cambiar a lo largo del tiempo, como podría ocurrir con otros rasgos físicos.
Según su línea corporativa, a Worldcoin no le interesa tener los datos de las personas, sino comprobar que sean “únicas”. Sin embargo, algunos hechos muestran que en sus campañas de afiliación la compañía ha recogido muchos más datos.
De acuerdo con una investigación de MIT Technology Review centrada en los primeros pilotos de Worldcoin, los representantes del proyecto usaron prácticas engañosas de márketing, recolectaron datos personales de los usuarios y, con el distractor de los incentivos o retribuciones –desde criptomonedas hasta Airpods–, eludieron la responsabilidad de obtener un consentimiento informado significativo por parte de sus usuarios.
Worldcoin apuntó un número importante de registros en países como Indonesia, Sudán y Kenia. “El hecho de que haya leyes de protección de datos más fuertes en el norte global implica que los emprendedores de esa parte del mundo deban mirar al mundo en vías de desarrollo para suplir la demanda de datos que requieren”, le explicó la antropóloga digital Payal Arora a ese medio.
El proyecto enlistó a 450.000 personas en estas partes del mundo, una cifra importante para presentarse como la mejor opción en el mercado de la autenticación de seres humanos.
El peso con el que Worldcoin aterriza en la región expone las fallas o limitaciones regulatorias de las dos áreas en las que opera: la protección de datos y las criptomonedas. Además, pone sobre la mesa las dificultades y la necesidad de diseñar mecanismos para verificar a seres humanos en un momento en que los modelos de IA pueden ser explotados para dirigir ejércitos de cuentas falsas –como pueden ver más abajo en este boletín. Frente a esta realidad, plataformas como X (Twitter) han convertido sus sistemas de autenticación en un producto antes que en un elemento de confianza del servicio.
Antes de continuar
Estamos pensando cómo podemos mejorar Botando Corriente y para eso es indispensable contar con su visión. Por eso, si todavía no has respondido, te agradeceríamos enormemente si se toman unos minutos para responder una breve encuesta que nos ayudará a medir el impacto de nuestro trabajo y a idear maneras de seguir analizando la intersección entre democracia y tecnología.
Las reglas del juego
Meta usará datos de los usuarios para entrenar modelos de IA👀
Los modelos de lenguaje e imagen avanzados como ChatGPT, Gemini y Dall-E requieren una enorme cantidad de datos para su funcionamiento eficaz. De hecho, la escasez de datos es vista como uno de los desafíos que podría limitar el desarrollo de la inteligencia artificial generativa.
A finales de mayo, Meta, la empresa matriz de Facebook e Instagram, notificó a los usuarios en Europa que utilizará sus datos para entrenar sus modelos de inteligencia artificial a partir del 26 de junio. Según el comunicado, se utilizará como insumo la información disponible en línea, como publicaciones y fotos con sus respectivos textos descriptivos, excluyendo el contenido de los mensajes privados.
Aunque los usuarios tienen derecho a oponerse a que sus datos sean usados para estos fines, el proceso establecido por la compañía es dispendioso y para algunos parece estar diseñado para desincentivar y reducir las objeciones. La opción para ejercer este derecho se encuentra a varios clics de distancia y cuando los usuarios finalmente la encuentran deben explicar sus motivos a través de un formulario.
Meta indicó que esta operación se hace con respeto del Reglamento General de Protección de Datos de la Unión Europea, que permite la recolección de datos si obedecen a un interés legítimo del responsable en su tratamiento. Además, señaló que en otras partes del mundo en el que estén disponibles sus modelos estos procedimientos se regirán por las leyes locales de protección de datos.
Polo a tierra
Operaciones israelíes de desinformación sobre la guerra Israel-Hamás🔎
El último informe de amenazas adversariales publicado por Meta detectó una red de desinformación en Israel centrada en la política de Medio Oriente. La red, desmantelada por infringir la política de comportamiento inauténtico coordinado, estaba dirigida a audiencias en Estados Unidos y Canadá.
De acuerdo al documento, la operación utilizaba cuentas falsas que se hacían pasar por locales en los países objetivo, incluyendo estudiantes judíos, para difundir contenido manipulado sobre el conflicto entre Israel y Hamas. Con el objetivo de polarizar comunidades e influir en la percepción pública, la red comentaba en publicaciones de medios de comunicación y legisladores, solicitando la liberación de rehenes y elogiando las acciones militares de Israel.
En total fueron desmanteladas 510 cuentas de Facebook, 11 páginas, un grupo y 32 cuentas de Instagram. Meta encontró conexiones entre las publicaciones y la empresa STOIC, una agencia de marketing político e inteligencia empresarial con sede en Tel Aviv.
Algunos de estos contenidos intentaron ser producidos con IA, de acuerdo con un informe de amenazas de OpenAI que señaló al mismo actor como promotor de una operación de influencia. Según la compañía de desarrollo, la campaña buscó crear no solo contenidos, sino nombres e información ficticia para crear perfiles falsos en plataformas.