lunes, octubre 18, 2021

La otra whistleblower: Zhang y el fake engagement

Por Talya Auveaux


No hace mucho tocamos en este blog el tema de la comparesencia de Frances Haugen, y agunos de los temas sensibles que tocó sobre Facebook, entre ellos la tendencia de la compañía a priorizar el user engagement y por ende las utilidades cuando era necesario tomar decisiones, a pesar de que la evidencia mostrase efectos negativos de manera sustantiva al seguir esta ruta.


Por supuesto, es completamente normal que una compañía persiga la maximización de sus utilidades, pero la libertad para ello debe tener un límite cuando los efectos alcanzan de manera negativa el medio ambiente, la salud individual o el bienestar social general. Estas externalidades o "daños colaterales" deben detectarse y regularse cuanto antes, antes de que sea demasiado tarde. Cuando una compañía minera, por ejemplo, derrama accidentalmente residuos tóxicos en ríos o lagos, salta a la vista el daño y el imperativo de hacer algo al respecto. Si la evidencia acumulada indica que cierto producto es tóxico, se retira del mercado o bien, viene acompañado de etiquetas visibles sobre su toxicidad de manera que la decisión queda en el consumidor. 


Pero, ¿qué pasa cuando estos efectos son intangibles y mucho más sutiles, aunque igualmente insidiosos, o aún peor? ¿Qué pasa cuando el daño no es, literal, a un par de pulmones, o a un río, sino a la democracia de una nación, a la salud mental de una adolescente, al sistema de creencias y valores? ¿Cómo medimos, cómo determinamos esto? Hasta donde yo sé no hay pruebas físicas de índice de toxicidad de "facebookinilo" en la cabeza. El sólo decirlo causa gracia y no quiero ponerme a idear cuestionarios al respecto (aunque podría, hmmm, thinking emoji).


Algunas de estas ideas fueron puestas sobre la mesa en marzo de 2020 por Sophie Zhang, una científica de datos y joven ex empleada de facebook, quien expuso la manera en que fue despedida de la firma tras una cruzada interna por llamar la atención sobre el hecho de la manipulación de datos a nivel político en varios países, y la manera en que, de nuevo, las señales de alarma fueron ignoradas en aras de las utilidades a pesar de conocerse el daño potencial a la cultura democrática que esto representa -ya de por sí bastante maltrecha-, sin contar a miles de ciudadanos afectados alcanzados por estos tentáculos invisibles en el caso de regímenes nocivos alcanzando el poder de esta manera o con esta "ayuda". 


El actor B.C. pronunció las palabras "batalla por aire" en su interpretación del autor de la estrategia anti unión europea en la película "Brexit" al referirse a este fenómeno, pero después hablaremos de eso. Ahora quiero centrarme en Zhang, pero sobre todo, en los países en los que observó este comportamiento, así como en su testimonio hoy ante el parlamento británico.


Ahí les va: Facebook está permitiendo a gobiernos autoritarios manipular el discurso político. El testimonio público de Zhang implica a Facebook en las campañas de desinformación, al hacerse de la vista gorda con el objeto de priorizar las utilidades de la compañía.


Durante la sesión, que forma parte de la iniciativa del gobierno británico para la creación de una nueva ley orientada a limitar el contenido dañino en línea (detectamos la ironía), Zhang fue cuestionada por abogados acerca de su trabajo como científica de datos para el Facebook Site Integrity fake engagement team, lidiando con cuentas de bots a menudo operadas por agencias respaldadas por gobiernos.


Zhang explicó a los miembros del parlamento que, aunque remover las cuentas falsas es parte de la política de Facebook, "había un efecto perverso en el hecho de que, si encontraba cuentas falsas que no estaban relacionadas directamente con una figura política, a menudo eran más fáciles de remover que las que lo estaban". Este efecto, dijo, crea un incentivo para las figuras políticas para esencialmente cometer un crimen abiertamente.


La ex empleada de Facebook fue despedida de la compañía en 2020 por bajo desempeño, el cual indica se debió a su priorización de la erradicación del compromiso cívico falso sobre otras órdenes administrativas. O no hacer lo que le mandaban, pues. Antes de irse, pubicó un memorándum interno acusando a la compañía de permitir a sus intereses y deseos de maximizar utilidades de interferir con su responsabilidad de proteger la democracia.


Gran problema aquí: Mucho de esto se centra en países en vías de desarrollo, como solía llamárseles hasta no hace mucho tiempo. Las revelaciones de Zhang incluyen peligrosos agujeros en las políticas de la compañía para atender la manipulación política, así como indiferencia y desviación del tema por parte de la administración.


No profundizaré al respecto, pero básicamente, durante su tiempo como empleada enfocada en el fake engagement (compromiso falso) -me gusta, comentarios, shares y reacciones hechas por cuentas no auténticas- descubrió que mientras la compañía asegura la autenticidad de las cuentas personales, no tiene ninguna política para regular la configuración de lo que se conoce como "Pages" para negocios, marcas o individuos. De esta manera, cuando cuentas no auténticas son configuradas por actores políticos, permite manipular el fake engagement -que Facebook elegantemente llama Comportamiento No Auténtico Coordinado, o Coordinated Inauthentic Behavior (CIB)-. Los ejemplos más famosos de CIB ocurrieron durante la elección del 2016, cuando la Agencia Rusa de Internet configuró cuentas de Facebook identificadas como estadounidenses y éstas fueron utilizadas para influir los debates políticos en Facebook.


Zhang descubrió grandes redes de CIB en países que van desde Azerbaijan hasta Irak, alimentadas por Pages falsas. Una de ellas, por ejemplo, operó en Honduras, donde se encontró miles de falsos Pages inflando (boosting) las publicaciones del presidente de ala derecha, Juan Orlando Hernández, cuya reelección en 2017 es vista como fraudulenta. En este caso, la compañía tardó once meses en iniciar una investigación. Guy Rosen, el vicepresidente de Integridad de Facebook, indicó que dicho país no era prioridad y los recursos no eran limitados, pues debían enfocarse a Estados Unidos, Europa occidental y adversarios extranjeros, como Rusia e Irán.


Hasta aquí la voy a dejar hoy, queridos lectores, porque aunque el espacio es ilimitado el tiempo no lo es, pero como dicen por ahí, continuará. Es un tema grave y viene a unirse a los ya ventilados por Haugen, y convendremos, el mundo no está para que nos anden amplificando el contenido divisivo, alimentando los discursos de odio y la desinformacion, y mucho menos incitando a la violencia y minando la democracia.


@talya


Antes de irnos:


1. ¿Y qué tenemos aquí? Nuevos procesadores de Apple, una nueva MacBook Pro y la tercera generación de AirPods. Démosle la bienvenida también a los procesadores M1/Pro y M1/Max y a Apple Music Audio #AppleEvent


Amor a esto:


Nunca pensé que este día llegaría, pero sí, dénle amor al blog de Bill Gates https://www.gatesnotes.com/

No hay comentarios:

Publicar un comentario

La bio de Miguel; lo prometido es deuda

Por Talya Aluveaux @talya Miguel de Icaza nació en 1972. Es un programador, mejor conocido por iniciar los proyectos GNOME, Mono y Xamarin. ...