Por Talya Aluveaux
Esta mañana el Instituto de Ciencias de Redes de la Universidad de Indiana, en colaboración con su observatorio de Social Media, reunió en una sesión de zoom una serie de demostraciones de cuatro de las herramientas más importantes actualmente para el análisis y detección de lenguaje de odio y bots en línea: BotHunter v1, Botometer, BotSlayer Beta y Net Mapper.
Aquí es cuando una está agradecida por estas maravillosas sesiones en línea, de acceso libre y gratuito (y breves además). Aunque el tiempo de exposición (15 minutos) de cada herramienta es poco, es suficiente para adquirir una idea del potencial de cada uno (y la curva de aprendizaje), así como su aproximación y/o enfoque hacia la caracterización de lo que conocemos como un bot.
En algunos casos, como Botometer y BotSlayer, es necesaria cierta habilidad para el trabajo con API´s para el trabajo a escala. Desarrollada en la Universidad de Indiana, la herramienta ayuda a identificar el comportamiento bot-like de los agentes de una red social. Bajo esta perspectiva, todos podemos tener un cierto porcentaje, pero hay algunos indicadores, como por ejemplo, el nunca dejar de tuitear (día y noche) que delatan la naturaleza del agente. La herramienta permite revisar la cuenta propia, de seguidores y amigos, y exportar los resultados en formato .json (Java Script Object Notation).
En el caso de BotHunter v1 (Carnegie Mellon), la herramienta realiza una clasificación de las cuentas, construyendo una caracterización. Que la cuenta sea bot o no depende de su clasificación en los umbrales de los "bot scores". En esta herramienta se hace énfasis en la clasificación de los bots (y su evolución). Para una probabildad consistente de que la cuenta consista en un bot, debe alcanzar un score de 40 puntos, y para una predicción estable de esta caracterización, la generación de entre 20 y 40 tweets (funciona solamente para twitter). Hay que tomar en cuenta que no todos los bots son malos, y de hecho algunos son útiles.
Una de las palabras clave al hablar de este tipo de herramientas es "predicción". ¿Qué tan acertadamente podemos predecir que una cuenta es un bot, o que un comentario determinado entra en la categoría de lenguaje de odio? ¿Todas las cuentas y/o comentarios en un conjunto de datos? Es más complicado de lo que parece cuando el que lo determina no es un humano, sino un algoritmo, con base en teoría emanada de las ciencias sociales, y la ayuda de un conjunto de variables.
Una tercera herramienta expuesta esta mañana fue BotSlayer beta. El expositor destacó, y lo sabemos, que la manipulación puede darse de formas diversas, y se trata de un problema complicado. Así, esta herramienta se decanta por dejar al usuario la decisión de si se trata de un caso de manipulación o no, considerando escenarios en los que se analiza el flujo de información entre cuentas.
Por último, retomando la perspectiva de la psicolingüística, Net Mapper (todavía no es público) es una herramienta de apoyo en el análisis del lenguaje de odio y el trolleo, ambas manifestaciones agresivas clave de los fenómenos de conflicto en línea. Al igual que en otras de las herramientas descritas, destacan la importancia de la clasificación entre estos dos comportamientos (hate speech vs trolling), así como el hecho de que un troll no es necesariamente negativo (puede tratarse de cuentas de humor o ironía).
NetMapper resulta verdaderamente interesante, pues incorpora léxico multilingüe (más de 40 lenguajes) y es multiplataforma (twitter, reddit), y por tanto mucho más útil que las herramientas que sólo trabajan con una red social y/o se enfocan únicamente en el idioma inglés. Según lo explicado por el expositor, se trata de herramientas basadas en teoría de las ciencias sociales, por ejemplo, la conceptualización del odio con base en la identidad. De esta manera, crean un modelo de lenguaje de odio que utiliza teoría de la identidad social para producir predicciones rápidas, interpretables y generalizables, con un 83% de precisión entre conjuntos de datos.
Todas estas herramientas pueden ayudarnos a comprender mejor los conflictos en línea. Algunos de los hallazgos utilizando NetMapper, por ejemplo, muestran que los grupos de odio se caracterizan por pertenecer a distintas sociedades y "targets" u objetivos, pero sus estructuras son similares.
Quizá no estemos muy lejos de la ubicuidad de estas herramientas, algunas que por ahora tienen una elevada curva de aprendizaje, otras funcionalidad limitada y algunas aún no disponibles para el público, pero sin duda cada vez más necesarias en el marco de una carrera desbocada en una pista de social media sólo para locos.
¿Cuánto tiempo pasará para que podamos activar el hate speech detector y el troll hunter? Uno de los participantes de la videoconferencia preguntó al desarrollador de NetMapper cómo esta herramienta específica podía ayudar a los periodistas a buscar patrones sobre la evolución en curso de una campaña de manipulación, pero no obtuvo una respuesta clara, al menos no de manera inmediata.
Queda estar pendientes, y trabajar en la construcción de una mejor ciudadanía, procurando no contribuir a la propagación de los discursos de odio, o funcionando como cámara de eco para los trolls, al menos cuando los detectamos intuitivamente. Bloquear, reportar y no alimentar es siempre la consigna, hasta que haya herramientas automatizadas que funcionen como red flags para desactivarlos de manera un poco más efectiva, aunque tristemente nunca desaparecerlos del todo, porque naturaleza humana.
@talya
Antes de irnos:
1. Hoy se lleva a cabo el primer Encuentro Nacional de ISI, organizado por la Unison, la División de Ingeniería, el Departamento de Ingeniería Industrial y el programa de ISI (Ingeniería en Sistemas de Información) y en este marco, un grupo de estudiantes guiados por el Dr. Federico Cirett presentará el proyecto Glycosa by Diabsen, una aplicación móvil para medir la glucosa a través de la reacción de la luz en la saliva. La cita es en la sala virtual https://bit.ly/3Dwq3WS a las 12:00 horas. Vía @Rql_Torres