Samsung y Telefónica crean un algoritmo que identifica a los acosadores en Twitter con más de un 90% de precisión

La metodología del estudio es capaz de distinguir entre agresores y el resto de usuarios dela red social tomando en consideración el texto de sus publicaciones, su cuenta y otros atributos de red

Un grupo de investigadores académicos, con el apoyo de Samsung y Telefónica, ha desarrollado un algoritmo que es capaz de identificar de forma automática las cuentas de Twitter que llevan a cabo acciones de ciberacoso contra otras personas, logrando una efectividad de más del 90 por ciento en esta tarea.

Los expertos han publicado recientemente su estudio ‘Detectando el ‘ciberbullying’ y la ciberagresión en las redes sociales’, en el que han analizado 1,2 millones de cuentas de Twitter y 2,1 millones de tuits sobre temas como la NBA o la desigualdad de sexos en los salarios, en torno a los que el abuso es más frecuente, como han explicado.

Entre estos temas destaca también el GamerGate, una campaña de acoso que tuvo lugar en el año 2014 contra varias desarrolladoras y de videojuegos y mujeres del sector que fueron blanco de amenazas de violación y de muerte por un grupo de usuarios en Twitter a través del ‘hashtag’ #GamerGate. Cinco editores fueron vetados de Wikipedia en 2015 por dar a su página sobre este tema un enfoque feminista.

La metodología del estudio es capaz de distinguir entre agresores y el resto de usuarios de Twitter tomando en consideración el texto de sus publicaciones, su cuenta y otros atributos de red, como han explicado en la publicación.

El estudio ha utilizado la API Streaming de Twitter, que proporciona acceso a un 1 por ciento de todos los tuits de la plataforma. Además, han filtrado las cuentas de ‘spam’ gestionadas por bots y no por personas, y las publicaciones quedan organizadas en cuatro tipos: acosadores, agresivos, spam y normales -es decir, sin abusos.

En ellos, el algoritmo buscaba cientos de ‘hashtags’ relacionados con campañas de acoso en los que hubiese presente algún insulto, utilizando para esta labor la base de datos de términos de odio Hatebase.

A nivel general, el algoritmo fue capaz de identificar con éxito al 90,2 por ciento de tuits de acosadores. En los tuits con un tono normal y sin abusos este porcentaje de precisión en la identificación se reduce al 82,7 por ciento.

En la media de las cuatro categorías (acosador, agresivo, spam y normal) la efectividad general del algoritmo se queda en el 61,4 por ciento.

Los investigadores proceden de universidades como el Centro de Investigación y Tecnología Hellas, la Universidad Aristóteles de Tesalónica (ambos de Grecia), las universidades de Binghamton y Boston (Estados Unidos) y el University College de Londres (Reino Unido).

No obstante, los autores han colaborado también con compañías como la división de Inteligencia de Samsung y Telefónica Investigación y Desarrollo.