Gestionando la conversación: la mano dura funciona

IMAGE: Reddit

El pasado 29 de junio, Reddit puso en marcha sus nuevas políticas de contenido para sus páginas, lo que significó el cierre de casi siete mil hilos de conversación (o subreddits), algunos tan célebres como The_Donald, en el que unos ochocientos mil fanáticos de Donald Trump se dedicaban a crear, compartir y difundir teorías de la conspiración, contenidos racistas, misóginos, islamofóbicos y antisemitas.

Casi dos meses después, la compañía ha publicado estadísticas que recogen la primera quincena tras el impacto de esas nuevas políticas de contenido, y que muestran una significativa reducción del 18% en el número de comentarios calificados como hate speech, eliminados por moderadores humanos o por la herramienta de inteligencia artificial desarrollada por la compañía, denominada AutoModerator. Los subreddits eliminados eran visitados por unos 365,000 usuarios cada día, y pertenecían a tres categorías: foros con nombres o descripciones que aludían directamente al discurso del odio, con gran cantidad de contenido de ese tipo, o que compartían esos contenidos.

Los resultados del endurecimiento de la política de Reddit resultan enormemente alentadores: aunque muchos usuarios hayan tratado de seguir alentando el discurso del odio creando contenidos más sofisticados, proporcionar a los moderadores una política que seguir de manera clara, y eliminar los foros en los que sus moderadores no actúan es algo que funciona, y que contribuye de manera evidente a la salud de la conversación.

El hecho de que un cambio de este tipo esté dando resultados positivos en un entorno como Reddit, con un tráfico brutal y una política de nombres de usuario completamente abierta, en el que cualquier usuario puede decidir llamarse como buenamente quiera y crear las cuentas que quiera, demuestra que el discurso del odio no tiene necesariamente que ver con la eliminación del anonimato. La obsesión de algunos con la verificación de cuentas para asegurar que pertenecen a una persona en concreto es, en muchas ocasiones, una forma de coartar, condicionar y empobrecer la conversación – en muchos casos, determinadas personas simplemente no pueden manifestar sus opiniones debido o bien a la presión social, o a posibles efectos derivados de su identidad.

Terminar con el discurso del odio es sencillamente eso: diseñar unas reglas claras que permitan a todo aquel que estime que ese discurso está teniendo lugar a denunciarlo, eliminarlo y dar de baja las cuentas que lo generan, con la promesa de que ese contenido y esas cuentas volverán a ser eliminadas sistemáticamente si vuelven a incurrir en ese comportamiento. Es una cuestión de claridad, y sobre todo, de no priorizar, como claramente hacen algunas redes sociales, el tráfico o los ingresos derivados de ese tipo de conductas. Simplemente, excluir de la conversación a quienes no son capaces de comportarse adecuadamente.

Los esfuerzos de Reddit, durante mucho tiempo una de las páginas más tóxicas de la red, van claramente por el buen camino. Esperemos que cunda el ejemplo.



Enrique Dans
Enlace: Gestionando la conversación: la mano dura funciona

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR
Aviso de cookies