fbpx

Los encargados de moderar Facebook tienen una ardua tarea ante ellos: decidir si un emoji está siendo utilizado con fines de entretenimiento o si se trata de una amenaza que pueda afectar a otras personas. Esta decisión debe ser tomada en tan solo unos segundos.

Recientemente, se ha logrado obtener 1.400 páginas del libro secreto de reglas con las que se modera Facebook y que ponen en evidencia que la empresa “comete demasiados errores y tiene demasiado poder, con muy poca supervisión”.

The Times escribió que “un examen de los archivos reveló numerosos vacíos, sesgos y errores absolutos.”.

En la investigación, se destaca que los moderadores disponen de tan poco tiempo para evaluar el contenido que se ayudan de Google Translate para traducir lo que se dice en las publicaciones. Por lo que las traducciones no se comprenden al 100% en todos los contextos .

El informe sobre el libro secreto de Facebook llega a cuatro conclusiones claras:

 

 

El libro secreto de Facebook se elabora sobre la marcha

 

Las reglas normalmente son establecidas por grupos externos de jóvenes abogados e ingenieros, quienes no cuentan con la experiencia suficiente en otras regiones del mundo.

 

Las reglas contienen sesgos y errores.

 

Éstas son inexactas, desactualizadas o carecen de matices críticos.

 

 

Los moderadores se sienten abrumados.

 

Como ya hemos mencionado antes, Facebook subcontrata a empresas externas para que revisen un gran número de publicaciones en un tiempo entre 8 y 10 segundos.

Este trabajo resulta ser tan exigente, que muchos solo duran unos meses. Además, no tienen forma de contactar con Facebook en caso de encontrarse con algún problema.

 

 

Facebook se involucra en la política de otros países.

 

Los países donde la línea que divide el extremismo y la política en general es muy tenue, el poder de la red social para prohibir algunos grupos, ayuda a elegir ganadores y perdedores, por lo que sus decisiones sesgan a favor de los gobiernos que pueden multar o regular a Facebook.