Facebook, con más de 2 mil millones de usuarios, el conteo y la vigilancia en esta red social se torna como una tarea cada vez más difícil de cumplir. El trabajo poco envidiable recae sobre los hombros de un equipo de moderadores de contenido de 7.500 personas (junto con los algoritmos del sitio), que recorren toneladas de mensajes antiestéticos, desde material terrorista violento hasta imágenes de abuso infantil. Pues, como era de esperarse, no siempre resulta bien.
Según informes, una organización sin ánimo de lucro envió a Facebook una muestra de 49 artículos que contenían expresiones de odio, y la red social admitió que sus revisores cometieron errores en 22 de los casos. En seis casos, Facebook culpó a los usuarios por no marcar las publicaciones correctamente, y en dos incidentes adicionales dijo que no tenía suficiente información para responder. La compañía defendió 19 de sus decisiones. Al parecer, los mensajes incluían retórica sexista, racista y antimusulmana.
El vicepresidente de Facebook, Justin Osofsky dijo que “sentimos los errores que hemos cometido”, dijo el vicepresidente de Facebook Justin Osofsky en un comunicado. “Debemos hacerlo mejor”. El ejecutivo reveló que la red social elevará su equipo de seguridad y protección a 20,000 personas el próximo año en un esfuerzo por implementar mejor sus estándares comunitarios. Por su parte, Justin agregó que Facebook elimina alrededor de 66,000 publicaciones reportadas como discurso de odio cada semana.
Adicional a la lucha constante contra la desinformación, Facebook también ha estado agregando nuevas herramientas para combatir el material sensible. En abril de este año introdujo un mecanismo de denuncia de venganza pornográfica y, a principios de este mes, lanzó funciones para ayudarlo a bloquear o ignorar a los hostigadores.