Por primera vez Facebook define claramente qué prohíbe en su página

7,600 moderadores trabajarán para detectar el contenido que ha de ser eliminado 7,600 moderadores trabajarán para detectar el contenido que ha de ser eliminado foto: Referencial

Información adicional

  • Sienna: tbg-sienna

Si alguna vez no ha tenido muy claro qué puede y qué no puede publicar en su página de Facebook, está de suerte. Por primera vez, la red social publica directrices detalladas sobre lo que pertenece y lo que no en su servicio: de hecho, 27 páginas de normativa.

Así que no promueva el terrorismo, ni la caza de especies en extinción, no haga amenazas violentas creíbles o se deleite con la violencia sexual. Entre otras muchas cosas, Facebook también vetará contenido que refleje la venta de marihuana o armas de fuego, publicar instrucciones sobre cómo autolesionarse o cometer homicidios, y por supuesto imágenes de menores en un contexto sexual.

La mayoría de estas cosas ya estaban prohibidas por la red social en su anterior página de estándares comunitarios. Sin embargo, era sólo una descripción a grandes rasgos. A partir de ahora, Facebook detalla lo que no se va a permitir.

Por ejemplo, las fotos de los pechos están bien en algunos casos, como la lactancia materna o en una pintura, pero no en otros.

El documento también define lo que cuenta como explotación sexual de adultos o menores, pero deja espacio para prohibir más formas de abuso, en caso de que surja. En otro caso, hace hasta una definición de lo que considera un asesino en serie: cualquiera que haya cometido dos o más asesinatos en “múltiples incidentes o ubicaciones”, califica. Pero no está prohibido si ha cometido un sólo homicidio.

Moderadores que regulan el contenido

Los estándares actualizados de la comunidad reflejarán las reglas que usan sus 7,600 moderadores para revisar las publicaciones cuestionables, y luego decidirán si deberían ser eliminadas de Facebook. Y a veces si reportarlo a las autoridades.

Estas personas deben leer y ver el material y decidir si es inapropiado para luego actuar en consecuencia. Algunas decisiones son claras y otras, como decidir qué es acoso o no, serán más difíciles.

No todas las decisiones son o blanco o negro. Por ejemplo, ¿qué cuenta exactamente como protesta política? ¿Cómo puede saber que la persona en una foto aceptó publicarla en Facebook?

En 2016 Facebook dio marcha atrás después de eliminar una icónica fotografía de la agencia Associated Press de 1972 con una niña gritando desnuda que huía de un ataque en Vietnam. Inicialmente la compañía insistió en que no podía crear una excepción para esa fotografía en particular de un niño desnudo, pero pronto se invirtió, diciendo que la foto tenía “importancia global”.

Los moderadores trabajan en 40 idiomas. El objetivo de Facebook es responder a los informes de contenido dudoso dentro de las primeras 24 horas.

Facebook usa una combinación de revisores humanos e inteligencia artificial para descartar contenido que viola sus políticas. Pero sus herramientas de inteligencia artificial no se acercan al punto en el que podrían señalar diferencias sutiles en el contexto y la historia, sin mencionar matices como el humor y la sátira, que les permitirían emitir juicios tan precisos como los de los humanos. Y, por supuesto, los humanos también cometen errores.

 Redacción: Leo.com                                         

Fuente: Tvnws

Visto 381 veces