Zumby Pixel

Facebook crea nuevas reglas

La red social publicará normas comunitarias para cumplir con regulaciones en EU y la UE
Foto: Agencias

Publicado 27 abril 2018 el 27 de Abril de 2018

por

La gente comparte todas sus aficiones a través de mensajes, fotos o videos en Facebook, pero a veces ese contenido puede ser vetado si se considera que atenta contra los principios de equidad, voz y seguridad que sigue la red social.

Para ayudar a los más de dos mil millones de usuarios a entender qué tipo de contenido es o no apropiado, por primera vez la red social está publicando las pautas internas que usa para tomar estas decisiones.

En conferencia telefónica comentó que esta semana se podrán revisar las Normas Comunitarias en las que se establece el tipo de contenido que se puede eliminar.

Por ejemplo, lo relacionado con violencia plausible, personas u organizaciones peligrosas, promoción a la delincuencia, la organización de actos para infringir daños o desnudos y explotación infantil, por mencionar algunas.

“Mi hijo fue violado por otro niño mientras jugaban”… Atención padres…

Celular delató a mujer que grababa porno con joven de 14 años

Bickert destacó que establecer dichas pautas en algunos casos resulta complicado, ya que más del 85 por ciento de los usuarios de Facebook está fuera de Estados Unidos.

¿CÓMO FUNCIONA?

La red social tiene un equipo de políticas de contenido que desarrolla las Normas Comunitarias, el cual incluye expertos en temas como discurso de odio, seguridad infantil o terrorismo pertenecientes a todo el mundo. Cada semana se reúnen para  analizar qué está cambiando y así adecuar las normas, siempre tomando en cuenta los principios de seguridad, voz y equidad.

De hecho, estimó que las normas que se publican en esta ocasión, a futuro podrían sufrir cambios dependiendo del entorno global.

Para identificar alguna violación a estas normas cuentan con dos herramientas, la tecnología y las personas.

Aunque a veces hay situaciones en que las tecnologías son tan acertadas que no requieren una revisión humana, como podría ser en caso de un abuso sexual infantil.

La otra herramienta son las denuncias hechas por los mismos usuarios, para lo que cuentan con un equipo de siete mil 500 personas en el mundo que revisan y determinan si el contenido debe eliminarse, dando una respuesta en cerca de 24 horas.

Aunque aceptó que al tratarse de humanos, sus decisiones no son infalibles.

Síguenos en Twitter @ElDictamen

O si lo prefieres, en Facebook /ElDictamen.

Más noticias AQUÍ.

 

- US -