parentesis.com/

Así es como Facebook decide qué contenido permitir y cuál no


La red social explica su proceso interno para decidir el contenido que está permitido en la plataforma.

por: Dani Barrera Dani Barrera

portada de nota

 

¿Alguna vez te has preguntado cómo Facebook decide el contenido permitido en su plataforma? La red social dio a conocer el proceso interno de dicha tarea, como parte de sus acciones para ser más transparente con los usuarios, tras el escándalo de Cambridge Analytica.

 

De acuerdo con Monika Bickert, vicepresidenta de Global Product Management, “estas decisiones están entre las más importantes que tomamos porque son fundamentales para garantizar que Facebook sea, a la vez, un lugar seguro y un lugar para compartir con libertad diferentes puntos de vista”.

 

Uno de los puntos a destacar es que, por primera vez, los usuarios tendrán el derecho de apelar las decisiones de la compañía sobre publicaciones individuales. “De ese modo, podrás solicitar una segunda opinión cuando creas que hemos cometido un error”, indica Bickert.

 

La decisiones de la plataforma están basadas en sus "Normas Comunitarias", hechas por un equipo especial, el cual, cada semana, se nutre de los aportes de expertos y organizaciones fuera de Facebook para comprender mejor las diferentes perspectivas sobre seguridad y expresión.

 

“Lo que no ha cambiado, y no cambiará, son los principios subyacentes de seguridad, voz y equidad en los que se basan estas normas”, agrega Bickert.

 

Nota relacionada: Mark Zuckerberg: 'Facebook ha cometido errores'

 

“Facebook también debe ser un lugar donde las personas puedan expresar sus opiniones libremente, incluso si algunas personas pueden considerar que esas opiniones son objetables”, dice la directiva, al tiempo que asevera que la equidad es un principio sumamente importante.

 

En este sentido, utiliza una combinación de inteligencia artificial y de reportes de las personas para identificar publicaciones, fotos u otros contenidos que posiblemente violen sus Normas Comunitarias. Dichos reportes son revisados por el equipo de Operaciones Comunitarias, el cual trabaja las 24 horas, todos los días.

 

En cuanto a la aplicación correcta de sus políticas en el contenido reportado, reconoce que, en algunos casos, “nos equivocamos porque nuestras políticas no son lo suficientemente claras para nuestros revisores”.

 

Por ello, en el transcurso del año, los usuarios tendrán la posibilidad de apelar las decisiones de Facebook. Como primer paso, a partir de hoy, se habilitó la posibilidad de apelar publicaciones que fueron removidas por desnudez o contenido sexual, discurso de odio o violencia gráfica.

 

El proceso, tal cual lo explica Facebook, es el siguiente:

- Si tu foto, video o publicación ha sido eliminado por violar nuestras Normas Comunitarias, se te dará la opción de solicitar una revisión.

- Las apelaciones son revisadas por nuestro equipo de Operaciones Comunitarias (siempre por una persona), en el plazo de 24 horas.

- Si hemos cometido un error, el contenido será restaurado y notificaremos a la persona que solicitó la apelación.

 

Facebook explica que trabaja para extender este proceso, incluyendo otros tipos de infracciones, con el fin de ofrecer a las personas la oportunidad de proveer más contexto “para que podamos tomar la decisión adecuada”.

 

Finalmente, la compañía adelanta que en mayo realizará eventos públicos en diferentes países para “explicar, desarrollar y redefinir nuestras Normas Comunitarias”, junto con la participación y aportes de todas las personas.

 

Nota relacionada: Los puntos importantes de los próximos cambios en Facebook

Comenta:

separador de nota