Por qué Facebook necesita reglas más claras sobre la desinformación

Tabla de contenido:

Por qué Facebook necesita reglas más claras sobre la desinformación
Por qué Facebook necesita reglas más claras sobre la desinformación
Anonim

Puntos clave

  • La Junta de Supervisión de Facebook ha pedido reglas más claras sobre desinformación en el sitio web de redes sociales.
  • Actualmente, la junta ha anulado varias decisiones tomadas por Facebook de eliminar publicaciones que consideraba información errónea o discurso de odio, pero que en realidad no eran eso.
  • Se necesitan definiciones más claras de lo que es y no es desinformación o discurso de odio, especialmente con el alcance internacional de Facebook.
Image
Image

La junta de supervisión de Facebook, que se estableció para seguir supervisando la eliminación y moderación de las publicaciones en el sitio web, anuló algunas decisiones anteriores tomadas con respecto a las publicaciones que se eliminaron, lo que pone de manifiesto la necesidad de definiciones y reglas más claras.

La junta de supervisión asumió sus primeros cinco casos en diciembre de 2020. Si bien una de las publicaciones incluidas en la revisión era de los EE. maneras completamente diferentes. Debido a esto, las políticas que Facebook pone en marcha deben ser concisas y deben trabajar con cualquier comunidad en la que se estén enfocando las herramientas de moderación.

"La actividad de 'revisión independiente' de Facebook debe ser consistente a través de las fronteras internacionales", nos escribió Jim Isaak, expresidente del Instituto de Ingenieros Eléctricos y Electrónicos, y un veterano de 30 años en la industria de la tecnología, a través de Email. "Pero lo que es un 'discurso de odio' en Estados Unidos podría definirse como patriótico en otras sociedades autocráticas, lo que aumenta la complejidad de lo que se hace".

Líneas en la arena

Esta necesidad de consistencia y reglas más concisas ya está entrando en juego. De los cinco casos que asumió la junta de supervisión de Facebook en diciembre, el grupo decidió anular cuatro de ellos, dos de los cuales mostraban claramente la necesidad de una mejor moderación.

En uno de los casos anulados, la junta falló a favor de una mujer cuya publicación de Instagram sobre el cáncer de mama se eliminó automáticamente del sitio web por violar su política de desnudez adulta y actividad sexual.

Si bien Facebook ya había restaurado la fotografía, la junta mostró su objeción a que se eliminara en primer lugar. La junta incluso recomendó que Facebook implemente un sistema de apelación que permita a los usuarios ver cuándo se eliminó una publicación, por qué se eliminó e incluso sugirió formas de hablar con un ser humano para buscar una resolución.

Image
Image

La junta encontró que, si bien la mujer había compartido una publicación que mostraba pezones femeninos descubiertos y visibles, la fotografía no había infringido las Pautas de la comunidad de Instagram. El estándar de actividad sexual y desnudez de adultos que Facebook mantiene en sus estándares comunitarios permite la desnudez cuando el usuario busca crear conciencia por una razón médica u otra causa.

Otra publicación, que se compartió desde Myanmar, incluía lenguaje sobre los musulmanes que, según la junta, podría considerarse ofensivo, pero no alcanzó el nivel de incitación al odio para justificar que se elimine o se considere contrario a las reglas.

Aquí es donde las cosas empiezan a ponerse especialmente complicadas.

¿Hacia dónde está arriba?

"Facebook opera a nivel internacional", le dijo Isaak a Lifewire por correo electrónico. "Cada jurisdicción tiene sus propias reglas, y es posible que Facebook sea responsable por las de otros países".

Facebook debe tener en cuenta todas las reglas de los territorios en los que opera al establecer nuevas políticas. Al hacer que las políticas no sean claras, Facebook deja espacio para errores que podrían llevar a que la junta de supervisión deba anular más casos en el futuro.

Dado que la difusión del discurso de odio y la desinformación son tan frecuentes, especialmente en las redes sociales como Facebook y Twitter, es importante que estas empresas ofrezcan pautas claras que luego puedan usarse para moderar la comunidad.

Lo que es 'discurso de odio' en los EE. UU. podría definirse como patriótico en otras sociedades autocráticas…

Por supuesto, siempre hay otras opciones para ayudar a mitigar este tipo de problemas. De hecho, uno de los casos que la junta originalmente tenía la intención de supervisar en diciembre se eliminó del expediente luego de que el usuario eliminara la publicación.

La moderación generada por el usuario es algo que ya hemos visto tener éxito en sitios web como Wikipedia y, recientemente, el propio Twitter intensificó el lanzamiento de Birdwatch, un sistema de moderación impulsado por la comunidad para ayudar a detener la propagación de información errónea.

Sin embargo, estos métodos tienen otros problemas, por lo que obtener una línea de base estándar para las expectativas de la comunidad será clave para que Facebook ofrezca una mejor moderación de sus aplicaciones y sitios web en el futuro.

Recomendado: