Por qué las redes sociales no siempre pueden protegernos del contenido ofensivo

Tabla de contenido:

Por qué las redes sociales no siempre pueden protegernos del contenido ofensivo
Por qué las redes sociales no siempre pueden protegernos del contenido ofensivo
Anonim

Conclusiones clave

  • Instagram acaba de presentar una función de control de contenido confidencial para que los usuarios decidan qué prefieren ver en la plataforma.
  • Todas las plataformas de redes sociales tienen algunos controles de contenido y políticas para limitar el contenido que consideran dañino y ofensivo.
  • Los expertos dicen que cada usuario tiene un nivel de tolerancia diferente a lo que se considera ofensivo y que controlar su contenido es tan simple como utilizar el algoritmo.
Image
Image

Instagram introdujo una función de control de contenido confidencial a principios de esta semana, pero las políticas de control de contenido como esta tienden a fallar en las redes sociales.

La nueva característica de la plataforma le permite elegir "permitir", "limitar" o ajustar los controles aún más para que vea aún menos contenido "dañino o sensible" en su feed. Todos los sitios de redes sociales tienen alguna política de contenido, pero los expertos dicen que estas políticas en última instancia no protegerán a todos de todo, y no deberían hacerlo.

“En cuanto a los sitios de redes sociales en sí mismos, qué tan 'bien' controlan que el contenido marginal se reduce a sus propios objetivos comerciales y qué métricas ven; en otras palabras, quién constituye la mayor parte de los miembros de su comunidad”, dijo Mary Brown, directora de marketing y redes sociales de Merchant Maverick, a Lifewire en un correo electrónico.

Definición de contenido dañino

Los controles de contenido dañino no son nada nuevo en las redes sociales: casi todas las plataformas tienen una política para limitar ciertos tipos de contenido sensible o dañino. La política de Twitter elimina automáticamente los tweets que contienen contenido abusivo destinado a acosar o intimidar a alguien. La plataforma también actualizó sus reglas contra el contenido de odio en 2019 para incluir cualquier tuit que deshumanizara a las personas en función de la religión.

Facebook también cuenta con prácticas de moderación de contenido. Por ejemplo, la red social no permite imágenes de autolesiones o contenido que glorifica los trastornos alimentarios. La plataforma también ha tomado medidas enérgicas contra la posibilidad de incluir afirmaciones de salud sensacionalistas en los feeds de las personas, como afirmaciones de salud exageradas o engañosas sobre las vacunas.

Image
Image

Pero los expertos dicen que estas políticas dejan a los usuarios con más preguntas que respuestas, ya que el "contenido dañino" puede diferir de lo que define cada plataforma.

“¿Quién determina lo que es ofensivo? ¿Los usuarios tendrán que seleccionar de una lista de temas que encuentren ofensivos? ¿Facebook e Instagram decidirán qué es ofensivo? ¿Cómo se definirá la ofensiva?” Andrew Selepak, profesor de redes sociales en la Universidad de Florida, le dijo a Lifewire en un correo electrónico.

Instagram define el contenido sensible como "publicaciones que no necesariamente infringen nuestras reglas, pero que podrían molestar a algunas personas, como publicaciones que pueden ser sexualmente sugerentes o violentas".

Brown agregó que las plataformas no podrían proteger con éxito a todos de este tipo de contenido, ya que todos son diferentes en su tolerancia y preferencia por el contenido.

“Cada persona tiene un nivel de tolerancia diferente, actitudes diferentes, gustos diferentes”, dijo. “Cada individuo que descarga o usa un sitio de redes sociales ha aceptado inherentemente que él o ella podría tropezar con contenido que está al margen de las pautas de contenido aceptables de esa aplicación o los estándares de la comunidad”.

Muchos usuarios de las redes sociales también han criticado la nueva función de Instagram, diciendo que limitaría el contenido de activistas y artistas (sobre temas controvertidos o la publicación de arte que contenga desnudos) para que no llegue a la audiencia.

Control de contenido

Brown señala que es una oportunidad perdida que la nueva función de Instagram sea difícil de encontrar dentro de la aplicación, lo que hace que sea mucho más difícil para las personas controlar el contenido con el que se sienten cómodas, ya sea que quieran ver menos o más de contenido "sensible".

Si fuera una característica que Instagram quisiera res altar mejor, la opción podría integrarse en la misma interfaz en publicaciones o carretes donde puede hacer clic en 'Informar'. Esa sería una forma más efectiva de presentar esta sensibilidad particular control a las personas que probablemente ya estén usando esa función”, dijo.

Las características adicionales son geniales, pero al final, el algoritmo analiza con qué estamos interactuando para determinar qué recomendar a continuación.

Teóricamente, la característica de Instagram te da el control de lo que ves en lugar de implementar una política general sobre el contenido como muchas otras plataformas. Pero, en última instancia, los usuarios de las redes sociales pueden decidir lo que quieren ver en sus feeds sin estas políticas creadas por la plataforma.

"Las características adicionales son geniales, pero al final, el algoritmo analiza con qué nos estamos involucrando para determinar qué recomendar a continuación", escribió Eric Chow, consultor jefe de Mashman Ventures, a Lifewire en un correo electrónico..

Chow agregó que hacer algo tan simple como hacerle saber a la plataforma que no desea ver un tipo de contenido (una característica que tienen muchas plataformas) es la forma más efectiva de tomar el control en nuestras propias manos.

“Los usuarios deben asumir la responsabilidad y ser conscientes de cómo interactúan con su contenido: cuanto más nos gusta, comentamos, compartimos y guardamos contenido sobre un tema en particular, más se nos presentará, dijo.

Recomendado: