Por qué la moderación en línea necesita nuevas soluciones

Tabla de contenido:

Por qué la moderación en línea necesita nuevas soluciones
Por qué la moderación en línea necesita nuevas soluciones
Anonim

Conclusiones clave

  • TikTok ahora avisará a los usuarios antes de que envíen un comentario que pueda infringir las Normas de la comunidad de la aplicación.
  • Si bien es útil, muchos ven esto como un pequeño paso para detener el acoso y el odio en línea.
  • En última instancia, TikTok y otros sitios web de redes sociales necesitan encontrar nuevas soluciones fuera de la moderación automática para avanzar realmente.
Image
Image

La moderación en línea es uno de los problemas más desafiantes que enfrentan las redes sociales en este momento, pero los expertos dicen que la solución no es simplemente agregar más reglas.

TikTok agregó recientemente una nueva función que avisará a los usuarios antes de permitirles enviar lo que se considere un comentario de odio o que infrinja las reglas. La medida es un intento de ayudar a frenar el odio y la intimidación en línea que se ha extendido a través de varias redes sociales, incluida la popular aplicación para compartir videos.

Desafortunadamente, si bien los sitios pueden tener buenas intenciones con estas funciones, no abordan el problema más importante que se encuentra debajo de la superficie.

"El problema principal con tanta [moderación en línea] es que no existe una solución única que funcione para todos", Catie Osborn, una TikToker que recientemente se encontró tratando con una prohibición permanente, le dijo a Lifewire en una llamada.

Encontrar claridad

Osborn, conocido como "catieosaurus" en TikTok, tiene más de 400 000 seguidores en el sitio para compartir videos. En sus videos, se enfoca en el bienestar sexual, cómo es vivir con TDAH y otros temas neurodivergentes.

Sin embargo, durante el fin de semana, vio que todo su trabajo estaba en peligro cuando TikTok prohibió su cuenta por "romper las pautas de la comunidad", sin ningún contexto adicional de las reglas que podría haber infringido.

Es esta f alta de aclaración lo que se ha vuelto tan molesto para muchos usuarios. Debido a que los sitios de redes sociales como TikTok y Twitter generan tantos informes, gran parte del proceso está automatizado.

“Cuando hablas de cientos de millones de usuarios, no existe una solución perfecta.”

Esto significa que se implementan sistemas para activar prohibiciones temporales, según la cantidad de informes que genera un contenido. Por ejemplo, Osborn nos dijo que si varias personas denuncian el video en vivo de un TikToker, inmediatamente prohíben que ese usuario transmita en vivo durante al menos 24 horas.

"Hay una f alta de claridad sobre lo que funciona y lo que no", explicó Osborn.

Según Osborn, la aplicación ha visto un aumento considerable en el número de usuarios que denuncian a los creadores porque no les gusta el color de su piel, su sexualidad y más.

Esta posibilidad y la f alta de aclaración de TikTok sobre lo que el usuario hizo mal es una gran parte de la frustración, dice ella.

"¿Cómo se supone que vamos a saber qué hicimos mal si no nos lo dices?", preguntó. "Estoy más que dispuesto a decir que me equivoqué. Pero, si no me dices cómo me equivoqué, no puedo arreglarlo".

Osborn tampoco es la única que se ha visto confundida por una prohibición. Muchos usuarios recurrieron al feed de Twitter de TikTok para encontrar respuestas sobre sus prohibiciones, y muchos tweets recibieron la misma respuesta para apelar la prohibición desde la aplicación.

Si no entienden por qué están prohibidos, los usuarios podrían sentirse aún más frustrados al tratar de averiguar qué hacer a continuación.

Fomentando nuevas soluciones

Si bien las funciones como las solicitudes de comentarios pueden afectar positivamente a la comunidad, algunos no las ven como soluciones a largo plazo.

"Es probable que esta función solo influya en las personas que realmente quieren evitar sonar malvadas sin querer", dijo Cody Nault, un ingeniero de software que comparte su codificación en TikTok, a Lifewire por correo electrónico.

"Lamentablemente, parece que gran parte del odio que se difunde en la plataforma tiene la intención de ser duro".

Image
Image

Nault explicó cómo las personas continúan usando la función Stitch de TikTok, que le permite unir partes de otro video con el suyo, para llamar y ridiculizar a los creadores. Atribuye gran parte de esto al éxito que puede tener el contenido de odio en las redes sociales y dijo que le encantaría ver TikTok en lugar de impulsar a creadores más positivos.

Para otros como Osborn, el problema no es la f alta de funciones de informes. Así es como los sitios manejan esos informes. La f alta de comunicación y los sistemas de informes fácilmente explotables son grandes problemas que requieren trabajo, pero ella no es ingenua.

“Cuando se habla de cientos de millones de usuarios, no existe una solución perfecta”, dijo Osborn. Agregó que si bien su cuenta fue restablecida, muchos creadores no tienen tanta suerte.

"No creo que haya una solución única para todos. Pero, cuando el patrón se está convirtiendo en cientos de creadores, sus cuentas están bloqueadas, y bloqueadas repetidamente, por no hacer nada malo, algo tiene cambiar."

Recomendado: