Facebook prueba el modelo de IA para frenar los conflictos en los grupos

Facebook prueba el modelo de IA para frenar los conflictos en los grupos
Facebook prueba el modelo de IA para frenar los conflictos en los grupos
Anonim

Facebook dijo que está probando una tecnología de moderación de inteligencia artificial en Grupos para frenar los conflictos en publicaciones y comentarios.

La nueva herramienta impulsada por IA se llama Alertas de conflicto y está destinada a ayudar a los administradores de grupos a tener más control sobre sus comunidades. La tecnología de IA notificará a un administrador si detecta "conversaciones contenciosas o poco saludables" para que un administrador pueda tomar las medidas necesarias más rápido.

Image
Image

Para el usuario promedio de Facebook, esta nueva herramienta significa que lo más probable es que vea menos disputas y argumentos en las publicaciones de los grupos que sigue, por lo que las cosas serán menos negativas en general.

Los administradores pueden usar la herramienta Alertas de conflictos para crear alertas cuando los usuarios comentan con palabras o frases específicas, y el aprendizaje automático puede detectar estas instancias para alertar a un administrador cuando ocurran. La herramienta también permite a los administradores limitar la actividad de personas y publicaciones específicas.

Facebook le dijo a The Verge que el aprendizaje automático usaría "múltiples señales, como el tiempo de respuesta y el volumen de comentarios, para determinar si la participación entre los usuarios tiene o podría conducir a interacciones negativas".

Facebook ya usa herramientas de inteligencia artificial para marcar otros tipos de contenido en su plataforma, incluido el discurso de odio. Según un Informe de cumplimiento de estándares comunitarios de agosto de 2020, la herramienta de inteligencia artificial de Facebook para el discurso de odio fue precisa en un 95 %, en comparación con el 89 % del primer trimestre de 2020. Facebook dijo que aumentó sus acciones contra el contenido de discurso de odio de 9,6 millones de instancias en el primer trimestre 2020 a 22,5 millones en el segundo trimestre.

Para el usuario promedio de Facebook, esta nueva herramienta significa que lo más probable es que vea menos disputas y argumentos en las publicaciones de los grupos que sigue

La red social también está trabajando en una tecnología de inteligencia artificial que puede "ver" fotos mediante el uso de datos sin procesar para permitir que el modelo se entrene a sí mismo, de forma independiente y sin usar un algoritmo, a medida que ve más imágenes. El proyecto de IA, conocido como SEER, podría allanar el camino para modelos de visión por computadora más versátiles, precisos y adaptables, al tiempo que ofrece mejores herramientas de búsqueda y accesibilidad para los usuarios de las redes sociales.

Recomendado: