Por qué es importante
Reducir la cantidad de videos de conspiraciones promocionados y monetizados automáticamente para los visitantes regulares de YouTube solo puede ayudar en la lucha contra la información falsa y las ideologías extremistas.
Un nuevo estudio muestra que el plan de YouTube de dejar de recomendar videos de conspiraciones en su canal de videos regular está funcionando.
Algunos antecedentes: Debido a las críticas sobre la promoción de videos de conspiración (curas milagrosas, la tierra es plana, etc.), YouTube anunció que tomaría medidas enérgicas contra tales " contenido limítrofe" en enero de 2019.
Dónde estamos ahora: Los investigadores, de la Universidad de California, Berkeley y la Fundación Mozilla, desarrollaron un sistema para clasificar si un video es "conspirativo", y luego emuló el algoritmo Watch-Next de YouTube para filtrar a través de un año lo que el algoritmo promocionaría activamente. Marc Faddoula, Guillaume Chaslotb y Hany Farida descubrieron que, de hecho, hay una reducción en la cantidad de videos etiquetados como conspiradores recomendados activamente.
La reducción general de recomendaciones conspirativas es una tendencia alentadora.
Esto no está resuelto: Si bien los investigadores son cautelosamente optimistas, se dan cuenta de que el problema de la radicalización a través de tales videos es un problema mayor. "Aquellos con un historial de ver contenido conspirativo ciertamente aún pueden experimentar YouTube como una burbuja de filtro", escribieron, "reforzado por recomendaciones personalizadas y suscripciones al canal."
El resultado final: Los investigadores también señalan que el diseño del algoritmo de YouTube tiene incluso más impacto en el flujo de información que, por ejemplo, un consejo editorial en un medio de comunicación más tradicional. toma de corriente. Una herramienta tan poderosa, argumentan los autores de este estudio, debería estar sujeta a más transparencia y pruebas públicas ahora y en el futuro.