La IA de la nueva restricción de edad de YouTube preocupa a la comunidad LGBTQ+

Tabla de contenido:

La IA de la nueva restricción de edad de YouTube preocupa a la comunidad LGBTQ+
La IA de la nueva restricción de edad de YouTube preocupa a la comunidad LGBTQ+
Anonim

Conclusiones clave

  • El software de restricción de edad automático de YouTube es motivo de preocupación por el contenido LGBTQ+ en la plataforma.
  • La empresa se ha visto empañada por la controversia sobre los creadores de contenido LGBTQ+ que consolidan la duda.
  • Los sesgos en el aprendizaje automático dan crédito a la idea de que es probable que la implementación imperfecta de los filtros restrinja injustamente el acceso.
Image
Image

Con un historial de apuntar injustamente a los creadores de contenido LGBTQ+ en su proceso de moderación, la nueva tecnología basada en inteligencia artificial de YouTube se considera un próximo paso preocupante para el gigante tecnológico.

En el blog oficial de YouTube la semana pasada, la plataforma para compartir videos reveló planes para lanzar un nuevo software automático para "aplicar restricciones de edad de manera más consistente" en videos considerados inapropiados para espectadores más jóvenes.

Motivado por las preocupaciones recientes sobre los niños en la aplicación, el nuevo sistema se basa en un software de inteligencia artificial de aprendizaje automático con la capacidad de prescindir de moderadores humanos para un proceso más automático. ¿La cuestión? Los sistemas automatizados de YouTube han sido acusados de destacar contenido y creadores LGBTQ+ simplemente por existir.

Incluso si no es malicioso, que no creo que lo sea, es una f alta de participación de diversas voces, o al menos una f alta de respeto.

"El aprendizaje automático está informado y creado por humanos, y es posible tener esos sesgos inherentes o aprendidos por la propia máquina", dijo el YouTuber Rowan Ellis en una entrevista telefónica con Lifewire. "Su sesgo con respecto al contenido [LGBTQ+] ha sido evidente en las experiencias anteriores de YouTubers [LGBTQ+], y no he visto evidencia de que se haya hecho algo para evitar que suceda."

Cariño, ahora tenemos mala sangre

Ellis es una YouTuber que crea contenido educativo con una inclinación feminista y queer, y en 2017 publicó un video sobre el modo restringido de la compañía. Como una incursión inicial en la moderación automática de contenido, este modo permitía a los usuarios preseleccionar opcionalmente "contenido potencialmente para adultos" a partir de sugerencias y recomendaciones de búsqueda.

Consiguiendo más de 100.000 visitas, cree que hubo un esfuerzo consciente para evitar que se restrinja su canal debido a su oposición vocal contra los excesos del nuevo paso de YouTube hacia la moderación. Otros usuarios de la plataforma no tuvieron tanta suerte y se lo hicieron saber a YouTube.

Una demanda colectiva contra YouTube fue presentada en agosto de 2019 por un grupo de ocho creadores LGBTQ+ que acusaron a la empresa de Silicon Valley de restringir el contenido y los creadores de videos queer y trans. La demanda alega que el sitio utiliza "prácticas ilegales de regulación, distribución y monetización de contenido que estigmatizan, restringen, bloquean, desmonetizan y dañan financieramente a los demandantes LGBT y a la comunidad LGBT en general"." Todavía se está abriendo camino en los tribunales de California.

El aprendizaje automático está informado y creado por humanos, y es posible tener esos sesgos inherentes o aprendidos por la propia máquina.

En junio de ese mismo año, la plataforma recibió una avalancha de atención de los medios después de negarse a reprender rápidamente al popular comentarista conservador Steven Crowder por una campaña de acoso homofóbico de meses de duración contra el periodista y presentador de Vox Carlos Maza. Esto consolidó lo que Ellis dijo que es un patrón con la plataforma en línea de ignorar los desafíos únicos que enfrentan los creadores queer. La f alta de fe de los creadores LGBTQ+ en la capacidad de YouTube para mostrarse ante ellos no carece de mérito.

"No creo que hayan entendido la necesidad de que haya transparencia con respecto a los problemas sociales y garantizar la igualdad", dijo. "Todavía hay niños en todo el mundo que han crecido con la idea de que ser gay está mal, y cuando comienzan a cuestionar esa creencia, pero la encuentran bloqueada por una búsqueda o restricción segura, reforzará esta idea de que es es incorrecto, inapropiado, adulto, perverso y sucio."

Error en el aprendizaje automático

Con su sórdida historia con respecto a los creadores de contenido LGBTQ+ en su plataforma, aún se ciernen las preocupaciones sobre la implementación de la capacidad del software de aprendizaje automático para discernir normas más importantes. Don Heider, director ejecutivo del Centro Markkula de Ética Aplicada, sugiere que el potencial de locura es un riesgo demasiado grande para apostar.

"Es difícil creer que la IA pueda gobernar efectivamente el contenido de varios países con diferentes normas y estándares culturales", escribió en una entrevista por correo electrónico. "Con demasiada frecuencia, la IA se ve como la respuesta a preguntas complejas. En este punto, la IA y la forma en que se crea luchan para lidiar incluso con tareas simples, y mucho menos con cualquier moderación de contenido con cualquier nivel de complejidad".

YouTube decidió usar tecnología de inteligencia artificial debido a la f alta de moderación constante por parte de moderadores humanos, según su blog. Aumentar el uso de filtros computarizados para eliminar videos considerados inadecuados se convirtió en la norma, y la implementación de los mismos procedimientos para sus políticas de restricción de edad se considera el siguiente paso lógico.

Como empresa que busca mejorar gradualmente sus procesos después de las críticas de larga data sobre su relación con los consumidores infantiles, esta decisión no sorprende.

No creo que hayan entendido la necesidad de que haya transparencia con respecto a los problemas sociales y garantizar la igualdad.

Los niños se han convertido en un grupo demográfico clave para el sitio para compartir videos. En agosto, la empresa de análisis de videos digitales Tubular descubrió que, aparte de los videos musicales, el contenido dirigido a niños encabezaba la lista de fin de mes de los videos más vistos en YouTube.

El interés de la empresa en proteger esta potencia lucrativa y emergente en la plataforma tiene sentido. Sin embargo, las herramientas utilizadas para hacer cumplir esta protección siguen siendo incómodas para aquellos que ya se han encontrado aguas abajo de los procedimientos de moderación de la empresa.

"Mi preocupación es que hará mucho daño y no protegerá a los jóvenes [LGBTQ+] que necesitan contenido informativo, franco y honesto que muchos YouTubers [LGBTQ+] pueden proporcionar, pero se marca en su sistema como inapropiado", dijo Ellis."Incluso si no es malicioso, que no creo que lo sea, es una f alta de aportes de diversas voces, o al menos una f alta de respeto.

"Vemos eso todo el tiempo en la tecnología. Cuando miras el reconocimiento facial que no logra diferenciar diferentes caras negras, o cuando miramos la medicina y vemos que la medicación solo se ha probado en un género en particular. Estos son conversaciones más amplias, y YouTube no está exento de ello".