YouTube bloqueó videos de ajedrez al interpretar que “blanco y negro” eran expresiones racistas

La falla no fue humana, sino del sistema de inteligencia artificial que modera el contenido en el portal de videos de Google. 


Un estudio de algoritmo de la Inteligencia Artificial de Youtube bloqueó videos de ajedrez porque interpretó que las referencias del “blanco contra negro” eran expresiones racistas.

Investigadores de la Universidad Carnegie Mellon, en Pensilvania, Estados Unidos, analizaron los motivos por los que un popular canal de ajedrez en YouTube fue bloqueado el año pasado por supuestamente incluir “contenido dañino y peligroso”. La conclusión fue que el sistema de inteligencia artificial de la plataforma revisó las conversaciones en los videos, encontró frases como “blanco contra negro” (evidentes referencias a las piezas del juego) y catalogó ese contenido dentro de los discursos de odio.

 

Los detalles del hallazgo

En junio de 2020, el canal de YouTube que gestiona el ajedrecista croata Antonio Radic (conocido por su alias Agadmator) fue bloqueado mientras presentaba un video con el maestro de la disciplina Hikaru Nakamura. En primera instancia, Google no explicó las razones de la decisión. El canal fue restablecido luego de 24 horas y Radic sospechó que las referencias a las fichas del juego habían sido los detonantes del bloqueo.

Tal como explican en The Idependent, la moderación de YouTube es mixta: la hacen humanos y algoritmos. La confianza en las máquinas genera, en ocasiones, fallas como las que ocurrieron con el canal de ajedrez.

“Si confían en la inteligencia artificial para detectar el lenguaje racista, este tipo de accidentes pueden suceder”, dijo uno de los investigadores del Instituto de Tecnologías del Lenguaje, de la mencionada universidad estadounidense. Para corroborarlo, el científico filtró casi 700.000 comentarios en canales de YouTube centrados en el ajedrez.

Después de revisar manualmente una selección de 1.000 comentarios que la inteligencia artificial de YouTube había clasificado como discursos de odio, encontraron que el 82% de ellos habían sido clasificados erróneamente debido al uso de palabras como “negro”, “blanco”, “ataque” y “amenaza”, terminología usual en el juego de mesa.