Los creadores de YouTube están expresando su preocupación por el sistema de moderación impulsado por inteligencia artificial de la plataforma. Varias cuentas describen cancelaciones repentinas de canales por “spam, prácticas engañosas y estafas”, seguidas de rápidos rechazos de apelaciones con respuestas basadas en plantillas.
En algunos casos, los canales se restauraron solo después de que el creador generó atención en X o Reddit. El mensaje de YouTube a los creadores afirma que la compañía «no ha identificado ningún problema generalizado» con las cancelaciones de canales y dice que sólo «un pequeño porcentaje» de las acciones de cumplimiento se revierten.
Existe una brecha entre la posición de YouTube y las experiencias de los creadores que está generando un debate.
Qué informan los creadores
El patrón que aparece en los hilos de X y Reddit sigue una secuencia similar.
Los canales reciben avisos de terminación citando «spam, prácticas engañosas y estafas». Las apelaciones se rechazan en cuestión de horas, a veces minutos, con lenguaje genérico. Cuando se restablecen los canales, los creadores dicen que no reciben ninguna explicación sobre qué provocó la prohibición o cómo evitar problemas futuros.
Un caso documentado proviene del creador de YouTube, “Chase Car”, que dirige un canal de noticias sobre vehículos eléctricos. En una publicación detallada en r/YouTubeCreators, describen una secuencia en la que su canal fue desmonetizado por un sistema automatizado, aprobado por un revisor humano y luego cancelado meses después por spam.
El creador dice que llevaron el caso a un organismo de disputas certificado por la UE en virtud de la Ley de Servicios Digitales. Según su relato, la decisión consideró que el despido “no fue legítimo”. En su actualización más reciente, YouTube no había actuado según el fallo.
Canales restaurados después de la atención al público
Un subconjunto de canales cancelados fue restablecido después de que sus casos ganaran visibilidad en las redes sociales.
El canal de análisis de películas Final Verdict compartió un hilo que documenta una terminación repentina relacionada con el spam y su posterior restablecimiento después de que las publicaciones en X ganaron fuerza.
Al canal de crímenes reales The Dark Archive se le eliminó el canal y luego se lo restauró después de etiquetar públicamente a TeamYouTube.
Streamer ProkoTV dijo que a su canal se le restringió la transmisión en vivo después de una advertencia de spam. TeamYouTube luego reconoció un error y restableció el acceso.
Estas revocaciones confirman que algunas acciones de cumplimiento son incorrectas según los propios estándares de YouTube. También sugieren que la escalada en X puede funcionar como una ruta de apelación paralela.
YouTube reconoce algunos errores
En algunos casos, YouTube o sus representantes han admitido públicamente errores.
Dexerto informó sobre un creador cuyo canal de más de 100.000 suscriptores fue prohibido por un comentario que escribieron en una cuenta diferente cuando tenía 13 años. YouTube finalmente se disculpó y le dijo al creador que la prohibición «fue un error de nuestra parte».
El YouTuber tecnológico Enderman, con 350.000 suscriptores, dijo que un sistema automatizado cerró su canal después de vincularlo a una cuenta prohibida no relacionada. Dexerto destacó el caso después de que se difundiera en X.
Posición oficial de YouTube
YouTube enmarca su aplicación de manera diferente a como lo describen los creadores.
La política de spam, prácticas engañosas y estafas de la empresa explica por qué toma medidas contra el fraude, la suplantación de identidad, la interacción falsa y los metadatos engañosos. La política señala que YouTube puede actuar a nivel de canal si una cuenta existe «principalmente» para violar las reglas.
En una publicación de preguntas frecuentes, YouTube dice que la “gran mayoría” de los despidos se confirman en apelación. La compañía dice que tiene «confianza» en sus procesos, aunque reconoce «un puñado» de despidos incorrectos que luego fueron revertidos.
YouTube también ofrece un programa piloto de “Segundas oportunidades” que permite a algunos creadores iniciar nuevos canales si cumplen con criterios específicos y fueron cancelados hace más de un año. El programa no restaura videos ni suscriptores perdidos.
El director ejecutivo de YouTube indicó recientemente que la empresa planea ampliar las herramientas de moderación de IA. En una entrevista con Time, dijo que YouTube continuará con la aplicación ampliada de la IA a pesar de las preocupaciones de los creadores.
Por qué esto importa
Si confía en YouTube como canal principal, estas cuentas plantean preocupaciones prácticas. La cancelación de un canal elimina toda tu presencia, incluidos los suscriptores y el potencial de ingresos. Cuando las apelaciones parecen automatizadas, la visibilidad de lo que provocó la aplicación es limitada.
La línea de tiempo de Chase Car muestra que un sistema de inteligencia artificial puede anular un veredicto humano positivo meses después. Los creadores sin muchos seguidores pueden tener menos opciones de escalada si fracasan las apelaciones formales.
Mirando hacia el futuro
La Ley de Servicios Digitales de la UE brinda a los usuarios europeos acceso a organismos de disputas certificados para tomar decisiones de moderación. El caso Chase Car podría poner a prueba cómo responden las plataformas a fallos desfavorables bajo ese sistema.
YouTube dice que su proceso de apelaciones es el canal correcto para las disputas de cumplimiento. La compañía no ha anunciado cambios en su enfoque de moderación en respuesta a las quejas de los creadores.
Supervise la comunidad de ayuda oficial de YouTube para conocer cualquier actualización de los procedimientos de apelación o aclaraciones de políticas.
Imagen destacada: T. Schneider/Shutterstock



