Meta anunció una actualización de su política de etiquetado de IA, ampliando su definición de «medios manipulados» para ir más allá de los videos generados por IA, para incluir ahora audio e imágenes engañosas en Facebook, Instagram y Threads.
Una característica importante de la nueva política es su sensibilidad a la percepción de que restringe la libertad de expresión. En lugar de adoptar el enfoque de eliminar el contenido problemático, Meta simplemente lo etiqueta. Meta introdujo dos etiquetas, «Hecho con IA» e «Imaginado con IA», para dejar claro qué contenido se creó o modificó con IA.
Nuevas etiquetas de advertencia
El contenido generado por IA se basará en la identificación de las señales de autoría y autoinformación de la IA:
«Nuestras etiquetas ‘Hecho con IA’ en videos, audio e imágenes generados por IA se basarán en nuestra detección de señales compartidas por la industria de imágenes de IA o personas que revelan por sí mismas que están subiendo contenido generado por IA».
El contenido que sea significativamente engañoso puede recibir etiquetas más destacadas para que los usuarios puedan comprenderlo mejor.
El contenido dañino que viole los Estándares comunitarios, como el contenido que incite a la violencia, la interferencia electoral, la intimidación o el acoso, calificará para su eliminación, independientemente de si es generado por humanos o por IA.
Motivo de la política actualizada de Meta
La política original de etiquetado de IA se creó en 2020 y, debido al estado de la tecnología, se definió de manera estricta y se limitó a abordar videos engañosos (del tipo que mostraba a figuras públicas diciendo cosas que nunca dijeron). La Junta de Supervisión de Meta reconoció que la tecnología ha progresado hasta el punto que se necesitaba una nueva política. En consecuencia, la nueva política se expande para abordar ahora el audio y las imágenes generados por IA, además de los videos.
Basado en comentarios de usuarios
El proceso de Meta para actualizar sus reglas parece haber anticipado el rechazo de todos lados. Su nueva política se basa en una amplia retroalimentación de una amplia gama de partes interesadas y aportaciones del público en general. La nueva política también tiene la flexibilidad de flexibilizarse si es necesario.
Meta explica:
“En la primavera de 2023, comenzamos a reevaluar nuestras políticas para ver si necesitábamos un nuevo enfoque para seguir el ritmo de los rápidos avances… Completamos consultas con más de 120 partes interesadas en 34 países en todas las regiones importantes del mundo. En general, escuchamos un amplio apoyo para etiquetar el contenido generado por IA y un fuerte apoyo para una etiqueta más destacada en escenarios de alto riesgo. Muchas partes interesadas se mostraron receptivas al concepto de que las personas revelaran contenido generado por IA.
…También realizamos una investigación de opinión pública con más de 23.000 encuestados en 13 países y preguntamos a la gente cómo las empresas de redes sociales, como Meta, deberían abordar el contenido generado por IA en sus plataformas. Una gran mayoría (82%) está a favor de etiquetas de advertencia para el contenido generado por IA que muestra a personas diciendo cosas que no dijeron.
…Y la Junta de Supervisión señaló que sus recomendaciones se basaron en consultas con organizaciones de la sociedad civil, académicos, organizaciones intergubernamentales y otros expertos”.
Colaboración y consenso
El anuncio de Meta explica que planean que las políticas sigan el ritmo de la tecnología revisándola con organizaciones como la Asociación sobre IA, gobiernos y organizaciones no gubernamentales.
La política revisada de Meta enfatiza la necesidad de transparencia y contexto para el contenido generado por IA, que la eliminación de contenido se basará en violaciones de los estándares de su comunidad y que la respuesta preferida será etiquetar contenido potencialmente problemático.
Lea el anuncio de Meta
Nuestro enfoque para etiquetar contenido generado por IA y medios manipulados
Imagen destacada de Shutterstock/Boumen Japet