YouTube desarrolla una herramienta para detectar contenidos generados por IA.

La plataforma de YouTube se encuentra trabajando en nuevas herramientas destinadas a proteger a los creadores de la plataforma, entre ellas se encuentra una capaz de identificar voces y rostros generados por Inteligencia Artificial (IA) que se hagan pasar por las de los propios artistas. En este sentido, la compañía reconoció que la IA «está abriendo un mundo de posibilidades» y que proporciona a los usuarios «nuevas vías para expresarse de maneras innovadoras», tal y como ha apuntado en una nota de prensa. Para ayudar a sus creadores a «tener éxito en un entorno que no deja de evolucionar», está trabajando en dos nuevas herramientas con las que puedan mantener bajo control el uso de su imagen, incluidos su rostro y su voz.

Sin embargo, parte de esta tecnología de control de la imagen se ha desarrollado dentro de Content ID. En concreto, la solución de identificación de voz sintética, destinada a que los creadores de contenido detecten y gestionen automáticamente contenidos presentes en la plataforma y generados con IA para simular la voz de un determinado artista. En este sentido, ha indicado que actualmente está refinando esa tecnología y que planea iniciar un programa piloto para algunos creadores a principios del próximo año.

Por otra parte, comentaron que está desarrollando otra solución que permita a usuarios de distintos sectores (creadores, actores, músicos, deportistas, etc.) a detectar y gestionar contenidos de la plataforma generados por IA en los que aparezcan sus rostros. Google dijo que estas dos novedades responden a su enfoque de abordar a gran escala las cuestiones relacionadas con los derechos de imagen mediante el desarrollo de tecnologías. Asimismo, ha matizado que «desde hace muchos años» utiliza los contenidos que se suben a YouTube para mejorar la experiencia del producto, para lo que también emplea IA y ‘machine learning’ en base a los términos y condiciones que los creadores aceptan al utilizar la plataforma. Gracias a ello, se ha podido crear el equipo de Trust & Safety, dedicado a explorar y desarrollar nuevas soluciones destinadas a mantener protegida la comunidad de Youtube, así como mejorar sus sistemas de recomendación y crear nuevas funciones de IA generativa.

Finalmente, también debido a que esta tecnología evoluciona a gran velocidad y los creadores «pueden querer un mayor grado de control» sobre la manera en la que terceros colaboran en el desarrollo de herramientas impulsadas por ella, está trabajando en nuevas vías para que éstos puedan decidir qué uso hacen esos terceros de sus contenidos.