Adobe presentó el miércoles 28 de febrero un avance de un proyecto experimental destinado a redefinir la forma en que las personas crean audio y música personalizados. Esta primera herramienta, denominada “Project Music GenAI Control”, utiliza IA generativa para permitir a los creadores no solo generar música a partir de indicaciones de texto, sino también ejercer un control preciso sobre el proceso de edición para adaptar el audio a sus especificaciones exactas.
Nicholas Bryan, científico investigador senior de Adobe Research y uno de los creadores de la tecnología, explicó el potencial transformador de Project Music GenAI Control en una publicación de blog. «Con Project Music GenAI Control, IA generativa se convierte en tu cocreador. Permite a personas de diversos campos, desde locutores hasta podcasters, crear música que encapsule perfectamente el estado de ánimo, el tono y la duración deseados”, dijo Bryan.
Según Adobe, Project Music GenAI Control sigue los pasos de Firefly, la familia de modelos de IA generativa de Adobe para la generación de imágenes, que supuestamente ha generado más de seis mil millones de imágenes hasta la fecha. La compañía también reafirma que todo el contenido producido con Firefly incluye información de identificación del contenido, esencialmente «etiquetas nutricionales» para el contenido digital, garantizando responsabilidad, responsabilidad y transparencia en el uso del contenido.
La piedra angular de las nuevas herramientas es el enfoque basado en mensajes de texto, una metodología utilizada en La luciérnaga de Adobe. Al ingresar mensajes de texto como “power rock”, “happy dance” o “sad jazz”, los usuarios pueden generar sin problemas música adaptada a sus preferencias. Posteriormente, las capacidades de edición fina integradas permiten a los usuarios manipular varios aspectos del audio generado directamente dentro del flujo de trabajo.
Desde ajustar el tempo y la estructura hasta buclear secciones y remezclar composiciones, la herramienta proporciona una flexibilidad incomparable para satisfacer diversas necesidades creativas, dijo Adobe.
Bryan también destacó la importancia de estas herramientas, comparándolas con el “control a nivel de píxeles para la música”, que permite a los creativos dar forma, refinar y moldear el audio con granularidad.
Project Music GenAI Control se está desarrollando actualmente en colaboración con expertos de la Universidad de California en San Diego y la Universidad Carnegie Mellon.
(Editado por: Shoma Bhattacharjee)
Publicado por primera vez: 29 de febrero de 2024 a las 7:50 p.m. IST
«Defensor de los viajes extremos. Amante del café. Experto en tocino total. Wannabe tv pionero».
También te puede interesar
-
Samsung podría dividir notificaciones y configuraciones rápidas en Android 15
-
Los primeros videos de desmontaje del Galaxy Z Flip6 muestran las baterías más grandes y la nueva cámara de vapor
-
Google TV en televisores, la aplicación de Android ya no permite comprar programas de TV
-
[Video] Ajuste ángulos de forma remota, capture hasta los detalles más pequeños: nuevas formas de crear – Samsung Newsroom México
-
El iPhone SE 4 podría compartir el mismo diseño que el iPhone 16, sugiere una nueva filtración