Uso de la inteligencia artificial en la composición musical: Avances, desafíos y perspectivas

Autores/as

DOI:

https://doi.org/10.37431/conectividad.v6i3.308

Palabras clave:

Composición musical, Inteligencia artificial, Modelos generativos, Redes neuronales, Tecnología creativa

Resumen

Recientemente, la inteligencia artificial (IA) ha revolucionado los usos de la creación musical, dando lugar a diseños complejos de canciones a partir de la automatización mediante IA. Con este trabajo se dan a conocer algunas de las herramientas que se han ido entrelazando en este sentido, como son: MuseNet, MidiNet, Suno y DeepBach, se presentan su fundamentación, aplicaciones ya existentes y a prospecto así como limitaciones en la creación musical; se estudian también los principales retos técnicos y éticos en su uso y puesta en marcha como es la complejidad que conlleva el conseguir llegar a reproducir el componente emocional de los seres humanos o bien las implicaciones que suponen su uso a partir de la óptica del marco de referencia de la actual legislación en derechos de autor; y se valoran el impacto de la IA sobre el sector de la música, su uso en el ámbito de la producción audiovisual y en entornos educativos. Por último, se dialoga acerca de lo que pueden constituir las futuras progresiones en el desarrollo de estas tecnologías, y se investigan aquellas posibles modificaciones que puedan hacer avanzar la adecuación de la IA a contextos culturales o ideológicos dispares y/o la integración de componentes emocionales en la composición musical generada por IA.

Citas

Briot, J. P., & Pachet, F. (2018). "Deep learning for music generation: Challenges and directions." Neural Computing and Applications, 32(4), 981-993.

Briot, J., Hadjeres, G., & Pachet, F. (2019). "Deep Learning Techniques for Music Generation."

Civit, M., Civit-Masot, J., Cuadrado, F., Escalona, M., (2022). "A systematic review of artificial intelligence-based music generation: Scope, applications, and future trends."

Dong, H. W., Hsiao, W. Y., Yang, L. C., & Yang, Y. H. (2018). "MuseGAN: Multi-track sequential generative adversarial networks for symbolic music generation and accompaniment." In Proceedings of the AAAI Conference on Artificial Intelligence (Vol. 32, No. 1).

Hadjeres, G., Pachet, F., & Nielsen, F. (2017). "DeepBach: a steerable model for Bach chorales generation." In Proceedings of the 34th International Conference on Machine Learning (pp. 1362-1371).

Herremans, D., & Chew, E. (2017). "MorpheuS: Automatic music generation with recurrent pattern constraints and tension profiles." IEEE Transactions on Affective Computing, 8(4), 727-739.

Huang, Y., Hsuan, Y., (2020). "Pop Music Transformer: Beat-based Modeling and Generation of Expressive Pop Piano Compositions."

Kim, J., Park, S., & Lee, K. (2021). "Emotion-based music generation using deep learning frameworks."

Lopez, A., & Ramirez, D. (2023). "Analyzing Public Reception to AI-Generated Music in Modern Platforms.

Roberts, A., Engel, J., Raffel, C., Hawthorne, C., & Eck, D. (2018). "A hierarchical latent vector model for learning long-term structure in music." In Proceedings of the 35th International Conference on Machine Learning (pp. 4364-4373).

Sturm, B. L., Santos, J. F., Ben-Tal, O., & Korshunova, I. (2016). "Music transcription modelling and composition using deep learning." In Proceedings of the 1st Conference on Computer Simulation of Musical Creativity.

Yang, L. C., Chou, S. Y., & Yang, Y. H. (2017). "MidiNet: A convolutional generative adversarial network for symbolic-domain music generation." In Proceedings of the 18th International Society for Music Information Retrieval Conference (pp. 324-331).

Descargas

Publicado

2025-07-18

Cómo citar

Quevedo Torres, D. F. (2025). Uso de la inteligencia artificial en la composición musical: Avances, desafíos y perspectivas. CONECTIVIDAD, 6(3), 226–235. https://doi.org/10.37431/conectividad.v6i3.308

Número

Sección

Artículos Científicos