论文部分内容阅读
随着人工智能领域的高速发展,利用神经网络模型来生成音乐已经成为音乐科技领域中越来越重要的话题。尽管已经有一些令人瞩目的成绩,但迄今为止,实际应用价值仍然较低。究竟现在人工智能音乐生成发展到哪个阶段了?哪些模型更有优势?为什么大多数的AI作曲音乐都没有“人味儿”?遇到了什么瓶颈?有哪些可以改进的地方?在编曲方向有没有进展?都是笔者很困惑的问题。想要探索这些问题的答案,却发现由于是新兴领域,国内的研究还相对贫乏,在时代的推动下,我结合自身专业,编曲的爱好,希望能为该领域做一些贡献。本文共分为五个章节。将论题的背景与意义作为第一章,并在第二章,系统的阐述了深度神经网络学习的基础理论与分析角度。第三章,调查对比了目前该领域最有代表性的八种应用于编曲生成的模型,方法是通过在调查小组中给大家发放并收集听感评分问卷,做出推断和整理,最终得出了较有优势的两个模型,分别是Leadsheet Generation和Music Transformer。随后,在第四五章节深入研究了这两个模型,包括进一步的模型分析,生成实验和总结的结论与建议;第六章为结论。在通过对不同模型包括生成音乐的分析以后,我在文中有提出一些模型改进的建议以及未来可以发展的方向,希望对这个领域的实际发展推动有所帮助。