近两年,AI技术的成熟推动了人工智能应用实现跨越式发展。从高端科技的产业应用,到日常生活的智能家居、智能客服、智能导航等方方面面,AI成为新时代科技发展的新宠。
同时,AI能够学习的范围已经不仅仅局限于图片、动作、声音,更是在绘画、作曲等创作领域取得了相当不俗的成绩。
2017年,美国歌手Taryn Southern发布了历史上第一部由AI作曲的专辑《I AM AI》,作者将主打单曲《Break Free》的一段旋律放入了AI音乐合成器Amper Music中,制作人只需要选择一些基本参数设置,比如节奏乐器、调性等等,便可以自动添加和弦,生成副歌,而且几乎完全听不出是由应用程序编曲而成。
事实上,在音乐创作领域,AI的应用已经逐渐成熟,工具也愈发广泛,涵盖AI作词、AI作曲、音频合成等多个方面,为音乐行业带来全新的发展生机。
AI作曲 提高音乐创作效率
AI作曲并不是机械单一的编排。从创作原理来说,音乐是一种有规律的排列,有长时程和短时程的规律。AI就是根据这些特点设计层次化模型,通过大数据深度学习训练,模型就可以自动生成类似人类作曲家作出的曲子。
简单来说,你不需要掌握高超的钢琴、吉他等乐器演奏技巧,也不需要拥有深厚的作曲知识或音乐知识,通过AI作曲工具,短时间内就可以生成相应的音乐配乐,实现创作自由,大幅降低了作曲的门槛。
相较人工创作的较长周期及高昂费用,AI作曲的高性价比有效帮助开发者降本增效,适用于对创意要求不高、需要批量制作的音乐需求场景。现阶段,AI作曲技术也正逐渐往商业应用方向发展,例如,影视剧配乐、视频配乐,游戏配乐、在线工具配乐、产品内置等方面。
AI作曲怎么实现的?
像人的学习一样,AI作曲也需要通过学习海量的乐曲内容,才能“创作”出新的音乐作品。简单点说,就是利用深度学习算法,用大量的乐曲数据对AI进行训练,AI会搭建一个体现它对音乐理解的数学模型,接着用模型在较短时间内即可创作出一首原创的曲子。
目前AI作曲的形式主要分为两种,一种是整曲由AI进行凭空创作,另外一种是先由人工输入片段后,AI在基础曲调上继续发挥。无论是哪种形式,都离不开“学习”这一过程。那么,机器是如何“听懂”音乐旋律进而进行学习?
从物理学出发,声音的实质是传声媒介质点所产生的一系列振动现象的传递过程。而动听的音乐正是一系列质点振动的总效果。
人类通过耳膜与「音乐细胞」来感受质点振动的效果;而只能读懂数字的AI则通过MIDI架起连接“振动”与“数字”之间互通的桥梁。
MIDI(Musical Instrument Digital Interface),即乐器数字化接口,也可以简单理解为数字乐谱。它通过储存时间点与音符的对应关系,告诉键盘、贝斯、架子鼓等在某个时间以怎样的方式发声。因此,将大量的MP3、WAV 等格式的音频转换成MIDI文件,就可以得到充足的学习数据。
其次,MIDI 虽然已经将音乐转换成二进制的数字,但想让AI精细化地学习音乐,还要将MIDI做进一步的标注。即将已转录的MIDI与原音频对齐,再将已经同步的MIDI文件旋律拆解成音高、音长、音强、和弦、小节等基本元素,才能最终转化成机器可以听得懂的数字乐谱。
标贝科技深耕AI数据服务领域多年,在数据生产方面沉淀了先进的技术能力以及大量音乐人才储备,积累了丰富的AI歌曲以及AI乐器的项目经验。在伴奏编曲的生成方面,我们可以实现钢琴、吉他、贝斯、架子鼓、大提琴、小提琴、二胡、笛子、古筝等不同乐器AI配乐,并完成相应的标注要求。
随着机器算法学习的不断强化,这几年AI音乐的发展也进步神速,其创作能力、作品质量得到大幅提升。标贝科技将通过精细化的数据服务,实现更多AI音乐场景落地,助力AI音乐迈向规模商业化应用。
欢迎对以上AI乐器数据感兴趣的行业伙伴联系我们~