小新说
谷歌()旗下公司的人工智能开发团队所研发的围棋电脑软件“”打败了职业棋手,开创全球先河。这个围棋人工智能程序主要工作原理是“深度学习”,摈弃了人类棋谱,只靠深度学习的方式成长起来挑战围棋的极限。唉,一流围棋选手没下赢电脑,那音乐呢?这种从人类体内土生土长的情感外化的产物,总不能也会被冷冰冰的机器代替吧?小新今天给大家说说几个音乐与机器的故事。
⬆ ⬆ ⬆
索尼巴黎计算机科学实验室研究人员开发了一个名为“”(深度巴赫)的神经网络。这是他们在利用巴赫的作品对进行训练后,模型所谱写出的与巴赫风格高度相近的曲目。
计算机谱曲会抢走作曲家的饭碗么?
别怕,机器谱曲效果并不完美!
美国加利福尼亚大学圣克鲁斯分校音乐系荣誉教授大卫·考普利用算法创作了交响曲、歌剧和清唱剧。考普在上个世纪80年代就推出了第一台作曲机器Emmy,这是一台以巴赫几百首合唱曲为样本,“学习”其中最动人乐曲的音乐模式,并将之转化为数据单位,再还原为音乐符号的机器。算法升级改进后,Emmy能在每首“作品”中加入一些出人意料的节奏。一顿午饭的时间,它就可以创作5000篇具有强烈原创性的作品。后来,考普还陆续推出了Emily 和Annie,这些机器能够根据算法生成具有强烈原创性的作品。
不过,在科学家们对机器人音乐作曲的数学算法进行深入研究后,发现机器人所创造的音乐,虽然有着完美和谐的旋律,但是却无法让人真正称之为好音乐。因为整个作品里面没有情感元素,没能让人感受到音乐的灵魂,没有可以打动人心的柔软力量,无法引起聆听者的共鸣。所以说,不要担心计算机谱曲会抢走作曲家的饭碗,毕竟人类的真实情感才是音乐力量的源泉,只有真情才能够让人心动。
人类在音乐演奏上是不是不如机器?
答案肯定是否定的,他们各有优势。
在纽约布鲁克林工作的音乐人、技术专家艾瑞克-辛格设计了一支名为“奥开斯里特翁琴”的计算机乐队,2010年麦席尼在录音和巡演时用的都是它,而不是真的乐手。
日本机器人组成了一个乐队Z-,成立以来,它们一直在日本进行演出。虽然每天重复演出,但它们并不会感到累。Z-的吉他手有78根手指,而鼓手则拥有22只手臂,它们身上都连接着很多数控线,这能够保证它们准确操作各自的乐器。
可是,即使机器人弹奏时的速度能够比人类快得多,准确操控乐器的能力也比人类强,但他们却无法控制振幅,感知振幅。而且,由于是程序预先设定,他们之间的配合不会像人类一样,可以随时根据现场状况调整。而我们人类的每一次配合都是独一无二,谁也没办法事先设定,事先保证演奏现场的状况。跟随着环境演奏音乐,这才是音乐演奏的美妙之处呀。
是不是靠算法就能做到音乐榜排名神预测?
没错,但可能就听不到独特的音乐了。
公司开发的算法对输入其中的音乐有着令人称奇的解析。算法基于新兴光谱反卷积技术,用不同序列的傅里叶变换和数学函数结构歌曲,分辨出歌曲的调子、节拍、节奏、音高、和弦进程、声音饱满度、声音质量和抑扬顿挫。软件将算法得到的数据构建成三维模型,算法通过观察歌曲的三维结构方式,绝对客观地将其与过去的热门歌曲进行对比。基本结构相似的热门歌曲汇聚成带。靠近热门歌曲带中心的歌即使不一定能红,也一定是首不错的歌。
但是,人类很多最重要的音乐往往就是与众不同,超乎以往的想象。如果把所有的歌曲都没有自己独一无二的世界了,那么又怎么可能有一首歌能留在永恒。
如果有一天周围都是同质化的音乐,小新我要拒绝听音乐了……
早在1950年,阿兰-图灵这位解码专家和人工智能的先驱,就曾开展过一个蒙眼测试。这个蒙眼测试是测试人(多人)在与被测试者(一个人和一台机器)隔开的情况下,通过一些装置(如键盘)向被测试者随意提问。问过一些问题后,如果测试人中超过30%的人不能根据答复确认被测试者哪个是人,哪个是机器,那么这台机器就通过了测试,并被认为具有人类智能。这项测试实际的目的,是判断计算机是否会思考。
所以,机器究竟能否思考呢?
人工智能一直无法通过图灵测试,不过,喜欢乱想的小新我,觉得这也是一件细思极恐的事情呀(如果人工智能为了不被人类消灭而故意不通过测试……)
总而言之,算法再高明,也无法去真正的呈现出人类的真情实感,毕竟感情是人类存在世界的意义嘛。所以,关于机器是否可以完全取代人类,小新我暂时觉得还是不大可能滴,特别是在音乐这个没感情就没意义的领域。毕竟音乐是现实世界的抽象表现,是高度智慧与人类情感关联的产物,音乐里一点点微妙的情绪变化就能让聆听者感同身受。
关于人工智能,你有什么想说的么,快快留言告诉我们吧~
“如需转载,请注明来自南大未来编辑部
——新记者”
文稿|张睿
图片及视频|来源于网络