【资料图】
近日,谷歌发布了一项名为“Brain2Music”的研究,该研究利用人工智能技术读取和分析人的功能性磁共振成像(fMRI)数据,然后根据个体的大脑活动自动生成音乐。 在这项研究中,研究人员招募了5名志愿者,让他们先听取包括蓝调、古典、乡村、迪斯科、嘻哈、爵士乐、金属、流行、雷鬼和摇滚等不同音乐类型的15秒音乐片段,然后记录他们的fMRI数据。谷歌利用这些数据训练了一个深度神经网络,以便更好地理解大脑活动模式与音乐节奏和情感等不同元素之间的关系。 “Brain2Music”是基于谷歌此前推出的“MusicLM”模型(基于文本生成音乐片段)进行研发的,它可以根据fMRI数据生成15秒的音乐片段。研究结果显示,“Brain2Music”生成的15秒音乐片段中,有一段内容与测试听到的原版音乐“Oops!...I Did It Again”基本相同。 对于这项研究感兴趣的读者,可以通过下载相关论文进行深入阅读。
关键词:
版权与免责声明:
1 本网注明“来源:×××”(非商业周刊网)的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责,本网不承担此类稿件侵权行为的连带责任。
2 在本网的新闻页面或BBS上进行跟帖或发表言论者,文责自负。
3 相关信息并未经过本网站证实,不对您构成任何投资建议,据此操作,风险自担。
4 如涉及作品内容、版权等其它问题,请在30日内同本网联系。