首页 > 财经 > 文章详情页

谷歌发布Brain2Music模型,可基于人类大脑活动生成音乐

,谷歌近日发布了名为Brain2Music的论文,可以利用人工智能读取、分析你的功能性磁共振成像数据,然后再基于你的大脑活动自动生成音乐。 研究人员招募了5名志愿者,先让其听蓝调...

,谷歌近日发布了名为 Brain2Music 的论文,可以利用人工智能读取、分析你的功能性磁共振成像数据,然后再基于你的大脑活动自动生成音乐。

研究人员招募了 5 名志愿者,先让其听蓝调,古典,乡村,迪斯科,嘻哈,爵士乐,金属,流行,雷鬼和摇滚等不同音乐类型的 15 秒音乐片段,然后记录志愿者的 fMRI 数据。

谷歌使用这些数据训练出一个深度神经网络,以了解大脑活动模式与音乐节奏和情感等不同元素之间的关系。

Brain2Music 基于谷歌此前推出的 MusicLM 模型,基于 fMRI 生成 15 秒音乐片段。

研究结果显示 Brain2Music 生成的 15 秒音乐片段,其中一段内容“Oops!...I Did It Again”和测试听到的原版音乐基本相同。

IT之家在此附上论文 PDF 下载链接,感兴趣的用户可以深入阅读。

广告声明:文内含有的对外跳转链接,用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

上一篇:宁德时代上半年净利高达207.17亿元,同比大增153.64%
下一篇:返回列表
【声明】::以上内容为本网站转自其它媒体,相关信息仅为传递更多企业信息之目的,不代表本网观点,亦不代表本网站赞同其观点或证实其内容的真实性。投资有风险,需谨慎。
为你推荐
关于我们    广告合作    人才招聘    订阅指南    版权所有    网站地图

青年财富网 版权所有 © 2014- youth.ppxt.top  备案号:沪ICP备2022019539号

网站内容来自于互联网或网友提供,仅代表个人观点,并不代表本站同意其观点,本站不承担由此引起的法律责任。  邮箱:boss_11@teag.net