谷歌可能会发现很难与OpenAI竞争ChatGPT作为诗人的发射人工智能没有完全按计划进行。然而,该公司没有放弃在人工智能领域和冒险到不同的领域,如声音代基于大脑活动。
谷歌可以使用人工智能来创建音乐MusicML从大脑活动的新工具
根据这个故事ZDNet,重要的是要澄清,谷歌不会使用AI为了创造音乐,而是是否从文本的方法。这是推出新工具,MusicML。
谷歌正在增加其工作时使用人工智能以读取用户的大脑以及基于用户的大脑活动产生的声音。在一项新的研究论文的标题Brain2Music据报道,谷歌使用AI重建音乐来自大脑的活动。
AI工具查看用户的功能性磁共振成像想出新的音乐
该公司能够做到这一点通过功能性磁共振成像(fMRI)的数据。这是指出,五个测试对象的功能磁共振成像数据进行了研究,他们听着同样的事情。
参与者听15秒的音乐片段来自不同流派喜欢嘻哈音乐,蓝调,乡村,古典,金属,国家,爵士,流行,摇滚,和雷鬼。数据被用来训练谷歌的深层神经网络。
深层神经网络学习更多关于音乐和大脑活动之间的关系
深层神经网络然后试图了解更多关于音乐元素之间的关系,在大脑活动模式。研究人员想要学习节奏和情感之间的关系。
培训结束后,据报道,该模型能够再现音乐来自一个功能磁共振成像。这将通过使用MusicLM,从文本生成音乐。
MusicLM用于生成音乐类似于原始输入刺激
由于MusicLM的主要目的是使用文本生成音乐,那时条件提出类似音乐的原始输入的刺激,但在特定的语义层面。测试后,生成的音乐接近参与者听最初的音乐刺激。
音乐流派,心情,仪表等等。的Google研究页面还透露更多关于这个项目,允许用户听其他剪辑的原始音乐刺激进行比较。
读也:微软的Bing聊天现在可用在Safari, Chrome -这就是你需要知道的
MusicLM重组生成类似于原始的声音片段
他们会比MusicLM生成的重组,显示有趣的结果。一个例子是一个15秒的声音剪辑布兰妮的“打我宝贝再来一次”和三个人工智能显示生成的重建像流行和乐观的结果,接近于原始。
音频据说没有像原创音乐,因为这项研究是更关注不同的音乐元素,而不是其抒情组件。