
据腾讯官方宣称,这套作曲框架适用于视频剪辑配乐、商超会场环境音乐的选择以及互动娱乐、辅助创作、音乐教育、互动娱乐、音乐治疗等诸多场景。
XMusic 号称个人专属的“行走的音乐库”,用户利用图片、文字、视频乃至哼唱,都可使 XMusic 生成对应的乐曲。比如输入“逗趣横生,让人捧腹大笑”的描述,XMusic 就会生成一段节奏俏皮、旋律欢快的音乐。
腾讯还展示了 XMusic 的另一个使用场景:音乐课的老师可使用 XMusic 生成多样的节拍、节奏、音高练习曲目,并结合实际教学场景、发挥 AI 生成音乐的教学辅助能力。
IT之家从腾讯方面注意到,该作曲框架基于自研的多模态和序列建模技术,可以将提示词内容解析至符号音乐要素空间,并以此为控制条件引导模型生成丰富、精准、动听的音乐,可以“达到商用级的音乐生成能力要求”。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。
未经允许不得转载:新聚网 » 腾讯多媒体实验室发布自研 AI 作曲框架 XMusic,不通音律也能帮你“自动作曲”

新聚网
哈佛大学开源 AI 训练数据集“Institutional Books 1.0”,涵盖馆藏 98.3 万本图书
Android XR 智能眼镜 XREAL Project Aura 重要参数公布:双芯驱动,70+° FoV
全球首个儿科大模型在北京荣华医院落地,诊断准确率优于主治医师平均水平
小米米家前开盖旅行箱 18 英寸开启众筹,369 元
共建韩国最大 AI 数据中心、容纳 6 万个 GPU,亚马逊 AWS 与 SK 集团合作
OpenAI Codex 人工智能编程工具推出新功能:可一次生成多个方案
性能提升 90%,Anthropic 首次公开多智能体系统构建全流程





