1月9日,IT之家报道称,Meta最近公布了一个名为audio2photoreal的AI框架,它可以生成一系列逼真的NPC角色模型,并在现有配音文件的帮助下自动对角色模型进行“假唱”和“摆姿势”。
三星r23plus电源适配器
IT之家从官方研究报告中了解到,Audio2photoreal框架在收到配音文件后,首先生成一系列NPC模型,然后使用量化技术和扩散算法生成模型动作,其中量化技术为框架提供参考,扩散算法用于改善框架生成的角色的动作效果。
研究人员提到,该框架可以以30 FPS的速度生成“高质量的动作样本”,还可以模拟谈话中“指指点点”、“转手腕”或“耸肩”等不自觉的“习惯性动作”。
李少鹏领导简历最新
cscn是什么单位
研究人员引用了他们自己的实验结果。在控制实验中,43%的评估者对该框架生成的角色对话场景感到“强烈满意”,因此研究人员认为Audio2photoreal框架与业内竞争产品相比,可以生成“更具动态和表现力”的动作。
据悉,研究团队已经在GitHub公布了相关代码和数据集,有兴趣的伙伴可以点击这里访问。
未经允许不得转载:科技让生活更美好 » 输入配音文件即可生成人物对话场景,Meta 公布 audio2photoreal AI 框架