博客专栏

EEPW首页 > 博客 > GAN「一生万物」, ETH、谷歌用单个序列玩转神经动作合成,入选SIGGRAPH

GAN「一生万物」, ETH、谷歌用单个序列玩转神经动作合成,入选SIGGRAPH

发布人:机器之心 时间:2022-05-15 来源:工程师 发布文章
酷炫的神经动作合成技术,单个序列就能完成。


生成逼真且多样化的人体动作是计算机图形学的长期目标。对于动作建模和合成来说,研究者通常使用概率模型来捕获有限的局部变化或利用动作捕捉(mocap)获得的大型动作数据集。在阶段设置(stage-setting)和后期处理(例如,涉及手动数据清理)中,使用动作捕捉系统捕获数据的成本很高,并且动作数据集通常是有限制的,即它们缺乏所需的骨骼结构、身体比例或样式。利用动作数据集通常需要复杂的处理,例如重新定位,这可能会在原始捕获的动作中引入错误。
近日,来自苏黎世联邦理工学院、谷歌、芝加哥大学等机构的研究者开发了一个框架 GANimator,该框架能够产生不同且逼真的动作,只使用一个单一的训练序列。这一框架大大简化了数据收集过程,同时允许创建逼真的动作变化,还可以准确地捕捉单独动作序列细节。该研究入选 SIGGRAPH 2022。
图片

  • 论文地址:https://arxiv.org/pdf/2205.02625.pdf

  • 项目地址:https://peizhuoli.github.io/ganimator/


我们先来看如下效果图,左边输入的是单个动作序列,右边是生成结果:

图片


GANimator 框架也可以处理动物类的输入:

图片


群体动画。GANimator 框架训练了一个单一的螃蟹舞蹈序列,可以生成各种新颖的运动:


GANimator 框架也可以混合不同的序列,生成一个动作序列:

图片


上述示例说明 GANimator 框架是生成新动作的有效工具,它可以仅使用短动作序列作为输入来合成较长、多样和高质量的动作序列。
方法概览
研究者提出的生成模型可以从单个动作序列中学习,采用的方法受到了图像领域最近使用渐进式生成的工作以及在单个示例上训练深度网络的工作的启发。接下来详细介绍分层框架、动作表征和训练流程的主要构建块。
动作表征
研究者通过一个

*博客内容为网友个人发布,仅代表博主个人观点,如有侵权请联系工作人员删除。



关键词: AI

相关推荐

技术专区

关闭