論文の概要: Generative Tweening: Long-term Inbetweening of 3D Human Motions
- arxiv url: http://arxiv.org/abs/2005.08891v2
- Date: Thu, 28 May 2020 05:36:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 00:26:03.478239
- Title: Generative Tweening: Long-term Inbetweening of 3D Human Motions
- Title(参考訳): ジェネレーティブ・ツイーニング:3次元人間の動作の長期的インテウィーニング
- Authors: Yi Zhou, Jingwan Lu, Connelly Barnes, Jimei Yang, Sitao Xiang, Hao li
- Abstract要約: 本稿では,ヒトの動作の長期的包摂を行う,生体力学的に制約された生成的敵ネットワークを提案する。
我々は79種類のキャプチャー・モーション・データをトレーニングし、ネットワークは様々な複雑なモーション・スタイルで頑健に動作した。
- 参考スコア(独自算出の注目度): 40.16462039509098
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ability to generate complex and realistic human body animations at scale,
while following specific artistic constraints, has been a fundamental goal for
the game and animation industry for decades. Popular techniques include
key-framing, physics-based simulation, and database methods via motion graphs.
Recently, motion generators based on deep learning have been introduced.
Although these learning models can automatically generate highly intricate
stylized motions of arbitrary length, they still lack user control. To this
end, we introduce the problem of long-term inbetweening, which involves
automatically synthesizing complex motions over a long time interval given very
sparse keyframes by users. We identify a number of challenges related to this
problem, including maintaining biomechanical and keyframe constraints,
preserving natural motions, and designing the entire motion sequence
holistically while considering all constraints. We introduce a biomechanically
constrained generative adversarial network that performs long-term inbetweening
of human motions, conditioned on keyframe constraints. This network uses a
novel two-stage approach where it first predicts local motion in the form of
joint angles, and then predicts global motion, i.e. the global path that the
character follows. Since there are typically a number of possible motions that
could satisfy the given user constraints, we also enable our network to
generate a variety of outputs with a scheme that we call Motion DNA. This
approach allows the user to manipulate and influence the output content by
feeding seed motions (DNA) to the network. Trained with 79 classes of captured
motion data, our network performs robustly on a variety of highly complex
motion styles.
- Abstract(参考訳): 芸術的な制約に従わず、複雑で現実的な人体アニメーションを大規模に生成する能力は、ゲームとアニメーション産業にとって何十年にもわたって基本的な目標となっている。
一般的なテクニックとしては、キーフラーミング、物理ベースのシミュレーション、モーショングラフによるデータベース手法などがある。
近年,ディープラーニングに基づくモーションジェネレータが導入された。
これらの学習モデルは任意の長さの高度に複雑なスタイルの動作を自動的に生成するが、それでもユーザコントロールは欠如している。
この目的のために,ユーザによるキーフレームの狭い長い間隔で複雑な動きを自動的に合成する,長期的内在化の問題を導入する。
生体力学およびキーフレームの制約の維持,自然運動の保存,および全ての制約を考慮した全動作シーケンスの設計など,この問題に関連する課題を数多く挙げる。
本稿では,キーフレームの制約を条件に,人間の動作の長期的包摂を行うバイオメカニカル拘束型生成対向ネットワークを提案する。
このネットワークは、まずジョイント角度の形で局所的な動きを予測し、次に大域的な動き、すなわちキャラクターが従う大域的な動きを予測する新しい二段階アプローチを用いる。
通常、与えられたユーザの制約を満たす可能性のある動作が多数存在するので、私たちのネットワークはモーションDNAと呼ばれるスキームでさまざまな出力を生成することができます。
このアプローチにより、ユーザはシードモーション(DNA)をネットワークに供給することで、出力内容を操作および影響することができる。
79種類のキャプチャー・モーション・データを学習し、ネットワークは様々な複雑なモーション・スタイルで頑健に動作している。
関連論文リスト
- InterControl: Zero-shot Human Interaction Generation by Controlling Every Joint [67.6297384588837]
関節間の所望距離を維持するために,新しい制御可能な運動生成手法であるInterControlを導入する。
そこで本研究では,既成の大規模言語モデルを用いて,ヒューマンインタラクションのための結合ペア間の距離を生成できることを実証した。
論文 参考訳(メタデータ) (2023-11-27T14:32:33Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - Motion In-Betweening with Phase Manifolds [29.673541655825332]
本稿では,周期的オートエンコーダによって学習された位相変数を利用して,文字のターゲットポーズに到達するための,新たなデータ駆動型動作制御システムを提案する。
提案手法では,経験的ニューラルネットワークモデルを用いて,空間と時間の両方のクラスタの動きを,異なる専門家の重みで解析する。
論文 参考訳(メタデータ) (2023-08-24T12:56:39Z) - Task-Oriented Human-Object Interactions Generation with Implicit Neural
Representations [61.659439423703155]
TOHO: 命令型ニューラル表現を用いたタスク指向型ヒューマンオブジェクトインタラクション生成
本手法は時間座標のみでパラメータ化される連続運動を生成する。
この研究は、一般的なヒューマン・シーンの相互作用シミュレーションに向けて一歩前進する。
論文 参考訳(メタデータ) (2023-03-23T09:31:56Z) - The Wanderings of Odysseus in 3D Scenes [22.230079422580065]
GAMMAとして短縮された体表面マーカーによる生成運動プリミティブを提案する。
本研究では,各動作プリミティブをモデル化するために,体表面マーカーと条件付き変分オートエンコーダを利用する。
実験により,本手法は最先端のデータ駆動方式よりも現実的で制御可能な動作を実現できることが示された。
論文 参考訳(メタデータ) (2021-12-16T23:24:50Z) - Task-Generic Hierarchical Human Motion Prior using VAEs [44.356707509079044]
人間の動きを記述する深い生成モデルは、幅広いコンピュータビジョンやグラフィックタスクに役立てることができる。
本稿では,グローバル・ローカル・ラテント・スペースの組み合わせを用いて,特定のタスクに依存しない複雑な人間の動作を学習する手法を提案する。
映像に基づく人間のポーズ推定を含む様々なタスクにおいて,階層的な動き変動自動エンコーダの有効性を実証する。
論文 参考訳(メタデータ) (2021-06-07T23:11:42Z) - High-Fidelity Neural Human Motion Transfer from Monocular Video [71.75576402562247]
ビデオベースの人間のモーション転送は、ソースモーションに従って人間のビデオアニメーションを作成します。
自然なポーズ依存非剛性変形を伴う高忠実で時間的に一貫性のある人の動き伝達を行う新しい枠組みを提案する。
実験結果では,映像リアリズムの点で最先端を著しく上回っている。
論文 参考訳(メタデータ) (2020-12-20T16:54:38Z) - Hierarchical Style-based Networks for Motion Synthesis [150.226137503563]
本研究では,特定の目標地点を達成するために,長距離・多種多様・多様な行動を生成する自己指導手法を提案する。
提案手法は,長距離生成タスクを階層的に分解することで人間の動作をモデル化する。
大規模な骨格データから, 提案手法は長距離, 多様な, もっともらしい動きを合成できることを示す。
論文 参考訳(メタデータ) (2020-08-24T02:11:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。