論文の概要: Exploring Versatile Prior for Human Motion via Motion Frequency Guidance
- arxiv url: http://arxiv.org/abs/2111.13074v1
- Date: Thu, 25 Nov 2021 13:24:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-29 16:45:10.421772
- Title: Exploring Versatile Prior for Human Motion via Motion Frequency Guidance
- Title(参考訳): 動作周波数誘導による人間の動作に先立つ弾力性探索
- Authors: Jiachen Xu, Min Wang, Jingyu Gong, Wentao Liu, Chen Qian, Yuan Xie,
Lizhuang Ma
- Abstract要約: 我々は、人間の動きの固有確率分布をモデル化する多目的運動を事前に学習する枠組みを学習する。
効率的な事前表現学習のために,冗長な環境情報を除去するグローバル指向正規化を提案する。
そこで我々は,環境情報を学習可能な方法で入力動作データから切り離すための認知学習手法を採用した。
- 参考スコア(独自算出の注目度): 32.50770614788775
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prior plays an important role in providing the plausible constraint on human
motion. Previous works design motion priors following a variety of paradigms
under different circumstances, leading to the lack of versatility. In this
paper, we first summarize the indispensable properties of the motion prior, and
accordingly, design a framework to learn the versatile motion prior, which
models the inherent probability distribution of human motions. Specifically,
for efficient prior representation learning, we propose a global orientation
normalization to remove redundant environment information in the original
motion data space. Also, a two-level, sequence-based and segment-based,
frequency guidance is introduced into the encoding stage. Then, we adopt a
denoising training scheme to disentangle the environment information from input
motion data in a learnable way, so as to generate consistent and
distinguishable representation. Embedding our motion prior into prevailing
backbones on three different tasks, we conduct extensive experiments, and both
quantitative and qualitative results demonstrate the versatility and
effectiveness of our motion prior. Our model and code are available at
https://github.com/JchenXu/human-motion-prior.
- Abstract(参考訳): プリエントは人間の動きにもっともらしい制約を与える上で重要な役割を担っている。
以前の作品では、異なる状況下で様々なパラダイムに従って動きを優先的に設計しており、汎用性の欠如に繋がる。
本稿では,まず,動作の必要不可欠な特性をまず要約し,人間の動作の固有確率分布をモデル化した多目的動作を学習するための枠組みを設計する。
具体的には,従来の動きデータ空間における冗長な環境情報を除去するためのグローバルオリエンテーション正規化を提案する。
また、符号化ステージに2レベル、シーケンスベース、セグメントベース、周波数ガイダンスを導入する。
次に,環境情報を入力動作データから学習可能な方法で切り離し,一貫性のある識別可能な表現を生成するための分別学習方式を採用する。
動作を3つの異なるタスクに一般的なバックボーンに組み込むことで、広範囲な実験を行い、定量的および質的結果から、動作の汎用性と有効性を示す。
私たちのモデルとコードはhttps://github.com/jchenxu/human-motion-priorで利用可能です。
関連論文リスト
- Orientation-Aware Leg Movement Learning for Action-Driven Human Motion
Prediction [7.150292351809277]
行動駆動型人間の動き予測は、観察されたシーケンスに基づいて将来の人間の動きを予測することを目的としている。
複数のアクションラベル間のスムーズで現実的な遷移をモデル化する必要がある。
1つのデータセット上でトレーニングした中間学習モデルを、2つの目に見えない大規模な動きデータセットに一般化し、自然な遷移を生成する。
論文 参考訳(メタデータ) (2023-10-23T13:16:51Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - DiverseMotion: Towards Diverse Human Motion Generation via Discrete
Diffusion [70.33381660741861]
テキスト記述に基づく高品質な人間の動作を合成するための新しいアプローチであるDiverseMotionを提案する。
我々のDiverseMotionは、最先端のモーション品質と競争力の多様性を達成できることを示す。
論文 参考訳(メタデータ) (2023-09-04T05:43:48Z) - Priority-Centric Human Motion Generation in Discrete Latent Space [59.401128190423535]
テキスト・ツー・モーション生成のための優先中心運動離散拡散モデル(M2DM)を提案する。
M2DMは、コード崩壊に対処するために、グローバルな自己注意機構と正規化用語を組み込んでいる。
また、各動きトークンの重要度から決定される革新的なノイズスケジュールを用いた動き離散拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-08-28T10:40:16Z) - Neural Categorical Priors for Physics-Based Character Control [12.731392285646614]
運動の質と多様性を大幅に改善した物理に基づく文字制御のための新しい学習フレームワークを提案する。
提案手法は強化学習(RL)を用いて,非構造的なモーションクリップからのライフライクな動きを追跡し,模倣する。
本研究は,人型文字を用いた総合実験により,下流域の難易度の高い2つの課題,剣のシールドと2人のプレーヤーによるボクシングゲームについて検討する。
論文 参考訳(メタデータ) (2023-08-14T15:10:29Z) - TransFusion: A Practical and Effective Transformer-based Diffusion Model
for 3D Human Motion Prediction [1.8923948104852863]
本研究では,3次元動作予測のための革新的で実用的な拡散モデルであるTransFusionを提案する。
我々のモデルは、浅い層と深い層の間の長いスキップ接続を持つバックボーンとしてTransformerを活用している。
クロスアテンションや適応層正規化のような余分なモジュールを利用する従来の拡散モデルとは対照的に、条件を含む全ての入力をトークンとして扱い、より軽量なモデルを作成する。
論文 参考訳(メタデータ) (2023-07-30T01:52:07Z) - Mutual Information-Based Temporal Difference Learning for Human Pose
Estimation in Video [16.32910684198013]
本稿では,動的コンテキストをモデル化するために,フレーム間の時間差を利用した新しいヒューマンポーズ推定フレームワークを提案する。
具体的には、多段階差分を条件とした多段階絡み合い学習シーケンスを設計し、情報的動作表現シーケンスを導出する。
以下は、HiEveベンチマークで、複合イベントチャレンジにおけるクラウドポーズ推定において、第1位にランク付けします。
論文 参考訳(メタデータ) (2023-03-15T09:29:03Z) - HumanMAC: Masked Motion Completion for Human Motion Prediction [62.279925754717674]
人間の動き予測はコンピュータビジョンとコンピュータグラフィックスの古典的な問題である。
従来の効果はエンコーディング・デコード方式に基づく経験的性能を実現している。
本稿では,新しい視点から新しい枠組みを提案する。
論文 参考訳(メタデータ) (2023-02-07T18:34:59Z) - Executing your Commands via Motion Diffusion in Latent Space [51.64652463205012]
本研究では,動作遅延に基づく拡散モデル(MLD)を提案し,条件付き入力に対応する鮮明な動き列を生成する。
我々のMDDは、広範囲な人体運動生成タスクにおいて、最先端の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2022-12-08T03:07:00Z) - Generating Smooth Pose Sequences for Diverse Human Motion Prediction [90.45823619796674]
本稿では,多様な動作予測と制御可能な動作予測のための統合された深部生成ネットワークを提案する。
標準ベンチマークデータセットであるHuman3.6MとHumanEva-Iの2つの実験は、我々のアプローチがサンプルの多様性と精度の両方において最先端のベースラインより優れていることを示した。
論文 参考訳(メタデータ) (2021-08-19T00:58:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。