論文の概要: Orientation-Aware Leg Movement Learning for Action-Driven Human Motion
Prediction
- arxiv url: http://arxiv.org/abs/2310.14907v1
- Date: Mon, 23 Oct 2023 13:16:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 19:56:48.586991
- Title: Orientation-Aware Leg Movement Learning for Action-Driven Human Motion
Prediction
- Title(参考訳): 動作駆動型人間の運動予測のための方向認識脚運動学習
- Authors: Chunzhi Gu, Chao Zhang, Shigeru Kuriyama
- Abstract要約: 行動駆動型人間の動き予測は、与えられた行動ラベルを尊重しながら観察されたシーケンスから将来の人間の動きを予測することを目的としている。
人間の動きの滑らかさだけでなく、複数のアクションラベル間のスムーズで現実的な遷移をモデル化する必要がある。
1つのデータセット上でトレーニングした中間学習モデルを、2つの目に見えない大規模な動きデータセットに一般化し、自然な遷移を生成する。
- 参考スコア(独自算出の注目度): 7.150292351809277
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The task of action-driven human motion prediction aims to forecast future
human motion from the observed sequence while respecting the given action
label. It requires modeling not only the stochasticity within human motion but
the smooth yet realistic transition between multiple action labels. However,
the fact that most of the datasets do not contain such transition data
complicates this task. Existing work tackles this issue by learning a
smoothness prior to simply promote smooth transitions, yet doing so can result
in unnatural transitions especially when the history and predicted motions
differ significantly in orientations. In this paper, we argue that valid human
motion transitions should incorporate realistic leg movements to handle
orientation changes, and cast it as an action-conditioned in-betweening (ACB)
learning task to encourage transition naturalness. Because modeling all
possible transitions is virtually unreasonable, our ACB is only performed on
very few selected action classes with active gait motions, such as Walk or Run.
Specifically, we follow a two-stage forecasting strategy by first employing the
motion diffusion model to generate the target motion with a specified future
action, and then producing the in-betweening to smoothly connect the
observation and prediction to eventually address motion prediction. Our method
is completely free from the labeled motion transition data during training. To
show the robustness of our approach, we generalize our trained in-betweening
learning model on one dataset to two unseen large-scale motion datasets to
produce natural transitions. Extensive methods on three benchmark datasets
demonstrate that our method yields the state-of-the-art performance in terms of
visual quality, prediction accuracy, and action faithfulness.
- Abstract(参考訳): 行動駆動型人間の動作予測の課題は、与えられた行動ラベルを尊重しながら観察されたシーケンスから将来の人間の動作を予測することである。
人間の動きの確率性だけでなく、複数のアクションラベル間の滑らかで現実的な遷移をモデル化する必要がある。
しかし、ほとんどのデータセットがそのような遷移データを含まないという事実は、このタスクを複雑にします。
既存の作業は、単にスムーズな遷移を促進する前に滑らかさを学ぶことでこの問題に取り組むが、特に歴史と予測された動きが方向で著しく異なる場合、不自然な遷移をもたらす。
本稿では,人間の動作遷移が現実的な脚の動きを取り入れて方向転換を処理し,それを動作条件付き対話型学習タスク(ACB)として活用し,遷移自然性を促進することを論じる。
全てのトランジションをモデル化することは事実上不可能であるため、ACBはウォークやランなどのアクティブな歩行動作を持つ非常に少数のアクションクラスでのみ実行される。
具体的には、まず動き拡散モデルを用いて、特定の将来の動作で目標動きを生成し、次に、観察と予測をスムーズに連結し、最終的に動き予測に対処した2段階予測戦略に従う。
本手法はトレーニング中にラベル付き動作遷移データから完全に解放される。
提案手法のロバスト性を示すため,1つのデータセット上でトレーニングした相互学習モデルを2つの大規模動きデータセットに一般化し,自然な遷移を生成する。
3つのベンチマークデータセットの広範な手法は、視覚品質、予測精度、行動の忠実性の観点から、最先端のパフォーマンスをもたらすことを示している。
関連論文リスト
- Past Movements-Guided Motion Representation Learning for Human Motion Prediction [0.0]
動作表現の強化を目的とした自己教師型学習フレームワークを提案する。
フレームワークは、まず、過去のシーケンスの自己再構成を通じてネットワークを事前訓練し、過去の動きに基づく将来のシーケンスのガイド付き再構築を行う。
提案手法は,Human3.6,3DPW,AMASSデータセットの平均予測誤差を8.8%削減する。
論文 参考訳(メタデータ) (2024-08-04T17:00:37Z) - TransFusion: A Practical and Effective Transformer-based Diffusion Model
for 3D Human Motion Prediction [1.8923948104852863]
本研究では,3次元動作予測のための革新的で実用的な拡散モデルであるTransFusionを提案する。
我々のモデルは、浅い層と深い層の間の長いスキップ接続を持つバックボーンとしてTransformerを活用している。
クロスアテンションや適応層正規化のような余分なモジュールを利用する従来の拡散モデルとは対照的に、条件を含む全ての入力をトークンとして扱い、より軽量なモデルを作成する。
論文 参考訳(メタデータ) (2023-07-30T01:52:07Z) - Learning Snippet-to-Motion Progression for Skeleton-based Human Motion
Prediction [14.988322340164391]
人間の動きを予測するために既存のグラフ畳み込みネットワークは、主にワンステップのスキームを採用している。
人間の動きはトランジションパターンを持ち、各トランジションを表すスニペットに分割することができる。
動作予測をサブタスクに分割するスニペット・ツー・モーション・マルチステージ・フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-26T07:36:38Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - Weakly-supervised Action Transition Learning for Stochastic Human Motion
Prediction [81.94175022575966]
動作駆動型人間の動作予測の課題について紹介する。
一連の動作ラベルと短い動作履歴から、複数の可算な将来の動作を予測することを目的としている。
論文 参考訳(メタデータ) (2022-05-31T08:38:07Z) - Stochastic Trajectory Prediction via Motion Indeterminacy Diffusion [88.45326906116165]
運動不確定性拡散(MID)の逆過程として軌道予測タスクを定式化する新しい枠組みを提案する。
我々は,履歴行動情報と社会的相互作用を状態埋め込みとしてエンコードし,トランジトリの時間的依存性を捉えるためにトランスフォーマーに基づく拡散モデルを考案する。
スタンフォード・ドローンやETH/UCYデータセットなど,人間の軌道予測ベンチマーク実験により,本手法の優位性を実証した。
論文 参考訳(メタデータ) (2022-03-25T16:59:08Z) - Exploring Versatile Prior for Human Motion via Motion Frequency Guidance [32.50770614788775]
我々は、人間の動きの固有確率分布をモデル化する多目的運動を事前に学習する枠組みを学習する。
効率的な事前表現学習のために,冗長な環境情報を除去するグローバル指向正規化を提案する。
そこで我々は,環境情報を学習可能な方法で入力動作データから切り離すための認知学習手法を採用した。
論文 参考訳(メタデータ) (2021-11-25T13:24:44Z) - Generating Smooth Pose Sequences for Diverse Human Motion Prediction [90.45823619796674]
本稿では,多様な動作予測と制御可能な動作予測のための統合された深部生成ネットワークを提案する。
標準ベンチマークデータセットであるHuman3.6MとHumanEva-Iの2つの実験は、我々のアプローチがサンプルの多様性と精度の両方において最先端のベースラインより優れていることを示した。
論文 参考訳(メタデータ) (2021-08-19T00:58:00Z) - Multi-level Motion Attention for Human Motion Prediction [132.29963836262394]
本研究は, 関節, 身体部分, フルポーズレベルなど, 異なる種類の注意力の使用について検討した。
我々は,Human3.6M,AMASS,3DPWを用いて,周期的および非周期的両方の行動に対するアプローチの利点を検証した。
論文 参考訳(メタデータ) (2021-06-17T08:08:11Z) - History Repeats Itself: Human Motion Prediction via Motion Attention [81.94175022575966]
注意に基づくフィードフォワードネットワークを導入し、人間の動きが自分自身を繰り返す傾向にあるという観察を明示的に活用する。
特に,現在動きのコンテキストと過去の動きのサブシーケンスの類似性を捉えるために,動きの注意を抽出することを提案する。
我々は,Human3.6M,AMASS,3DPWを用いて,周期的および非周期的両方の行動に対するアプローチの利点を実証した。
論文 参考訳(メタデータ) (2020-07-23T02:12:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。