論文の概要: Learning to Predict Diverse Human Motions from a Single Image via
Mixture Density Networks
- arxiv url: http://arxiv.org/abs/2109.05776v1
- Date: Mon, 13 Sep 2021 08:49:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-14 15:34:58.363033
- Title: Learning to Predict Diverse Human Motions from a Single Image via
Mixture Density Networks
- Title(参考訳): 混合密度ネットワークによる単一画像からの多様な人間の動き予測の学習
- Authors: Chunzhi Gu, Yan Zhao, Chao Zhang
- Abstract要約: 本研究では,混合密度ネットワーク(MDN)モデルを用いて,単一画像から将来の人間の動きを予測する新しい手法を提案する。
MDNのマルチモーダルな性質は、既存のディープヒューマンモーション予測アプローチとは対照的に、様々な将来のモーション仮説の生成を可能にしている。
訓練されたモデルでは、入力として画像を直接取り、与えられた条件を満たす複数の可視運動を生成する。
- 参考スコア(独自算出の注目度): 9.06677862854201
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human motion prediction, which plays a key role in computer vision, generally
requires a past motion sequence as input. However, in real applications, a
complete and correct past motion sequence can be too expensive to achieve. In
this paper, we propose a novel approach to predict future human motions from a
much weaker condition, i.e., a single image, with mixture density networks
(MDN) modeling. Contrary to most existing deep human motion prediction
approaches, the multimodal nature of MDN enables the generation of diverse
future motion hypotheses, which well compensates for the strong stochastic
ambiguity aggregated by the single input and human motion uncertainty. In
designing the loss function, we further introduce an energy-based prior over
learnable parameters of MDN to maintain motion coherence, as well as improve
the prediction accuracy. Our trained model directly takes an image as input and
generates multiple plausible motions that satisfy the given condition.
Extensive experiments on two standard benchmark datasets demonstrate the
effectiveness of our method, in terms of prediction diversity and accuracy.
- Abstract(参考訳): コンピュータビジョンにおいて重要な役割を果たす人間の動き予測は、一般に過去の動きシーケンスを入力として要求する。
しかし、実際の応用では、完全かつ正しい過去の動き列は達成するには高すぎる。
本稿では,混合密度ネットワーク(mdn)モデルを用いて,より弱い条件,すなわち単一画像から将来の人間の動きを予測する新しい手法を提案する。
既存の多くのディープ・ヒューマン・モーション・予測手法とは異なり、mdnの多様性は多様な将来の動き仮説の生成を可能にし、単一の入力と人間の動きの不確実性によって集約された強い確率的曖昧さを十分に補う。
損失関数の設計において,我々はさらに,mdnの学習可能なパラメータのエネルギーベースプリエントを導入し,動作コヒーレンスを維持し,予測精度を向上させる。
トレーニングされたモデルでは、画像を直接入力として、与えられた条件を満たす複数の妥当な動きを生成します。
2つの標準ベンチマークデータセットに対する大規模な実験により,予測の多様性と精度の観点から,本手法の有効性が示された。
関連論文リスト
- MDMP: Multi-modal Diffusion for supervised Motion Predictions with uncertainty [7.402769693163035]
本稿では,運動予測のための多モード拡散モデルを提案する。
骨格データと行動のテキスト記述を統合し、定量性のある不確実性を伴う洗練された長期動作予測を生成する。
我々のモデルは、長期動作を正確に予測する上で、既存の生成技術よりも一貫して優れている。
論文 参考訳(メタデータ) (2024-10-04T18:49:00Z) - DivDiff: A Conditional Diffusion Model for Diverse Human Motion Prediction [9.447439259813112]
本研究では,より多様で現実的な人間の動きを予測するために,DivDiffと呼ばれる条件拡散に基づく生成モデルを提案する。
具体的には、DivDiffはDDPMをバックボーンとして使用し、離散コサイン変換(DCT)とトランスフォーマー機構を組み込んでいます。
本研究では,人体運動に対する人間の骨格制約を強制するために,多種多様な強化サンプリング機能 (DRSF) を設計する。
論文 参考訳(メタデータ) (2024-08-16T04:51:32Z) - TransFusion: A Practical and Effective Transformer-based Diffusion Model
for 3D Human Motion Prediction [1.8923948104852863]
本研究では,3次元動作予測のための革新的で実用的な拡散モデルであるTransFusionを提案する。
我々のモデルは、浅い層と深い層の間の長いスキップ接続を持つバックボーンとしてTransformerを活用している。
クロスアテンションや適応層正規化のような余分なモジュールを利用する従来の拡散モデルとは対照的に、条件を含む全ての入力をトークンとして扱い、より軽量なモデルを作成する。
論文 参考訳(メタデータ) (2023-07-30T01:52:07Z) - Executing your Commands via Motion Diffusion in Latent Space [51.64652463205012]
本研究では,動作遅延に基づく拡散モデル(MLD)を提案し,条件付き入力に対応する鮮明な動き列を生成する。
我々のMDDは、広範囲な人体運動生成タスクにおいて、最先端の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2022-12-08T03:07:00Z) - PREF: Predictability Regularized Neural Motion Fields [68.60019434498703]
ダイナミックなシーンで3Dの動きを知ることは、多くの視覚応用にとって不可欠である。
多視点設定における全ての点の運動を推定するために神経運動場を利用する。
予測可能な動きを正規化することを提案する。
論文 参考訳(メタデータ) (2022-09-21T22:32:37Z) - Investigating Pose Representations and Motion Contexts Modeling for 3D
Motion Prediction [63.62263239934777]
歴史的ポーズシーケンスから人間の動きを予測することは、機械が人間と知的な相互作用を成功させるために不可欠である。
本研究では,様々なポーズ表現に関する詳細な研究を行い,その動作予測課題に対する効果に着目した。
AHMR(Attentive Hierarchical Motion Recurrent Network)と呼ばれる新しいRNNアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-30T10:45:22Z) - Generating Smooth Pose Sequences for Diverse Human Motion Prediction [90.45823619796674]
本稿では,多様な動作予測と制御可能な動作予測のための統合された深部生成ネットワークを提案する。
標準ベンチマークデータセットであるHuman3.6MとHumanEva-Iの2つの実験は、我々のアプローチがサンプルの多様性と精度の両方において最先端のベースラインより優れていることを示した。
論文 参考訳(メタデータ) (2021-08-19T00:58:00Z) - Probabilistic Human Motion Prediction via A Bayesian Neural Network [71.16277790708529]
本稿では,人間の動作予測のための確率モデルを提案する。
我々のモデルは、観測された動きシーケンスが与えられたときに、いくつかの将来の動きを生成することができる。
我々は、大規模ベンチマークデータセットHuman3.6mに対して、我々のアプローチを広範囲に検証した。
論文 参考訳(メタデータ) (2021-07-14T09:05:33Z) - 3D Human motion anticipation and classification [8.069283749930594]
人間の動き予測と特徴学習のための新しいシーケンス・トゥ・シークエンスモデルを提案する。
我々のモデルは、同じ入力シーケンスから複数の人間のポーズの将来のシーケンスを予測することを学習する。
識別器から学習した特徴を用いて,行動認識ネットワークを訓練するには,エポック数の半分以下しかかからないことを示す。
論文 参考訳(メタデータ) (2020-12-31T00:19:39Z) - Adversarial Refinement Network for Human Motion Prediction [61.50462663314644]
リカレントニューラルネットワークとフィードフォワードディープネットワークという2つの一般的な手法は、粗い動きの傾向を予測することができる。
本稿では,新たな逆誤差増大を伴う簡易かつ効果的な粗大きめ機構に従えば,ARNet(Adversarial Refinement Network)を提案する。
論文 参考訳(メタデータ) (2020-11-23T05:42:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。