論文の概要: DeepSSM: Deep State-Space Model for 3D Human Motion Prediction
- arxiv url: http://arxiv.org/abs/2005.12155v4
- Date: Wed, 29 Dec 2021 03:44:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 06:14:08.550814
- Title: DeepSSM: Deep State-Space Model for 3D Human Motion Prediction
- Title(参考訳): DeepSSM:3次元動作予測のための深部状態空間モデル
- Authors: Xiaoli Liu, Jianqin Yin, Huaping Liu, Jun Liu
- Abstract要約: 我々は、深部状態空間モデル(DeepSSM)を構築することにより、より正確な予測を行うために、人間の動作系のマルチオーダーモデリング能力を改善する。
具体的には、動的システムの状態空間モデルとして人間の動き系を定式化し、状態空間理論により運動系をモデル化する。
新しいディープネットワークは、状態遷移と状態保存遷移のプロセスを共同でモデル化する、このシステムをパラメータ化するように設計されている。
- 参考スコア(独自算出の注目度): 19.35552462734875
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Predicting future human motion plays a significant role in human-machine
interactions for various real-life applications. A unified formulation and
multi-order modeling are two critical perspectives for analyzing and
representing human motion. In contrast to prior works, we improve the
multi-order modeling ability of human motion systems for more accurate
predictions by building a deep state-space model (DeepSSM). The DeepSSM
utilizes the advantages of both the state-space theory and the deep network.
Specifically, we formulate the human motion system as the state-space model of
a dynamic system and model the motion system by the state-space theory,
offering a unified formulation for diverse human motion systems. Moreover, a
novel deep network is designed to parameterize this system, which jointly
models the state-state transition and state-observation transition processes.
In this way, the state of a system is updated by the multi-order information of
a time-varying human motion sequence. Multiple future poses are recursively
predicted via the state-observation transition. To further improve the model
ability of the system, a novel loss, WT-MPJPE (Weighted Temporal Mean Per Joint
Position Error), is introduced to optimize the model. The proposed loss
encourages the system to achieve more accurate predictions by increasing
weights to the early time steps. The experiments on two benchmark datasets
(i.e., Human3.6M and 3DPW) confirm that our method achieves state-of-the-art
performance with improved accuracy of at least 2.2mm per joint. The code will
be available at: \url{https://github.com/lily2lab/DeepSSM.git}.
- Abstract(参考訳): 将来の人間の動きを予測することは、様々な現実の応用において人間と機械の相互作用において重要な役割を果たす。
統一的な定式化と多階モデリングは、人間の動きを分析し表現するための2つの重要な視点である。
先行研究とは対照的に,深部状態空間モデル(deepssm)を構築し,より正確な予測を行うために,人間の運動システムの多階モデリング能力を向上させる。
DeepSSMは状態空間理論とディープネットワークの両方の利点を利用する。
具体的には、動的システムの状態空間モデルとして人体運動系を定式化し、状態空間理論により運動系をモデル化し、多様な人体運動系に統一的な定式化を提供する。
さらに、状態遷移と状態保存遷移のプロセスを共同でモデル化する新しいディープネットワークが設計されている。
このようにして、時間変化する人間の動作シーケンスの多順序情報により、システムの状態が更新される。
複数の将来のポーズは、状態観察遷移を通じて再帰的に予測される。
さらに、システムのモデル能力を向上させるために、新しい損失であるwt-mpjpe (weighted temporal mean per joint position error)を導入し、モデルを最適化する。
提案された損失は、早期段階に重みを増すことにより、より正確な予測を行うようシステムに促す。
2つのベンチマークデータセット(Human3.6Mと3DPW)に対する実験により,本手法が1関節あたり2.2mm以上の精度で最先端性能を実現することを確認した。
コードは \url{https://github.com/lily2lab/deepssm.git} で入手できる。
関連論文リスト
- Social-Transmotion: Promptable Human Trajectory Prediction [65.80068316170613]
Social-Transmotionは、多種多様な視覚的手がかりを利用して人間の行動を予測する、汎用トランスフォーマーベースのモデルである。
提案手法は,JTA,JRDB,歩行者,道路交通のサイクリスト,ETH-UCYなど,複数のデータセットで検証されている。
論文 参考訳(メタデータ) (2023-12-26T18:56:49Z) - TransFusion: A Practical and Effective Transformer-based Diffusion Model
for 3D Human Motion Prediction [1.8923948104852863]
本研究では,3次元動作予測のための革新的で実用的な拡散モデルであるTransFusionを提案する。
我々のモデルは、浅い層と深い層の間の長いスキップ接続を持つバックボーンとしてTransformerを活用している。
クロスアテンションや適応層正規化のような余分なモジュールを利用する従来の拡散モデルとは対照的に、条件を含む全ての入力をトークンとして扱い、より軽量なモデルを作成する。
論文 参考訳(メタデータ) (2023-07-30T01:52:07Z) - GraMMaR: Ground-aware Motion Model for 3D Human Motion Reconstruction [61.833152949826946]
本研究では,GraMMaRという3次元人体動作再構成のための新しいグラウンド・アウェア・モーション・モデルを提案する。
GraMMaRは、動きシーケンスの各時間ステップにおいて、ポーズにおける遷移の分布と、各関節面と接地面の間の相互作用を学習する。
運動と地面への距離変化との整合性を明確に促進するように訓練されている。
論文 参考訳(メタデータ) (2023-06-29T07:22:20Z) - SPOTR: Spatio-temporal Pose Transformers for Human Motion Prediction [12.248428883804763]
3次元人間の動き予測は、コンピュータビジョンにおける高い重要性と課題を計算した研究領域である。
伝統的に、自己回帰モデルは人間の動きを予測するために用いられてきた。
人間の動作予測のための非自己回帰モデルを提案する。
論文 参考訳(メタデータ) (2023-03-11T01:44:29Z) - STPOTR: Simultaneous Human Trajectory and Pose Prediction Using a
Non-Autoregressive Transformer for Robot Following Ahead [8.227864212055035]
観測された人間の動作履歴から将来の人間の動作を予測するニューラルネットワークモデルを開発した。
本研究では,自動回帰トランスフォーマアーキテクチャを提案し,その並列特性を利用して,テスト時の高速かつ高精度な予測を行う。
我々のモデルは、最先端の手法に関して、テスト精度と速度の観点からロボット応用に適している。
論文 参考訳(メタデータ) (2022-09-15T20:27:54Z) - Transformer Inertial Poser: Attention-based Real-time Human Motion
Reconstruction from Sparse IMUs [79.72586714047199]
本研究では,6つのIMUセンサからリアルタイムに全体動作を再構築する,注意に基づく深層学習手法を提案する。
提案手法は, 実装が簡単で, 小型でありながら, 定量的かつ質的に新しい結果が得られる。
論文 参考訳(メタデータ) (2022-03-29T16:24:52Z) - Investigating Pose Representations and Motion Contexts Modeling for 3D
Motion Prediction [63.62263239934777]
歴史的ポーズシーケンスから人間の動きを予測することは、機械が人間と知的な相互作用を成功させるために不可欠である。
本研究では,様々なポーズ表現に関する詳細な研究を行い,その動作予測課題に対する効果に着目した。
AHMR(Attentive Hierarchical Motion Recurrent Network)と呼ばれる新しいRNNアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-30T10:45:22Z) - Learning to Predict Diverse Human Motions from a Single Image via
Mixture Density Networks [9.06677862854201]
本研究では,混合密度ネットワーク(MDN)モデルを用いて,単一画像から将来の人間の動きを予測する新しい手法を提案する。
MDNのマルチモーダルな性質は、既存のディープヒューマンモーション予測アプローチとは対照的に、様々な将来のモーション仮説の生成を可能にしている。
訓練されたモデルでは、入力として画像を直接取り、与えられた条件を満たす複数の可視運動を生成する。
論文 参考訳(メタデータ) (2021-09-13T08:49:33Z) - Generating Smooth Pose Sequences for Diverse Human Motion Prediction [90.45823619796674]
本稿では,多様な動作予測と制御可能な動作予測のための統合された深部生成ネットワークを提案する。
標準ベンチマークデータセットであるHuman3.6MとHumanEva-Iの2つの実験は、我々のアプローチがサンプルの多様性と精度の両方において最先端のベースラインより優れていることを示した。
論文 参考訳(メタデータ) (2021-08-19T00:58:00Z) - Motion Prediction Using Temporal Inception Module [96.76721173517895]
人間の動作を符号化するTIM(Temporal Inception Module)を提案する。
本フレームワークは,異なる入力長に対して異なるカーネルサイズを用いて,畳み込み層を用いて入力埋め込みを生成する。
標準的な動き予測ベンチマークデータセットであるHuman3.6MとCMUのモーションキャプチャデータセットの実験結果から,我々の手法は一貫して技術手法の状態を上回ります。
論文 参考訳(メタデータ) (2020-10-06T20:26:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。