論文の概要: MotionMixer: MLP-based 3D Human Body Pose Forecasting
- arxiv url: http://arxiv.org/abs/2207.00499v1
- Date: Fri, 1 Jul 2022 15:36:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-04 13:05:00.602917
- Title: MotionMixer: MLP-based 3D Human Body Pose Forecasting
- Title(参考訳): MotionMixer: MLPベースの3D人体ポスキャスティング
- Authors: Arij Bouazizi and Adrian Holzbock and Ulrich Kressel and Klaus
Dietmayer and Vasileios Belagiannis
- Abstract要約: 我々は,多層パーセプトロン(MLP)のみに基づく効率的な3次元人体ポーズ予測モデルであるMotionMixerを提案する。
MotionMixerは、両方のモダリティを逐次混合することで、時空間の3Dボディのポーズ依存性を学習する。
我々は,標準評価プロトコルを用いて,Human3.6M,AMASS,3DPWデータセットに対するアプローチを評価する。
- 参考スコア(独自算出の注目度): 12.471564670462344
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we present MotionMixer, an efficient 3D human body pose
forecasting model based solely on multi-layer perceptrons (MLPs). MotionMixer
learns the spatial-temporal 3D body pose dependencies by sequentially mixing
both modalities. Given a stacked sequence of 3D body poses, a spatial-MLP
extracts fine grained spatial dependencies of the body joints. The interaction
of the body joints over time is then modelled by a temporal MLP. The
spatial-temporal mixed features are finally aggregated and decoded to obtain
the future motion. To calibrate the influence of each time step in the pose
sequence, we make use of squeeze-and-excitation (SE) blocks. We evaluate our
approach on Human3.6M, AMASS, and 3DPW datasets using the standard evaluation
protocols. For all evaluations, we demonstrate state-of-the-art performance,
while having a model with a smaller number of parameters. Our code is available
at: https://github.com/MotionMLP/MotionMixer
- Abstract(参考訳): 本研究では,多層パーセプトロン(MLP)のみに基づく効率的な3次元人体ポーズ予測モデルであるMotionMixerを提案する。
MotionMixerは、両方のモダリティを逐次混合することで、時空間の3Dボディのポーズ依存性を学習する。
3Dボディポーズの積み重ね配列が与えられた場合、空間MLPは体の関節のきめ細かい空間依存性を抽出する。
身体関節の時間的相互作用は、時間的mlpによってモデル化される。
時空間混合特徴を最終的に集約してデコードし、将来の動きを得る。
ポーズシーケンスにおける各時間ステップの影響を校正するために,swish-and-excitation (se)ブロックを用いる。
我々は,標準評価プロトコルを用いて,Human3.6M,AMASS,3DPWデータセットに対するアプローチを評価する。
全ての評価において,パラメータの少ないモデルを持ちながら,最先端の性能を実証する。
私たちのコードは、https://github.com/MotionMLP/MotionMixerで利用可能です。
関連論文リスト
- Uplift and Upsample: Efficient 3D Human Pose Estimation with Uplifting
Transformers [28.586258731448687]
時間的にスパースな2Dポーズシーケンスを操作できるTransformerベースのポーズアップリフト方式を提案する。
本稿では,Transformerブロック内の時間的アップサンプリングにマスク付きトークンモデリングをどのように利用できるかを示す。
我々は,Human3.6M と MPI-INF-3DHP の2つのベンチマークデータセットを用いて評価を行った。
論文 参考訳(メタデータ) (2022-10-12T12:00:56Z) - Kinematics Modeling Network for Video-based Human Pose Estimation [9.506011491028891]
ビデオから人間のポーズを推定することは、人間とコンピュータの相互作用において重要である。
関節は人間の動きの中で独立して動くのではなく協力する。
関節間の時間的相関を明示的にモデル化するためのKMM(プラグイン・アンド・プレイ・キネマティクス・モデリング・モジュール)を提案する。
論文 参考訳(メタデータ) (2022-07-22T09:37:48Z) - Capturing Humans in Motion: Temporal-Attentive 3D Human Pose and Shape
Estimation from Monocular Video [24.217269857183233]
映像から3次元の人間のポーズと形状を推定するために,動作中の人間を捕捉する動きポーズと形状ネットワーク(MPS-Net)を提案する。
具体的には、まず、人間の動きから観察された視覚的手がかりを利用して、シーケンス内の注意を必要とする範囲を適応的に再調整する動き継続注意(MoCA)モジュールを提案する。
MoCAとHAFIモジュールを結合することにより、提案したMPS-Netは、ビデオ中の3D人間のポーズと形状を推定するのに優れている。
論文 参考訳(メタデータ) (2022-03-16T11:00:24Z) - P-STMO: Pre-Trained Spatial Temporal Many-to-One Model for 3D Human Pose
Estimation [78.83305967085413]
本稿では,2次元から3次元のポーズ推定作業のためのP-STMOモデルを提案する。
提案手法は,パラメータが少なく,計算オーバーヘッドが少なく,最先端の手法より優れている。
論文 参考訳(メタデータ) (2022-03-15T04:00:59Z) - MixSTE: Seq2seq Mixed Spatio-Temporal Encoder for 3D Human Pose
Estimation in Video [75.23812405203778]
近年, 学習時間相関のため, 全フレームのボディジョイントを世界規模で考慮し, 2次元キーポイントシーケンスから3次元人間のポーズを推定する手法が提案されている。
本研究では,各関節の時間的動きを別々にモデル化する時間的変圧器ブロックと,関節間空間相関を有する変圧器ブロックを有するミキシングミキシングを提案する。
さらに、ネットワーク出力は、中央フレームから入力ビデオの全フレームに拡張され、入力と出力のベンチマーク間のコヒーレンスが改善される。
論文 参考訳(メタデータ) (2022-03-02T04:20:59Z) - Encoder-decoder with Multi-level Attention for 3D Human Shape and Pose
Estimation [61.98690211671168]
本稿では,マルチレベルアテンション・デコーダ・ネットワーク(MAED)を提案する。
3DPWのトレーニングセットにより、MAEDはPA-MPJPEの6.2、7.2、2.4mmの従来の最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2021-09-06T09:06:17Z) - Self-Attentive 3D Human Pose and Shape Estimation from Videos [82.63503361008607]
3D人間のポーズと形状推定のためのビデオベースの学習アルゴリズムを紹介します。
ビデオの時間情報を利用して自己着脱モジュールを提案する。
本手法を3DPW, MPI-INF-3DHP, Human3.6Mデータセット上で評価した。
論文 参考訳(メタデータ) (2021-03-26T00:02:19Z) - We are More than Our Joints: Predicting how 3D Bodies Move [63.34072043909123]
我々は、潜時周波数から動きを生成する新しい変分オートエンコーダを訓練する。
実験の結果,本手法は最先端の3Dボディアニメーションとリアルな3Dボディアニメーションを生成することがわかった。
論文 参考訳(メタデータ) (2020-12-01T16:41:04Z) - Fusing Wearable IMUs with Multi-View Images for Human Pose Estimation: A
Geometric Approach [76.10879433430466]
多視点画像と人手足に装着したIMUから3次元人間のポーズを推定する。
まず2つの信号から2Dのポーズを検出し、3D空間に持ち上げる。
単純な2段階のアプローチは、公開データセット上の大きなマージンによる最先端のエラーを低減する。
論文 参考訳(メタデータ) (2020-03-25T00:26:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。