論文の概要: Unsupervised 3D Pose Estimation with Non-Rigid Structure-from-Motion
Modeling
- arxiv url: http://arxiv.org/abs/2308.10705v1
- Date: Fri, 18 Aug 2023 16:41:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-22 13:29:50.404464
- Title: Unsupervised 3D Pose Estimation with Non-Rigid Structure-from-Motion
Modeling
- Title(参考訳): 非剛構造モデルを用いた教師なし3次元ポーズ推定
- Authors: Haorui Ji, Hui Deng, Yuchao Dai, Hongdong Li
- Abstract要約: 本研究では,人間のポーズの変形をモデル化し,それに伴う拡散に基づく動きを事前に設計する手法を提案する。
動作中の3次元人間の骨格を復元する作業は3次元基準骨格の推定に分割する。
混合時空間NASfMformerを用いて、各フレームの3次元基準骨格と骨格変形を2次元観測シーケンスから同時に推定する。
- 参考スコア(独自算出の注目度): 83.76377808476039
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most of the previous 3D human pose estimation work relied on the powerful
memory capability of the network to obtain suitable 2D-3D mappings from the
training data. Few works have studied the modeling of human posture deformation
in motion. In this paper, we propose a new modeling method for human pose
deformations and design an accompanying diffusion-based motion prior. Inspired
by the field of non-rigid structure-from-motion, we divide the task of
reconstructing 3D human skeletons in motion into the estimation of a 3D
reference skeleton, and a frame-by-frame skeleton deformation. A mixed
spatial-temporal NRSfMformer is used to simultaneously estimate the 3D
reference skeleton and the skeleton deformation of each frame from 2D
observations sequence, and then sum them to obtain the pose of each frame.
Subsequently, a loss term based on the diffusion model is used to ensure that
the pipeline learns the correct prior motion knowledge. Finally, we have
evaluated our proposed method on mainstream datasets and obtained superior
results outperforming the state-of-the-art.
- Abstract(参考訳): 従来の3次元ポーズ推定作業のほとんどは、トレーニングデータから適切な2D-3Dマッピングを得るために、ネットワークの強力なメモリ能力に依存していた。
動作中の人間の姿勢変形のモデル化を研究した研究は少ない。
本稿では,人間のポーズ変形の新しいモデリング手法を提案し,それに伴う拡散に基づく動きを事前に設計する。
非剛体構造の運動場に着想を得て、3次元人体骨格を運動で再構築するタスクを3次元基準骨格の推定とフレーム・バイ・フレームの骨格変形に分割した。
混合時空間NASfMformerを用いて、2次元観察シーケンスから各フレームの3次元基準骨格と骨格変形を同時に推定し、合計して各フレームのポーズを得る。
その後、拡散モデルに基づく損失項を使用して、パイプラインが正しい事前動作知識を学習することを保証する。
最後に,本提案手法をメインストリームデータセット上で評価し,最新技術よりも優れた結果を得た。
関連論文リスト
- SkelFormer: Markerless 3D Pose and Shape Estimation using Skeletal Transformers [57.46911575980854]
マルチビュー人間のポーズと形状推定のための新しいマーカーレスモーションキャプチャパイプラインであるSkelFormerを紹介する。
提案手法は,まず市販の2次元キーポイント推定器を用いて,大規模インザミルドデータに基づいて事前トレーニングを行い,3次元関節位置を求める。
次に、重雑音観測から、関節の位置をポーズと形状の表現にマッピングする回帰に基づく逆運動性骨格変換器を設計する。
論文 参考訳(メタデータ) (2024-04-19T04:51:18Z) - EVOPOSE: A Recursive Transformer For 3D Human Pose Estimation With
Kinematic Structure Priors [72.33767389878473]
本研究では,3次元ポーズ推定を効果的に行うために,トランスフォーマーを用いたモデルEvoPoseを提案する。
構造的優先表現(Structure Priors Representation, SPR)モジュールは、人体パターンの豊富な構造的特徴として、人間の先行を表現している。
推定結果を利用して3Dポーズ出力にRecursive Refinement(RR)モジュールを印加し、同時に人間を注入する。
論文 参考訳(メタデータ) (2023-06-16T04:09:16Z) - Learning Temporal 3D Human Pose Estimation with Pseudo-Labels [3.0954251281114513]
自己監督型3次元ポーズ推定のための簡易かつ効果的なアプローチを提案する。
我々は、マルチビューカメラシステムの2Dボディポーズ推定を三角測量に頼っている。
提案手法はHuman3.6MとMPI-INF-3DHPベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2021-10-14T17:40:45Z) - HuMoR: 3D Human Motion Model for Robust Pose Estimation [100.55369985297797]
HuMoRは、時間的ポーズと形状のロバスト推定のための3Dヒューマンモーションモデルです。
モーションシーケンスの各ステップにおけるポーズの変化の分布を学習する条件付き変分オートエンコーダについて紹介する。
本モデルが大規模モーションキャプチャーデータセットのトレーニング後に多様な動きや体型に一般化することを示す。
論文 参考訳(メタデータ) (2021-05-10T21:04:55Z) - Kinematic-Structure-Preserved Representation for Unsupervised 3D Human
Pose Estimation [58.72192168935338]
大規模インスタディオデータセットの監視を用いて開発された人間のポーズ推定モデルの一般化可能性については疑問が残る。
本稿では,2対あるいは2対の弱い監督者によって抑制されない,新しいキネマティック構造保存型非教師付き3次元ポーズ推定フレームワークを提案する。
提案モデルでは,前方運動学,カメラ投影,空間マップ変換という3つの連続的な微分可能変換を用いる。
論文 参考訳(メタデータ) (2020-06-24T23:56:33Z) - Anatomy-aware 3D Human Pose Estimation with Bone-based Pose
Decomposition [92.99291528676021]
3次元関節位置を直接回帰するのではなく,骨方向予測と骨長予測に分解する。
私たちのモチベーションは、人間の骨格の骨の長さが時間とともに一定であることにあります。
我々の完全なモデルは、Human3.6MとMPI-INF-3DHPデータセットにおいて、以前の最高の結果よりも優れています。
論文 参考訳(メタデータ) (2020-02-24T15:49:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。