論文の概要: Anatomy-aware 3D Human Pose Estimation with Bone-based Pose
Decomposition
- arxiv url: http://arxiv.org/abs/2002.10322v5
- Date: Tue, 26 Jan 2021 17:08:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-29 04:15:40.256954
- Title: Anatomy-aware 3D Human Pose Estimation with Bone-based Pose
Decomposition
- Title(参考訳): 骨を用いた3次元人物位置推定法
- Authors: Tianlang Chen, Chen Fang, Xiaohui Shen, Yiheng Zhu, Zhili Chen, Jiebo
Luo
- Abstract要約: 3次元関節位置を直接回帰するのではなく,骨方向予測と骨長予測に分解する。
私たちのモチベーションは、人間の骨格の骨の長さが時間とともに一定であることにあります。
我々の完全なモデルは、Human3.6MとMPI-INF-3DHPデータセットにおいて、以前の最高の結果よりも優れています。
- 参考スコア(独自算出の注目度): 92.99291528676021
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we propose a new solution to 3D human pose estimation in
videos. Instead of directly regressing the 3D joint locations, we draw
inspiration from the human skeleton anatomy and decompose the task into bone
direction prediction and bone length prediction, from which the 3D joint
locations can be completely derived. Our motivation is the fact that the bone
lengths of a human skeleton remain consistent across time. This promotes us to
develop effective techniques to utilize global information across all the
frames in a video for high-accuracy bone length prediction. Moreover, for the
bone direction prediction network, we propose a fully-convolutional propagating
architecture with long skip connections. Essentially, it predicts the
directions of different bones hierarchically without using any time-consuming
memory units e.g. LSTM). A novel joint shift loss is further introduced to
bridge the training of the bone length and bone direction prediction networks.
Finally, we employ an implicit attention mechanism to feed the 2D keypoint
visibility scores into the model as extra guidance, which significantly
mitigates the depth ambiguity in many challenging poses. Our full model
outperforms the previous best results on Human3.6M and MPI-INF-3DHP datasets,
where comprehensive evaluation validates the effectiveness of our model.
- Abstract(参考訳): 本研究では,映像中の3次元ポーズ推定のための新しい解法を提案する。
3d関節位置を直接後退させる代わりに、人間の骨格解剖学からインスピレーションを得て、タスクを骨方向予測と骨長予測に分解し、3d関節位置を完全に導出する。
私たちのモチベーションは、人間の骨格の骨の長さが時間とともに一定であることにあります。
これにより,高精度骨長予測のための映像中の全フレームにまたがるグローバル情報を活用する効果的な手法の開発が促進される。
さらに,骨方向予測ネットワークにおいて,長いスキップ接続を持つ完全畳み込み伝搬アーキテクチャを提案する。
基本的には、LSTMのような時間を要するメモリ単位を使わずに、異なる骨の方向を階層的に予測する。
さらに、骨長と骨方向予測ネットワークの訓練を橋渡しするために、新たな関節シフト損失を導入する。
最後に、2次元キーポイントの可視性スコアをモデルにフィードバックするための暗黙の注意機構を,多くの難易度における奥行きあいまいさを著しく軽減する追加ガイダンスとして採用した。
本モデルでは,Human3.6MとMPI-INF-3DHPデータセットを総合評価し,本モデルの有効性を検証した。
関連論文リスト
- BLAPose: Enhancing 3D Human Pose Estimation with Bone Length Adjustment [4.181969992118842]
この研究は、ビデオシーケンス全体にわたる全体的情報をキャプチャするために設計された、リカレントニューラルネットワークアーキテクチャを導入している。
本稿では, 身体的制約に順応する合成骨長を用いた新しい拡張戦略を提案する。
我々は,推定骨長を用いた人間のポーズ推定モデルを微調整し,顕著な改善を観察した。
論文 参考訳(メタデータ) (2024-10-28T04:50:27Z) - ARTS: Semi-Analytical Regressor using Disentangled Skeletal Representations for Human Mesh Recovery from Videos [18.685856290041283]
ARTSは、一般的なベンチマークにおけるフレーム単位の精度と時間的一貫性の両方において、既存の最先端のビデオベースの手法を超越している。
ビデオから3Dスケルトンを推定するために,スケルトン推定およびアンタングルメントモジュールを提案する。
回帰器は、Temporal Inverse Kinematics (TIK), bone-guided Shape Fitting (BSF), Motion-Centric Refinement (MCR)の3つのモジュールで構成されている。
論文 参考訳(メタデータ) (2024-10-21T02:06:43Z) - PoseGraphNet++: Enriching 3D Human Pose with Orientation Estimation [43.261111977510105]
既存の骨格に基づく人間のポーズ推定法は関節位置のみを予測する。
本稿では,新しい2D-to-3Dリフトグラフ畳み込みネットワークPoseGraphNet++を提案する。
論文 参考訳(メタデータ) (2023-08-22T13:42:15Z) - Unsupervised 3D Pose Estimation with Non-Rigid Structure-from-Motion
Modeling [83.76377808476039]
本研究では,人間のポーズの変形をモデル化し,それに伴う拡散に基づく動きを事前に設計する手法を提案する。
動作中の3次元人間の骨格を復元する作業は3次元基準骨格の推定に分割する。
混合時空間NASfMformerを用いて、各フレームの3次元基準骨格と骨格変形を2次元観測シーケンスから同時に推定する。
論文 参考訳(メタデータ) (2023-08-18T16:41:57Z) - Improving 3D Pose Estimation for Sign Language [38.20064386142944]
この研究は、単一の画像における3次元人間のポーズ復元に対処する。
本稿では,フォワード・キネマティクス(FK)とニューラルネットワークを組み合わせた3次元ポーズの高速かつ有効な予測手法を提案する。
論文 参考訳(メタデータ) (2023-08-18T13:05:10Z) - Learning 3D Human Pose Estimation from Dozens of Datasets using a
Geometry-Aware Autoencoder to Bridge Between Skeleton Formats [80.12253291709673]
本稿では,アフィン結合型オートエンコーダ(ACAE)法を提案する。
このアプローチは、28人の人間のポーズデータセットを使って1つのモデルを監督する、極端なマルチデータセット体制にスケールします。
論文 参考訳(メタデータ) (2022-12-29T22:22:49Z) - 3D Human Pose Regression using Graph Convolutional Network [68.8204255655161]
本稿では,2次元のポーズから3次元のポーズ回帰を行うために,PoseGraphNetというグラフ畳み込みネットワークを提案する。
我々のモデルの性能は最先端に近いが、パラメータははるかに少ない。
論文 参考訳(メタデータ) (2021-05-21T14:41:31Z) - Cascaded deep monocular 3D human pose estimation with evolutionary
training data [76.3478675752847]
深層表現学習は単眼の3次元ポーズ推定において顕著な精度を達成した。
本稿では,大量のトレーニングデータに対してスケーラブルな新しいデータ拡張手法を提案する。
本手法は,先行知識に触発された階層的人体表現と合成に基づいて,未知の3次元人体骨格を合成する。
論文 参考訳(メタデータ) (2020-06-14T03:09:52Z) - Learning 3D Human Shape and Pose from Dense Body Parts [117.46290013548533]
本研究では,3次元の人体形状を学習し,身体部分の密接な対応からポーズをとるために,分解・集約ネットワーク(DaNet)を提案する。
ローカルストリームからのメッセージは集約され、回転ベースのポーズの堅牢な予測が強化される。
提案手法は,Human3.6M,UP3D,COCO,3DPWを含む屋内および実世界のデータセットで検証される。
論文 参考訳(メタデータ) (2019-12-31T15:09:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。