論文の概要: CameraPose: Weakly-Supervised Monocular 3D Human Pose Estimation by
Leveraging In-the-wild 2D Annotations
- arxiv url: http://arxiv.org/abs/2301.02979v1
- Date: Sun, 8 Jan 2023 05:07:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-10 16:59:58.956695
- Title: CameraPose: Weakly-Supervised Monocular 3D Human Pose Estimation by
Leveraging In-the-wild 2D Annotations
- Title(参考訳): CameraPose:Wild 2Dアノテーションの活用によるモノクロ3D人物位置推定
- Authors: Cheng-Yen Yang, Jiajia Luo, Lu Xia, Yuyin Sun, Nan Qiao, Ke Zhang,
Zhongyu Jiang, Jenq-Neng Hwang
- Abstract要約: 一つの画像から3次元のポーズ推定を行うための弱教師付きフレームワークであるCameraPoseを提案する。
カメラパラメータブランチを追加することで、Wildの2Dアノテーションをパイプラインに投入して、トレーニングの多様性を高めることができます。
また、2次元ポーズ推定器によって抽出されたノイズの多い2Dキーポイントの品質をさらに向上させるため、信頼誘導損失を有する改良型ネットワークモジュールも導入する。
- 参考スコア(独自算出の注目度): 25.05308239278207
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To improve the generalization of 3D human pose estimators, many existing deep
learning based models focus on adding different augmentations to training
poses. However, data augmentation techniques are limited to the "seen" pose
combinations and hard to infer poses with rare "unseen" joint positions. To
address this problem, we present CameraPose, a weakly-supervised framework for
3D human pose estimation from a single image, which can not only be applied on
2D-3D pose pairs but also on 2D alone annotations. By adding a camera parameter
branch, any in-the-wild 2D annotations can be fed into our pipeline to boost
the training diversity and the 3D poses can be implicitly learned by
reprojecting back to 2D. Moreover, CameraPose introduces a refinement network
module with confidence-guided loss to further improve the quality of noisy 2D
keypoints extracted by 2D pose estimators. Experimental results demonstrate
that the CameraPose brings in clear improvements on cross-scenario datasets.
Notably, it outperforms the baseline method by 3mm on the most challenging
dataset 3DPW. In addition, by combining our proposed refinement network module
with existing 3D pose estimators, their performance can be improved in
cross-scenario evaluation.
- Abstract(参考訳): 3次元ポーズ推定器の一般化を改善するため、既存のディープラーニングベースのモデルの多くは、トレーニングポーズに異なる拡張を加えることに重点を置いている。
しかし、データ拡張技術は「seen」のポーズの組み合わせに限定されており、稀な「unseen」の関節位置を持つポーズを推測することが困難である。
この問題に対処するために,CameraPoseは,2次元3次元ポーズペアだけでなく,2次元のみのアノテーションにも適用可能な,単一の画像から3次元ポーズ推定を行う弱教師付きフレームワークである。
カメラパラメータブランチを追加することで、Wildの2Dアノテーションをパイプラインに入力してトレーニングの多様性を高めることができ、3Dのポーズは2Dに再投影することで暗黙的に学習できます。
さらに,2次元ポーズ推定器によって抽出されたノイズ2次元キーポイントの品質をさらに向上させるため,信頼度誘導損失を伴う改良ネットワークモジュールを導入する。
実験結果は、 camerapose がクロススセナリオデータセットに明確な改善をもたらすことを示した。
特に、最も難しいデータセット3DPWでは、ベースライン法を3mm上回る。
また,提案する改良ネットワークモジュールと既存の3次元ポーズ推定器を組み合わせることで,クロススセナリオ評価による性能の向上が期待できる。
関連論文リスト
- MPL: Lifting 3D Human Pose from Multi-view 2D Poses [75.26416079541723]
本稿では,大規模かつリッチなトレーニングデータセットが存在する2次元ポーズ推定と,トランスフォーマーネットワークを用いた2次元から3次元ポーズリフトを提案する。
実験の結果,MPJPEの誤差は2次元ポーズを三角測量した3次元ポーズと比較して最大45%減少することがわかった。
論文 参考訳(メタデータ) (2024-08-20T12:55:14Z) - UPose3D: Uncertainty-Aware 3D Human Pose Estimation with Cross-View and Temporal Cues [55.69339788566899]
UPose3Dは多視点人間のポーズ推定のための新しいアプローチである。
直接的な3Dアノテーションを必要とせずに、堅牢性と柔軟性を向上させる。
論文 参考訳(メタデータ) (2024-04-23T00:18:00Z) - Two Views Are Better than One: Monocular 3D Pose Estimation with Multiview Consistency [0.493599216374976]
本稿では,2次元の教師のみによるトレーニングデータの追加を可能にするために,新たな損失関数であるマルチビュー整合性を提案する。
実験の結果,2つの視点を90度にオフセットすれば良好な性能が得られることがわかった。
本研究は3次元ポーズ推定におけるドメイン適応の新たな可能性を導入し,特定のアプリケーション向けにモデルをカスタマイズするための実用的で費用対効果の高いソリューションを提供する。
論文 参考訳(メタデータ) (2023-11-21T08:21:55Z) - Weakly-supervised Pre-training for 3D Human Pose Estimation via
Perspective Knowledge [36.65402869749077]
本研究では,3次元ポーズを監督せずに2次元画像から直接弱い3次元情報を抽出する手法を提案する。
画像中の2点間の深度関係を識別するために,弱教師付き事前学習(WSP)戦略を提案する。
WSPは2つの広く使用されているベンチマークで最先端の結果を達成する。
論文 参考訳(メタデータ) (2022-11-22T03:35:15Z) - ElePose: Unsupervised 3D Human Pose Estimation by Predicting Camera
Elevation and Learning Normalizing Flows on 2D Poses [23.554957518485324]
本研究では、1つの画像から3次元人間のポーズを予測することを学ぶ教師なしのアプローチを提案する。
ランダムなプロジェクションに最も近い3次元ポーズを推定し、2次元ポーズの正規化フローを用いて推定する。
我々は,Human3.6M と MPI-INF-3DHP のベンチマークデータセット上で,最先端の教師なしポーズ推定手法を多くの指標で上回っている。
論文 参考訳(メタデータ) (2021-12-14T01:12:45Z) - MetaPose: Fast 3D Pose from Multiple Views without 3D Supervision [72.5863451123577]
正確な3Dポーズとカメラ推定が可能なニューラルモデルをトレーニングする方法を示す。
本手法は,古典的バンドル調整と弱教師付き単分子3Dベースラインの両方に優れる。
論文 参考訳(メタデータ) (2021-08-10T18:39:56Z) - SVMA: A GAN-based model for Monocular 3D Human Pose Estimation [0.8379286663107844]
1枚の画像から抽出した2次元関節位置から3次元人間のポーズを復元するための教師なしGANモデルを提案する。
再投射制約を考慮すると,本モデルはカメラを推定し,推定された3次元ポーズを元の2次元ポーズに再投射することができる。
Human3.6Mの結果,本手法は最先端の手法を全て上回り,MPI-INF-3DHPの手法は最先端の手法を約15.0%上回ることがわかった。
論文 参考訳(メタデータ) (2021-06-10T09:43:57Z) - PoseAug: A Differentiable Pose Augmentation Framework for 3D Human Pose
Estimation [83.50127973254538]
既存の3D人間のポーズ推定器は、新しいデータセットへの一般化性能が悪い。
PoseAugは、より多くの多様性に向けて利用可能なトレーニングのポーズを強化することを学ぶ新しい自動増強フレームワークです。
論文 参考訳(メタデータ) (2021-05-06T06:57:42Z) - Synthetic Training for Monocular Human Mesh Recovery [100.38109761268639]
本稿では,RGB画像と大規模に異なる複数の身体部位の3次元メッシュを推定することを目的とする。
主な課題は、2D画像のすべての身体部分の3Dアノテーションを完備するトレーニングデータがないことである。
本稿では,D2S(Deep-to-scale)投影法を提案する。
論文 参考訳(メタデータ) (2020-10-27T03:31:35Z) - Exemplar Fine-Tuning for 3D Human Model Fitting Towards In-the-Wild 3D
Human Pose Estimation [107.07047303858664]
3次元の地平線アノテーションを持つ大規模な人的データセットは、野生では入手が困難である。
既存の2Dデータセットを高品質な3Dポーズマッチングで拡張することで、この問題に対処する。
結果として得られるアノテーションは、3Dのプロシージャネットワークをスクラッチからトレーニングするのに十分である。
論文 参考訳(メタデータ) (2020-04-07T20:21:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。