論文の概要: RPGD: RANSAC-P3P Gradient Descent for Extrinsic Calibration in 3D Human Pose Estimation
- arxiv url: http://arxiv.org/abs/2602.13901v1
- Date: Sat, 14 Feb 2026 21:49:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 14:17:28.547844
- Title: RPGD: RANSAC-P3P Gradient Descent for Extrinsic Calibration in 3D Human Pose Estimation
- Title(参考訳): RPGD: RANSAC-P3P Gradient Diescent for Extrinsic Calibration in 3D Human Pose Estimation
- Authors: Zhanyu Tuo,
- Abstract要約: RPGD(RANSAC-P3P Gradient Descent)は、人為的な外部キャリブレーションフレームワークである。
MoCapベースの3D骨格データを、自然な人間の動きだけでモノクロまたはマルチビューのRGBカメラとしっかりと調整する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we propose RPGD (RANSAC-P3P Gradient Descent), a human-pose-driven extrinsic calibration framework that robustly aligns MoCap-based 3D skeletal data with monocular or multi-view RGB cameras using only natural human motion. RPGD formulates extrinsic calibration as a coarse-to-fine problem tailored to human poses, combining the global robustness of RANSAC-P3P with Gradient-Descent-based refinement. We evaluate RPGD on three large-scale public 3D HPE datasets as well as on a self-collected in-the-wild dataset. Experimental results demonstrate that RPGD consistently recovers extrinsic parameters with accuracy comparable to the provided ground truth, achieving sub-pixel MPJPE reprojection error even in challenging, noisy settings. These results indicate that RPGD provides a practical and automatic solution for reliable extrinsic calibration of large-scale 3D HPE dataset collection.
- Abstract(参考訳): 本稿では,MoCapをベースとした3D骨格データを,自然動作のみを用いたモノクロ・多視点RGBカメラに頑健に整合させる,人為的な外在的キャリブレーションフレームワークであるRPGD(RANSAC-P3P Gradient Descent)を提案する。
RPGDは、RANSAC-P3Pのグローバルロバスト性とグラディエントDescent-based refinementを組み合わせた、人間のポーズに合わせた粗大な問題として、外因性キャリブレーションを定式化する。
RPGDを3つの大規模公開3次元HPEデータセットと、自己コンパイル型インザワイルドデータセットで評価する。
実験結果から,RPGDは提案した基底真理に匹敵する精度で外部パラメータを常に回復し,難易度の高いノイズ条件下でもサブピクセルMPJPE再投影誤差を達成できることが示された。
これらの結果から,RPGDは大規模3次元HPEデータセット収集の信頼性の高い外部キャリブレーションのための実用的かつ自動解法であることが示された。
関連論文リスト
- CameraHMR: Aligning People with Perspective [54.05758012879385]
モノクロ画像からの正確な3次元ポーズと形状推定の課題に対処する。
既存のトレーニングデータセットには、擬似基底真理(pGT)を持つ実画像が含まれている。
pGTの精度を向上させる2つの貢献をしている。
論文 参考訳(メタデータ) (2024-11-12T19:12:12Z) - PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - GS-CPR: Efficient Camera Pose Refinement via 3D Gaussian Splatting [25.780452115246245]
本稿では,新しいテストタイムカメラ・ポーズ・リファインメント(CPR)フレームワーク,GS-CPRを提案する。
このフレームワークは、最先端の絶対ポーズ回帰とシーン座標回帰法の局所化精度を高める。
3DGSモデルは高品質な合成画像と深度マップを描画し、2D-3D対応の確立を容易にする。
論文 参考訳(メタデータ) (2024-08-20T17:58:23Z) - SO-Pose: Exploiting Self-Occlusion for Direct 6D Pose Estimation [98.83762558394345]
SO-Poseは、オブジェクトの6自由度(6DoF)をすべて、単一のRGBイメージから散らばった環境でポーズさせるフレームワークである。
本稿では,3次元オブジェクトの2層表現を確立するために,自己閉塞に関する新たな推論を導入する。
対応性,自己閉塞性,6次元ポーズを整列する層間合成により,精度とロバスト性をさらに向上させることができる。
論文 参考訳(メタデータ) (2021-08-18T19:49:29Z) - Uncertainty-Aware Camera Pose Estimation from Points and Lines [101.03675842534415]
Perspective-n-Point-and-Line (Pn$PL) は、2D-3D特徴座標の3Dモデルに関して、高速で正確で堅牢なカメラローカライゼーションを目指している。
論文 参考訳(メタデータ) (2021-07-08T15:19:36Z) - Synthetic Training for Monocular Human Mesh Recovery [100.38109761268639]
本稿では,RGB画像と大規模に異なる複数の身体部位の3次元メッシュを推定することを目的とする。
主な課題は、2D画像のすべての身体部分の3Dアノテーションを完備するトレーニングデータがないことである。
本稿では,D2S(Deep-to-scale)投影法を提案する。
論文 参考訳(メタデータ) (2020-10-27T03:31:35Z) - Exemplar Fine-Tuning for 3D Human Model Fitting Towards In-the-Wild 3D
Human Pose Estimation [107.07047303858664]
3次元の地平線アノテーションを持つ大規模な人的データセットは、野生では入手が困難である。
既存の2Dデータセットを高品質な3Dポーズマッチングで拡張することで、この問題に対処する。
結果として得られるアノテーションは、3Dのプロシージャネットワークをスクラッチからトレーニングするのに十分である。
論文 参考訳(メタデータ) (2020-04-07T20:21:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。