論文の概要: Unsupervised Cross-Domain 3D Human Pose Estimation via Pseudo-Label-Guided Global Transforms
- arxiv url: http://arxiv.org/abs/2504.12699v1
- Date: Thu, 17 Apr 2025 06:57:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-18 14:36:55.933701
- Title: Unsupervised Cross-Domain 3D Human Pose Estimation via Pseudo-Label-Guided Global Transforms
- Title(参考訳): Pseudo-Label-Guided Global Transforms を用いた教師なしクロスドメイン3次元人物位置推定
- Authors: Jingjing Liu, Zhiyong Wang, Xinyu Fan, Amirhossein Dadashzadeh, Honghai Liu, Majid Mirmehdi,
- Abstract要約: ポーズ位置間のグローバルな変換を行う新しいフレームワークを提案する。
Pose Augmentorは、人間の姿勢と体の大きさの変化に対処するために組み込まれている。
提案手法は最先端の手法より優れ、目標学習モデルよりも優れる。
- 参考スコア(独自算出の注目度): 17.801307669723634
- License:
- Abstract: Existing 3D human pose estimation methods often suffer in performance, when applied to cross-scenario inference, due to domain shifts in characteristics such as camera viewpoint, position, posture, and body size. Among these factors, camera viewpoints and locations {have been shown} to contribute significantly to the domain gap by influencing the global positions of human poses. To address this, we propose a novel framework that explicitly conducts global transformations between pose positions in the camera coordinate systems of source and target domains. We start with a Pseudo-Label Generation Module that is applied to the 2D poses of the target dataset to generate pseudo-3D poses. Then, a Global Transformation Module leverages a human-centered coordinate system as a novel bridging mechanism to seamlessly align the positional orientations of poses across disparate domains, ensuring consistent spatial referencing. To further enhance generalization, a Pose Augmentor is incorporated to address variations in human posture and body size. This process is iterative, allowing refined pseudo-labels to progressively improve guidance for domain adaptation. Our method is evaluated on various cross-dataset benchmarks, including Human3.6M, MPI-INF-3DHP, and 3DPW. The proposed method outperforms state-of-the-art approaches and even outperforms the target-trained model.
- Abstract(参考訳): 既存の3次元ポーズ推定手法は、カメラ視点、位置、姿勢、体の大きさなどの特性のドメインシフトにより、クロスシナリオ推論に適用される場合、しばしばパフォーマンスに苦しむ。
これらの要因のうち、カメラの視点と位置は、人間のポーズのグローバルな位置に影響を与えることによって、ドメインギャップに大きく寄与する。
そこで本研究では,ソースドメインとターゲットドメインのカメラ座標系におけるポーズ位置のグローバルな変換を明示的に行う新しいフレームワークを提案する。
まず、ターゲットデータセットの2Dポーズに適用される擬似3Dポーズを生成する擬似ラベル生成モジュールから始める。
次に、グローバルトランスフォーメーションモジュールは、人間中心の座標系を新しいブリッジ機構として利用し、異なる領域間でポーズの位置方向をシームレスに調整し、一貫した空間参照を保証する。
Pose Augmentorは、人間の姿勢や体の大きさの変化に対処するために組み込まれている。
このプロセスは反復的であり、洗練された擬似ラベルにより、ドメイン適応のためのガイダンスを徐々に改善することができる。
提案手法はHuman3.6M, MPI-INF-3DHP, 3DPW など多種多様なデータ集合ベンチマークを用いて評価する。
提案手法は最先端の手法より優れ、目標学習モデルよりも優れる。
関連論文リスト
- Toward Efficient Generalization in 3D Human Pose Estimation via a Canonical Domain Approach [0.0]
ソースとターゲットドメイン間のドメインギャップに起因するパフォーマンス劣化は、一般化の大きな課題である。
我々は、ソースドメインとターゲットドメインの両方を統一されたカノニカルドメインにマッピングする、新しいカノニカルドメインアプローチを提案する。
提案手法は,同じデータボリュームを使用しながら,データセット間の一般化能力を大幅に向上する。
論文 参考訳(メタデータ) (2025-01-27T15:39:39Z) - Exploiting Aggregation and Segregation of Representations for Domain Adaptive Human Pose Estimation [50.31351006532924]
人間のポーズ推定(HPE)は最近、モーション分析、バーチャルリアリティー、ヘルスケア等に広く応用されているため、注目を集めている。
時間と労働集約的なアノテーションのために、ラベル付き現実世界のデータセットが不足している。
本稿では,ドメイン適応型人間のポーズ推定のための表現集約と分離を両立させる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-29T17:59:45Z) - UPose3D: Uncertainty-Aware 3D Human Pose Estimation with Cross-View and Temporal Cues [55.69339788566899]
UPose3Dは多視点人間のポーズ推定のための新しいアプローチである。
直接的な3Dアノテーションを必要とせずに、堅牢性と柔軟性を向上させる。
論文 参考訳(メタデータ) (2024-04-23T00:18:00Z) - Source-Free and Image-Only Unsupervised Domain Adaptation for Category
Level Object Pose Estimation [18.011044932979143]
3DUDAは、3Dや深度データを使わずに、ニュアンスドライデンのターゲットドメインに適応できる手法である。
対象のカテゴリを単純な立方体メッシュとして表現し、ニューラル特徴活性化の生成モデルを利用する。
本手法は,グローバルな擬似ラベル付きデータセットの微調整を軽度な仮定でシミュレートする。
論文 参考訳(メタデータ) (2024-01-19T17:48:05Z) - Global Adaptation meets Local Generalization: Unsupervised Domain
Adaptation for 3D Human Pose Estimation [31.178656420040692]
textitPoseDAは、MPI-INF-3DHP上で61.3mmのMPJPEを達成する。
論文 参考訳(メタデータ) (2023-03-29T04:54:42Z) - Non-Local Latent Relation Distillation for Self-Adaptive 3D Human Pose
Estimation [63.199549837604444]
3次元ポーズ推定アプローチは、強い(2D/3Dポーズ)または弱い(複数ビューまたは深さ)ペアによる監督の異なる形態を利用する。
我々は3Dポーズ学習を,ラベル付きソースドメインから完全に損なわれないターゲットへのタスク知識の転送を目的とした,自己指導型適応問題として捉えた。
我々は、異なる自己適応設定を評価し、標準ベンチマークで最先端の3Dポーズ推定性能を示す。
論文 参考訳(メタデータ) (2022-04-05T03:52:57Z) - Aligning Silhouette Topology for Self-Adaptive 3D Human Pose Recovery [70.66865453410958]
アーティキュレーション中心の2D/3Dポーズ監視は、既存の多くの人間のポーズ推定技術においてコアトレーニング目標を形成する。
本稿では,ソース学習モデルベース回帰器を適応させるために,シルエット監視のみに依存する新しいフレームワークを提案する。
我々は、トポロジカル・スケルトン表現を生シルエットから切り離すために、一連の畳み込みに優しい空間変換を開発する。
論文 参考訳(メタデータ) (2022-04-04T06:58:15Z) - CrossFormer: Cross Spatio-Temporal Transformer for 3D Human Pose
Estimation [24.08170512746056]
3次元人間のポーズ推定は、身体部分間の幾何学的依存関係を符号化し、運動的制約を強制することによって行うことができる。
最近のTransformerは、空間領域と時間領域における関節間の長距離依存関係を符号化するために採用されている。
フレーム間の微妙な変化を捉えるのに重要な身体関節の豊かな表現を特徴とする新しいポーズ推定変換器を提案する。
論文 参考訳(メタデータ) (2022-03-24T23:40:11Z) - Camera Motion Agnostic 3D Human Pose Estimation [8.090223360924004]
本稿では,世界座標系で定義された3次元人間のポーズとメッシュを予測するためのカメラモーション非依存アプローチを提案する。
本稿では,局所的なポーズ列から大域的な動き列を予測する双方向ゲート再帰単位(GRU)に基づくネットワークを提案する。
移動カメラ環境において構築された3DPWと合成データセットを用いて評価を行う。
論文 参考訳(メタデータ) (2021-12-01T08:22:50Z) - THUNDR: Transformer-based 3D HUmaN Reconstruction with Markers [67.8628917474705]
THUNDRは、人の3Dポーズと形状を再構築するトランスフォーマーベースのディープニューラルネットワーク手法である。
完全教師付きモデルと自己教師型モデルの両方に対して,Human3.6Mと3DPWの最先端結果を示す。
野生で収集された難易度の高い人間のポーズに対して, 非常に堅固な3次元再構成性能を観察した。
論文 参考訳(メタデータ) (2021-06-17T09:09:24Z) - 3D Human Pose Estimation with Spatial and Temporal Transformers [59.433208652418976]
PoseFormerは、3D人間のポーズ推定のための純粋にトランスフォーマーベースのアプローチです。
近年の視覚変換器の発展に触発されて,空間時間変換器構造を設計する。
提案手法を2つの人気ベンチマークと標準ベンチマークで定量的に定性的に評価する。
論文 参考訳(メタデータ) (2021-03-18T18:14:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。