論文の概要: Global Adaptation meets Local Generalization: Unsupervised Domain
Adaptation for 3D Human Pose Estimation
- arxiv url: http://arxiv.org/abs/2303.16456v2
- Date: Thu, 17 Aug 2023 06:55:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-22 00:27:34.059634
- Title: Global Adaptation meets Local Generalization: Unsupervised Domain
Adaptation for 3D Human Pose Estimation
- Title(参考訳): 局所的一般化を満たしたグローバル適応:3次元ポーズ推定のための教師なし領域適応
- Authors: Wenhao Chai, Zhongyu Jiang, Jenq-Neng Hwang, and Gaoang Wang
- Abstract要約: textitPoseDAは、MPI-INF-3DHP上で61.3mmのMPJPEを達成する。
- 参考スコア(独自算出の注目度): 31.178656420040692
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When applying a pre-trained 2D-to-3D human pose lifting model to a target
unseen dataset, large performance degradation is commonly encountered due to
domain shift issues. We observe that the degradation is caused by two factors:
1) the large distribution gap over global positions of poses between the source
and target datasets due to variant camera parameters and settings, and 2) the
deficient diversity of local structures of poses in training. To this end, we
combine \textbf{global adaptation} and \textbf{local generalization} in
\textit{PoseDA}, a simple yet effective framework of unsupervised domain
adaptation for 3D human pose estimation. Specifically, global adaptation aims
to align global positions of poses from the source domain to the target domain
with a proposed global position alignment (GPA) module. And local
generalization is designed to enhance the diversity of 2D-3D pose mapping with
a local pose augmentation (LPA) module. These modules bring significant
performance improvement without introducing additional learnable parameters. In
addition, we propose local pose augmentation (LPA) to enhance the diversity of
3D poses following an adversarial training scheme consisting of 1) a
augmentation generator that generates the parameters of pre-defined pose
transformations and 2) an anchor discriminator to ensure the reality and
quality of the augmented data. Our approach can be applicable to almost all
2D-3D lifting models. \textit{PoseDA} achieves 61.3 mm of MPJPE on MPI-INF-3DHP
under a cross-dataset evaluation setup, improving upon the previous
state-of-the-art method by 10.2\%.
- Abstract(参考訳): トレーニング済みの2D-to-3D人間のポーズリフトモデルを対象の未確認データセットに適用する場合、ドメインシフトの問題により大きなパフォーマンス劣化が発生する。
劣化は2つの要因によって引き起こされるのが観察される。
1) 異なるカメラパラメータや設定によるソースとターゲットデータセットのポーズのグローバルな位置に対する大きな分布ギャップ
2)訓練におけるポーズの局所構造の多様性の欠如。
この目的のために,3次元ポーズ推定のための教師なしドメイン適応の簡易かつ効果的なフレームワークであるtextit{PoseDA} に \textbf{global adaptation} と \textbf{local generalization} を組み合わせる。
具体的には、グローバル適応は、ソースドメインからターゲットドメインへのポーズのグローバル位置を、提案されたグローバル位置アライメント(GPA)モジュールで整列することを目的としている。
局所的な一般化は2D-3Dポーズマッピングの多様性を高めるために設計されている。
これらのモジュールは、追加の学習可能なパラメータを導入することなく、大幅なパフォーマンス改善をもたらす。
また,本研究では,3dポーズの多様性を高めるための局所的ポーズ増強(lpa)を提案する。
1)事前定義されたポーズ変換のパラメータを生成する拡張生成器
2)拡張データの現実性と品質を確保するためのアンカー識別装置。
我々のアプローチは、ほぼ全ての2D-3Dリフトモデルに適用できる。
\textit{PoseDA}は、MPI-INF-3DHP上で61.3mmのMPJPEをクロスデータセット評価設定で達成し、従来の最先端手法を10.2\%改善した。
関連論文リスト
- Boosting Cross-Domain Point Classification via Distilling Relational Priors from 2D Transformers [59.0181939916084]
従来の3Dネットワークは主に局所幾何学的詳細に焦点を当て、局所幾何学間の位相構造を無視する。
そこで本稿では,大規模画像上においてよく訓練されたトランスフォーマーから前駆体を抽出する,新しい先駆体蒸留法を提案する。
PointDA-10とSim-to-Realデータセットの実験は、提案手法が点クラウド分類におけるUDAの最先端性能を一貫して達成していることを検証する。
論文 参考訳(メタデータ) (2024-07-26T06:29:09Z) - UPose3D: Uncertainty-Aware 3D Human Pose Estimation with Cross-View and Temporal Cues [55.69339788566899]
UPose3Dは多視点人間のポーズ推定のための新しいアプローチである。
直接的な3Dアノテーションを必要とせずに、堅牢性と柔軟性を向上させる。
論文 参考訳(メタデータ) (2024-04-23T00:18:00Z) - A Dual-Augmentor Framework for Domain Generalization in 3D Human Pose Estimation [11.525573321175925]
制御された実験室で収集された3D人間のポーズデータは、様々なシナリオにまたがって一般化されたポーズ推定装置の課題を示す。
本稿では,2つのポーズオーグメンタ,すなわち弱いポーズオーグメンタと強いオーグメンタを特徴とする新しいフレームワークを提案する。
提案手法は,様々なベンチマークデータセットの総合的な実験により,既存の手法よりも優れていた。
論文 参考訳(メタデータ) (2024-03-17T19:10:07Z) - Source-Free and Image-Only Unsupervised Domain Adaptation for Category
Level Object Pose Estimation [18.011044932979143]
3DUDAは、3Dや深度データを使わずに、ニュアンスドライデンのターゲットドメインに適応できる手法である。
対象のカテゴリを単純な立方体メッシュとして表現し、ニューラル特徴活性化の生成モデルを利用する。
本手法は,グローバルな擬似ラベル付きデータセットの微調整を軽度な仮定でシミュレートする。
論文 参考訳(メタデータ) (2024-01-19T17:48:05Z) - Double-chain Constraints for 3D Human Pose Estimation in Images and
Videos [21.42410292863492]
深度情報を欠く2次元のポーズから3Dのポーズを再構築することは、人間の動きの複雑さと多様性のために困難である。
ポーズを制約する新しいモデルであるDouble-chain Graph Convolutional Transformer (DC-GCT)を提案する。
本稿では,DC-GCTが2つの挑戦的データセットに対して最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2023-08-10T02:41:18Z) - Non-Local Latent Relation Distillation for Self-Adaptive 3D Human Pose
Estimation [63.199549837604444]
3次元ポーズ推定アプローチは、強い(2D/3Dポーズ)または弱い(複数ビューまたは深さ)ペアによる監督の異なる形態を利用する。
我々は3Dポーズ学習を,ラベル付きソースドメインから完全に損なわれないターゲットへのタスク知識の転送を目的とした,自己指導型適応問題として捉えた。
我々は、異なる自己適応設定を評価し、標準ベンチマークで最先端の3Dポーズ推定性能を示す。
論文 参考訳(メタデータ) (2022-04-05T03:52:57Z) - Aligning Silhouette Topology for Self-Adaptive 3D Human Pose Recovery [70.66865453410958]
アーティキュレーション中心の2D/3Dポーズ監視は、既存の多くの人間のポーズ推定技術においてコアトレーニング目標を形成する。
本稿では,ソース学習モデルベース回帰器を適応させるために,シルエット監視のみに依存する新しいフレームワークを提案する。
我々は、トポロジカル・スケルトン表現を生シルエットから切り離すために、一連の畳み込みに優しい空間変換を開発する。
論文 参考訳(メタデータ) (2022-04-04T06:58:15Z) - Uncertainty-Aware Adaptation for Self-Supervised 3D Human Pose
Estimation [70.32536356351706]
本稿では、2つの出力ヘッドを2つの異なる構成にサブスクライブする共通のディープネットワークバックボーンを構成するMPP-Netを紹介する。
ポーズと関節のレベルで予測の不確実性を定量化するための適切な尺度を導出する。
本稿では,提案手法の総合評価を行い,ベンチマークデータセット上での最先端性能を示す。
論文 参考訳(メタデータ) (2022-03-29T07:14:58Z) - PoseAug: A Differentiable Pose Augmentation Framework for 3D Human Pose
Estimation [83.50127973254538]
既存の3D人間のポーズ推定器は、新しいデータセットへの一般化性能が悪い。
PoseAugは、より多くの多様性に向けて利用可能なトレーニングのポーズを強化することを学ぶ新しい自動増強フレームワークです。
論文 参考訳(メタデータ) (2021-05-06T06:57:42Z) - PoP-Net: Pose over Parts Network for Multi-Person 3D Pose Estimation
from a Depth Image [23.4306183645569]
PoP-Netは、ボトムアップ部分検出マップとトップダウングローバルポーズを単発フレームワークで予測することを学ぶ。
Truncated Part Displacement Field (TPDF)と呼ばれる新しい部分レベルの表現が導入される。
グローバルポーズと局所検出の競合を自動的に解消するモード選択スキームを開発した。
論文 参考訳(メタデータ) (2020-12-12T05:32:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。