論文の概要: Heuristic Weakly Supervised 3D Human Pose Estimation in Novel Contexts
without Any 3D Pose Ground Truth
- arxiv url: http://arxiv.org/abs/2105.10996v1
- Date: Sun, 23 May 2021 18:40:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-25 15:13:12.595579
- Title: Heuristic Weakly Supervised 3D Human Pose Estimation in Novel Contexts
without Any 3D Pose Ground Truth
- Title(参考訳): ヒューリスティックな弱教師付き3次元人間のポーズ推定 : 3次元ポーズ基底真理を伴わない新しい文脈
- Authors: Shuangjun Liu, Xiaofei Huang, Nihang Fu, and Sarah Ostadabbas
- Abstract要約: HW-HuPは、3Dデータにアクセスできない状況下で3Dのポーズを推定する弱い教師付きソリューションである。
本研究では,HW-HuPの性能を人体と幼児の両ポーズのデータセット上で評価する。
- 参考スコア(独自算出の注目度): 13.459047041590729
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Monocular 3D human pose estimation from a single RGB image has received a lot
attentions in the past few year. Pose inference models with competitive
performance however require supervision with 3D pose ground truth data or at
least known pose priors in their target domain. Yet, these data requirements in
many real-world applications with data collection constraints may not be
achievable. In this paper, we present a heuristic weakly supervised solution,
called HW-HuP to estimate 3D human pose in contexts that no ground truth 3D
data is accessible, even for fine-tuning. HW-HuP learns partial pose priors
from public 3D human pose datasets and uses easy-to-access observations from
the target domain to iteratively estimate 3D human pose and shape in an
optimization and regression hybrid cycle. In our design, depth data as an
auxiliary information is employed as weak supervision during training, yet it
is not needed for the inference. We evaluate HW-HuP performance qualitatively
on datasets of both in-bed human and infant poses, where no ground truth 3D
pose is provided neither any target prior. We also test HW-HuP performance
quantitatively on a publicly available motion capture dataset against the 3D
ground truth. HW-HuP is also able to be extended to other input modalities for
pose estimation tasks especially under adverse vision conditions, such as
occlusion or full darkness. On the Human3.6M benchmark, HW-HuP shows 104.1mm in
MPJPE and 50.4mm in PA MPJPE, comparable to the existing state-of-the-art
approaches that benefit from full 3D pose supervision.
- Abstract(参考訳): 単一のRGB画像からの単眼的な3Dポーズ推定は、ここ数年で多くの注目を集めている。
しかし、競合性能を持つポーズ推論モデルは、3Dポーズの真理データや、ターゲットドメインにおける少なくとも既知のポーズ前のデータを監督する必要がある。
しかし、データ収集制約のある多くの実世界のアプリケーションにおけるこれらのデータ要求は達成できないかもしれない。
本稿では,基礎的真理の3dデータにアクセスできない状況において,微調整であっても3dのポーズを推定するためのhw-hupと呼ばれるヒューリスティックな弱教師付き解を提案する。
HW-HuPは、パブリックな3Dヒューマンポーズデータセットから部分的なポーズ先行を学習し、ターゲットドメインから容易にアクセス可能な観察を使用して、3Dヒューマンポーズと形状を最適化および回帰ハイブリッドサイクルで反復的に推定する。
本設計では, 補助情報としての深度データは, トレーニング中に弱い監督力として利用されるが, 推論には必要ではない。
我々は,HW-HuPの性能を,被写体と幼児の両ポーズのデータセットで定性的に評価した。
また,HW-HuPの性能を3次元地上真実に対して公開可能なモーションキャプチャーデータセット上で定量的に検証した。
HW-HuPは、特に閉塞や全暗視といった悪視条件下でのポーズ推定タスクのために、他の入力モードにも拡張することができる。
Human3.6Mベンチマークでは、HW-HuPは、MPJPEが104.1mm、PA MPJPEが50.4mmである。
関連論文リスト
- GLA-GCN: Global-local Adaptive Graph Convolutional Network for 3D Human
Pose Estimation from Monocular Video [33.801470193414325]
この研究は、地上の真実データを通して3Dのポーズリフトを改善することに焦点を当てている。
本研究では,グローバルローカル適応グラフ畳み込みネットワーク(GLA-GCN)を提案する。
GLA-GCNは, 基礎的真理2Dで実装され, 最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2023-07-12T00:13:04Z) - MPM: A Unified 2D-3D Human Pose Representation via Masked Pose Modeling [59.74064212110042]
mpmcanは、3D人間のポーズ推定、クラッドされた2Dポーズからの3Dポーズ推定、3Dポーズ完了をtextocbsingleフレームワークで処理する。
MPI-INF-3DHPにおいて、広く使われているポーズデータセットの広範な実験とアブレーション研究を行い、最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-06-29T10:30:00Z) - Decanus to Legatus: Synthetic training for 2D-3D human pose lifting [26.108023246654646]
10個の手作り3Dポーズ(Decanus)に基づく3Dポーズ分布から無限個の合成人間のポーズ(Legatus)を生成するアルゴリズムを提案する。
この結果から,特定データセットの実際のデータを用いた手法に匹敵する3次元ポーズ推定性能を,ゼロショット設定で実現し,フレームワークの可能性を示した。
論文 参考訳(メタデータ) (2022-10-05T13:10:19Z) - PoseGU: 3D Human Pose Estimation with Novel Human Pose Generator and
Unbiased Learning [36.609189237732394]
3Dポーズ推定は近年,コンピュータビジョン領域において大きな関心を集めている。
既存の3Dポーズ推定手法は,大規模な3Dポーズデータセットに強く依存している。
本稿では,種子サンプルの小さなサイズにのみアクセス可能な多彩なポーズを生成する新規な人造ポーズ生成装置PoseGUを提案する。
論文 参考訳(メタデータ) (2022-07-07T23:43:53Z) - PONet: Robust 3D Human Pose Estimation via Learning Orientations Only [116.1502793612437]
本稿では,学習向きのみを用いて3次元ポーズを頑健に推定できる新しいPose Orientation Net(PONet)を提案する。
PONetは、局所的な画像証拠を利用して、これらの手足の3D方向を推定し、3Dポーズを復元する。
我々は,Human3.6M,MPII,MPI-INF-3DHP,3DPWを含む複数のデータセットについて評価を行った。
論文 参考訳(メタデータ) (2021-12-21T12:48:48Z) - ElePose: Unsupervised 3D Human Pose Estimation by Predicting Camera
Elevation and Learning Normalizing Flows on 2D Poses [23.554957518485324]
本研究では、1つの画像から3次元人間のポーズを予測することを学ぶ教師なしのアプローチを提案する。
ランダムなプロジェクションに最も近い3次元ポーズを推定し、2次元ポーズの正規化フローを用いて推定する。
我々は,Human3.6M と MPI-INF-3DHP のベンチマークデータセット上で,最先端の教師なしポーズ推定手法を多くの指標で上回っている。
論文 参考訳(メタデータ) (2021-12-14T01:12:45Z) - Adapted Human Pose: Monocular 3D Human Pose Estimation with Zero Real 3D
Pose Data [14.719976311208502]
トレーニングとテストデータドメインのギャップは、しばしばモデルのパフォーマンスに悪影響を及ぼします。
本稿では、外見とポーズ空間の両方における適応問題に対処する適応的ヒューマンポーズ(AHuP)アプローチを提案する。
AHuPは、実際のアプリケーションでは、ターゲットドメインからのデータはアクセスできないか、限られた情報しか取得できないという現実的な前提に基づいて構築されている。
論文 参考訳(メタデータ) (2021-05-23T01:20:40Z) - Cascaded deep monocular 3D human pose estimation with evolutionary
training data [76.3478675752847]
深層表現学習は単眼の3次元ポーズ推定において顕著な精度を達成した。
本稿では,大量のトレーニングデータに対してスケーラブルな新しいデータ拡張手法を提案する。
本手法は,先行知識に触発された階層的人体表現と合成に基づいて,未知の3次元人体骨格を合成する。
論文 参考訳(メタデータ) (2020-06-14T03:09:52Z) - Towards Generalization of 3D Human Pose Estimation In The Wild [73.19542580408971]
3DBodyTex.Poseは、3Dの人間のポーズ推定のタスクに対処するデータセットである。
3DBodyTex.Poseは、さまざまな衣服やポーズで405種類の実際の被写体を含む高品質でリッチなデータを提供する。
論文 参考訳(メタデータ) (2020-04-21T13:31:58Z) - Self-Supervised 3D Human Pose Estimation via Part Guided Novel Image
Synthesis [72.34794624243281]
ラベルのないビデオフレームからバリエーションを分離する自己教師付き学習フレームワークを提案する。
3Dポーズと空間部分マップの表現ギャップを埋める、微分可能な形式化により、多様なカメラの動きを持つビデオで操作できる。
論文 参考訳(メタデータ) (2020-04-09T07:55:01Z) - Exemplar Fine-Tuning for 3D Human Model Fitting Towards In-the-Wild 3D
Human Pose Estimation [107.07047303858664]
3次元の地平線アノテーションを持つ大規模な人的データセットは、野生では入手が困難である。
既存の2Dデータセットを高品質な3Dポーズマッチングで拡張することで、この問題に対処する。
結果として得られるアノテーションは、3Dのプロシージャネットワークをスクラッチからトレーニングするのに十分である。
論文 参考訳(メタデータ) (2020-04-07T20:21:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。