論文の概要: PoseAug: A Differentiable Pose Augmentation Framework for 3D Human Pose
Estimation
- arxiv url: http://arxiv.org/abs/2105.02465v1
- Date: Thu, 6 May 2021 06:57:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-07 13:24:51.683553
- Title: PoseAug: A Differentiable Pose Augmentation Framework for 3D Human Pose
Estimation
- Title(参考訳): PoseAug: 人間の3次元視点推定のための微分可能なPose Augmentationフレームワーク
- Authors: Kehong Gong, Jianfeng Zhang, Jiashi Feng
- Abstract要約: 既存の3D人間のポーズ推定器は、新しいデータセットへの一般化性能が悪い。
PoseAugは、より多くの多様性に向けて利用可能なトレーニングのポーズを強化することを学ぶ新しい自動増強フレームワークです。
- 参考スコア(独自算出の注目度): 83.50127973254538
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing 3D human pose estimators suffer poor generalization performance to
new datasets, largely due to the limited diversity of 2D-3D pose pairs in the
training data. To address this problem, we present PoseAug, a new
auto-augmentation framework that learns to augment the available training poses
towards a greater diversity and thus improve generalization of the trained
2D-to-3D pose estimator. Specifically, PoseAug introduces a novel pose
augmentor that learns to adjust various geometry factors (e.g., posture, body
size, view point and position) of a pose through differentiable operations.
With such differentiable capacity, the augmentor can be jointly optimized with
the 3D pose estimator and take the estimation error as feedback to generate
more diverse and harder poses in an online manner. Moreover, PoseAug introduces
a novel part-aware Kinematic Chain Space for evaluating local joint-angle
plausibility and develops a discriminative module accordingly to ensure the
plausibility of the augmented poses. These elaborate designs enable PoseAug to
generate more diverse yet plausible poses than existing offline augmentation
methods, and thus yield better generalization of the pose estimator. PoseAug is
generic and easy to be applied to various 3D pose estimators. Extensive
experiments demonstrate that PoseAug brings clear improvements on both
intra-scenario and cross-scenario datasets. Notably, it achieves 88.6% 3D PCK
on MPI-INF-3DHP under cross-dataset evaluation setup, improving upon the
previous best data augmentation based method by 9.1%. Code can be found at:
https://github.com/jfzhang95/PoseAug.
- Abstract(参考訳): 既存の3Dポーズ推定器は、トレーニングデータに2D-3Dポーズペアが限られているため、新しいデータセットに対する一般化性能が低い。
この問題に対処するため,我々は,利用可能なトレーニングステップをより多様なものに拡張し,トレーニング済みの2d-to-3dポーズ推定器の一般化を改善することを学ぶための,新たな自動学習フレームワークであるponsaugを提案する。
特に、PoseAugは、ポーズの様々な幾何学的要素(例えば、姿勢、体の大きさ、視点、位置)を異なる操作で調整することを学ぶ、新しいポーズ拡張器を導入している。
このような異なる容量で、3Dポーズ推定器と共同で最適化し、推定誤差をフィードバックとして、より多様で難しいポーズをオンライン的に生成することができる。
さらに、ポセイグは、局所的な関節角視認性を評価するために、新たな部分認識キネマティックチェーン空間を導入し、拡張ポーズの可視性を確保するために識別モジュールを開発する。
これらの精巧な設計により、PoseAug は既存のオフライン拡張法よりも多様だがもっともらしいポーズを生成し、ポーズ推定器をより一般化することができる。
PoseAugは汎用的で、様々な3Dポーズ推定器に適用しやすい。
広範な実験により、posaugがscenarioデータセットとcross-scenarioデータセットの両方に明確な改善をもたらすことが示されている。
特に、mpi-inf-3dhpで88.6%の3d pckをクロスデータセット評価で達成し、以前の最良のデータ拡張ベース手法を9.1%改善した。
コードは、https://github.com/jfzhang95/PoseAug.orgで参照できる。
関連論文リスト
- UPose3D: Uncertainty-Aware 3D Human Pose Estimation with Cross-View and Temporal Cues [55.69339788566899]
UPose3Dは多視点人間のポーズ推定のための新しいアプローチである。
直接的な3Dアノテーションを必要とせずに、堅牢性と柔軟性を向上させる。
論文 参考訳(メタデータ) (2024-04-23T00:18:00Z) - Two Views Are Better than One: Monocular 3D Pose Estimation with
Multiview Consistency [0.6437284704257459]
本稿では,2次元の教師のみによるトレーニングデータの追加を可能にするために,新たな損失関数であるマルチビュー整合性を提案する。
実験の結果,2つの視点を90度にオフセットすれば良好な性能が得られることがわかった。
本研究は3次元ポーズ推定におけるドメイン適応の新たな可能性を導入し,特定のアプリケーション向けにモデルをカスタマイズするための実用的で費用対効果の高いソリューションを提供する。
論文 参考訳(メタデータ) (2023-11-21T08:21:55Z) - CameraPose: Weakly-Supervised Monocular 3D Human Pose Estimation by
Leveraging In-the-wild 2D Annotations [25.05308239278207]
一つの画像から3次元のポーズ推定を行うための弱教師付きフレームワークであるCameraPoseを提案する。
カメラパラメータブランチを追加することで、Wildの2Dアノテーションをパイプラインに投入して、トレーニングの多様性を高めることができます。
また、2次元ポーズ推定器によって抽出されたノイズの多い2Dキーポイントの品質をさらに向上させるため、信頼誘導損失を有する改良型ネットワークモジュールも導入する。
論文 参考訳(メタデータ) (2023-01-08T05:07:41Z) - PoseGU: 3D Human Pose Estimation with Novel Human Pose Generator and
Unbiased Learning [36.609189237732394]
3Dポーズ推定は近年,コンピュータビジョン領域において大きな関心を集めている。
既存の3Dポーズ推定手法は,大規模な3Dポーズデータセットに強く依存している。
本稿では,種子サンプルの小さなサイズにのみアクセス可能な多彩なポーズを生成する新規な人造ポーズ生成装置PoseGUを提案する。
論文 参考訳(メタデータ) (2022-07-07T23:43:53Z) - Coupled Iterative Refinement for 6D Multi-Object Pose Estimation [64.7198752089041]
既知の3DオブジェクトのセットとRGBまたはRGB-Dの入力画像から、各オブジェクトの6Dポーズを検出して推定する。
我々のアプローチは、ポーズと対応を緊密に結合した方法で反復的に洗練し、アウトレーヤを動的に除去して精度を向上させる。
論文 参考訳(メタデータ) (2022-04-26T18:00:08Z) - PoseTriplet: Co-evolving 3D Human Pose Estimation, Imitation, and
Hallucination under Self-supervision [102.48681650013698]
既存の自己監督型3次元ポーズ推定スキームは、学習を導くための弱い監督に大きく依存している。
そこで我々は,2D-3Dのポーズペアを明示的に生成し,監督を増強する,新しい自己監督手法を提案する。
これは、ポーズ推定器とポーズ幻覚器を併用して学習する強化学習ベースの模倣器を導入することで可能となる。
論文 参考訳(メタデータ) (2022-03-29T14:45:53Z) - AdaptPose: Cross-Dataset Adaptation for 3D Human Pose Estimation by
Learnable Motion Generation [24.009674750548303]
トレーニング済みの3Dポーズ推定器を新しいデータセットでテストすると、大きなパフォーマンス低下が発生する。
本稿では、ソースデータセットから合成された3次元人間の動きを生成するエンドツーエンドフレームワークであるAdaptPoseを提案する。
提案手法は, 部分的な3Dアノテーションを用いた半教師あり学習法を16%, クロスデータセット評価において14%, 従来の半教師あり学習法よりも16%優れていた。
論文 参考訳(メタデータ) (2021-12-22T00:27:52Z) - MetaPose: Fast 3D Pose from Multiple Views without 3D Supervision [72.5863451123577]
正確な3Dポーズとカメラ推定が可能なニューラルモデルをトレーニングする方法を示す。
本手法は,古典的バンドル調整と弱教師付き単分子3Dベースラインの両方に優れる。
論文 参考訳(メタデータ) (2021-08-10T18:39:56Z) - Self-Supervised 3D Human Pose Estimation via Part Guided Novel Image
Synthesis [72.34794624243281]
ラベルのないビデオフレームからバリエーションを分離する自己教師付き学習フレームワークを提案する。
3Dポーズと空間部分マップの表現ギャップを埋める、微分可能な形式化により、多様なカメラの動きを持つビデオで操作できる。
論文 参考訳(メタデータ) (2020-04-09T07:55:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。