論文の概要: Quantification of Occlusion Handling Capability of a 3D Human Pose
Estimation Framework
- arxiv url: http://arxiv.org/abs/2203.04113v1
- Date: Tue, 8 Mar 2022 14:35:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-09 15:21:40.306295
- Title: Quantification of Occlusion Handling Capability of a 3D Human Pose
Estimation Framework
- Title(参考訳): 人間の3次元姿勢推定フレームワークの閉塞処理能力の定量化
- Authors: Mehwish Ghafoor, Arif Mahmood
- Abstract要約: 提案手法は,関節の欠如を入力とした2次元骨格を用いて,より正確な3次元ポーズを推定する。
本実験は, 欠損関節に対する枠組みの有効性を実証するものである。
- 参考スコア(独自算出の注目度): 11.509692423756448
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D human pose estimation using monocular images is an important yet
challenging task. Existing 3D pose detection methods exhibit excellent
performance under normal conditions however their performance may degrade due
to occlusion. Recently some occlusion aware methods have also been proposed,
however, the occlusion handling capability of these networks has not yet been
thoroughly investigated. In the current work, we propose an occlusion-guided 3D
human pose estimation framework and quantify its occlusion handling capability
by using different protocols. The proposed method estimates more accurate 3D
human poses using 2D skeletons with missing joints as input. Missing joints are
handled by introducing occlusion guidance that provides extra information about
the absence or presence of a joint. Temporal information has also been
exploited to better estimate the missing joints. A large number of experiments
are performed for the quantification of occlusion handling capability of the
proposed method on three publicly available datasets in various settings
including random missing joints, fixed body parts missing, and complete frames
missing, using mean per joint position error criterion. In addition to that,
the quality of the predicted 3D poses is also evaluated using action
classification performance as a criterion. 3D poses estimated by the proposed
method achieved significantly improved action recognition performance in the
presence of missing joints. Our experiments demonstrate the effectiveness of
the proposed framework for handling the missing joints as well as
quantification of the occlusion handling capability of the deep neural
networks.
- Abstract(参考訳): 単眼画像を用いた3次元人物ポーズ推定は重要な課題である。
既存の3次元ポーズ検出法は正常条件下では優れた性能を示すが, 咬合により性能が低下する可能性がある。
近年,隠蔽認識手法もいくつか提案されているが,これらのネットワークの隠蔽処理能力は十分には研究されていない。
本研究は,オクルージョン誘導型3次元ポーズ推定フレームワークを提案し,そのオクルージョンハンドリング能力を異なるプロトコルを用いて定量化する。
提案手法は,関節を欠いた2次元骨格を入力として,より正確な3次元ポーズを推定する。
欠損関節は、関節の不在または存在に関する追加情報を提供する咬合指導の導入によって処理される。
時間的情報も、行方不明の関節をより正確に推定するために活用されている。
提案手法のオクルージョンハンドリング能力の定量化のために, ランダムな関節欠失, 固定体部分欠失, 完全フレーム欠失を含む3つの公用データセットに対して, 関節位置誤差平均を用いて多数の実験を行った。
さらに,動作分類性能を基準として,予測された3Dポーズの品質を評価する。
提案手法により推定した3次元ポーズは, 欠損継手の存在下での動作認識性能を著しく向上させた。
提案手法の有効性を実験的に検証し,提案手法の有効性と深部ニューラルネットワークの閉塞処理能力の定量化について検討した。
関連論文リスト
- Occlusion Robust 3D Human Pose Estimation with StridedPoseGraphFormer
and Data Augmentation [69.49430149980789]
提案手法は最先端技術(SoA)と良好に比較できることを示す。
また, 閉塞処理機構が存在しない場合には, SoA 3D HPE法の性能が著しく低下することが明らかとなった。
論文 参考訳(メタデータ) (2023-04-24T13:05:13Z) - Explicit Occlusion Reasoning for Multi-person 3D Human Pose Estimation [33.86986028882488]
咬合は, 咬合者の形状, 外観, 位置の変動が大きいため, 単眼多面体3次元ポーズ推定において大きな脅威となる。
既存のメソッドは、ポーズ先/制約、データ拡張、暗黙の推論でオクルージョンを処理しようとする。
本研究では、ボトムアップ型多人数ポーズ推定を大幅に改善する、このプロセスを明示的にモデル化する手法を開発した。
論文 参考訳(メタデータ) (2022-07-29T22:12:50Z) - Uncertainty-Aware Adaptation for Self-Supervised 3D Human Pose
Estimation [70.32536356351706]
本稿では、2つの出力ヘッドを2つの異なる構成にサブスクライブする共通のディープネットワークバックボーンを構成するMPP-Netを紹介する。
ポーズと関節のレベルで予測の不確実性を定量化するための適切な尺度を導出する。
本稿では,提案手法の総合評価を行い,ベンチマークデータセット上での最先端性能を示す。
論文 参考訳(メタデータ) (2022-03-29T07:14:58Z) - PONet: Robust 3D Human Pose Estimation via Learning Orientations Only [116.1502793612437]
本稿では,学習向きのみを用いて3次元ポーズを頑健に推定できる新しいPose Orientation Net(PONet)を提案する。
PONetは、局所的な画像証拠を利用して、これらの手足の3D方向を推定し、3Dポーズを復元する。
我々は,Human3.6M,MPII,MPI-INF-3DHP,3DPWを含む複数のデータセットについて評価を行った。
論文 参考訳(メタデータ) (2021-12-21T12:48:48Z) - Graph and Temporal Convolutional Networks for 3D Multi-person Pose
Estimation in Monocular Videos [33.974241749058585]
本稿では, グラフ畳み込みネットワーク(GCN)と時間畳み込みネットワーク(TCN)を統合し, カメラ中心のマルチパーソナライズされた3Dポーズを頑健に推定するフレームワークを提案する。
特に,姿勢推定結果を改善するために,2次元ポーズ推定器の信頼度スコアを用いたヒューマンジョイントgcnを提案する。
2つのGCNが連携して空間的なフレーム回りの3Dポーズを推定し、ターゲットフレーム内の可視関節情報と骨情報の両方を使用して、人の一部または欠落した情報を推定します。
論文 参考訳(メタデータ) (2020-12-22T03:01:19Z) - Multi-Scale Networks for 3D Human Pose Estimation with Inference Stage
Optimization [33.02708860641971]
モノクロビデオから3Dのポーズを推定することは、まだまだ難しい課題だ。
既存の多くのメソッドは、対象の人が他のオブジェクトに干渉されたり、トレーニングデータのスケールや速度に対して動きが速すぎたり、遅くなったりすると低下する。
頑健な3次元ポーズ推定のための時間的ネットワークを提案する。
論文 参考訳(メタデータ) (2020-10-13T15:24:28Z) - Multi-person 3D Pose Estimation in Crowded Scenes Based on Multi-View
Geometry [62.29762409558553]
マルチパーソナライズされた3次元ポーズ推定手法における特徴マッチングと深さ推定のコアは、エピポーラ制約である。
スパサーの群衆シーンにおけるこの定式化の良好なパフォーマンスにもかかわらず、その効果はより密集した群衆の状況下でしばしば挑戦される。
本稿では,マルチパーソン3次元ポーズ推定式から脱却し,群衆ポーズ推定として再編成する。
論文 参考訳(メタデータ) (2020-07-21T17:59:36Z) - Kinematic-Structure-Preserved Representation for Unsupervised 3D Human
Pose Estimation [58.72192168935338]
大規模インスタディオデータセットの監視を用いて開発された人間のポーズ推定モデルの一般化可能性については疑問が残る。
本稿では,2対あるいは2対の弱い監督者によって抑制されない,新しいキネマティック構造保存型非教師付き3次元ポーズ推定フレームワークを提案する。
提案モデルでは,前方運動学,カメラ投影,空間マップ変換という3つの連続的な微分可能変換を用いる。
論文 参考訳(メタデータ) (2020-06-24T23:56:33Z) - Self-Supervised 3D Human Pose Estimation via Part Guided Novel Image
Synthesis [72.34794624243281]
ラベルのないビデオフレームからバリエーションを分離する自己教師付き学習フレームワークを提案する。
3Dポーズと空間部分マップの表現ギャップを埋める、微分可能な形式化により、多様なカメラの動きを持つビデオで操作できる。
論文 参考訳(メタデータ) (2020-04-09T07:55:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。