論文の概要: POISE: Pose Guided Human Silhouette Extraction under Occlusions
- arxiv url: http://arxiv.org/abs/2311.05077v1
- Date: Thu, 9 Nov 2023 00:17:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-10 16:33:14.687349
- Title: POISE: Pose Guided Human Silhouette Extraction under Occlusions
- Title(参考訳): POISE:隠蔽下でのヒトシルエット抽出法
- Authors: Arindam Dutta, Rohit Lal, Dripta S. Raychaudhuri, Calvin Khang Ta,
Amit K. Roy-Chowdhury
- Abstract要約: POISE: Pose Guided Human Silhouette extract under Occlusions。
POISEはセグメンテーションモデルからの最初のシルエット推定と2次元ポーズ推定モデルからの人間の関節予測を組み合わせる。
POISEの自己管理的な性質は、コストのかかるアノテーションの必要性を排除し、スケーラブルで実用的なものになります。
- 参考スコア(独自算出の注目度): 24.50953879583841
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Human silhouette extraction is a fundamental task in computer vision with
applications in various downstream tasks. However, occlusions pose a
significant challenge, leading to incomplete and distorted silhouettes. To
address this challenge, we introduce POISE: Pose Guided Human Silhouette
Extraction under Occlusions, a novel self-supervised fusion framework that
enhances accuracy and robustness in human silhouette prediction. By combining
initial silhouette estimates from a segmentation model with human joint
predictions from a 2D pose estimation model, POISE leverages the complementary
strengths of both approaches, effectively integrating precise body shape
information and spatial information to tackle occlusions. Furthermore, the
self-supervised nature of \POISE eliminates the need for costly annotations,
making it scalable and practical. Extensive experimental results demonstrate
its superiority in improving silhouette extraction under occlusions, with
promising results in downstream tasks such as gait recognition. The code for
our method is available https://github.com/take2rohit/poise.
- Abstract(参考訳): 人間のシルエット抽出は、様々な下流タスクで応用されるコンピュータビジョンの基本的なタスクである。
しかし、オクルージョンは大きな課題となり、不完全で歪んだシルエットへと繋がる。
この課題に対処するために、人間のシルエット予測の精度と堅牢性を高める新しい自己監督型融合フレームワークであるOcclusionsによるPose Guided Human Silhouette extractを導入する。
セグメンテーションモデルからの最初のシルエット推定と2次元ポーズ推定モデルからの人間の関節予測を組み合わせることで、POISEは両方のアプローチの相補的な強度を活用し、正確な体形情報と空間情報を効果的に統合してオクルージョンに取り組む。
さらに、POISEの自己管理的な性質は、コストのかかるアノテーションの必要性を排除し、スケーラブルで実用的なものになります。
広汎な実験結果は,閉塞下でのシルエット抽出の改善に優れ,歩行認識などの下流タスクにおいて有望な結果が得られた。
私たちのメソッドのコードはhttps://github.com/take2rohit/poise.comで利用可能です。
関連論文リスト
- DPMesh: Exploiting Diffusion Prior for Occluded Human Mesh Recovery [71.6345505427213]
DPMeshは、人間のメッシュリカバリを排除した革新的なフレームワークである。
これは、事前訓練されたテキスト・ツー・イメージ拡散モデルに埋め込まれた対象構造と空間的関係について、より深い拡散に乗じる。
論文 参考訳(メタデータ) (2024-04-01T18:59:13Z) - Learning Visibility for Robust Dense Human Body Estimation [78.37389398573882]
2D画像から3Dのポーズと形状を推定することは、非常に難しい課題だ。
部分的な観察に頑健な高密度な人体推定を学習する。
我々は、高密度UV通信から可視性ラベルの擬似基底構造を取得し、3次元座標とともに可視性を予測するニューラルネットワークを訓練する。
論文 参考訳(メタデータ) (2022-08-23T00:01:05Z) - Explicit Occlusion Reasoning for Multi-person 3D Human Pose Estimation [33.86986028882488]
咬合は, 咬合者の形状, 外観, 位置の変動が大きいため, 単眼多面体3次元ポーズ推定において大きな脅威となる。
既存のメソッドは、ポーズ先/制約、データ拡張、暗黙の推論でオクルージョンを処理しようとする。
本研究では、ボトムアップ型多人数ポーズ推定を大幅に改善する、このプロセスを明示的にモデル化する手法を開発した。
論文 参考訳(メタデータ) (2022-07-29T22:12:50Z) - Aligning Silhouette Topology for Self-Adaptive 3D Human Pose Recovery [70.66865453410958]
アーティキュレーション中心の2D/3Dポーズ監視は、既存の多くの人間のポーズ推定技術においてコアトレーニング目標を形成する。
本稿では,ソース学習モデルベース回帰器を適応させるために,シルエット監視のみに依存する新しいフレームワークを提案する。
我々は、トポロジカル・スケルトン表現を生シルエットから切り離すために、一連の畳み込みに優しい空間変換を開発する。
論文 参考訳(メタデータ) (2022-04-04T06:58:15Z) - Uncertainty-Aware Adaptation for Self-Supervised 3D Human Pose
Estimation [70.32536356351706]
本稿では、2つの出力ヘッドを2つの異なる構成にサブスクライブする共通のディープネットワークバックボーンを構成するMPP-Netを紹介する。
ポーズと関節のレベルで予測の不確実性を定量化するための適切な尺度を導出する。
本稿では,提案手法の総合評価を行い,ベンチマークデータセット上での最先端性能を示す。
論文 参考訳(メタデータ) (2022-03-29T07:14:58Z) - LatentHuman: Shape-and-Pose Disentangled Latent Representation for Human
Bodies [78.17425779503047]
本稿では,人体に対する新しい暗黙の表現法を提案する。
完全に微分可能で、非交叉形状で最適化可能であり、潜在空間を映し出す。
我々のモデルは、よく設計された損失を伴う、水密でない生データを直接訓練し、微調整することができる。
論文 参考訳(メタデータ) (2021-11-30T04:10:57Z) - LASOR: Learning Accurate 3D Human Pose and Shape Via Synthetic
Occlusion-Aware Data and Neural Mesh Rendering [3.007707487678111]
シルエットと2Dキーポイントデータを合成し,SMPLのポーズと形状パラメータに直接回帰するフレームワークを提案する。
ニューラル3Dメッシュを利用して、シルエットの監督をオンザフライで行えるようにすることで、形状推定の大幅な改善に寄与する。
我々は3DPWデータセットのポーズ精度では最先端であり、形状精度ではランク1法より明らかに優れている。
論文 参考訳(メタデータ) (2021-08-01T02:09:16Z) - Learning Dynamics via Graph Neural Networks for Human Pose Estimation
and Tracking [98.91894395941766]
ポーズ検出とは無関係なポーズダイナミクスを学習する新しいオンライン手法を提案する。
具体的には、空間的・時間的情報と視覚的情報の両方を明示的に考慮したグラフニューラルネットワーク(GNN)を通して、このダイナミクスの予測を導出する。
PoseTrack 2017とPoseTrack 2018データセットの実験では、提案手法が人間のポーズ推定とトラッキングタスクの両方において、技術の現状よりも優れた結果が得られることを示した。
論文 参考訳(メタデータ) (2021-06-07T16:36:50Z) - A novel joint points and silhouette-based method to estimate 3D human
pose and shape [12.459968574683625]
本稿では,画像からの3次元人物ポーズと形状推定のための新しい手法を提案する。
ポーズフィッティングのパラメトリックモデルと2次元および3次元空間上のシルエットの対応関係を抽出する。
シルエットのエネルギー関数は2次元空間と3次元空間の両方から構築されているため,形状情報の利用は十分である。
論文 参考訳(メタデータ) (2020-12-11T03:58:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。