論文の概要: Human De-occlusion: Invisible Perception and Recovery for Humans
- arxiv url: http://arxiv.org/abs/2103.11597v1
- Date: Mon, 22 Mar 2021 05:54:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-23 14:30:52.708392
- Title: Human De-occlusion: Invisible Perception and Recovery for Humans
- Title(参考訳): 人間の排他性:人間の目に見えない知覚と回復
- Authors: Qiang Zhou, Shiyin Wang, Yitong Wang, Zilong Huang, Xinggang Wang
- Abstract要約: 我々は,人間の閉ざされたセグメンテーションマスクと目に見えない外観内容の理由から,人間の閉ざしの問題に取り組む。
特に,見えない部分を推定し,内部を復元するための2段階フレームワークが提案されている。
本手法は,マスク補完作業とコンテンツ回復作業の両方において,最先端技術上で動作する。
- 参考スコア(独自算出の注目度): 26.404444296924243
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this paper, we tackle the problem of human de-occlusion which reasons
about occluded segmentation masks and invisible appearance content of humans.
In particular, a two-stage framework is proposed to estimate the invisible
portions and recover the content inside. For the stage of mask completion, a
stacked network structure is devised to refine inaccurate masks from a general
instance segmentation model and predict integrated masks simultaneously.
Additionally, the guidance from human parsing and typical pose masks are
leveraged to bring prior information. For the stage of content recovery, a
novel parsing guided attention module is applied to isolate body parts and
capture context information across multiple scales. Besides, an Amodal Human
Perception dataset (AHP) is collected to settle the task of human de-occlusion.
AHP has advantages of providing annotations from real-world scenes and the
number of humans is comparatively larger than other amodal perception datasets.
Based on this dataset, experiments demonstrate that our method performs over
the state-of-the-art techniques in both tasks of mask completion and content
recovery. Our AHP dataset is available at
\url{https://sydney0zq.github.io/ahp/}.
- Abstract(参考訳): 本稿では,隠蔽されたセグメンテーションマスクと見えない人間の外見内容が原因で,人間の排除の問題に取り組む。
特に,見えない部分を推定し,内部を復元するための2段階フレームワークが提案されている。
マスク完了の段階では、一般的な例分割モデルから不正確なマスクを洗練し、統合マスクを同時に予測するネットワーク構造が考案される。
さらに、人間のパーシングや典型的なポーズマスクからのガイダンスを利用して、事前情報を提供する。
コンテンツリカバリの段階では、新しいパーシングガイド付注目モジュールを用いて、身体部分の分離と複数のスケールにわたるコンテキスト情報のキャプチャを行う。
さらに、人間の排除の課題を解決するために、AHP(Amodal Human Perception dataset)が収集される。
AHPは現実世界のシーンからアノテーションを提供する利点があり、人間の数は他のアモーダル認識データセットよりも比較的大きい。
このデータセットに基づいて,本手法はマスク補完とコンテンツ回復の両タスクにおいて,最先端技術上で動作することが実証された。
ahp データセットは \url{https://sydney0zq.github.io/ahp/} で利用可能です。
関連論文リスト
- Referring Human Pose and Mask Estimation in the Wild [57.12038065541915]
野生における人間行動とマスク推定(R-HPM)について紹介する。
このタスクは、補助ロボティクスやスポーツ分析のような人間中心のアプリケーションにとって大きな可能性を秘めている。
我々は、R-HPMのためのUniPHDと呼ばれる最初のエンドツーエンドのプロンプト可能なアプローチを提案する。
論文 参考訳(メタデータ) (2024-10-27T16:44:15Z) - ProFD: Prompt-Guided Feature Disentangling for Occluded Person Re-Identification [34.38227097059117]
本稿では,Prompt-Guided Feature Disentangling法(ProFD)を提案する。
ProFDはまず部分固有のプロンプトを設計し、ノイズセグメンテーションマスクを用いて視覚とテキストの埋め込みを予め調整する。
我々は,CLIPの事前訓練された知識を保ち,過度な適合を緩和する自己蒸留戦略を採用している。
論文 参考訳(メタデータ) (2024-09-30T08:31:14Z) - Pluralistic Salient Object Detection [108.74650817891984]
本稿では,与えられた入力画像に対して,複数の有意な有意な有意な有意な有意な有意な分割結果を生成することを目的とした新しい課題であるPSOD(multiistic Salient Object Detection)を紹介する。
新たに設計された評価指標とともに,2つのSODデータセット "DUTS-MM" と "DUS-MQ" を提案する。
論文 参考訳(メタデータ) (2024-09-04T01:38:37Z) - Object-level Scene Deocclusion [92.39886029550286]
オブジェクトレベルのシーン・デクルージョンのためのPArallel可視・コミュールト拡散フレームワークPACOを提案する。
PACOをトレーニングするために、500kサンプルの大規模なデータセットを作成し、自己教師付き学習を可能にします。
COCOAと様々な現実世界のシーンの実験では、PACOがシーンの排除に優れた能力を示し、芸術の状態をはるかに上回っている。
論文 参考訳(メタデータ) (2024-06-11T20:34:10Z) - HAISTA-NET: Human Assisted Instance Segmentation Through Attention [3.073046540587735]
より正確な予測を可能にし,高品質なセグメンテーションマスクを生成する新しい手法を提案する。
我々の人間支援セグメンテーションモデルHAISTA-NETは、既存のStrong Mask R-CNNネットワークを拡張し、人間の特定部分境界を組み込む。
HAISTA-NETは,Mask R-CNN,Strong Mask R-CNN,Mask2Formerなどの最先端技術よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-04T18:39:14Z) - Dynamic Prototype Mask for Occluded Person Re-Identification [88.7782299372656]
既存の手法では、目に見える部分を識別するために、余分なネットワークによって提供される身体の手がかりを利用することで、この問題に対処している。
2つの自己明快な事前知識に基づく新しい動的プロトタイプマスク(DPM)を提案する。
この条件下では、隠蔽された表現は、選択された部分空間において自然にうまく整列することができる。
論文 参考訳(メタデータ) (2022-07-19T03:31:13Z) - FaceOcc: A Diverse, High-quality Face Occlusion Dataset for Human Face
Extraction [3.8502825594372703]
隠蔽は野生の顔画像にしばしば発生し、ランドマーク検出や3D再構成、顔認識といった顔関連の課題に悩まされる。
本稿では,CelebA本社とインターネットから手動で顔の隠蔽をラベル付けした新しい顔のセグメンテーションデータセットを提案する。
簡単な顔分割モデルの訓練を行ったが,SOTA性能が得られ,提案したデータセットの有効性を実証した。
論文 参考訳(メタデータ) (2022-01-20T19:44:18Z) - Boosting Semantic Human Matting with Coarse Annotations [66.8725980604434]
粗いアノテートされた人間のデータセットは、公開データセットから取得し、収集するのがずっと簡単です。
マットリファインメントネットワークは、統一マスクと入力画像とを取り込み、最終アルファマットを予測する。
論文 参考訳(メタデータ) (2020-04-10T09:11:02Z) - Self-Supervised Scene De-occlusion [186.89979151728636]
本稿では,隠蔽対象の隠蔽順序を復元し,隠蔽対象の見えない部分を完成させることを目的としたシーン非隠蔽問題について検討する。
そこで本研究では,隠されたシーン構造を監視対象として指示やアモーダルアノテーションを使わずに復元する,新規で統一的なフレームワークを用いて,この問題に対処する試みを行う。
そこで,PCNet-M と PCNet-C をベースとして,プログレッシブ・オーダリング・リカバリ,アモーダル・コンプリーメント,コンテント・コンプリートを通じてシーン・デオクルージョンを実現する新しい推論手法を考案した。
論文 参考訳(メタデータ) (2020-04-06T16:31:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。