論文の概要: Amodal Segmentation Based on Visible Region Segmentation and Shape Prior
- arxiv url: http://arxiv.org/abs/2012.05598v2
- Date: Sat, 19 Dec 2020 13:24:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-15 06:22:56.239633
- Title: Amodal Segmentation Based on Visible Region Segmentation and Shape Prior
- Title(参考訳): 可視領域のセグメンテーションと形状を考慮したアモーダルセグメンテーション
- Authors: Yuting Xiao, Yanyu Xu, Ziming Zhong, Weixin Luo, Jiawei Li, Shenghua
Gao
- Abstract要約: 本稿では,人間の行動を模倣し,学習の曖昧さを解決する枠組みを提案する。
本モデルでは,可視領域に集中し,記憶に先立つ形状を利用してアモーダルマスクを推定する。
実験の結果,提案モデルが既存の最新手法を上回っていることが示された。
- 参考スコア(独自算出の注目度): 43.40655235118393
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Almost all existing amodal segmentation methods make the inferences of
occluded regions by using features corresponding to the whole image. This is
against the human's amodal perception, where human uses the visible part and
the shape prior knowledge of the target to infer the occluded region. To mimic
the behavior of human and solve the ambiguity in the learning, we propose a
framework, it firstly estimates a coarse visible mask and a coarse amodal mask.
Then based on the coarse prediction, our model infers the amodal mask by
concentrating on the visible region and utilizing the shape prior in the
memory. In this way, features corresponding to background and occlusion can be
suppressed for amodal mask estimation. Consequently, the amodal mask would not
be affected by what the occlusion is given the same visible regions. The
leverage of shape prior makes the amodal mask estimation more robust and
reasonable. Our proposed model is evaluated on three datasets. Experiments show
that our proposed model outperforms existing state-of-the-art methods. The
visualization of shape prior indicates that the category-specific feature in
the codebook has certain interpretability.
- Abstract(参考訳): 既存のアモダルセグメンテーション手法のほとんど全ては、画像全体に対応する特徴を用いてオクルード領域の推論を行う。
これは人間のアモーダル知覚に反し、人間の目に見える部分と、対象の事前の知識を使って、隠された領域を推測する。
人間の振る舞いを模倣し,学習の曖昧さを解決するために,まず,粗い目に見えるマスクと粗いアモーダルマスクを推定する枠組みを提案する。
そして、粗い予測に基づいて、我々のモデルは、可視領域に集中し、メモリに先行する形状を利用してアモーダルマスクを推定する。
これにより、アモーダルマスク推定において、背景と閉塞に対応する特徴を抑えることができる。
その結果、アモダルマスクは、オクルージョンが同じ可視領域に与えられるものの影響を受けない。
以前の形状の活用により、アモーダルマスクの推定はより堅牢で合理的になる。
提案モデルは3つのデータセットで評価される。
実験の結果,提案手法は既存手法よりも優れていた。
形状の可視化は、コードブックのカテゴリ固有の特徴がある程度解釈可能であることを示している。
関連論文リスト
- Robust Unsupervised Crowd Counting and Localization with Adaptive
Resolution SAM [61.10712338956455]
本稿では,SEEM(Seegment-Everything-Everywhere Model)を用いた簡易かつ効果的な群集カウント手法を提案する。
密集した群集シーンにおけるSEEMの性能は,高密度領域の多くの人々が欠落していることが主な原因である。
提案手法は,群集カウントにおいて最高の教師なし性能を実現すると同時に,いくつかの教師付き手法に匹敵する性能を示す。
論文 参考訳(メタデータ) (2024-02-27T13:55:17Z) - BLADE: Box-Level Supervised Amodal Segmentation through Directed
Expansion [10.57956193654977]
Boxレベルの教師付きアモーダルセグメンテーションは、この課題に対処する。
可視マスクから対応するアモーダルマスクへの指向性拡張アプローチを導入することで,新しい解を提案する。
このアプローチでは、オーバーラップする領域 – 異なるインスタンスが交わる領域 – に基づいた、ハイブリッドなエンドツーエンドネットワークが関係しています。
論文 参考訳(メタデータ) (2024-01-03T09:37:03Z) - Amodal Ground Truth and Completion in the Wild [92.36449676571237]
我々は3Dデータを用いて、実画像中の部分的に隠蔽された物体に対して、真偽のアモーダルマスクを決定するための自動パイプラインを確立する。
このパイプラインは、アモーダル完了評価ベンチマーク、MP3D-Amodalを構築するために使用される。
提案手法は,Amodalセグメンテーションデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2023-12-28T18:59:41Z) - Denoising Diffusion Semantic Segmentation with Mask Prior Modeling [61.73352242029671]
本稿では,従来の識別的アプローチのセマンティックセグメンテーション品質を,デノナイズ拡散生成モデルでモデル化したマスクを用いて改善することを提案する。
市販セグメンタを用いた先行モデルの評価を行い,ADE20KとCityscapesの実験結果から,本手法が競争力のある定量的性能を実現することを示す。
論文 参考訳(メタデータ) (2023-06-02T17:47:01Z) - Towards Improved Input Masking for Convolutional Neural Networks [66.99060157800403]
層マスキングと呼ぶCNNのための新しいマスキング手法を提案する。
本手法は,マスク形状や色がモデル出力に与える影響を排除あるいは最小化することができることを示す。
また,マスクの形状がクラスに関する情報を漏洩させる可能性を示し,クラス関連特徴に対するモデル依存度の推定に影響を及ぼすことを示した。
論文 参考訳(メタデータ) (2022-11-26T19:31:49Z) - What You See is What You Classify: Black Box Attributions [61.998683569022006]
我々は、トレーニング済みのブラックボックス分類器であるExpplanandumの属性を予測するために、ディープネットワークであるExplainerを訓練する。
既存のほとんどのアプローチとは異なり、我々の手法はクラス固有のマスクを直接生成することができる。
我々の属性は、視覚的および定量的に確立された方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-05-23T12:30:04Z) - A Weakly Supervised Amodal Segmenter with Boundary Uncertainty
Estimation [35.103437828235826]
本稿では,弱教師付きアモーダルインスタンスセグメンテーションについて述べる。
目標は、可視部分と隠蔽部分の両方をセグメント化することであり、トレーニングは、地平線可視部分(モダル部分)のみを提供する。
論文 参考訳(メタデータ) (2021-08-23T02:27:29Z) - Human De-occlusion: Invisible Perception and Recovery for Humans [26.404444296924243]
我々は,人間の閉ざされたセグメンテーションマスクと目に見えない外観内容の理由から,人間の閉ざしの問題に取り組む。
特に,見えない部分を推定し,内部を復元するための2段階フレームワークが提案されている。
本手法は,マスク補完作業とコンテンツ回復作業の両方において,最先端技術上で動作する。
論文 参考訳(メタデータ) (2021-03-22T05:54:58Z) - Learning Vector Quantized Shape Code for Amodal Blastomere Instance
Segmentation [33.558545104711186]
Amodalのインスタンスセグメンテーションは、オブジェクトが完全に見えない場合でも、オブジェクトの完全なシルエットを復元することを目的としている。
本稿では,入力特徴を中間形状コードに分類し,それらから完全なオブジェクト形状を復元することを提案する。
In vitro 受精 (IVF) クリニックにおけるブラストマーの正確な測定が可能となる。
論文 参考訳(メタデータ) (2020-12-02T06:17:28Z) - A Three-Stage Self-Training Framework for Semi-Supervised Semantic
Segmentation [0.9786690381850356]
本稿では,セマンティックセグメンテーションのための3段階の自己学習フレームワークとして,包括的解を提案する。
本手法の鍵となる考え方は擬似マスク統計情報の抽出である。
次に、一貫性を強制するマルチタスクモデルを用いて擬似マスクの不確実性を減少させる。
論文 参考訳(メタデータ) (2020-12-01T21:00:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。