論文の概要: Self-supervised Image-specific Prototype Exploration for Weakly
Supervised Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2203.02909v1
- Date: Sun, 6 Mar 2022 09:01:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-08 17:19:52.975927
- Title: Self-supervised Image-specific Prototype Exploration for Weakly
Supervised Semantic Segmentation
- Title(参考訳): 弱教師付きセマンティックセグメンテーションのための自己教師付き画像特異的プロトタイプ探索
- Authors: Qi Chen, Lingxiao Yang, Jianhuang Lai, Xiaohua Xie
- Abstract要約: 画像レベルのラベルをベースとしたWSSS(Weakly Supervised Semantic COCO)は,アノテーションコストの低さから注目されている。
本稿では,画像特異的なプロトタイプ探索 (IPE) と汎用一貫性 (GSC) の喪失からなる画像固有プロトタイプ探索 (SIPE) を提案する。
SIPEは,画像レベルラベルのみを用いて,最先端のパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 72.33139350241044
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Weakly Supervised Semantic Segmentation (WSSS) based on image-level labels
has attracted much attention due to low annotation costs. Existing methods
often rely on Class Activation Mapping (CAM) that measures the correlation
between image pixels and classifier weight. However, the classifier focuses
only on the discriminative regions while ignoring other useful information in
each image, resulting in incomplete localization maps. To address this issue,
we propose a Self-supervised Image-specific Prototype Exploration (SIPE) that
consists of an Image-specific Prototype Exploration (IPE) and a
General-Specific Consistency (GSC) loss. Specifically, IPE tailors prototypes
for every image to capture complete regions, formed our Image-Specific CAM
(IS-CAM), which is realized by two sequential steps. In addition, GSC is
proposed to construct the consistency of general CAM and our specific IS-CAM,
which further optimizes the feature representation and empowers a
self-correction ability of prototype exploration. Extensive experiments are
conducted on PASCAL VOC 2012 and MS COCO 2014 segmentation benchmark and
results show our SIPE achieves new state-of-the-art performance using only
image-level labels. The code is available at
https://github.com/chenqi1126/SIPE.
- Abstract(参考訳): 画像レベルのラベルに基づくWSSS(Weakly Supervised Semantic Segmentation)は,アノテーションコストの低さから注目されている。
既存の手法では、画像画素と分類子重みの相関を測定するクラスアクティベーションマッピング(cam)に依存することが多い。
しかし、分類器は識別領域のみに焦点を当て、画像内の他の有用な情報を無視し、不完全なローカライゼーションマップを生成する。
この問題に対処するために,画像特異的なプロトタイプ探索(IPE)と汎用コンシステンシー(GSC)の損失からなる,画像固有プロトタイプ探索(SIPE)を提案する。
具体的には、全領域をキャプチャする画像のプロトタイプをIPEが作成し、2つのステップで実現した画像特徴CAM(IS-CAM)を作成した。
さらに,一般CAMとIS-CAMの整合性の構築も提案し,特徴表現の最適化とプロトタイプ探査の自己補正能力の向上を図っている。
PASCAL VOC 2012 と MS COCO 2014 のセグメンテーションベンチマークで大規模な実験を行い,画像レベルラベルのみを用いてSIPEが新たな最先端性能を達成することを示す。
コードはhttps://github.com/chenqi1126/sipeで入手できる。
関連論文リスト
- Spatial Action Unit Cues for Interpretable Deep Facial Expression Recognition [55.97779732051921]
表情認識(FER)のための最先端の分類器は、エンドユーザーにとって重要な特徴である解釈可能性に欠ける。
新しい学習戦略が提案され、AU cues を分類器訓練に明示的に組み込むことで、深い解釈可能なモデルを訓練することができる。
我々の新しい戦略は汎用的であり、アーキテクチャの変更や追加のトレーニング時間を必要とすることなく、ディープCNNやトランスフォーマーベースの分類器に適用できます。
論文 参考訳(メタデータ) (2024-10-01T10:42:55Z) - Auxiliary Tasks Enhanced Dual-affinity Learning for Weakly Supervised
Semantic Segmentation [79.05949524349005]
AuxSegNet+は、サリエンシマップから豊富な情報を探索する弱教師付き補助学習フレームワークである。
また,サリエンシとセグメンテーションの特徴マップから画素レベルの親和性を学習するためのクロスタスク親和性学習機構を提案する。
論文 参考訳(メタデータ) (2024-03-02T10:03:21Z) - COMNet: Co-Occurrent Matching for Weakly Supervised Semantic
Segmentation [13.244183864948848]
我々は,CAMの品質を向上し,オブジェクトの全体に対して注意を払うためにネットワークを強制する,新しいコオカレントマッチングネットワーク(COMNet)を提案する。
具体的には、共通クラスを含むペア画像のマッチングを行い、対応する領域を強化し、単一の画像上にマッチングを構築し、対象領域を横断する意味的特徴を伝達する。
The experiment on the Pascal VOC 2012 and MS-COCO datasets shows our network can effective boost the performance of the baseline model and a new-of-the-art performance。
論文 参考訳(メタデータ) (2023-09-29T03:55:24Z) - Saliency Guided Inter- and Intra-Class Relation Constraints for Weakly
Supervised Semantic Segmentation [66.87777732230884]
本稿では,活性化対象領域の拡大を支援するために,Salliency Guided Inter-およびIntra-Class Relation Constrained (I$2$CRC) フレームワークを提案する。
また,オブジェクトガイド付きラベルリファインメントモジュールを導入し,セグメンテーション予測と初期ラベルをフル活用し,優れた擬似ラベルを得る。
論文 参考訳(メタデータ) (2022-06-20T03:40:56Z) - Boosting Few-shot Semantic Segmentation with Transformers [81.43459055197435]
TRansformer-based Few-shot Semantic segmentation Method (TRFS)
我々のモデルは,グローバル・エンハンスメント・モジュール(GEM)とローカル・エンハンスメント・モジュール(LEM)の2つのモジュールから構成される。
論文 参考訳(メタデータ) (2021-08-04T20:09:21Z) - SCNet: Enhancing Few-Shot Semantic Segmentation by Self-Contrastive
Background Prototypes [56.387647750094466]
Few-shot セマンティックセマンティックセマンティクスは,クエリイメージ内の新規クラスオブジェクトを,アノテーション付きの例で分割することを目的としている。
先進的なソリューションのほとんどは、各ピクセルを学習した前景のプロトタイプに合わせることでセグメンテーションを行うメトリクス学習フレームワークを利用している。
このフレームワークは、前景プロトタイプのみとのサンプルペアの不完全な構築のために偏った分類に苦しんでいます。
論文 参考訳(メタデータ) (2021-04-19T11:21:47Z) - Puzzle-CAM: Improved localization via matching partial and full features [0.5482532589225552]
弱教師付きセマンティックセマンティックセマンティクス(WSSS)を導入し、セマンティクス性能のギャップを画素レベルの監視から画像レベルの監視へと狭める。
ほとんどの高度なアプローチは、セグメンテーションネットワークをトレーニングするために擬似ラベルを生成するクラスアクティベーションマップ(CAM)に基づいている。
本稿では,個々のパッチと画像全体の違いを最小限に抑えるプロセスであるPuzzle-CAMを提案する。
実験では、Puzzle-CAMはPASCAL VOC 2012データセットの監視のために同じラベルを使用した従来の最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2021-01-27T08:19:38Z) - Deep Active Learning for Joint Classification & Segmentation with Weak
Annotator [22.271760669551817]
クラスアクティベーションマップ(CAM)のようなCNNの可視化と解釈手法は、一般的に、クラス予測に関連する画像領域を強調するために使用される。
本稿では,画素レベルのアノテーションを段階的に統合する能動的学習フレームワークを提案する。
提案手法は, ランダムなサンプル選択を用いることで, 最先端のCAMやAL手法よりも優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2020-10-10T03:25:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。