論文の概要: Mining Cross-Image Semantics for Weakly Supervised Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2007.01947v2
- Date: Wed, 8 Jul 2020 11:51:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 05:20:27.408060
- Title: Mining Cross-Image Semantics for Weakly Supervised Semantic Segmentation
- Title(参考訳): 弱教師付きセマンティクスセグメンテーションのためのクロスイメージセマンティクスのマイニング
- Authors: Guolei Sun and Wenguan Wang and Jifeng Dai and Luc Van Gool
- Abstract要約: 2つのニューラルコアテンションを分類器に組み込んで、画像間のセマンティックな類似点と相違点をキャプチャする。
オブジェクトパターン学習の強化に加えて、コアテンションは他の関連する画像からのコンテキストを活用して、ローカライズマップの推論を改善することができる。
提案アルゴリズムは,これらすべての設定に対して新たな最先端性を設定し,その有効性と一般化性を示す。
- 参考スコア(独自算出の注目度): 128.03739769844736
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper studies the problem of learning semantic segmentation from
image-level supervision only. Current popular solutions leverage object
localization maps from classifiers as supervision signals, and struggle to make
the localization maps capture more complete object content. Rather than
previous efforts that primarily focus on intra-image information, we address
the value of cross-image semantic relations for comprehensive object pattern
mining. To achieve this, two neural co-attentions are incorporated into the
classifier to complimentarily capture cross-image semantic similarities and
differences. In particular, given a pair of training images, one co-attention
enforces the classifier to recognize the common semantics from co-attentive
objects, while the other one, called contrastive co-attention, drives the
classifier to identify the unshared semantics from the rest, uncommon objects.
This helps the classifier discover more object patterns and better ground
semantics in image regions. In addition to boosting object pattern learning,
the co-attention can leverage context from other related images to improve
localization map inference, hence eventually benefiting semantic segmentation
learning. More essentially, our algorithm provides a unified framework that
handles well different WSSS settings, i.e., learning WSSS with (1) precise
image-level supervision only, (2) extra simple single-label data, and (3) extra
noisy web data. It sets new state-of-the-arts on all these settings,
demonstrating well its efficacy and generalizability. Moreover, our approach
ranked 1st place in the Weakly-Supervised Semantic Segmentation Track of
CVPR2020 Learning from Imperfect Data Challenge.
- Abstract(参考訳): 本稿では,画像レベルの監視のみからセマンティックセグメンテーションを学習する問題を考察する。
現在のポピュラーなソリューションでは、分類器からのオブジェクトローカライゼーションマップを監視信号として利用し、ローカライゼーションマップがより完全なオブジェクトコンテンツを取得するのに苦労している。
画像内情報に重点を置く従来の取り組みよりも、総合的なオブジェクトパターンマイニングのためのクロスイメージ意味関係の価値に対処する。
これを実現するために、2つのニューラルコアテンションが分類器に組み込まれ、画像間の意味的類似性と差異を補足的に捉える。
特に、一対の訓練画像が与えられた場合、一対のコアテンションは、コアテンティブオブジェクトから共通のセマンティクスを認識するように分類器を強制するが、他方のコアテンションは、コントラッシブコアテンションと呼ばれ、他の非共有オブジェクトから未共有セマンティクスを識別するために分類器を駆動する。
これにより、分類器は画像領域におけるより多くのオブジェクトパターンとより良い接地セマンティクスを発見するのに役立つ。
オブジェクトパターン学習の促進に加えて、コアテンションは他の関連画像からのコンテキストを活用してローカライゼーションマップ推論を改善し、最終的にはセマンティックセグメンテーション学習の恩恵を受ける。
さらに,本アルゴリズムは,(1)正確な画像レベルの監視のみによるWSSS学習,(2)余分な単純な単一ラベルデータ,(3)余分なノイズの多いWebデータといった,WSSS設定をうまく扱う統一的なフレームワークを提供する。
これらすべての設定に新たな最先端技術を設定し、その有効性と一般化性を示す。
さらに,本手法はCVPR2020 Learning from Imperfect Data Challengeの弱いスーパービジョンのセマンティックセマンティックセグメンテーショントラックで1位にランクインした。
関連論文リスト
- Auxiliary Tasks Enhanced Dual-affinity Learning for Weakly Supervised
Semantic Segmentation [79.05949524349005]
AuxSegNet+は、サリエンシマップから豊富な情報を探索する弱教師付き補助学習フレームワークである。
また,サリエンシとセグメンテーションの特徴マップから画素レベルの親和性を学習するためのクロスタスク親和性学習機構を提案する。
論文 参考訳(メタデータ) (2024-03-02T10:03:21Z) - Self-Correlation and Cross-Correlation Learning for Few-Shot Remote
Sensing Image Semantic Segmentation [27.59330408178435]
リモートセマンティックセマンティックセマンティックセマンティクスは、クエリイメージからターゲットオブジェクトをセグメントすることを学ぶことを目的としている。
本稿では,数発のリモートセンシング画像セマンティックセマンティックセグメンテーションのための自己相関・相互相関学習ネットワークを提案する。
本モデルは,サポート画像とクエリ画像の自己相関と相互相関の両方を考慮し,一般化を促進させる。
論文 参考訳(メタデータ) (2023-09-11T21:53:34Z) - Edge Guided GANs with Multi-Scale Contrastive Learning for Semantic
Image Synthesis [139.2216271759332]
本稿では,難解なセマンティック画像合成タスクのための新しいECGANを提案する。
セマンティックラベルは詳細な構造情報を提供しておらず、局所的な詳細や構造を合成することは困難である。
畳み込み、ダウンサンプリング、正規化といった広く採用されているCNN操作は、通常、空間分解能の損失を引き起こす。
本稿では,同じセマンティッククラスに属する画素埋め込みを強制して,より類似した画像コンテンツを生成することを目的とした,新しいコントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2023-07-22T14:17:19Z) - Location-Aware Self-Supervised Transformers [74.76585889813207]
画像部品の相対的な位置を予測し,セマンティックセグメンテーションのためのネットワークを事前訓練する。
参照パッチのサブセットを問合せのサブセットにマスキングすることで,タスクの難しさを制御します。
実験により,この位置認識事前学習が,いくつかの難解なセマンティックセグメンテーションベンチマークに競合する表現をもたらすことが示された。
論文 参考訳(メタデータ) (2022-12-05T16:24:29Z) - Contrastive learning of Class-agnostic Activation Map for Weakly
Supervised Object Localization and Semantic Segmentation [32.76127086403596]
ラベルなし画像データを用いたクラス非依存型活性化マップ(C$2$AM)生成のためのコントラスト学習を提案する。
我々は上記の関係に基づいて正対と負の対を形成し、ネットワークを前景と背景を乱すように強制する。
ネットワークは画像前景を識別するために誘導されるため,本手法で学習したクラス非依存のアクティベーションマップは,より完全なオブジェクト領域を生成する。
論文 参考訳(メタデータ) (2022-03-25T08:46:24Z) - Unsupervised Image Segmentation by Mutual Information Maximization and
Adversarial Regularization [7.165364364478119]
InMARS(Information Maximization and Adrial Regularization)と呼ばれる新しい教師なしセマンティックセマンティックセマンティクス手法を提案する。
シーンを知覚群に解析する人間の知覚に触発され、提案手法はまず、入力画像を意味のある領域(スーパーピクセルとも呼ばれる)に分割する。
次に、相互情報最大化(Multual-Information-Maximization)と、それらの領域を意味論的に意味のあるクラスにクラスタ化するための敵対的トレーニング戦略を利用する。
提案手法は2つの非教師付きセマンティックセグメンテーションデータセット上での最先端性能を実現することを実証した。
論文 参考訳(メタデータ) (2021-07-01T18:36:27Z) - Attention-Guided Supervised Contrastive Learning for Semantic
Segmentation [16.729068267453897]
画素ごとの予測タスクでは、セグメンテーションのために1つのイメージに複数のラベルが存在する可能性がある。
本研究では,1つの意味的対象を目標として毎回強調する,注意誘導型教師付きコントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2021-06-03T05:01:11Z) - Rethinking of the Image Salient Object Detection: Object-level Semantic
Saliency Re-ranking First, Pixel-wise Saliency Refinement Latter [62.26677215668959]
本稿では,意味的に有意な領域を粗い位置で特定する,軽量で教師付きの深層ネットワークを提案する。
次に,これらセマンティック・サリエント領域の深層モデルを画素ワイド・サリエンシ改善として融合する。
提案手法は単純だが有効であり,本手法は主眼をオブジェクトレベルのセマンティック・リグレード問題とみなすための最初の試みである。
論文 参考訳(メタデータ) (2020-08-10T07:12:43Z) - Edge Guided GANs with Contrastive Learning for Semantic Image Synthesis [194.1452124186117]
本稿では,難解なセマンティック画像合成タスクのための新しいECGANを提案する。
我々のECGANは最先端の手法よりもはるかに優れた結果が得られる。
論文 参考訳(メタデータ) (2020-03-31T01:23:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。