論文の概要: L2G: A Simple Local-to-Global Knowledge Transfer Framework for Weakly
Supervised Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2204.03206v1
- Date: Thu, 7 Apr 2022 04:31:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-08 14:55:45.091777
- Title: L2G: A Simple Local-to-Global Knowledge Transfer Framework for Weakly
Supervised Semantic Segmentation
- Title(参考訳): L2G: 弱教師付きセマンティックセグメンテーションのための簡易局所言語間知識伝達フレームワーク
- Authors: Peng-Tao Jiang, Yuqi Yang, Qibin Hou, Yunchao Wei
- Abstract要約: 高品質なオブジェクトアテンションマイニングのための簡易なローカル・グローバルな知識伝達フレームワークであるL2Gについて述べる。
本フレームワークは,グローバルな視点から収集したリッチオブジェクトの詳細知識をグローバルネットワークで学習する。
実験の結果,PASCAL VOC 2012とMS COCO 2014の検証セットにおいて,72.1%,44.2%のmIoU値が得られた。
- 参考スコア(独自算出の注目度): 67.26984058377435
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Mining precise class-aware attention maps, a.k.a, class activation maps, is
essential for weakly supervised semantic segmentation. In this paper, we
present L2G, a simple online local-to-global knowledge transfer framework for
high-quality object attention mining. We observe that classification models can
discover object regions with more details when replacing the input image with
its local patches. Taking this into account, we first leverage a local
classification network to extract attentions from multiple local patches
randomly cropped from the input image. Then, we utilize a global network to
learn complementary attention knowledge across multiple local attention maps
online. Our framework conducts the global network to learn the captured rich
object detail knowledge from a global view and thereby produces high-quality
attention maps that can be directly used as pseudo annotations for semantic
segmentation networks. Experiments show that our method attains 72.1% and 44.2%
mIoU scores on the validation set of PASCAL VOC 2012 and MS COCO 2014,
respectively, setting new state-of-the-art records. Code is available at
https://github.com/PengtaoJiang/L2G.
- Abstract(参考訳): 正確なクラス認識アテンションマップ、すなわちクラス活性化マップのマイニングは、弱い教師付き意味セグメンテーションに必須である。
本稿では,高品質なオブジェクトアテンションマイニングのための簡易なローカル・グローバルな知識伝達フレームワークL2Gを提案する。
入力画像を局所パッチに置き換える際に、より詳細なオブジェクト領域を分類モデルで検出できることを観察する。
これを考慮し,まず局所的分類ネットワークを利用して,入力画像からランダムに切り抜かれた複数の局所的パッチから注意を引き出す。
そして,グローバルネットワークを利用して,複数のローカルアテンションマップを網羅した補完的アテンション知識をオンラインで学習する。
本フレームワークは,収集したリッチオブジェクトの詳細知識をグローバルな視点から学習し,セマンティックセグメンテーションネットワークの擬似アノテーションとして直接使用できる高品質なアテンションマップを生成する。
実験の結果,PASCAL VOC 2012とMS COCO 2014の検証セットでは,72.1%,44.2%のmIoUスコアが得られた。
コードはhttps://github.com/PengtaoJiang/L2Gで入手できる。
関連論文リスト
- A Self-Training Framework Based on Multi-Scale Attention Fusion for
Weakly Supervised Semantic Segmentation [7.36778096476552]
融合型マルチスケールクラス対応アテンションマップを利用した自己学習手法を提案する。
異なるスケールのアテンションマップから情報を収集し、マルチスケールアテンションマップを得る。
次に、潜在的な領域を拡大し、ノイズの少ない領域を減らし、認知と再活性化の戦略を適用した。
論文 参考訳(メタデータ) (2023-05-10T02:16:12Z) - Learning to Discover and Detect Objects [43.52208526783969]
新たなクラス発見・検出・ローカライゼーション(NCDL)の課題に取り組む。
この設定では、よく観察されるクラスのオブジェクトのラベル付きソースデータセットを仮定する。
検出ネットワークをエンドツーエンドでトレーニングすることにより、さまざまなクラスに対してすべてのリージョン提案を分類することが可能になる。
論文 参考訳(メタデータ) (2022-10-19T17:59:55Z) - Cross-layer Attention Network for Fine-grained Visual Categorization [12.249254142531381]
微妙な局部的詳細のための離散表現の学習は、きめ細かい視覚分類(FGVC)において重要な役割を果たす
提案するクロス層注意ネットワーク(CLAN)により,中間層特徴写像と上位層特徴写像の相互改善機構を構築する。
実験結果から,本手法は3つの一般公開された微粒化認識データセットの最先端化を図っている。
論文 参考訳(メタデータ) (2022-10-17T06:57:51Z) - Weakly-Supervised Semantic Segmentation with Visual Words Learning and
Hybrid Pooling [38.336345235423586]
画像レベルのラベルを持つWSSS(Weakly Supervised Semantic Activation)メソッドは、一般的に分類ネットワークをトレーニングして、初期粗いセグメンテーションラベルとしてクラスマップ(CAM)を生成する。
これら2つの問題は、分類ネットワークのトレーニングにおいて、画像レベルの監督とグローバル情報の集約のみに起因する。
本研究では,視覚単語学習モジュールとハイブリッドプーリング手法を提案し,これらを分類ネットワークに組み込んで上記の問題を緩和する。
論文 参考訳(メタデータ) (2022-02-10T03:19:08Z) - Region Semantically Aligned Network for Zero-Shot Learning [18.18665627472823]
本研究では、未確認クラスの局所的特徴をそれらの意味属性にマッピングする地域意味ネットワーク(RSAN)を提案する。
出力の特定の領域から各属性を取得し、これらの属性を認識に活用する。
いくつかの標準ZSLデータセットの実験では、提案したRSAN法の利点が示され、最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2021-10-14T03:23:40Z) - Discriminative Region-based Multi-Label Zero-Shot Learning [145.0952336375342]
マルチラベルゼロショット学習(Multi-label zero-shot Learning、ZSL)は、標準のシングルラベルZSLのより現実的な対位法である。
本稿では,地域別識別可能性保存型ZSLに対する代替アプローチを提案する。
論文 参考訳(メタデータ) (2021-08-20T17:56:47Z) - Goal-Oriented Gaze Estimation for Zero-Shot Learning [62.52340838817908]
識別的属性の局在性を改善するために, 目標指向視線推定モジュール(GEM)を提案する。
属性記述に導かれた新しい物体を認識する視覚注意領域を得るために,実際の人間の視線位置を予測することを目的とする。
この研究は、高レベルのコンピュータビジョンタスクに人間の視線データセットと自動視線推定アルゴリズムを集めることの有望な利点を示しています。
論文 参考訳(メタデータ) (2021-03-05T02:14:57Z) - PGL: Prior-Guided Local Self-supervised Learning for 3D Medical Image
Segmentation [87.50205728818601]
本稿では,潜在特徴空間における局所的一貫性を学習するPGL(PresideedGuided Local)自己教師モデルを提案する。
我々のPGLモデルは、局所領域の特異な表現を学習し、したがって構造情報を保持できる。
論文 参考訳(メタデータ) (2020-11-25T11:03:11Z) - Inter-Image Communication for Weakly Supervised Localization [77.2171924626778]
弱教師付きローカライゼーションは、画像レベルの監督のみを使用して対象対象領域を見つけることを目的としている。
我々は,より正確な物体位置を学習するために,異なる物体間の画素レベルの類似性を活用することを提案する。
ILSVRC検証セット上でトップ1のローカライズ誤差率45.17%を達成する。
論文 参考訳(メタデータ) (2020-08-12T04:14:11Z) - Mining Cross-Image Semantics for Weakly Supervised Semantic Segmentation [128.03739769844736]
2つのニューラルコアテンションを分類器に組み込んで、画像間のセマンティックな類似点と相違点をキャプチャする。
オブジェクトパターン学習の強化に加えて、コアテンションは他の関連する画像からのコンテキストを活用して、ローカライズマップの推論を改善することができる。
提案アルゴリズムは,これらすべての設定に対して新たな最先端性を設定し,その有効性と一般化性を示す。
論文 参考訳(メタデータ) (2020-07-03T21:53:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。