論文の概要: A Self-Training Framework Based on Multi-Scale Attention Fusion for
Weakly Supervised Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2305.05841v1
- Date: Wed, 10 May 2023 02:16:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-11 14:45:36.955135
- Title: A Self-Training Framework Based on Multi-Scale Attention Fusion for
Weakly Supervised Semantic Segmentation
- Title(参考訳): 弱教師付きセマンティクスセグメンテーションのためのマルチスケールアテンション融合に基づく自己学習フレームワーク
- Authors: Guoqing Yang, Chuang Zhu, Yu Zhang
- Abstract要約: 融合型マルチスケールクラス対応アテンションマップを利用した自己学習手法を提案する。
異なるスケールのアテンションマップから情報を収集し、マルチスケールアテンションマップを得る。
次に、潜在的な領域を拡大し、ノイズの少ない領域を減らし、認知と再活性化の戦略を適用した。
- 参考スコア(独自算出の注目度): 7.36778096476552
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Weakly supervised semantic segmentation (WSSS) based on image-level labels is
challenging since it is hard to obtain complete semantic regions. To address
this issue, we propose a self-training method that utilizes fused multi-scale
class-aware attention maps. Our observation is that attention maps of different
scales contain rich complementary information, especially for large and small
objects. Therefore, we collect information from attention maps of different
scales and obtain multi-scale attention maps. We then apply denoising and
reactivation strategies to enhance the potential regions and reduce noisy
areas. Finally, we use the refined attention maps to retrain the network.
Experiments showthat our method enables the model to extract rich semantic
information from multi-scale images and achieves 72.4% mIou scores on both the
PASCAL VOC 2012 validation and test sets. The code is available at
https://bupt-ai-cz.github.io/SMAF.
- Abstract(参考訳): 画像レベルラベルに基づくwsss(weakly supervised semantic segmentation)は,完全な意味領域を得ることが難しいため,困難である。
この問題に対処するために,融合型クラス対応アテンションマップを用いた自己学習手法を提案する。
我々の観察では、特に大型・小型の物体に対して、異なるスケールの注意マップは豊富な相補的な情報を含んでいる。
そこで,様々なスケールのアテンションマップから情報を集め,マルチスケールアテンションマップを得る。
次に, 電位領域を増大させ, 雑音領域を減少させるために, 消音・再活性化戦略を適用した。
最後に,注意度マップを用いてネットワークの再トレーニングを行う。
実験により,マルチスケール画像からリッチな意味情報を抽出し,PASCAL VOC 2012バリデーションとテストセットで72.4%のmIouスコアを得ることができた。
コードはhttps://bupt-ai-cz.github.io/smafで入手できる。
関連論文リスト
- iSeg: An Iterative Refinement-based Framework for Training-free Segmentation [85.58324416386375]
本稿では,自己注意マップを用いた横断注意マップの繰り返し精錬に関する実験的検討を行った。
トレーニング不要セグメンテーションのための効果的な反復改良フレームワークiSegを提案する。
提案したiSegは,mIoUの3.8%の絶対ゲインを達成している。
論文 参考訳(メタデータ) (2024-09-05T03:07:26Z) - Auxiliary Tasks Enhanced Dual-affinity Learning for Weakly Supervised
Semantic Segmentation [79.05949524349005]
AuxSegNet+は、サリエンシマップから豊富な情報を探索する弱教師付き補助学習フレームワークである。
また,サリエンシとセグメンテーションの特徴マップから画素レベルの親和性を学習するためのクロスタスク親和性学習機構を提案する。
論文 参考訳(メタデータ) (2024-03-02T10:03:21Z) - SLiMe: Segment Like Me [24.254744102347413]
1つの注釈付きサンプルを用いて任意の粒度で画像を分割するSLiMeを提案する。
各種設計因子について知識豊富な実験を行い,SLiMeが既存の一発・小発のセグメンテーション法よりも優れていることを示した。
論文 参考訳(メタデータ) (2023-09-06T17:39:05Z) - Self-attention on Multi-Shifted Windows for Scene Segmentation [14.47974086177051]
マルチスケール画像ウィンドウにおける自己注意の有効利用について検討し,視覚的特徴を学習する。
本稿では,これらの特徴マップを集約して,高密度予測のための特徴表現をデコードする3つの戦略を提案する。
我々のモデルは、4つの公開シーンセグメンテーションデータセットで非常に有望な性能を達成する。
論文 参考訳(メタデータ) (2022-07-10T07:36:36Z) - L2G: A Simple Local-to-Global Knowledge Transfer Framework for Weakly
Supervised Semantic Segmentation [67.26984058377435]
高品質なオブジェクトアテンションマイニングのための簡易なローカル・グローバルな知識伝達フレームワークであるL2Gについて述べる。
本フレームワークは,グローバルな視点から収集したリッチオブジェクトの詳細知識をグローバルネットワークで学習する。
実験の結果,PASCAL VOC 2012とMS COCO 2014の検証セットにおいて,72.1%,44.2%のmIoU値が得られた。
論文 参考訳(メタデータ) (2022-04-07T04:31:32Z) - LEAD: Self-Supervised Landmark Estimation by Aligning Distributions of
Feature Similarity [49.84167231111667]
自己監督型ランドマーク検出における既存の研究は、画像から高密度(ピクセルレベルの)特徴表現を学習することに基づいている。
自己教師付き方式で高密度同変表現の学習を強化するアプローチを提案する。
機能抽出器にそのような先行性があることは,アノテーションの数が大幅に制限されている場合でも,ランドマーク検出に役立ちます。
論文 参考訳(メタデータ) (2022-04-06T17:48:18Z) - Discriminative Region-based Multi-Label Zero-Shot Learning [145.0952336375342]
マルチラベルゼロショット学習(Multi-label zero-shot Learning、ZSL)は、標準のシングルラベルZSLのより現実的な対位法である。
本稿では,地域別識別可能性保存型ZSLに対する代替アプローチを提案する。
論文 参考訳(メタデータ) (2021-08-20T17:56:47Z) - Segmentation of VHR EO Images using Unsupervised Learning [19.00071868539993]
単一のラベルのないシーンでトレーニングできる教師なしセマンティックセマンティックセマンティクス手法を提案する。
提案手法は、この特性を利用して、より大きなシーンから小さなパッチをサンプリングする。
対象画像/シーンの教師なしトレーニングの後、モデルはシーンに存在する主要なクラスを自動的に分離し、セグメンテーションマップを生成する。
論文 参考訳(メタデータ) (2021-07-09T11:42:48Z) - Mining Cross-Image Semantics for Weakly Supervised Semantic Segmentation [128.03739769844736]
2つのニューラルコアテンションを分類器に組み込んで、画像間のセマンティックな類似点と相違点をキャプチャする。
オブジェクトパターン学習の強化に加えて、コアテンションは他の関連する画像からのコンテキストを活用して、ローカライズマップの推論を改善することができる。
提案アルゴリズムは,これらすべての設定に対して新たな最先端性を設定し,その有効性と一般化性を示す。
論文 参考訳(メタデータ) (2020-07-03T21:53:46Z) - Learning to Segment from Scribbles using Multi-scale Adversarial
Attention Gates [16.28285034098361]
弱い教師付き学習は、スクリブルのような弱いアノテーション形式に依存してモデルを訓練することができる。
我々は、複数の解像度でリアルなセグメンテーションマスクを生成するために、マルチスケールのGANをトレーニングし、スクリブルを使用して画像中の正しい位置を学習する。
モデルの成功の中心は、敵の信号が先行した形状として振る舞うことを条件とした、新しいアテンションゲーティング機構である。
論文 参考訳(メタデータ) (2020-07-02T14:39:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。