論文の概要: Mitigating Undisciplined Over-Smoothing in Transformer for Weakly
Supervised Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2305.03112v1
- Date: Thu, 4 May 2023 19:11:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-08 16:15:06.758526
- Title: Mitigating Undisciplined Over-Smoothing in Transformer for Weakly
Supervised Semantic Segmentation
- Title(参考訳): 弱教師付きセマンティックセグメンテーションにおける変圧器の非偏平オーバースムーシングの軽減
- Authors: Jingxuan He, Lechao Cheng, Chaowei Fang, Dingwen Zhang, Zhangye Wang,
Wei Chen
- Abstract要約: 本研究では,物体内部の不完全な注意と非有界背景雑音を緩和する適応的再活性化機構(AReAM)を提案する。
AReAMは、浅い親和性行列で高いレベルの注意を監督することでこれを達成し、有望な結果をもたらす。
- 参考スコア(独自算出の注目度): 41.826919704238556
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A surge of interest has emerged in weakly supervised semantic segmentation
due to its remarkable efficiency in recent years. Existing approaches based on
transformers mainly focus on exploring the affinity matrix to boost CAMs with
global relationships. While in this work, we first perform a scrupulous
examination towards the impact of successive affinity matrices and discover
that they possess an inclination toward sparsification as the network
approaches convergence, hence disclosing a manifestation of over-smoothing.
Besides, it has been observed that enhanced attention maps tend to evince a
substantial amount of extraneous background noise in deeper layers. Drawing
upon this, we posit a daring conjecture that the undisciplined over-smoothing
phenomenon introduces a noteworthy quantity of semantically irrelevant
background noise, causing performance degradation. To alleviate this issue, we
propose a novel perspective that highlights the objects of interest by
investigating the regions of the trait, thereby fostering an extensive
comprehension of the successive affinity matrix. Consequently, we suggest an
adaptive re-activation mechanism (AReAM) that alleviates the issue of
incomplete attention within the object and the unbounded background noise.
AReAM accomplishes this by supervising high-level attention with shallow
affinity matrices, yielding promising results. Exhaustive experiments conducted
on the commonly used dataset manifest that segmentation results can be greatly
improved through our proposed AReAM, which imposes restrictions on each
affinity matrix in deep layers to make it attentive to semantic regions.
- Abstract(参考訳): 近年、その顕著な効率性から、弱い教師付きセマンティックセグメンテーションへの関心が高まっている。
トランスフォーマーに基づく既存のアプローチは主に、グローバルな関係を持つCAMを促進するアフィニティ行列の探索に焦点を当てている。
本研究は,まず連続した親和性行列の影響を考慮し,ネットワークが収束に近づき,過度なスムース化の顕在化を示すため,スペーサー化への傾きがあることを発見する。
また,注意度マップの強化は,より深い層において相当量の背景雑音を緩和する傾向が観察されている。
そこで本研究では,非分別オーバースムーシング現象が意味論的に無関係な背景雑音の注目に値する量をもたらし,性能低下を引き起こすという大胆な推測を仮定する。
この問題を軽減するため,我々は,特徴の領域を調査して興味の対象を強調する新たな視点を提案し,その結果,連続する親和性行列の広範囲な理解を育む。
そこで本研究では,物体内の不完全注意の問題や背景雑音を緩和する適応的再活性化機構(aream)を提案する。
AReAMは、浅い親和性行列で高いレベルの注意を監督することでこれを達成し、有望な結果をもたらす。
提案したAREAMにより, セグメンテーションの結果は, 深い層内の親和性行列に制限を課し, セグメンテーションの結果を大幅に改善できることを示した。
関連論文リスト
- Fast Disentangled Slim Tensor Learning for Multi-view Clustering [28.950845031752927]
本稿では,マルチビュークラスタリングのための高速離散スリム学習法(DSTL)を提案する。
頑健なPCAにインスパイアされた特徴冗長性の負の影響を軽減するため、DSTLは、潜在する低次元表現を、各ビューに対する意味的非関連部分と意味的関連部分に分解する。
提案手法は計算効率が高く,効果的に解ける。
論文 参考訳(メタデータ) (2024-11-12T09:57:53Z) - Sub-Adjacent Transformer: Improving Time Series Anomaly Detection with Reconstruction Error from Sub-Adjacent Neighborhoods [22.49176231245093]
教師なし時系列異常検出のための新しいアテンション機構を備えたサブアジャセント変換器を提案する。
サブアジャセント領域に注意を集中させることで、異常の再構築をより困難にしている。
Sub-Adjacent Transformerは、6つの実世界の異常検出ベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-04-27T08:08:17Z) - Tackling Ambiguity from Perspective of Uncertainty Inference and Affinity Diversification for Weakly Supervised Semantic Segmentation [12.308473939796945]
画像レベルのラベルを持つ弱教師付きセマンティックセマンティックセグメンテーション(WSSS)は、退屈なアノテーションを使わずに高密度なタスクを実現することを目的としている。
WSSSの性能、特にクラス活性化マップ(CAM)の生成と擬似マスクの精製の段階では、あいまいさに悩まされている。
統一された単一ステージWSSSフレームワークであるUniAを提案し、不確実性推論と親和性多様化の観点からこの問題に対処する。
論文 参考訳(メタデータ) (2024-04-12T01:54:59Z) - Eliminating Catastrophic Overfitting Via Abnormal Adversarial Examples Regularization [50.43319961935526]
SSAT(Single-step adversarial training)は、効率性と堅牢性の両方を達成する可能性を実証している。
SSATは破滅的なオーバーフィッティング(CO)に苦しむが、これは非常に歪んだ分類器に繋がる現象である。
本研究では,SSAT学習ネットワーク上で発生するいくつかの逆の例が異常な振る舞いを示すことを観察する。
論文 参考訳(メタデータ) (2024-04-11T22:43:44Z) - Towards Robust Semantic Segmentation against Patch-based Attack via Attention Refinement [68.31147013783387]
我々は,アテンション機構がパッチベースの敵攻撃に弱いことを観察した。
本稿では,意味的セグメンテーションモデルの堅牢性を改善するために,ロバスト注意機構(RAM)を提案する。
論文 参考訳(メタデータ) (2024-01-03T13:58:35Z) - Improving Vision Anomaly Detection with the Guidance of Language
Modality [64.53005837237754]
本稿では,マルチモーダルの観点から視覚モダリティの課題に取り組む。
本稿では,冗長な情報問題とスパース空間問題に対処するために,クロスモーダルガイダンス(CMG)を提案する。
視覚異常検出のためのよりコンパクトな潜在空間を学習するために、CMLEは言語モダリティから相関構造行列を学習する。
論文 参考訳(メタデータ) (2023-10-04T13:44:56Z) - Counterfactual Co-occurring Learning for Bias Mitigation in
Weakly-supervised Object Localization [37.307498788813035]
我々は、偏りのあるアクティベーションの起源を調べるために、徹底的な因果解析を行う。
我々はCCL(Counterfactual Co-occurring Learning)と呼ばれる先駆的パラダイムを導入する。
本稿では,Counterfactual-CAMと呼ばれる革新的なネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-05-24T17:07:30Z) - Toward Certified Robustness Against Real-World Distribution Shifts [65.66374339500025]
我々は、データから摂動を学ぶために生成モデルを訓練し、学習したモデルの出力に関して仕様を定義する。
この設定から生じるユニークな挑戦は、既存の検証者がシグモイドの活性化を厳密に近似できないことである。
本稿では,古典的な反例誘導的抽象的洗練の概念を活用するシグモイドアクティベーションを扱うための一般的なメタアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-06-08T04:09:13Z) - Untangling tradeoffs between recurrence and self-attention in neural
networks [81.30894993852813]
本稿では,再帰的ネットワークにおける自己注意が勾配伝播に与える影響を公式に分析する。
長期的な依存関係を捉えようとするとき、勾配をなくすことの問題を緩和することを証明する。
本稿では,スパース自己アテンションを反復的にスケーラブルに利用するための関連性スクリーニング機構を提案する。
論文 参考訳(メタデータ) (2020-06-16T19:24:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。