論文の概要: SACANet: scene-aware class attention network for semantic segmentation
of remote sensing images
- arxiv url: http://arxiv.org/abs/2304.11424v1
- Date: Sat, 22 Apr 2023 14:54:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-25 18:27:45.145458
- Title: SACANet: scene-aware class attention network for semantic segmentation
of remote sensing images
- Title(参考訳): sacanet:リモートセンシング画像の意味セグメンテーションのためのシーン認識クラスアテンションネットワーク
- Authors: Xiaowen Ma, Rui Che, Tingfeng Hong, Mengting Ma, Ziyan Zhao, Tian Feng
and Wei Zhang
- Abstract要約: リモートセンシング画像のセマンティックセグメンテーションのためのシーン認識クラスアテンションネットワーク(SACANet)を提案する。
3つのデータセットの実験結果は、SACANetが他の最先端の手法より優れ、その有効性を検証することを示している。
- 参考スコア(独自算出の注目度): 4.124381172041927
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spatial attention mechanism has been widely used in semantic segmentation of
remote sensing images given its capability to model long-range dependencies.
Many methods adopting spatial attention mechanism aggregate contextual
information using direct relationships between pixels within an image, while
ignoring the scene awareness of pixels (i.e., being aware of the global context
of the scene where the pixels are located and perceiving their relative
positions). Given the observation that scene awareness benefits context
modeling with spatial correlations of ground objects, we design a scene-aware
attention module based on a refined spatial attention mechanism embedding scene
awareness. Besides, we present a local-global class attention mechanism to
address the problem that general attention mechanism introduces excessive
background noises while hardly considering the large intra-class variance in
remote sensing images. In this paper, we integrate both scene-aware and class
attentions to propose a scene-aware class attention network (SACANet) for
semantic segmentation of remote sensing images. Experimental results on three
datasets show that SACANet outperforms other state-of-the-art methods and
validate its effectiveness. Code is available at
https://github.com/xwmaxwma/rssegmentation.
- Abstract(参考訳): 空間的注意機構は、長距離依存をモデル化する能力から、リモートセンシング画像のセマンティックセグメンテーションに広く利用されている。
空間的注意機構を取り入れた多くの方法は、画像内の画素間の直接的な関係を利用してコンテキスト情報を集約し、画素のシーン認識を無視した(つまり、画素が位置するシーンのグローバルなコンテキストを認識して相対的な位置を認識する)。
地上物体の空間的相関を考慮した文脈モデルによるシーン認識の利点を考慮し,より洗練された空間的注意機構を組み込んだシーン認識モジュールを設計する。
さらに,リモートセンシング画像におけるクラス内大きなばらつきを考慮せずに,一般の注目機構が過度な背景雑音を発生させる問題に対処する,地域クラスアテンション機構を提案する。
本稿では,シーン認識とクラスアテンションを統合し,リモートセンシング画像のセマンティックセグメンテーションのためのシーン認識クラスアテンションネットワーク(SACANet)を提案する。
3つのデータセットの実験結果は、SACANetが他の最先端の手法より優れ、その有効性を検証することを示している。
コードはhttps://github.com/xwmaxwma/rssegmentationで入手できる。
関連論文リスト
- Spotlight Attention: Robust Object-Centric Learning With a Spatial
Locality Prior [88.9319150230121]
オブジェクト中心のビジョンは、シーン内のオブジェクトの明示的な表現を構築することを目的としています。
我々は、空間的局所性を最先端のオブジェクト中心視覚モデルに組み込む。
合成および実世界の両方のデータセットにおけるセグメンテーションオブジェクトの大幅な改善が得られた。
論文 参考訳(メタデータ) (2023-05-31T04:35:50Z) - Local-Aware Global Attention Network for Person Re-Identification Based on Body and Hand Images [0.0]
本稿では,身体画像と手動画像の両面から,人物Re-Idに対するエンドツーエンドの識別的深層特徴学習のための複合的アプローチを提案する。
提案手法は既存の最先端手法よりも一貫して優れている。
論文 参考訳(メタデータ) (2022-09-11T09:43:42Z) - Bi-directional Object-context Prioritization Learning for Saliency
Ranking [60.62461793691836]
既存のアプローチは、オブジェクトオブジェクトかオブジェクトシーンの関係を学ぶことに集中しています。
我々は,人間の視覚認識システムにおいて,空間的注意と物体に基づく注意が同時に機能することが観察された。
本稿では,空間的注意を統一する新たな双方向手法を提案する。
論文 参考訳(メタデータ) (2022-03-17T16:16:03Z) - Learning to ignore: rethinking attention in CNNs [87.01305532842878]
我々は,CNNの注意機構を再構築し,出席する学習ではなく無視することを学ぶことを提案する。
具体的には、シーン内で無関係な情報を明示的に学習し、生成した表現でそれを抑えることを提案する。
論文 参考訳(メタデータ) (2021-11-10T13:47:37Z) - Implicit and Explicit Attention for Zero-Shot Learning [11.66422653137002]
ゼロショット学習(ZSL)モデルにおけるバイアス問題に対処するための暗黙的かつ明示的な注意機構を提案する。
我々は、AWA2、CUB、SUNの3つの人気のあるベンチマークで包括的な実験を行う。
論文 参考訳(メタデータ) (2021-10-02T18:06:21Z) - Instance-aware Remote Sensing Image Captioning with Cross-hierarchy
Attention [11.23821696220285]
空間的注意は、リモートセンシング画像キャプションのパフォーマンスを高めるための簡単なアプローチです。
インスタンス認識と階層横断に注目したリモートセンシング画像キャプションジェネレータを提案する。
論文 参考訳(メタデータ) (2021-05-11T12:59:07Z) - Rethinking of the Image Salient Object Detection: Object-level Semantic
Saliency Re-ranking First, Pixel-wise Saliency Refinement Latter [62.26677215668959]
本稿では,意味的に有意な領域を粗い位置で特定する,軽量で教師付きの深層ネットワークを提案する。
次に,これらセマンティック・サリエント領域の深層モデルを画素ワイド・サリエンシ改善として融合する。
提案手法は単純だが有効であり,本手法は主眼をオブジェクトレベルのセマンティック・リグレード問題とみなすための最初の試みである。
論文 参考訳(メタデータ) (2020-08-10T07:12:43Z) - Mining Cross-Image Semantics for Weakly Supervised Semantic Segmentation [128.03739769844736]
2つのニューラルコアテンションを分類器に組み込んで、画像間のセマンティックな類似点と相違点をキャプチャする。
オブジェクトパターン学習の強化に加えて、コアテンションは他の関連する画像からのコンテキストを活用して、ローカライズマップの推論を改善することができる。
提案アルゴリズムは,これらすべての設定に対して新たな最先端性を設定し,その有効性と一般化性を示す。
論文 参考訳(メタデータ) (2020-07-03T21:53:46Z) - Remote Sensing Image Scene Classification Meets Deep Learning:
Challenges, Methods, Benchmarks, and Opportunities [81.29441139530844]
本稿では,160以上の論文を網羅し,リモートセンシング画像シーン分類のためのディープラーニング手法の体系的調査を行う。
リモートセンシング画像シーンの分類と調査の主な課題について論じる。
リモートセンシング画像シーン分類に使用されるベンチマークを導入し,2ダース以上の代表アルゴリズムの性能を要約する。
論文 参考訳(メタデータ) (2020-05-03T14:18:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。