論文の概要: Salient Object Detection in Optical Remote Sensing Images Driven by
Transformer
- arxiv url: http://arxiv.org/abs/2309.08206v1
- Date: Fri, 15 Sep 2023 07:14:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-18 15:32:44.999952
- Title: Salient Object Detection in Optical Remote Sensing Images Driven by
Transformer
- Title(参考訳): 変圧器駆動光リモートセンシング画像における局所物体検出
- Authors: Gongyang Li and Zhen Bai and Zhi Liu and Xinpeng Zhang and Haibin Ling
- Abstract要約: 光リモートセンシング画像(ORSI-SOD)のためのGlobal extract Local Exploration Network(GeleNet)を提案する。
具体的には、GeleNetはまずトランスフォーマーバックボーンを採用し、グローバルな長距離依存関係を持つ4レベルの機能埋め込みを生成する。
3つの公開データセットに関する大規模な実験は、提案されたGeleNetが関連する最先端メソッドより優れていることを示している。
- 参考スコア(独自算出の注目度): 69.22039680783124
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Existing methods for Salient Object Detection in Optical Remote Sensing
Images (ORSI-SOD) mainly adopt Convolutional Neural Networks (CNNs) as the
backbone, such as VGG and ResNet. Since CNNs can only extract features within
certain receptive fields, most ORSI-SOD methods generally follow the
local-to-contextual paradigm. In this paper, we propose a novel Global
Extraction Local Exploration Network (GeleNet) for ORSI-SOD following the
global-to-local paradigm. Specifically, GeleNet first adopts a transformer
backbone to generate four-level feature embeddings with global long-range
dependencies. Then, GeleNet employs a Direction-aware Shuffle Weighted Spatial
Attention Module (D-SWSAM) and its simplified version (SWSAM) to enhance local
interactions, and a Knowledge Transfer Module (KTM) to further enhance
cross-level contextual interactions. D-SWSAM comprehensively perceives the
orientation information in the lowest-level features through directional
convolutions to adapt to various orientations of salient objects in ORSIs, and
effectively enhances the details of salient objects with an improved attention
mechanism. SWSAM discards the direction-aware part of D-SWSAM to focus on
localizing salient objects in the highest-level features. KTM models the
contextual correlation knowledge of two middle-level features of different
scales based on the self-attention mechanism, and transfers the knowledge to
the raw features to generate more discriminative features. Finally, a saliency
predictor is used to generate the saliency map based on the outputs of the
above three modules. Extensive experiments on three public datasets demonstrate
that the proposed GeleNet outperforms relevant state-of-the-art methods. The
code and results of our method are available at
https://github.com/MathLee/GeleNet.
- Abstract(参考訳): 光リモートセンシング画像(ORSI-SOD)における有能物体検出のための既存の手法は、主にVGGやResNetなどのバックボーンとして畳み込みニューラルネットワーク(CNN)を採用している。
CNNは、特定の受容領域内でのみ特徴を抽出できるため、ほとんどのORSI-SODメソッドは、一般にローカルからコンテクストのパラダイムに従う。
本稿では, ORSI-SODのためのグローバル抽出ローカル探索ネットワーク(GeleNet)を提案する。
具体的には、gelenetはまずトランスフォーマーバックボーンを採用し、グローバルな長距離依存性を持つ4レベル機能埋め込みを生成する。
次に、gelenetは方向認識型シャッフル重み付き空間注意モジュール(d-swsam)とその単純化バージョン(swsam)を使用して局所的な相互作用を強化し、ktm(知識伝達モジュール)によりクロスレベルなコンテキストインタラクションをさらに強化する。
d-swsamは、オリエント対象の様々なオリエンテーションに適応するための方向畳み込みにより、低レベル特徴のオリエンテーション情報を総合的に知覚し、注意機構を改良したサレント対象のディテールを効果的に向上させる。
SWSAMは、D-SWSAMの方向認識部分を捨てて、最高レベルの特徴における有能なオブジェクトのローカライズに集中する。
ktmは、自己照査機構に基づいて、異なるスケールの2つの中レベル特徴の文脈相関知識をモデル化し、知識を生特徴に移し、より識別的な特徴を生成する。
最後に、上記3つのモジュールの出力に基づいて、塩分予測器を用いて塩分マップを生成する。
3つの公開データセットに関する大規模な実験は、提案されたGeleNetが関連する最先端メソッドより優れていることを示している。
このメソッドのコードと結果は、https://github.com/mathlee/gelenetで入手できます。
関連論文リスト
- United Domain Cognition Network for Salient Object Detection in Optical Remote Sensing Images [21.76732661032257]
周波数領域と空間領域のグローバルローカル情報を共同で探索する新しい統一ドメイン認知ネットワーク(UDCNet)を提案する。
実験結果から提案したUDCNetが24種類の最先端モデルよりも優れていることが示された。
論文 参考訳(メタデータ) (2024-11-11T04:12:27Z) - PVAFN: Point-Voxel Attention Fusion Network with Multi-Pooling Enhancing for 3D Object Detection [59.355022416218624]
点とボクセルの表現の統合は、LiDARベースの3Dオブジェクト検出においてより一般的になりつつある。
PVAFN(Point-Voxel Attention Fusion Network)と呼ばれる新しい2段3次元物体検出器を提案する。
PVAFNはマルチプール戦略を使用して、マルチスケールとリージョン固有の情報を効果的に統合する。
論文 参考訳(メタデータ) (2024-08-26T19:43:01Z) - ELGC-Net: Efficient Local-Global Context Aggregation for Remote Sensing Change Detection [65.59969454655996]
本稿では,変化領域を正確に推定するために,リッチな文脈情報を利用する効率的な変化検出フレームワークELGC-Netを提案する。
提案するELGC-Netは、リモートセンシング変更検出ベンチマークにおいて、最先端の性能を新たに設定する。
また,ELGC-Net-LWも導入した。
論文 参考訳(メタデータ) (2024-03-26T17:46:25Z) - M$^3$Net: Multilevel, Mixed and Multistage Attention Network for Salient
Object Detection [22.60675416709486]
M$3$Netは、Salient Object Detectionのためのアテンションネットワークである。
マルチレベル特徴間の相互作用を実現するためのクロスアテンションアプローチ。
Mixed Attention Blockは、グローバルレベルとローカルレベルの両方でコンテキストをモデリングすることを目的としている。
集約された特徴をステージごとに最適化するためのマルチレベル監視戦略。
論文 参考訳(メタデータ) (2023-09-15T12:46:14Z) - De-coupling and De-positioning Dense Self-supervised Learning [65.56679416475943]
Dense Self-Supervised Learning (SSL)メソッドは、複数のオブジェクトでイメージを処理する際に、画像レベルの特徴表現を使用する際の制限に対処する。
本研究は, 層深度やゼロパディングに伴う受容野の増大によって生じる, 結合と位置バイアスに悩まされていることを示す。
我々はCOCOにおける本手法の利点と、オブジェクト分類、セマンティックセグメンテーション、オブジェクト検出のための新しい挑戦的ベンチマークであるOpenImage-MINIについて示す。
論文 参考訳(メタデータ) (2023-03-29T18:07:25Z) - GroupTransNet: Group Transformer Network for RGB-D Salient Object
Detection [5.876499671899904]
本稿では,RGB-D有向物体検出のためのグループトランスフォーマーネットワーク(GroupTransNet)を提案する。
GroupTransNetは、クロスレイヤ機能の長距離依存関係を学ぶのが得意です。
実験により、GroupTransNetは比較モデルより優れていることが示された。
論文 参考訳(メタデータ) (2022-03-21T08:00:16Z) - LCTR: On Awakening the Local Continuity of Transformer for Weakly
Supervised Object Localization [38.376238216214524]
弱教師付きオブジェクトローカライゼーション(WSOL)は、画像レベルのラベルだけでオブジェクトローカライザを学習することを目的としている。
本稿では,グローバルな特徴の局所認識能力を高めることを目的とした,LCTRと呼ばれるトランスフォーマー上に構築された新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-10T01:48:40Z) - RGB-D Salient Object Detection with Cross-Modality Modulation and
Selection [126.4462739820643]
本稿では, RGB-D Salient Object Detection (SOD) において, モジュール間相補性を段階的に統合し, 改良する有効な方法を提案する。
提案するネットワークは,1)RGB画像とそれに対応する深度マップからの補完情報を効果的に統合する方法,および2)より精度の高い特徴を適応的に選択する方法の2つの課題を主に解決する。
論文 参考訳(メタデータ) (2020-07-14T14:22:50Z) - Global Context-Aware Progressive Aggregation Network for Salient Object
Detection [117.943116761278]
我々は,低レベルな外観特徴,高レベルな意味特徴,グローバルな文脈特徴を統合化するための新しいネットワークGCPANetを提案する。
提案手法は, 定量的かつ定性的に, 最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-03-02T04:26:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。