論文の概要: Multi-Content Complementation Network for Salient Object Detection in
Optical Remote Sensing Images
- arxiv url: http://arxiv.org/abs/2112.01932v1
- Date: Thu, 2 Dec 2021 04:46:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-06 16:15:14.573399
- Title: Multi-Content Complementation Network for Salient Object Detection in
Optical Remote Sensing Images
- Title(参考訳): 光リモートセンシング画像における有意物体検出のためのマルチコンテンツ補完ネットワーク
- Authors: Gongyang Li, Zhi Liu, Weisi Lin, Haibin Ling
- Abstract要約: 光リモートセンシング画像(RSI-SOD)における有能な物体検出は、いまだに課題である。
本稿では, RSI-SOD における複数コンテンツの相補性を検討するために, MCCNet (Multi-Content Complementation Network) を提案する。
MCCMでは、前景機能、エッジ機能、背景機能、グローバル画像レベル機能など、RSI-SODにとって重要な複数の機能について検討する。
- 参考スコア(独自算出の注目度): 108.79667788962425
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In the computer vision community, great progresses have been achieved in
salient object detection from natural scene images (NSI-SOD); by contrast,
salient object detection in optical remote sensing images (RSI-SOD) remains to
be a challenging emerging topic. The unique characteristics of optical RSIs,
such as scales, illuminations and imaging orientations, bring significant
differences between NSI-SOD and RSI-SOD. In this paper, we propose a novel
Multi-Content Complementation Network (MCCNet) to explore the complementarity
of multiple content for RSI-SOD. Specifically, MCCNet is based on the general
encoder-decoder architecture, and contains a novel key component named
Multi-Content Complementation Module (MCCM), which bridges the encoder and the
decoder. In MCCM, we consider multiple types of features that are critical to
RSI-SOD, including foreground features, edge features, background features, and
global image-level features, and exploit the content complementarity between
them to highlight salient regions over various scales in RSI features through
the attention mechanism. Besides, we comprehensively introduce pixel-level,
map-level and metric-aware losses in the training phase. Extensive experiments
on two popular datasets demonstrate that the proposed MCCNet outperforms 23
state-of-the-art methods, including both NSI-SOD and RSI-SOD methods. The code
and results of our method are available at https://github.com/MathLee/MCCNet.
- Abstract(参考訳): コンピュータビジョンのコミュニティでは、自然シーン画像(NSI-SOD)からの有能な物体検出に大きな進歩が見られ、対照的に、光学リモートセンシング画像(RSI-SOD)における有能な物体検出が課題となっている。
NSI-SODとRSI-SODの間には、スケール、イルミネーション、撮像方位などの光学RSI特有の特徴が大きな違いをもたらす。
本稿では,RSI-SODにおける複数コンテンツの相補性を検討するために,MCCNet(Multi-Content Complementation Network)を提案する。
具体的には、MCCNetは一般的なエンコーダ・デコーダアーキテクチャに基づいており、エンコーダとデコーダをブリッジするMulti-Content Complementation Module (MCCM)と呼ばれる新しいキーコンポーネントを含んでいる。
MCCMでは,前景特徴,エッジ特徴,背景特徴,背景特徴,グローバルな画像レベルの特徴を含む,RSI-SODに不可欠な複数の機能について検討し,その内容の相補性を活かして,注目機構を通じてRSI-SODの様々なスケールにおける健全な領域をハイライトする。
さらに,トレーニングフェーズにおいて,画素レベル,マップレベル,メトリックアウェアロスを包括的に導入する。
2つの一般的なデータセットに関する広範な実験により、提案手法はnsi-sod法とrsi-sod法の両方を含む23の最先端法よりも優れていることが示されている。
このメソッドのコードと結果は、https://github.com/mathlee/mccnetで入手できます。
関連論文リスト
- Texture-Semantic Collaboration Network for ORSI Salient Object Detection [13.724588317778753]
ORSI-SODのためのテクスチャ・キューとセマンティック・キューの協調を探索するために,簡潔で効果的なテクスチャ・セマンティック・コラボレーション・ネットワーク(TSCNet)を提案する。
TSCNetは汎用エンコーダ・デコーダ構造に基づいており、TSCM(Texture-Semantic Collaboration Module)を含んでいる。
当社のTSCNetは,14の最先端手法と比較して,競争性能が向上している。
論文 参考訳(メタデータ) (2023-12-06T15:26:38Z) - A lightweight multi-scale context network for salient object detection
in optical remote sensing images [16.933770557853077]
光学RSIにおける有能な物体検出のためのマルチスケールコンテキストネットワークMSCNetを提案する。
具体的には、有能なオブジェクトのスケール変動に対処するために、マルチスケールコンテキスト抽出モジュールを採用する。
複雑な背景の完全正当性オブジェクトを正確に検出するために,注意に基づくピラミッド特徴集約機構を設計する。
論文 参考訳(メタデータ) (2022-05-18T14:32:47Z) - Adjacent Context Coordination Network for Salient Object Detection in
Optical Remote Sensing Images [102.75699068451166]
本稿では,光RSI-SODのためのエンコーダ・デコーダアーキテクチャにおいて,隣接した特徴のコーディネートを探索するための新しいアジャセントコンテキストコーディネートネットワーク(ACCoNet)を提案する。
提案されたACCoNetは、9つの評価基準の下で22の最先端メソッドを上回り、1つのNVIDIA Titan X GPU上で81fpsで動作する。
論文 参考訳(メタデータ) (2022-03-25T14:14:55Z) - Learning Deep Context-Sensitive Decomposition for Low-Light Image
Enhancement [58.72667941107544]
典型的なフレームワークは、照明と反射を同時に推定することであるが、特徴空間にカプセル化されたシーンレベルの文脈情報を無視する。
本研究では,空間スケールにおけるシーンレベルのコンテキスト依存を生かした,コンテキスト依存型分解ネットワークアーキテクチャを提案する。
チャネル数を減らして軽量なCSDNet(LiteCSDNet)を開発する。
論文 参考訳(メタデータ) (2021-12-09T06:25:30Z) - Specificity-preserving RGB-D Saliency Detection [103.3722116992476]
本稿では,RGB-Dサリエンシ検出のための特異性保存ネットワーク(SP-Net)を提案する。
2つのモダリティ特化ネットワークと共有学習ネットワークを採用し、個別および共有唾液マップを生成する。
6つのベンチマークデータセットの実験では、SP-Netは他の最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2021-08-18T14:14:22Z) - A Parallel Down-Up Fusion Network for Salient Object Detection in
Optical Remote Sensing Images [82.87122287748791]
光リモートセンシング画像(RSI)における有意な物体検出のための新しい並列ダウンアップフュージョンネットワーク(PDF-Net)を提案する。
In-pathの低レベル・高レベルな特徴とクロスパスの多解像度な特徴をフル活用して、多様なスケールのサルエントオブジェクトを識別し、散らかった背景を抑える。
ORSSDデータセットの実験により、提案したネットワークは定性的かつ定量的に最先端のアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2020-10-02T05:27:57Z) - MACU-Net for Semantic Segmentation of Fine-Resolution Remotely Sensed
Images [11.047174552053626]
MACU-Netは、マルチスケールのスキップ接続と非対称畳み込みベースのU-Netで、微細解像度のリモートセンシング画像を提供する。
本設計では,(1)低レベル・高レベルの特徴写像に含まれる意味的特徴と,(2)非対称な畳み込みブロックは,標準畳み込み層の特徴表現と特徴抽出能力を強化する。
2つのリモートセンシングデータセットで行った実験では、提案したMACU-NetがU-Net、U-NetPPL、U-Net 3+、その他のベンチマークアプローチを超越していることが示されている。
論文 参考訳(メタデータ) (2020-07-26T08:56:47Z) - Learning Enriched Features for Real Image Restoration and Enhancement [166.17296369600774]
畳み込みニューラルネットワーク(CNN)は、画像復元作業における従来のアプローチよりも劇的に改善されている。
ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とした,新しいアーキテクチャを提案する。
提案手法は,高解像度の空間的詳細を同時に保存しながら,複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
論文 参考訳(メタデータ) (2020-03-15T11:04:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。