論文の概要: Texture-Semantic Collaboration Network for ORSI Salient Object Detection
- arxiv url: http://arxiv.org/abs/2312.03548v1
- Date: Wed, 6 Dec 2023 15:26:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-07 14:37:08.821488
- Title: Texture-Semantic Collaboration Network for ORSI Salient Object Detection
- Title(参考訳): ORSI正対象検出のためのテクスチャ・セマンティック協調ネットワーク
- Authors: Gongyang Li, Zhen Bai, Zhi Liu
- Abstract要約: ORSI-SODのためのテクスチャ・キューとセマンティック・キューの協調を探索するために,簡潔で効果的なテクスチャ・セマンティック・コラボレーション・ネットワーク(TSCNet)を提案する。
TSCNetは汎用エンコーダ・デコーダ構造に基づいており、TSCM(Texture-Semantic Collaboration Module)を含んでいる。
当社のTSCNetは,14の最先端手法と比較して,競争性能が向上している。
- 参考スコア(独自算出の注目度): 13.724588317778753
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Salient object detection (SOD) in optical remote sensing images (ORSIs) has
become increasingly popular recently. Due to the characteristics of ORSIs,
ORSI-SOD is full of challenges, such as multiple objects, small objects, low
illuminations, and irregular shapes. To address these challenges, we propose a
concise yet effective Texture-Semantic Collaboration Network (TSCNet) to
explore the collaboration of texture cues and semantic cues for ORSI-SOD.
Specifically, TSCNet is based on the generic encoder-decoder structure. In
addition to the encoder and decoder, TSCNet includes a vital Texture-Semantic
Collaboration Module (TSCM), which performs valuable feature modulation and
interaction on basic features extracted from the encoder. The main idea of our
TSCM is to make full use of the texture features at the lowest level and the
semantic features at the highest level to achieve the expression enhancement of
salient regions on features. In the TSCM, we first enhance the position of
potential salient regions using semantic features. Then, we render and restore
the object details using the texture features. Meanwhile, we also perceive
regions of various scales, and construct interactions between different
regions. Thanks to the perfect combination of TSCM and generic structure, our
TSCNet can take care of both the position and details of salient objects,
effectively handling various scenes. Extensive experiments on three datasets
demonstrate that our TSCNet achieves competitive performance compared to 14
state-of-the-art methods. The code and results of our method are available at
https://github.com/MathLee/TSCNet.
- Abstract(参考訳): 光リモートセンシング画像(orsis)におけるsalient object detection(sod)が最近普及している。
ORSIの特徴から、ORSI-SODは複数の物体、小さな物体、低い照度、不規則な形状といった課題に満ちている。
これらの課題に対処するために,ORSI-SODのためのテクスチャキューとセマンティックキューの協調を探索する,簡潔で効果的なテクスチャ・セマンティックコラボレーションネットワーク(TSCNet)を提案する。
具体的には、TSCNetは汎用エンコーダデコーダ構造に基づいている。
エンコーダとデコーダに加えて、TSCNetには、重要なTexture-Semantic Collaboration Module (TSCM)が含まれており、エンコーダから抽出した基本機能に対して、重要な機能変調と相互作用を行う。
TSCMの主な考え方は,最も低いレベルのテクスチャ特徴と最も高いレベルのセマンティック特徴を最大限に活用して,特徴量に対する顕著な領域の表現向上を実現することである。
TSCMでは,まず,意味的特徴を用いた潜在的正弦領域の位置を向上する。
次に,テクスチャ機能を用いてオブジェクトの詳細をレンダリングし,復元する。
また,様々なスケールの領域を認識し,異なる領域間の相互作用を構築する。
TSCMと汎用構造の完全な組み合わせにより、当社のTSCNetは、健全なオブジェクトの位置と詳細の両方を処理でき、様々なシーンを効果的に処理できる。
3つのデータセットに対する大規模な実験により、TSCNetは14の最先端手法と比較して競争性能が向上することを示した。
このメソッドのコードと結果は、https://github.com/mathlee/tscnetで入手できます。
関連論文リスト
- Hierarchical Graph Interaction Transformer with Dynamic Token Clustering for Camouflaged Object Detection [57.883265488038134]
本稿では,HGINetと呼ばれる階層的なグラフ相互作用ネットワークを提案する。
このネットワークは、階層的トークン化機能間の効果的なグラフ相互作用を通じて、知覚不能なオブジェクトを発見することができる。
本実験は,既存の最先端手法と比較して,HGINetの優れた性能を示すものである。
論文 参考訳(メタデータ) (2024-08-27T12:53:25Z) - COMNet: Co-Occurrent Matching for Weakly Supervised Semantic
Segmentation [13.244183864948848]
我々は,CAMの品質を向上し,オブジェクトの全体に対して注意を払うためにネットワークを強制する,新しいコオカレントマッチングネットワーク(COMNet)を提案する。
具体的には、共通クラスを含むペア画像のマッチングを行い、対応する領域を強化し、単一の画像上にマッチングを構築し、対象領域を横断する意味的特徴を伝達する。
The experiment on the Pascal VOC 2012 and MS-COCO datasets shows our network can effective boost the performance of the baseline model and a new-of-the-art performance。
論文 参考訳(メタデータ) (2023-09-29T03:55:24Z) - RGB-T Semantic Segmentation with Location, Activation, and Sharpening [27.381263494613556]
本稿では,RGB-Tセマンティックセマンティックセグメンテーションのための新しい機能融合ネットワークemphLASNetを提案する。
2つの公開データセットの実験結果から、LASNetが関連する最先端手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2022-10-26T07:42:34Z) - Adjacent Context Coordination Network for Salient Object Detection in
Optical Remote Sensing Images [102.75699068451166]
本稿では,光RSI-SODのためのエンコーダ・デコーダアーキテクチャにおいて,隣接した特徴のコーディネートを探索するための新しいアジャセントコンテキストコーディネートネットワーク(ACCoNet)を提案する。
提案されたACCoNetは、9つの評価基準の下で22の最先端メソッドを上回り、1つのNVIDIA Titan X GPU上で81fpsで動作する。
論文 参考訳(メタデータ) (2022-03-25T14:14:55Z) - Multi-Content Complementation Network for Salient Object Detection in
Optical Remote Sensing Images [108.79667788962425]
光リモートセンシング画像(RSI-SOD)における有能な物体検出は、いまだに課題である。
本稿では, RSI-SOD における複数コンテンツの相補性を検討するために, MCCNet (Multi-Content Complementation Network) を提案する。
MCCMでは、前景機能、エッジ機能、背景機能、グローバル画像レベル機能など、RSI-SODにとって重要な複数の機能について検討する。
論文 参考訳(メタデータ) (2021-12-02T04:46:40Z) - CTNet: Context-based Tandem Network for Semantic Segmentation [77.4337867789772]
本研究では,空間コンテキスト情報とチャネルコンテキスト情報とを対話的に探索し,新しいコンテキストベースタンデムネットワーク(CTNet)を提案する。
セマンティックセグメンテーションのための学習表現の性能をさらに向上するため、2つのコンテキストモジュールの結果を適応的に統合する。
論文 参考訳(メタデータ) (2021-04-20T07:33:11Z) - Learning Statistical Texture for Semantic Segmentation [53.7443670431132]
セマンティックセグメンテーションのための新しい統計テクスチャ学習ネットワーク(STLNet)を提案する。
STLNetは、初めて低レベルの情報の分布を分析し、それらをタスクに効率的に活用する。
1)テクスチャ関連情報を捕捉し,テクスチャの詳細を強化するためのテクスチャエンハンスモジュール(TEM),(2)ピラミッドテクスチャ特徴抽出モジュール(PTFEM)の2つのモジュールを導入し,複数のスケールから統計的テクスチャ特徴を効果的に抽出する。
論文 参考訳(メタデータ) (2021-03-06T15:05:35Z) - Towards Analysis-friendly Face Representation with Scalable Feature and
Texture Compression [113.30411004622508]
普遍的で協調的な視覚情報表現は階層的な方法で実現できることを示す。
ディープニューラルネットワークの強力な生成能力に基づいて、基本特徴層と強化層の間のギャップは、特徴レベルのテクスチャ再構築によってさらに埋められる。
提案するフレームワークの効率を改善するために,ベース層ニューラルネットワークをマルチタスクでトレーニングする。
論文 参考訳(メタデータ) (2020-04-21T14:32:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。