論文の概要: Specificity-preserving RGB-D Saliency Detection
- arxiv url: http://arxiv.org/abs/2108.08162v1
- Date: Wed, 18 Aug 2021 14:14:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-19 14:37:43.478138
- Title: Specificity-preserving RGB-D Saliency Detection
- Title(参考訳): RGB-D比例値検出
- Authors: Tao Zhou, Huazhu Fu, Geng Chen, Yi Zhou, Deng-Ping Fan, Ling Shao
- Abstract要約: 本稿では,RGB-Dサリエンシ検出のための特異性保存ネットワーク(SP-Net)を提案する。
2つのモダリティ特化ネットワークと共有学習ネットワークを採用し、個別および共有唾液マップを生成する。
6つのベンチマークデータセットの実験では、SP-Netは他の最先端の手法よりも優れています。
- 参考スコア(独自算出の注目度): 103.3722116992476
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: RGB-D saliency detection has attracted increasing attention, due to its
effectiveness and the fact that depth cues can now be conveniently captured.
Existing works often focus on learning a shared representation through various
fusion strategies, with few methods explicitly considering how to preserve
modality-specific characteristics. In this paper, taking a new perspective, we
propose a specificity-preserving network (SP-Net) for RGB-D saliency detection,
which benefits saliency detection performance by exploring both the shared
information and modality-specific properties (e.g., specificity). Specifically,
two modality-specific networks and a shared learning network are adopted to
generate individual and shared saliency maps. A cross-enhanced integration
module (CIM) is proposed to fuse cross-modal features in the shared learning
network, which are then propagated to the next layer for integrating
cross-level information. Besides, we propose a multi-modal feature aggregation
(MFA) module to integrate the modality-specific features from each individual
decoder into the shared decoder, which can provide rich complementary
multi-modal information to boost the saliency detection performance. Further, a
skip connection is used to combine hierarchical features between the encoder
and decoder layers. Experiments on six benchmark datasets demonstrate that our
SP-Net outperforms other state-of-the-art methods. Code is available at:
https://github.com/taozh2017/SPNet.
- Abstract(参考訳): rgb-dサリエンシー検出は、その有効性と深さの手がかりを便利に捉えることができるため、注目を集めている。
既存の作品は、様々な融合戦略を通じて共有表現を学習することに焦点を当てることが多いが、モダリティ特有の特性を保存する方法を明示的に検討する手法はほとんどない。
本稿では,RGB-D唾液度検出のための特異性保存ネットワーク(SP-Net)を提案する。
具体的には,2つのモダリティ特化ネットワークと共有学習ネットワークを用いて,個別および共有塩分マップを生成する。
cross-enhanced integration module (cim) は、共有学習ネットワークにクロスモーダル機能を融合するために提案されている。
さらに,各デコーダのモダリティ固有の特徴を共有デコーダに統合するマルチモーダル特徴集約(MFA)モジュールを提案する。
さらに、エンコーダ層とデコーダ層の間の階層的特徴を組み合わせるためにスキップ接続を用いる。
6つのベンチマークデータセットの実験では、SP-Netは他の最先端手法よりも優れています。
コードはhttps://github.com/taozh2017/spnet。
関連論文リスト
- Object Segmentation by Mining Cross-Modal Semantics [68.88086621181628]
マルチモーダル特徴の融合と復号を導くために,クロスモーダル・セマンティックスをマイニングする手法を提案する。
具体的には,(1)全周減衰核融合(AF),(2)粗大デコーダ(CFD),(3)多層自己超越からなる新しいネットワークXMSNetを提案する。
論文 参考訳(メタデータ) (2023-05-17T14:30:11Z) - HiDAnet: RGB-D Salient Object Detection via Hierarchical Depth Awareness [2.341385717236931]
本稿では,RGB-Dサリエンシ検出のための階層的深度認識ネットワーク(HiDAnet)を提案する。
我々のモチベーションは、幾何学的先行の多粒性特性がニューラルネットワーク階層とよく相関しているという観察から来ています。
当社のHiDAnetは最先端の手法よりも大きなマージンで良好に動作します。
論文 参考訳(メタデータ) (2023-01-18T10:00:59Z) - Feature Aggregation and Propagation Network for Camouflaged Object
Detection [42.33180748293329]
カモフラージュされたオブジェクト検出(COD)は、環境に埋め込まれたカモフラージュされたオブジェクトを検出し、分離することを目的としている。
いくつかのCOD法が開発されているが, 前景オブジェクトと背景環境との固有の類似性により, 依然として不満足な性能に悩まされている。
カモフラージュされた物体検出のための新しい特徴集約・伝播ネットワーク(FAP-Net)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:54:28Z) - Dual Swin-Transformer based Mutual Interactive Network for RGB-D Salient
Object Detection [67.33924278729903]
本研究では,Dual Swin-Transformerを用いたMutual Interactive Networkを提案する。
視覚入力における長距離依存をモデル化するために,RGBと奥行きモードの両方の機能抽出器としてSwin-Transformerを採用している。
5つの標準RGB-D SODベンチマークデータセットに関する総合的な実験は、提案手法の優位性を実証している。
論文 参考訳(メタデータ) (2022-06-07T08:35:41Z) - M2RNet: Multi-modal and Multi-scale Refined Network for RGB-D Salient
Object Detection [1.002712867721496]
RGB-Dに基づく手法は、多モード特徴融合の不整合性とマルチスケール特徴集合の不整合に悩まされることが多い。
マルチモーダル・マルチスケール改良ネットワーク(M2RNet)を提案する。
このネットワークには3つの重要なコンポーネントが紹介されている。
論文 参考訳(メタデータ) (2021-09-16T12:15:40Z) - M2IOSR: Maximal Mutual Information Open Set Recognition [47.1393314282815]
オープンセット認識のための合理化アーキテクチャを用いた相互情報に基づく手法を提案する。
提案手法は, ベースラインの性能を著しく向上させ, 連続したベンチマークによる新しい最先端結果を実現する。
論文 参考訳(メタデータ) (2021-08-05T05:08:12Z) - Cross-modality Discrepant Interaction Network for RGB-D Salient Object
Detection [78.47767202232298]
本稿では,RGB-D SODのためのクロスモダリティ離散相互作用ネットワーク(CDINet)を提案する。
2つのコンポーネントは、効果的な相互モダリティ相互作用を実装するように設計されている。
我々のネットワークは、定量的にも質的にも15ドルの最先端の手法より優れています。
論文 参考訳(メタデータ) (2021-08-04T11:24:42Z) - Deep feature selection-and-fusion for RGB-D semantic segmentation [8.831857715361624]
本研究は,fsfnet (unified and efficient feature selection and-fusion network) を提案する。
FSFNetは、マルチモダリティ情報の明示的な融合に使用される対称クロスモダリティ残留融合モジュールを含む。
最新の手法と比較すると,提案モデルが2つの公開データセットで競合性能を発揮できることを実験的に評価した。
論文 参考訳(メタデータ) (2021-05-10T04:02:32Z) - Decoupled and Memory-Reinforced Networks: Towards Effective Feature
Learning for One-Step Person Search [65.51181219410763]
歩行者検出と識別サブタスクを1つのネットワークで処理するワンステップ方式を開発しました。
現在のワンステップアプローチには2つの大きな課題があります。
本稿では,これらの問題を解決するために,分離メモリ強化ネットワーク(DMRNet)を提案する。
論文 参考訳(メタデータ) (2021-02-22T06:19:45Z) - RGB-D Salient Object Detection with Cross-Modality Modulation and
Selection [126.4462739820643]
本稿では, RGB-D Salient Object Detection (SOD) において, モジュール間相補性を段階的に統合し, 改良する有効な方法を提案する。
提案するネットワークは,1)RGB画像とそれに対応する深度マップからの補完情報を効果的に統合する方法,および2)より精度の高い特徴を適応的に選択する方法の2つの課題を主に解決する。
論文 参考訳(メタデータ) (2020-07-14T14:22:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。