論文の概要: Towards Accurate RGB-D Saliency Detection with Complementary Attention
and Adaptive Integration
- arxiv url: http://arxiv.org/abs/2102.04046v1
- Date: Mon, 8 Feb 2021 08:08:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-09 15:39:54.270525
- Title: Towards Accurate RGB-D Saliency Detection with Complementary Attention
and Adaptive Integration
- Title(参考訳): 相補的注意と適応的統合によるRGB-D精度検出に向けて
- Authors: Hong-Bo Bi, Zi-Qi Liu, Kang Wang, Bo Dong, Geng Chen, Ji-Quan Ma
- Abstract要約: 近年,RGB画像と深度マップの相補的情報に基づく残差検出が盛んに行われている。
本稿では,補完的注意に基づく特徴集中と適応的クロスモーダル特徴融合を統合するための補完的注意・適応統合ネットワーク(CAAI-Net)を提案する。
CAAI-Netは効果的な唾液濃度検出モデルであり、4つの広く使用されているメトリクスで9つの最先端モデルを上回っている。
- 参考スコア(独自算出の注目度): 20.006932559837516
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Saliency detection based on the complementary information from RGB images and
depth maps has recently gained great popularity. In this paper, we propose
Complementary Attention and Adaptive Integration Network (CAAI-Net), a novel
RGB-D saliency detection model that integrates complementary attention based
feature concentration and adaptive cross-modal feature fusion into a unified
framework for accurate saliency detection. Specifically, we propose a
context-aware complementary attention (CCA) module, which consists of a feature
interaction component, a complementary attention component, and a
global-context component. The CCA module first utilizes the feature interaction
component to extract rich local context features. The resulting features are
then fed into the complementary attention component, which employs the
complementary attention generated from adjacent levels to guide the attention
at the current layer so that the mutual background disturbances are suppressed
and the network focuses more on the areas with salient objects. Finally, we
utilize a specially-designed adaptive feature integration (AFI) module, which
sufficiently considers the low-quality issue of depth maps, to aggregate the
RGB and depth features in an adaptive manner. Extensive experiments on six
challenging benchmark datasets demonstrate that CAAI-Net is an effective
saliency detection model and outperforms nine state-of-the-art models in terms
of four widely-used metrics. In addition, extensive ablation studies confirm
the effectiveness of the proposed CCA and AFI modules.
- Abstract(参考訳): 近年,RGB画像と深度マップの相補的情報に基づく残差検出が盛んに行われている。
本稿では,補完的注意に基づく特徴集中と適応的クロスモーダル特徴融合を統合した新しいRGB-Dサリエンシ検出モデルであるComplementary Attention and Adaptive Integration Network (CAAI-Net)を提案する。
具体的には,機能インタラクションコンポーネント,補完的アテンションコンポーネント,グローバルコンテキストコンポーネントから構成されるコンテキスト対応補完アテンション(CCA)モジュールを提案する。
CCAモジュールは、まず機能インタラクションコンポーネントを使用して、リッチなローカルコンテキスト特徴を抽出する。
結果として生じる特徴は相補的注意コンポーネントに供給され、これは隣接するレベルから生じる相補的注意を利用して、現在の層における注意を導き、相互背景の乱れが抑制され、ネットワークは塩分の多いオブジェクトを持つ領域にもっと焦点を合わせます。
最後に,低品質の深度マップを十分に考慮した特別設計の適応的特徴統合(AFI)モジュールを用いて,RGBおよび深度特徴を適応的に集約する。
6つの困難なベンチマークデータセットに関する広範な実験は、CAAI-Netが効果的なサリエンシー検出モデルであり、4つの広く使用されているメトリクスで9つの最新モデルを上回ることを実証している。
さらに、広範なアブレーション研究は、提案されたCCAおよびAFIモジュールの有効性を確認する。
関連論文リスト
- PVAFN: Point-Voxel Attention Fusion Network with Multi-Pooling Enhancing for 3D Object Detection [59.355022416218624]
点とボクセルの表現の統合は、LiDARベースの3Dオブジェクト検出においてより一般的になりつつある。
PVAFN(Point-Voxel Attention Fusion Network)と呼ばれる新しい2段3次元物体検出器を提案する。
PVAFNはマルチプール戦略を使用して、マルチスケールとリージョン固有の情報を効果的に統合する。
論文 参考訳(メタデータ) (2024-08-26T19:43:01Z) - Single-Point Supervised High-Resolution Dynamic Network for Infrared Small Target Detection [7.0456782736205685]
単一点教師付き高分解能ダイナミックネットワーク(SSHD-Net)を提案する。
単一点監視のみを用いて、最先端(SOTA)検出性能を実現する。
公開データセット NUDT-SIRST と IRSTD-1k の実験により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2024-08-04T09:44:47Z) - Point-aware Interaction and CNN-induced Refinement Network for RGB-D
Salient Object Detection [95.84616822805664]
我々は,CNNによるトランスフォーマーアーキテクチャを導入し,ポイント・アウェア・インタラクションとCNNによるリファインメントを備えた新しいRGB-D SODネットワークを提案する。
トランスフォーマーがもたらすブロック効果とディテール破壊問題を自然に軽減するために,コンテンツリファインメントとサプリメントのためのCNNRユニットを設計する。
論文 参考訳(メタデータ) (2023-08-17T11:57:49Z) - CIR-Net: Cross-modality Interaction and Refinement for RGB-D Salient
Object Detection [144.66411561224507]
本稿では,CIR-Netと呼ばれる畳み込みニューラルネットワーク(CNN)モデルを提案する。
我々のネットワークは、定性的かつ定量的に最先端の塩分濃度検出器より優れています。
論文 参考訳(メタデータ) (2022-10-06T11:59:19Z) - Dual Swin-Transformer based Mutual Interactive Network for RGB-D Salient
Object Detection [67.33924278729903]
本研究では,Dual Swin-Transformerを用いたMutual Interactive Networkを提案する。
視覚入力における長距離依存をモデル化するために,RGBと奥行きモードの両方の機能抽出器としてSwin-Transformerを採用している。
5つの標準RGB-D SODベンチマークデータセットに関する総合的な実験は、提案手法の優位性を実証している。
論文 参考訳(メタデータ) (2022-06-07T08:35:41Z) - RGB-D Salient Object Detection with Cross-Modality Modulation and
Selection [126.4462739820643]
本稿では, RGB-D Salient Object Detection (SOD) において, モジュール間相補性を段階的に統合し, 改良する有効な方法を提案する。
提案するネットワークは,1)RGB画像とそれに対応する深度マップからの補完情報を効果的に統合する方法,および2)より精度の高い特徴を適応的に選択する方法の2つの課題を主に解決する。
論文 参考訳(メタデータ) (2020-07-14T14:22:50Z) - Global Context-Aware Progressive Aggregation Network for Salient Object
Detection [117.943116761278]
我々は,低レベルな外観特徴,高レベルな意味特徴,グローバルな文脈特徴を統合化するための新しいネットワークGCPANetを提案する。
提案手法は, 定量的かつ定性的に, 最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-03-02T04:26:10Z) - Hybrid Multiple Attention Network for Semantic Segmentation in Aerial
Images [24.35779077001839]
グローバルな相関関係を適応的に捉えるために,Hybrid Multiple Attention Network (HMANet) という新しいアテンションベースのフレームワークを提案する。
本稿では,機能的冗長性を低減し,自己注意機構の効率を向上させるため,単純で効果的な領域シャッフルアテンション(RSA)モジュールを提案する。
論文 参考訳(メタデータ) (2020-01-09T07:47:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。