論文の概要: CIR-Net: Cross-modality Interaction and Refinement for RGB-D Salient
Object Detection
- arxiv url: http://arxiv.org/abs/2210.02843v1
- Date: Thu, 6 Oct 2022 11:59:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 16:54:25.114496
- Title: CIR-Net: Cross-modality Interaction and Refinement for RGB-D Salient
Object Detection
- Title(参考訳): CIR-Net:RGB-D能動物体検出のためのクロスモーダルインタラクションとリファインメント
- Authors: Runmin Cong, Qinwei Lin, Chen Zhang, Chongyi Li, Xiaochun Cao,
Qingming Huang, and Yao Zhao
- Abstract要約: 本稿では,CIR-Netと呼ばれる畳み込みニューラルネットワーク(CNN)モデルを提案する。
我々のネットワークは、定性的かつ定量的に最先端の塩分濃度検出器より優れています。
- 参考スコア(独自算出の注目度): 144.66411561224507
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Focusing on the issue of how to effectively capture and utilize
cross-modality information in RGB-D salient object detection (SOD) task, we
present a convolutional neural network (CNN) model, named CIR-Net, based on the
novel cross-modality interaction and refinement. For the cross-modality
interaction, 1) a progressive attention guided integration unit is proposed to
sufficiently integrate RGB-D feature representations in the encoder stage, and
2) a convergence aggregation structure is proposed, which flows the RGB and
depth decoding features into the corresponding RGB-D decoding streams via an
importance gated fusion unit in the decoder stage. For the cross-modality
refinement, we insert a refinement middleware structure between the encoder and
the decoder, in which the RGB, depth, and RGB-D encoder features are further
refined by successively using a self-modality attention refinement unit and a
cross-modality weighting refinement unit. At last, with the gradually refined
features, we predict the saliency map in the decoder stage. Extensive
experiments on six popular RGB-D SOD benchmarks demonstrate that our network
outperforms the state-of-the-art saliency detectors both qualitatively and
quantitatively.
- Abstract(参考訳): 本稿では, RGB-D Salient Object Detection (SOD)タスクにおいて, クロスモダリティ情報を効果的に捕捉・活用する方法の問題に着目し, 新たなクロスモダリティ相互作用と改良に基づく畳み込みニューラルネットワーク(CNN)モデルを提案する。
相互モダリティ相互作用について
1)エンコーダ段階でRGB-D特徴表現を十分に統合するプログレッシブアテンション誘導統合ユニットを提案する。
2) コンバージェンス・アグリゲーション構造を提案し, RGB と深度復号化特徴をデコーダ・ステージにおける重要ゲート融合ユニットを介して対応する RGB-D 復号ストリームに流す。
クロスモダリティ改善のために、自己モダリティ注意改善ユニットとクロスモダリティ重み付け精細化ユニットを用いて、RGB、深さ、RGB-Dエンコーダの特徴がさらに洗練されるエンコーダとデコーダとの間に、精細化ミドルウェア構造を挿入する。
最後に,徐々に洗練されていく機能により,デコーダ段階におけるサリエンシーマップを予測できる。
6つのRGB-D SODベンチマークの大規模な実験により、我々のネットワークは定性的かつ定量的に最先端の塩分濃度検出器より優れていることが示された。
関連論文リスト
- Point-aware Interaction and CNN-induced Refinement Network for RGB-D
Salient Object Detection [95.84616822805664]
我々は,CNNによるトランスフォーマーアーキテクチャを導入し,ポイント・アウェア・インタラクションとCNNによるリファインメントを備えた新しいRGB-D SODネットワークを提案する。
トランスフォーマーがもたらすブロック効果とディテール破壊問題を自然に軽減するために,コンテンツリファインメントとサプリメントのためのCNNRユニットを設計する。
論文 参考訳(メタデータ) (2023-08-17T11:57:49Z) - Dual Swin-Transformer based Mutual Interactive Network for RGB-D Salient
Object Detection [67.33924278729903]
本研究では,Dual Swin-Transformerを用いたMutual Interactive Networkを提案する。
視覚入力における長距離依存をモデル化するために,RGBと奥行きモードの両方の機能抽出器としてSwin-Transformerを採用している。
5つの標準RGB-D SODベンチマークデータセットに関する総合的な実験は、提案手法の優位性を実証している。
論文 参考訳(メタデータ) (2022-06-07T08:35:41Z) - Cross-modality Discrepant Interaction Network for RGB-D Salient Object
Detection [78.47767202232298]
本稿では,RGB-D SODのためのクロスモダリティ離散相互作用ネットワーク(CDINet)を提案する。
2つのコンポーネントは、効果的な相互モダリティ相互作用を実装するように設計されている。
我々のネットワークは、定量的にも質的にも15ドルの最先端の手法より優れています。
論文 参考訳(メタデータ) (2021-08-04T11:24:42Z) - RGB-D Salient Object Detection via 3D Convolutional Neural Networks [19.20231385522917]
3D畳み込みニューラルネットワークによるRGB-D SODへの対処を試みます。
提案したRD3Dは、エンコーダ段階での事前融合とデコーダ段階での深部融合を目的としている。
RD3Dは4つの重要な評価指標から,14の最先端RGB-D SODアプローチに対して良好に機能することを示す。
論文 参考訳(メタデータ) (2021-01-25T17:03:02Z) - Bi-directional Cross-Modality Feature Propagation with
Separation-and-Aggregation Gate for RGB-D Semantic Segmentation [59.94819184452694]
深度情報はRGBD画像のセマンティックセグメンテーションにおいて有用であることが証明されている。
既存のほとんどの研究は、深度測定がRGBピクセルと正確で整合していると仮定し、問題をモーダルな特徴融合としてモデル化している。
本稿では,RGB特徴量応答を効果的に再検討するだけでなく,複数の段階を通して正確な深度情報を抽出し,代わりに2つの補正表現を集約する,統一的で効率的なクロスモダリティガイドを提案する。
論文 参考訳(メタデータ) (2020-07-17T18:35:24Z) - Cross-Modal Weighting Network for RGB-D Salient Object Detection [76.0965123893641]
我々は,RGB-D SODの深度チャネルとRGB-D SODの包括的相互作用を促進するために,新しいクロスモーダルウェイトリング(CMW)戦略を提案する。
具体的には、CMW-L、CMW-M、CMW-Hという3つのRGB-depth相互作用モジュールが、それぞれ低レベル、中級、高レベルのクロスモーダル情報融合を扱うように開発されている。
CMWNetは、7つの人気のあるベンチマークで15の最先端のRGB-D SODメソッドを上回っている。
論文 参考訳(メタデータ) (2020-07-09T16:01:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。