論文の概要: BTS-Net: Bi-directional Transfer-and-Selection Network For RGB-D Salient
Object Detection
- arxiv url: http://arxiv.org/abs/2104.01784v1
- Date: Mon, 5 Apr 2021 05:58:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-06 14:33:35.878644
- Title: BTS-Net: Bi-directional Transfer-and-Selection Network For RGB-D Salient
Object Detection
- Title(参考訳): BTS-Net: RGB-D Salient Object Detectionのための双方向転送・選択ネットワーク
- Authors: Wenbo Zhang, Yao Jiang, Keren Fu, Qijun Zhao
- Abstract要約: RGB-Dの高次物体検出から得られた深度マップは、しばしば品質と不正確さに悩まされる。
ほとんどの既存のRGB-D SODモデルは、クロスモーダル相互作用を持たないか、エンコーダの段階で深さからRGBまでの一方向相互作用しか持たない。
BTS-Netと呼ばれる新しい双方向転送および選択ネットワークを提案します。BTS-Netは、符号化中に機能を浄化するために双方向転送および選択モジュールのセットを採用しています。
- 参考スコア(独自算出の注目度): 16.87553302005972
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Depth information has been proved beneficial in RGB-D salient object
detection (SOD). However, depth maps obtained often suffer from low quality and
inaccuracy. Most existing RGB-D SOD models have no cross-modal interactions or
only have unidirectional interactions from depth to RGB in their encoder
stages, which may lead to inaccurate encoder features when facing low quality
depth. To address this limitation, we propose to conduct progressive
bi-directional interactions as early in the encoder stage, yielding a novel
bi-directional transfer-and-selection network named BTS-Net, which adopts a set
of bi-directional transfer-and-selection (BTS) modules to purify features
during encoding. Based on the resulting robust encoder features, we also design
an effective light-weight group decoder to achieve accurate final saliency
prediction. Comprehensive experiments on six widely used datasets demonstrate
that BTS-Net surpasses 16 latest state-of-the-art approaches in terms of four
key metrics.
- Abstract(参考訳): 深度情報は rgb-d salient object detection (sod) において有用であることが証明されている。
しかし、得られた深度地図はしばしば低品質と不正確さに苦しむ。
既存のRGB-D SODモデルの多くは、クロスモーダルな相互作用を持たないか、エンコーダの段階では、深度からRGBまでの一方向の相互作用しか持たない。
この制限に対処するため、エンコーダの段階では早い段階で進行的双方向通信を行い、BTS-Netと呼ばれる新しい双方向転送・選択ネットワークを生成し、符号化時の特徴を浄化するために双方向転送・選択(BTS)モジュールのセットを採用することを提案する。
結果として得られたロバストなエンコーダ機能に基づいて,最終的なサリエンシー予測を実現するために,効果的な軽量グループデコーダを設計する。
6つの広く使われているデータセットに関する包括的な実験は、bts-netが4つの主要なメトリクスの観点から最新の16のアプローチを上回っていることを示している。
関連論文リスト
- CIR-Net: Cross-modality Interaction and Refinement for RGB-D Salient
Object Detection [144.66411561224507]
本稿では,CIR-Netと呼ばれる畳み込みニューラルネットワーク(CNN)モデルを提案する。
我々のネットワークは、定性的かつ定量的に最先端の塩分濃度検出器より優れています。
論文 参考訳(メタデータ) (2022-10-06T11:59:19Z) - Dual Swin-Transformer based Mutual Interactive Network for RGB-D Salient
Object Detection [67.33924278729903]
本研究では,Dual Swin-Transformerを用いたMutual Interactive Networkを提案する。
視覚入力における長距離依存をモデル化するために,RGBと奥行きモードの両方の機能抽出器としてSwin-Transformerを採用している。
5つの標準RGB-D SODベンチマークデータセットに関する総合的な実験は、提案手法の優位性を実証している。
論文 参考訳(メタデータ) (2022-06-07T08:35:41Z) - RGB-D Salient Object Detection with Ubiquitous Target Awareness [37.6726410843724]
我々は、新しい深度認識フレームワークを用いて、RGB-D有向物体検出問題を解くための最初の試みを行う。
本稿では,RGB-D SODタスクにおける3つの課題を解決するために,ユビキタスターゲット意識(UTA)ネットワークを提案する。
提案するUTAネットワークは深度フリーで,43FPSでリアルタイムに動作可能である。
論文 参考訳(メタデータ) (2021-09-08T04:27:29Z) - Cross-modality Discrepant Interaction Network for RGB-D Salient Object
Detection [78.47767202232298]
本稿では,RGB-D SODのためのクロスモダリティ離散相互作用ネットワーク(CDINet)を提案する。
2つのコンポーネントは、効果的な相互モダリティ相互作用を実装するように設計されている。
我々のネットワークは、定量的にも質的にも15ドルの最先端の手法より優れています。
論文 参考訳(メタデータ) (2021-08-04T11:24:42Z) - Data-Level Recombination and Lightweight Fusion Scheme for RGB-D Salient
Object Detection [73.31632581915201]
深部特徴抽出に先立って,RGBとD(深部)を融合する新たなデータレベル組換え手法を提案する。
新たに設計された3重ストリームネットワークをこれらの新しい定式化データ上に適用し,RGBとDのチャネルワイドな相補的融合状態を実現する。
論文 参考訳(メタデータ) (2020-08-07T10:13:05Z) - Bi-directional Cross-Modality Feature Propagation with
Separation-and-Aggregation Gate for RGB-D Semantic Segmentation [59.94819184452694]
深度情報はRGBD画像のセマンティックセグメンテーションにおいて有用であることが証明されている。
既存のほとんどの研究は、深度測定がRGBピクセルと正確で整合していると仮定し、問題をモーダルな特徴融合としてモデル化している。
本稿では,RGB特徴量応答を効果的に再検討するだけでなく,複数の段階を通して正確な深度情報を抽出し,代わりに2つの補正表現を集約する,統一的で効率的なクロスモダリティガイドを提案する。
論文 参考訳(メタデータ) (2020-07-17T18:35:24Z) - Is Depth Really Necessary for Salient Object Detection? [50.10888549190576]
本稿では,RGB情報のみを推論の入力とする統合深度認識フレームワークの実現に向けた最初の試みを行う。
5つの公開RGB SODベンチマークの最先端のパフォーマンスを上回るだけでなく、5つのベンチマークのRGBDベースのメソッドを大きく上回っている。
論文 参考訳(メタデータ) (2020-05-30T13:40:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。