論文の概要: JL-DCF: Joint Learning and Densely-Cooperative Fusion Framework for
RGB-D Salient Object Detection
- arxiv url: http://arxiv.org/abs/2004.08515v1
- Date: Sat, 18 Apr 2020 03:22:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 05:27:15.649032
- Title: JL-DCF: Joint Learning and Densely-Cooperative Fusion Framework for
RGB-D Salient Object Detection
- Title(参考訳): jl-dcf: rgb-dサルエント物体検出のための合同学習と密結合融合フレームワーク
- Authors: Keren Fu and Deng-Ping Fan and Ge-Peng Ji and Qijun Zhao
- Abstract要約: 本稿では,RGB-Dサルエント物体検出のための新しい共同学習と密結合型融合(JL-DCF)アーキテクチャを提案する。
我々のJL-DCFは、シームズネットワークを介してRGBと深さの入力から学習する。
実験により、設計されたフレームワークは、優れた一般化を伴う堅牢なRGB-Dサリエンシ検出器を生成することが示された。
- 参考スコア(独自算出の注目度): 39.125777418630136
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a novel joint learning and densely-cooperative fusion
(JL-DCF) architecture for RGB-D salient object detection. Existing models
usually treat RGB and depth as independent information and design separate
networks for feature extraction from each. Such schemes can easily be
constrained by a limited amount of training data or over-reliance on an
elaborately-designed training process. In contrast, our JL-DCF learns from both
RGB and depth inputs through a Siamese network. To this end, we propose two
effective components: joint learning (JL), and densely-cooperative fusion
(DCF). The JL module provides robust saliency feature learning, while the
latter is introduced for complementary feature discovery. Comprehensive
experiments on four popular metrics show that the designed framework yields a
robust RGB-D saliency detector with good generalization. As a result, JL-DCF
significantly advances the top-1 D3Net model by an average of ~1.9% (S-measure)
across six challenging datasets, showing that the proposed framework offers a
potential solution for real-world applications and could provide more insight
into the cross-modality complementarity task. The code will be available at
https://github.com/kerenfu/JLDCF/.
- Abstract(参考訳): 本稿では,RGB-Dサルエント物体検出のための新しい共同学習と密結合型融合(JL-DCF)アーキテクチャを提案する。
既存のモデルはrgbと奥行きを独立した情報として扱い、それぞれの特徴抽出のために別々のネットワークを設計する。
このようなスキームは、限られた量のトレーニングデータや、精巧に設計されたトレーニングプロセスへの過剰依存によって容易に制限できる。
対照的に、我々のJL-DCFは、RGBとSiameseネットワークを介して深度入力の両方から学習する。
そこで本研究では,共同学習 (JL) と密集協調融合 (DCF) の2つの有効成分を提案する。
jlモジュールは堅牢なsaliency feature learningを提供し、後者は補完的な機能発見のために導入されている。
4つの一般的なメトリクスに関する包括的な実験により、設計されたフレームワークは、優れた一般化を持つ堅牢なrgb-dサリエンシー検出器をもたらすことが示された。
その結果、jl-dcfは6つの挑戦的なデータセットで平均1.9% (s-measure) のtop-1 d3netモデルを著しく前進させ、提案フレームワークが現実世界のアプリケーションに対して潜在的なソリューションを提供し、クロスモダリティ相補性タスクに対するさらなる洞察を提供する。
コードはhttps://github.com/kerenfu/jldcf/で入手できる。
関連論文リスト
- Salient Object Detection in RGB-D Videos [11.805682025734551]
本稿では,データセットとモデルという2つの主要なコントリビューションについて述べる。
現実的な深度を持つ新しいRGB-D VSODデータセットであるRDVSデータセットを構築した。
RGB-D VSODに適した3ストリームネットワークであるDCTNet+を紹介する。
論文 参考訳(メタデータ) (2023-10-24T03:18:07Z) - HODINet: High-Order Discrepant Interaction Network for RGB-D Salient
Object Detection [4.007827908611563]
RGB-D Salient Object Detection (SOD) は、RGBと深度情報を共同でモデル化することで、顕著な領域を検出することを目的としている。
ほとんどのRGB-D SOD法は、同じ種類のバックボーンと融合モジュールを適用して、マルチモーダリティとマルチステージの特徴を同一に学習する。
本稿では,RGB-D SODのための高次離散相互作用ネットワーク(HODINet)を提案する。
論文 参考訳(メタデータ) (2023-07-03T11:56:21Z) - Middle-level Fusion for Lightweight RGB-D Salient Object Detection [81.43951906434175]
本稿では,新しい軽量RGB-D SODモデルについて述べる。
中層核融合構造に IMFF および L モジュールが組み込まれているため,提案モデルは3.9M のパラメータしか持たず,33 FPS で動作する。
いくつかのベンチマークデータセットによる実験結果から,提案手法の有効性と優位性を検証した。
論文 参考訳(メタデータ) (2021-04-23T11:37:15Z) - Self-Supervised Representation Learning for RGB-D Salient Object
Detection [93.17479956795862]
我々は、自己教師付き表現学習を用いて、クロスモーダルオートエンコーダと深さ-輪郭推定という2つのプレテキストタスクを設計する。
我々のプレテキストタスクは、ネットワークがリッチなセマンティックコンテキストをキャプチャする事前トレーニングを実行するのに、少数のRGB-Dデータセットしか必要としない。
RGB-D SODにおけるクロスモーダル核融合の固有の問題として,マルチパス核融合モジュールを提案する。
論文 参考訳(メタデータ) (2021-01-29T09:16:06Z) - Siamese Network for RGB-D Salient Object Detection and Beyond [113.30063105890041]
共有ネットワークバックボーンを通じてRGBと深度入力の両方から学習するための新しいフレームワークが提案されている。
5つの一般的な指標を用いた総合的な実験は、設計されたフレームワークが堅牢なRGB-D塩分濃度検出器をもたらすことを示している。
また、JL-DCFをRGB-Dセマンティックセマンティックセマンティクスフィールドにリンクし、いくつかのセマンティクスセマンティクスモデルよりも優れた性能を示す。
論文 参考訳(メタデータ) (2020-08-26T06:01:05Z) - Hierarchical Dynamic Filtering Network for RGB-D Salient Object
Detection [91.43066633305662]
RGB-D Salient Object Detection (SOD) の主な目的は、相互融合情報をよりよく統合し活用する方法である。
本稿では,これらの問題を新たな視点から考察する。
我々は、より柔軟で効率的なマルチスケールのクロスモーダルな特徴処理を実装している。
論文 参考訳(メタデータ) (2020-07-13T07:59:55Z) - Cross-Modal Weighting Network for RGB-D Salient Object Detection [76.0965123893641]
我々は,RGB-D SODの深度チャネルとRGB-D SODの包括的相互作用を促進するために,新しいクロスモーダルウェイトリング(CMW)戦略を提案する。
具体的には、CMW-L、CMW-M、CMW-Hという3つのRGB-depth相互作用モジュールが、それぞれ低レベル、中級、高レベルのクロスモーダル情報融合を扱うように開発されている。
CMWNetは、7つの人気のあるベンチマークで15の最先端のRGB-D SODメソッドを上回っている。
論文 参考訳(メタデータ) (2020-07-09T16:01:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。