論文の概要: Depth Quality Aware Salient Object Detection
- arxiv url: http://arxiv.org/abs/2008.04159v1
- Date: Fri, 7 Aug 2020 09:54:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 00:53:53.772102
- Title: Depth Quality Aware Salient Object Detection
- Title(参考訳): 被写体検出のための深さ品質認識
- Authors: Chenglizhao Chen, Jipeng Wei, Chong Peng, Hong Qin
- Abstract要約: 本稿では,選択的なRGB-D融合を行う前に,従来の2ストリーム構造に意識した新しい深度品質を組み込むことを目的としている。
本手法の主な特徴は,ロークオリティ,ノンコントリビューション,さらには負コントリビューションD領域のRGB-D融合における重要性を低下させることである。
- 参考スコア(独自算出の注目度): 52.618404186447165
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The existing fusion based RGB-D salient object detection methods usually
adopt the bi-stream structure to strike the fusion trade-off between RGB and
depth (D). The D quality usually varies from scene to scene, while the SOTA
bi-stream approaches are depth quality unaware, which easily result in
substantial difficulties in achieving complementary fusion status between RGB
and D, leading to poor fusion results in facing of low-quality D. Thus, this
paper attempts to integrate a novel depth quality aware subnet into the classic
bi-stream structure, aiming to assess the depth quality before conducting the
selective RGB-D fusion. Compared with the SOTA bi-stream methods, the major
highlight of our method is its ability to lessen the importance of those
low-quality, no-contribution, or even negative-contribution D regions during
the RGB-D fusion, achieving a much improved complementary status between RGB
and D.
- Abstract(参考訳): 既存の融合に基づくRGB-D法は、通常、RGBと深さ(D)の融合トレードオフを打つために、双方向構造を採用する。
通常,d品質はシーンによって異なるが,sota bi-streamアプローチは深度品質を意識しないため,rgbとdの相補的な融合状態を達成することが極めて困難となり,低品質dに直面した核融合の結果が低かったため,従来のbi-stream構造に新たな深さ品質認識サブネットを統合することを試みた。
両ストリーム法と比較して,本手法の主な特徴は,RGB-D融合における低品質,ノンコントリビューション,あるいは負のコントリビューションD領域の重要性を低減し,RGBとDの相補的地位を著しく向上させることである。
関連論文リスト
- Symmetric Uncertainty-Aware Feature Transmission for Depth
Super-Resolution [52.582632746409665]
カラー誘導DSRのためのSymmetric Uncertainty-aware Feature Transmission (SUFT)を提案する。
本手法は最先端の手法と比較して優れた性能を実現する。
論文 参考訳(メタデータ) (2023-06-01T06:35:59Z) - RGB-D Grasp Detection via Depth Guided Learning with Cross-modal
Attention [14.790193023912973]
本稿では,DGCAN(Depth Guided Cross-modal Attention Network)を用いた新しい学習手法を提案する。
深度チャネルに記録された幾何情報をよりよく活用するために、全6次元矩形表現を専用に考慮して採用する。
余分な掴み深度の予測は特徴学習を大幅に強化し、より正確な結果をもたらす。
論文 参考訳(メタデータ) (2023-02-28T02:41:27Z) - Robust RGB-D Fusion for Saliency Detection [13.705088021517568]
本稿では, 層状および三重項空間, 注意機構の利点を生かしたRGB-D融合法を提案する。
5つのベンチマーク・データセットを用いた実験により,提案手法は最先端の核融合法よりも一貫した性能を示した。
論文 参考訳(メタデータ) (2022-08-02T21:23:00Z) - Cross-modality Discrepant Interaction Network for RGB-D Salient Object
Detection [78.47767202232298]
本稿では,RGB-D SODのためのクロスモダリティ離散相互作用ネットワーク(CDINet)を提案する。
2つのコンポーネントは、効果的な相互モダリティ相互作用を実装するように設計されている。
我々のネットワークは、定量的にも質的にも15ドルの最先端の手法より優れています。
論文 参考訳(メタデータ) (2021-08-04T11:24:42Z) - Deep RGB-D Saliency Detection with Depth-Sensitive Attention and
Automatic Multi-Modal Fusion [15.033234579900657]
RGB-Dサラエントオブジェクト検出(SOD)は通常、2つのモダリティ、すなわちRGBと深さの分類または回帰の問題として定式化される。
本稿では,salient objectsの奥行き方向幾何学的前置を用いた深さ感応型rgb特徴モデリング手法を提案する。
7つの標準ベンチマークに関する実験は、最先端技術に対する提案手法の有効性を示している。
論文 参考訳(メタデータ) (2021-03-22T13:28:45Z) - Knowing Depth Quality In Advance: A Depth Quality Assessment Method For
RGB-D Salient Object Detection [53.603301314081826]
本稿では,D品質を事前に測定する簡易かつ効果的な手法を提案する。
提案手法は, ほぼ2.0%で安定した性能向上を実現する。
論文 参考訳(メタデータ) (2020-08-07T10:52:52Z) - Data-Level Recombination and Lightweight Fusion Scheme for RGB-D Salient
Object Detection [73.31632581915201]
深部特徴抽出に先立って,RGBとD(深部)を融合する新たなデータレベル組換え手法を提案する。
新たに設計された3重ストリームネットワークをこれらの新しい定式化データ上に適用し,RGBとDのチャネルワイドな相補的融合状態を実現する。
論文 参考訳(メタデータ) (2020-08-07T10:13:05Z) - DPANet: Depth Potentiality-Aware Gated Attention Network for RGB-D
Salient Object Detection [107.96418568008644]
そこで我々は,DPANetという新しいネットワークを提案し,深度マップの可能性を明確にモデル化し,モーダル間の相補性を効果的に統合する。
深度ポテンシャル知覚を導入することにより、ネットワークは深度情報のポテンシャルを学習ベースで知覚することができる。
論文 参考訳(メタデータ) (2020-03-19T07:27:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。