論文の概要: Is Depth Really Necessary for Salient Object Detection?
- arxiv url: http://arxiv.org/abs/2006.00269v2
- Date: Tue, 2 Jun 2020 01:07:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-26 18:10:32.959279
- Title: Is Depth Really Necessary for Salient Object Detection?
- Title(参考訳): 高度物体検出に深度は本当に必要か?
- Authors: Jiawei Zhao, Yifan Zhao, Jia Li, Xiaowu Chen
- Abstract要約: 本稿では,RGB情報のみを推論の入力とする統合深度認識フレームワークの実現に向けた最初の試みを行う。
5つの公開RGB SODベンチマークの最先端のパフォーマンスを上回るだけでなく、5つのベンチマークのRGBDベースのメソッドを大きく上回っている。
- 参考スコア(独自算出の注目度): 50.10888549190576
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Salient object detection (SOD) is a crucial and preliminary task for many
computer vision applications, which have made progress with deep CNNs. Most of
the existing methods mainly rely on the RGB information to distinguish the
salient objects, which faces difficulties in some complex scenarios. To solve
this, many recent RGBD-based networks are proposed by adopting the depth map as
an independent input and fuse the features with RGB information. Taking the
advantages of RGB and RGBD methods, we propose a novel depth-aware salient
object detection framework, which has following superior designs: 1) It only
takes the depth information as training data while only relies on RGB
information in the testing phase. 2) It comprehensively optimizes SOD features
with multi-level depth-aware regularizations. 3) The depth information also
serves as error-weighted map to correct the segmentation process. With these
insightful designs combined, we make the first attempt in realizing an unified
depth-aware framework with only RGB information as input for inference, which
not only surpasses the state-of-the-art performances on five public RGB SOD
benchmarks, but also surpasses the RGBD-based methods on five benchmarks by a
large margin, while adopting less information and implementation
light-weighted. The code and model will be publicly available.
- Abstract(参考訳): salient object detection (sod)は多くのコンピュータビジョンアプリケーションにとって重要かつ予備的なタスクであり、深層cnnで進歩している。
既存の手法のほとんどは、いくつかの複雑なシナリオで困難に直面している健全なオブジェクトを区別するためにRGB情報に依存している。
この問題を解決するために, 深度マップを独立入力とし, 特徴をRGB情報と融合することにより, 最新のRGBDベースのネットワークを提案する。
RGB法とRGBD法の利点を生かして,より優れた設計をもつ深度対応の有能な物体検出フレームワークを提案する。
1) 深度情報のみをトレーニングデータとし, テストフェーズにおけるRGB情報のみに依存する。
2)多層深度認識正規化によるSOD機能を包括的に最適化する。
3)深度情報は,分割過程を補正するための誤差重み付き地図としても機能する。
これらの洞察に富んだ設計を組み合わせることで、5つの公開RGB SODベンチマークの最先端性能に勝るだけでなく、5つのベンチマークのRGBDベースの手法を大きなマージンで上回り、情報の少ない情報や実装を軽量化しながら、RGB情報のみを推論として統合した深度認識フレームワークを実現する最初の試みを行う。
コードとモデルは公開される予定だ。
関連論文リスト
- Depth-based Privileged Information for Boosting 3D Human Pose Estimation on RGB [48.31210455404533]
ヒートマップに基づく3Dポーズ推定器は、推定時に与えられるRGBフレームから深度情報を幻覚することができる。
深度情報は、RGBベースの幻覚ネットワークを強制して、深度データのみに基づいて事前訓練されたバックボーンに類似した特徴を学習することによって、トレーニング中にのみ使用される。
論文 参考訳(メタデータ) (2024-09-17T11:59:34Z) - DFormer: Rethinking RGBD Representation Learning for Semantic
Segmentation [76.81628995237058]
DFormerは、RGB-Dセグメンテーションタスクの転送可能な表現を学ぶための新しいフレームワークである。
ImageNet-1Kから画像深度ペアを使用してバックボーンを事前トレーニングする。
DFormerは2つのRGB-Dタスクで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-09-18T11:09:11Z) - Pyramidal Attention for Saliency Detection [30.554118525502115]
本稿では,RGB画像のみを活用し,RGBから深度を推定し,中間深度特性を利用する。
ピラミッド型アテンション構造を用いて,マルチレベル畳み込み変換器の特徴を抽出し,初期表現の処理を行う。
我々は8つのRGBおよびRGB-Dデータセット上で21と40の最先端SOD法に対する性能を著しく改善したことを報告した。
論文 参考訳(メタデータ) (2022-04-14T06:57:46Z) - Boosting RGB-D Saliency Detection by Leveraging Unlabeled RGB Images [89.81919625224103]
RGB-D Salient Object Detection (SOD) のための深層モデルの訓練は、しばしば多数のラベル付きRGB-D画像を必要とする。
本稿では、ラベルのないRGB画像を活用するために、Dual-Semi RGB-D Salient Object Detection Network (DS-Net)を提案する。
論文 参考訳(メタデータ) (2022-01-01T03:02:27Z) - Modality-Guided Subnetwork for Salient Object Detection [5.491692465987937]
ほとんどのRGBDネットワークは、入力側から複数のモダリティを必要とし、それらを2ストリームの設計で別々に供給する。
本稿では、モダリティ誘導サブネットワーク(MGSnet)と呼ばれる新しい融合設計を提案する。
1)RGBデータとRGBDデータの両方で機能し、使用できない場合の深度を動的に推定する。
論文 参考訳(メタデータ) (2021-10-10T20:59:11Z) - RGB-D Salient Object Detection with Ubiquitous Target Awareness [37.6726410843724]
我々は、新しい深度認識フレームワークを用いて、RGB-D有向物体検出問題を解くための最初の試みを行う。
本稿では,RGB-D SODタスクにおける3つの課題を解決するために,ユビキタスターゲット意識(UTA)ネットワークを提案する。
提案するUTAネットワークは深度フリーで,43FPSでリアルタイムに動作可能である。
論文 参考訳(メタデータ) (2021-09-08T04:27:29Z) - Cross-modality Discrepant Interaction Network for RGB-D Salient Object
Detection [78.47767202232298]
本稿では,RGB-D SODのためのクロスモダリティ離散相互作用ネットワーク(CDINet)を提案する。
2つのコンポーネントは、効果的な相互モダリティ相互作用を実装するように設計されている。
我々のネットワークは、定量的にも質的にも15ドルの最先端の手法より優れています。
論文 参考訳(メタデータ) (2021-08-04T11:24:42Z) - MobileSal: Extremely Efficient RGB-D Salient Object Detection [62.04876251927581]
本稿では,効率的なRGB-Dサルエント物体検出(SOD)に焦点を当てた新しいネットワーク,メソッド名を提案する。
RGB-D SODのためのモバイルネットワークの特徴表現能力を強化するために,暗黙的深度復元(IDR)手法を提案する。
IDRとCPRを組み込むことで、7つの挑戦的なRGB-D SODデータセット上のsArtメソッドに対してメソッド名が好ましい。
論文 参考訳(メタデータ) (2020-12-24T04:36:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。