論文の概要: Promoting Saliency From Depth: Deep Unsupervised RGB-D Saliency
Detection
- arxiv url: http://arxiv.org/abs/2205.07179v1
- Date: Sun, 15 May 2022 04:44:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-18 10:17:24.984491
- Title: Promoting Saliency From Depth: Deep Unsupervised RGB-D Saliency
Detection
- Title(参考訳): 深度からの塩分濃度の促進:深部無監督RGB-D塩分濃度検出
- Authors: Wei Ji, Jingjing Li, Qi Bi, Chuan Guo, Jie Liu, Li Cheng
- Abstract要約: 本稿では、訓練中に手動ピクセルレベルのアノテーションを必要としない、深い教師なしRGB-Dサリエンシ検出手法を提案する。
まず、DSU(Deep-disentangled saliency update)フレームワークは、擬似ラベルを自動的に生成するように設計されている。
第二に、より信頼性の高い擬似ラベルを強調するために、適切に重み付けを行うことにより、うるさい擬似ラベルの問題に取り組むために注意深い訓練戦略を導入する。
- 参考スコア(独自算出の注目度): 25.637522231083267
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Growing interests in RGB-D salient object detection (RGB-D SOD) have been
witnessed in recent years, owing partly to the popularity of depth sensors and
the rapid progress of deep learning techniques. Unfortunately, existing RGB-D
SOD methods typically demand large quantity of training images being thoroughly
annotated at pixel-level. The laborious and time-consuming manual annotation
has become a real bottleneck in various practical scenarios. On the other hand,
current unsupervised RGB-D SOD methods still heavily rely on handcrafted
feature representations. This inspires us to propose in this paper a deep
unsupervised RGB-D saliency detection approach, which requires no manual
pixel-level annotation during training. It is realized by two key ingredients
in our training pipeline. First, a depth-disentangled saliency update (DSU)
framework is designed to automatically produce pseudo-labels with iterative
follow-up refinements, which provides more trustworthy supervision signals for
training the saliency network. Second, an attentive training strategy is
introduced to tackle the issue of noisy pseudo-labels, by properly re-weighting
to highlight the more reliable pseudo-labels. Extensive experiments demonstrate
the superior efficiency and effectiveness of our approach in tackling the
challenging unsupervised RGB-D SOD scenarios. Moreover, our approach can also
be adapted to work in fully-supervised situation. Empirical studies show the
incorporation of our approach gives rise to notably performance improvement in
existing supervised RGB-D SOD models.
- Abstract(参考訳): rgb-d salient object detection(rgb-d sod)への関心の高まりは、深層センサーの人気とディープラーニング技術の急速な進歩によって近年目撃されている。
残念ながら、既存のRGB-D SOD法は、通常、大量のトレーニング画像にピクセルレベルで完全に注釈付けする必要がある。
手間と時間のかかる手動アノテーションは、様々な実用的なシナリオにおいて真のボトルネックになっています。
一方、現在のRGB-D SOD法は手作りの特徴表現に大きく依存している。
そこで本研究では,手動の画素レベルのアノテーションを必要としない,教師なしRGB-Dサリエンシ検出手法を提案する。
トレーニングパイプラインの2つの重要な要素によって実現されます。
第一に、DSU(Deep-disentangled saliency update)フレームワークは、反復的なフォローアップ改善によって擬似ラベルを自動生成するように設計されており、より信頼できる監視信号を提供する。
第二に、より信頼性の高い擬似ラベルを適切に重み付けし、ノイズの多い擬似ラベルの問題に対処するための注意深いトレーニング戦略を導入する。
広範な実験により,提案手法の効率性と有効性を実証し,非教師なしのsodシナリオに挑戦した。
さらに,本手法は,完全に管理された状況でも適用可能である。
実験により,既存のRGB-D SODモデルにおいて,本手法の組み入れが顕著な性能向上をもたらすことが示された。
関連論文リスト
- Pyramidal Attention for Saliency Detection [30.554118525502115]
本稿では,RGB画像のみを活用し,RGBから深度を推定し,中間深度特性を利用する。
ピラミッド型アテンション構造を用いて,マルチレベル畳み込み変換器の特徴を抽出し,初期表現の処理を行う。
我々は8つのRGBおよびRGB-Dデータセット上で21と40の最先端SOD法に対する性能を著しく改善したことを報告した。
論文 参考訳(メタデータ) (2022-04-14T06:57:46Z) - Boosting RGB-D Saliency Detection by Leveraging Unlabeled RGB Images [89.81919625224103]
RGB-D Salient Object Detection (SOD) のための深層モデルの訓練は、しばしば多数のラベル付きRGB-D画像を必要とする。
本稿では、ラベルのないRGB画像を活用するために、Dual-Semi RGB-D Salient Object Detection Network (DS-Net)を提案する。
論文 参考訳(メタデータ) (2022-01-01T03:02:27Z) - Activation to Saliency: Forming High-Quality Labels for Unsupervised
Salient Object Detection [54.92703325989853]
本稿では,高品質なサリエンシキューを効果的に生成する2段階アクティベーション・ツー・サリエンシ(A2S)フレームワークを提案する。
トレーニングプロセス全体において、私たちのフレームワークにヒューマンアノテーションは関与していません。
本フレームワークは,既存のUSOD法と比較して高い性能を示した。
論文 参考訳(メタデータ) (2021-12-07T11:54:06Z) - RGB-D Salient Object Detection with Ubiquitous Target Awareness [37.6726410843724]
我々は、新しい深度認識フレームワークを用いて、RGB-D有向物体検出問題を解くための最初の試みを行う。
本稿では,RGB-D SODタスクにおける3つの課題を解決するために,ユビキタスターゲット意識(UTA)ネットワークを提案する。
提案するUTAネットワークは深度フリーで,43FPSでリアルタイムに動作可能である。
論文 参考訳(メタデータ) (2021-09-08T04:27:29Z) - Cross-modality Discrepant Interaction Network for RGB-D Salient Object
Detection [78.47767202232298]
本稿では,RGB-D SODのためのクロスモダリティ離散相互作用ネットワーク(CDINet)を提案する。
2つのコンポーネントは、効果的な相互モダリティ相互作用を実装するように設計されている。
我々のネットワークは、定量的にも質的にも15ドルの最先端の手法より優れています。
論文 参考訳(メタデータ) (2021-08-04T11:24:42Z) - MobileSal: Extremely Efficient RGB-D Salient Object Detection [62.04876251927581]
本稿では,効率的なRGB-Dサルエント物体検出(SOD)に焦点を当てた新しいネットワーク,メソッド名を提案する。
RGB-D SODのためのモバイルネットワークの特徴表現能力を強化するために,暗黙的深度復元(IDR)手法を提案する。
IDRとCPRを組み込むことで、7つの挑戦的なRGB-D SODデータセット上のsArtメソッドに対してメソッド名が好ましい。
論文 参考訳(メタデータ) (2020-12-24T04:36:42Z) - Progressively Guided Alternate Refinement Network for RGB-D Salient
Object Detection [63.18846475183332]
我々は,RGB-Dの高次物体検出のための効率的かつコンパクトなディープネットワークを開発することを目指している。
そこで本研究では,改良のための改良ネットワークを提案する。
我々のモデルは、既存の最先端のアプローチよりも大きなマージンで優れています。
論文 参考訳(メタデータ) (2020-08-17T02:55:06Z) - Accurate RGB-D Salient Object Detection via Collaborative Learning [101.82654054191443]
RGB-Dサリエンシ検出は、いくつかの課題シナリオにおいて素晴らしい能力を示している。
本稿では,エッジ,深度,塩分濃度をより効率的に活用する新しい協調学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-23T04:33:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。