論文の概要: Boosting RGB-D Saliency Detection by Leveraging Unlabeled RGB Images
- arxiv url: http://arxiv.org/abs/2201.00100v1
- Date: Sat, 1 Jan 2022 03:02:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-04 15:24:07.994595
- Title: Boosting RGB-D Saliency Detection by Leveraging Unlabeled RGB Images
- Title(参考訳): ラベルなしRGB画像を利用したRGB-D輝度検出の高速化
- Authors: Xiaoqiang Wang, Lei Zhu, Siliang Tang, Huazhu Fu, Ping Li, Fei Wu, Yi
Yang, Yueting Zhuang
- Abstract要約: RGB-D Salient Object Detection (SOD) のための深層モデルの訓練は、しばしば多数のラベル付きRGB-D画像を必要とする。
本稿では、ラベルのないRGB画像を活用するために、Dual-Semi RGB-D Salient Object Detection Network (DS-Net)を提案する。
- 参考スコア(独自算出の注目度): 89.81919625224103
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Training deep models for RGB-D salient object detection (SOD) often requires
a large number of labeled RGB-D images. However, RGB-D data is not easily
acquired, which limits the development of RGB-D SOD techniques. To alleviate
this issue, we present a Dual-Semi RGB-D Salient Object Detection Network
(DS-Net) to leverage unlabeled RGB images for boosting RGB-D saliency
detection. We first devise a depth decoupling convolutional neural network
(DDCNN), which contains a depth estimation branch and a saliency detection
branch. The depth estimation branch is trained with RGB-D images and then used
to estimate the pseudo depth maps for all unlabeled RGB images to form the
paired data. The saliency detection branch is used to fuse the RGB feature and
depth feature to predict the RGB-D saliency. Then, the whole DDCNN is assigned
as the backbone in a teacher-student framework for semi-supervised learning.
Moreover, we also introduce a consistency loss on the intermediate attention
and saliency maps for the unlabeled data, as well as a supervised depth and
saliency loss for labeled data. Experimental results on seven widely-used
benchmark datasets demonstrate that our DDCNN outperforms state-of-the-art
methods both quantitatively and qualitatively. We also demonstrate that our
semi-supervised DS-Net can further improve the performance, even when using an
RGB image with the pseudo depth map.
- Abstract(参考訳): RGB-D Salient Object Detection (SOD) のための深層モデルの訓練は、しばしば多数のラベル付きRGB-D画像を必要とする。
しかし、RGB-Dデータを容易に取得できないため、RGB-D SOD技術の開発が制限される。
この問題を軽減するために、未ラベルのRGB画像を活用するためにDual-Semi RGB-D Salient Object Detection Network (DS-Net)を提案する。
まず,深さ推定枝と塩分検出枝を含む深さ分離畳み込みニューラルネットワーク(ddcnn)を考案する。
深度推定部は、RGB-D画像を用いて訓練され、未ラベルのRGB画像の擬似深度マップを推定してペアデータを形成する。
唾液度検出枝は、RGB-D唾液度を予測するためにRGB特徴と深さ特徴を融合するために使用される。
次に、DDCNN全体を半教師学習のための教師学生フレームワークのバックボーンとして割り当てる。
さらに、ラベル付きデータに対する中間的注意度と正当性マップの整合性損失や、ラベル付きデータに対する教師付き深度と正当性損失も導入する。
広く使用されている7つのベンチマークデータセットの実験結果から、DDCNNは最先端の手法を定量的にも質的にも優れていることが示された。
また,擬似深度マップを用いたRGB画像であっても,半教師付きDS-Netにより性能が向上することを示した。
関連論文リスト
- DFormer: Rethinking RGBD Representation Learning for Semantic
Segmentation [76.81628995237058]
DFormerは、RGB-Dセグメンテーションタスクの転送可能な表現を学ぶための新しいフレームワークである。
ImageNet-1Kから画像深度ペアを使用してバックボーンを事前トレーニングする。
DFormerは2つのRGB-Dタスクで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-09-18T11:09:11Z) - SiaTrans: Siamese Transformer Network for RGB-D Salient Object Detection
with Depth Image Classification [2.578242050187029]
本稿では,新しいRGB-Dサルエント物体検出モデル(SiaTrans)を提案する。
SiaTransは、RGB-Dサリエンシマップのトレーニングと同時に、深度画像の品質分類のトレーニングを可能にする。
9つのRGB-D SODベンチマークデータセットの実験によると、SiaTransは全体的なパフォーマンスが最も優れており、最近の最先端の手法と比べても最小である。
論文 参考訳(メタデータ) (2022-07-09T08:22:12Z) - Pyramidal Attention for Saliency Detection [30.554118525502115]
本稿では,RGB画像のみを活用し,RGBから深度を推定し,中間深度特性を利用する。
ピラミッド型アテンション構造を用いて,マルチレベル畳み込み変換器の特徴を抽出し,初期表現の処理を行う。
我々は8つのRGBおよびRGB-Dデータセット上で21と40の最先端SOD法に対する性能を著しく改善したことを報告した。
論文 参考訳(メタデータ) (2022-04-14T06:57:46Z) - MobileSal: Extremely Efficient RGB-D Salient Object Detection [62.04876251927581]
本稿では,効率的なRGB-Dサルエント物体検出(SOD)に焦点を当てた新しいネットワーク,メソッド名を提案する。
RGB-D SODのためのモバイルネットワークの特徴表現能力を強化するために,暗黙的深度復元(IDR)手法を提案する。
IDRとCPRを組み込むことで、7つの挑戦的なRGB-D SODデータセット上のsArtメソッドに対してメソッド名が好ましい。
論文 参考訳(メタデータ) (2020-12-24T04:36:42Z) - Cascade Graph Neural Networks for RGB-D Salient Object Detection [41.57218490671026]
色情報と深度情報の両方を用いて,RGB-D画像に対する正当性物体検出(SOD)の問題点を考察する。
この2つのデータソース間の相互利益を総合的に蒸留し推論できる統合フレームワークであるCascade Graph Neural Networks(Cas-Gnn)を紹介する。
Cas-Gnnは、いくつかの広く使用されているベンチマークにおいて、既存のRGB-DSODアプローチよりも大幅にパフォーマンスが向上している。
論文 参考訳(メタデータ) (2020-08-07T10:59:04Z) - Data-Level Recombination and Lightweight Fusion Scheme for RGB-D Salient
Object Detection [73.31632581915201]
深部特徴抽出に先立って,RGBとD(深部)を融合する新たなデータレベル組換え手法を提案する。
新たに設計された3重ストリームネットワークをこれらの新しい定式化データ上に適用し,RGBとDのチャネルワイドな相補的融合状態を実現する。
論文 参考訳(メタデータ) (2020-08-07T10:13:05Z) - Synergistic saliency and depth prediction for RGB-D saliency detection [76.27406945671379]
既存のRGB-Dサリエンシデータセットは小さく、多様なシナリオに対して過度に適合し、限定的な一般化につながる可能性がある。
そこで本研究では,RGB-Dサリエンシ検出のための半教師付きシステムを提案する。
論文 参考訳(メタデータ) (2020-07-03T14:24:41Z) - Is Depth Really Necessary for Salient Object Detection? [50.10888549190576]
本稿では,RGB情報のみを推論の入力とする統合深度認識フレームワークの実現に向けた最初の試みを行う。
5つの公開RGB SODベンチマークの最先端のパフォーマンスを上回るだけでなく、5つのベンチマークのRGBDベースのメソッドを大きく上回っている。
論文 参考訳(メタデータ) (2020-05-30T13:40:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。