論文の概要: SPSN: Superpixel Prototype Sampling Network for RGB-D Salient Object
Detection
- arxiv url: http://arxiv.org/abs/2207.07898v1
- Date: Sat, 16 Jul 2022 10:43:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-19 16:43:32.306338
- Title: SPSN: Superpixel Prototype Sampling Network for RGB-D Salient Object
Detection
- Title(参考訳): SPSN:RGB-D能動物体検出のための超画素プロトタイプサンプリングネットワーク
- Authors: Minhyeok Lee, Chaewon Park, Suhwan Cho, Sangyoun Lee
- Abstract要約: 近年,RGB-D Salient Object Detection (SOD) が注目されている。
深層学習手法の進歩にもかかわらず、RGB-D SODは、RGB画像と深度マップと低品質深度マップとの間に大きな領域ギャップがあるため、依然として困難である。
本稿では,この問題を解決するために,新しいスーパーピクセルプロトタイプサンプリングネットワークアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 5.2134203335146925
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: RGB-D salient object detection (SOD) has been in the spotlight recently
because it is an important preprocessing operation for various vision tasks.
However, despite advances in deep learning-based methods, RGB-D SOD is still
challenging due to the large domain gap between an RGB image and the depth map
and low-quality depth maps. To solve this problem, we propose a novel
superpixel prototype sampling network (SPSN) architecture. The proposed model
splits the input RGB image and depth map into component superpixels to generate
component prototypes. We design a prototype sampling network so that the
network only samples prototypes corresponding to salient objects. In addition,
we propose a reliance selection module to recognize the quality of each RGB and
depth feature map and adaptively weight them in proportion to their
reliability. The proposed method makes the model robust to inconsistencies
between RGB images and depth maps and eliminates the influence of non-salient
objects. Our method is evaluated on five popular datasets, achieving
state-of-the-art performance. We prove the effectiveness of the proposed method
through comparative experiments.
- Abstract(参考訳): rgb-d salient object detection (sod) は様々な視覚タスクにおいて重要な前処理操作であるため、近年注目を浴びている。
しかし,RGB画像と深度マップと低品質深度マップとの領域差が大きいため,深度学習手法の進歩にもかかわらず,RGB-D SODは依然として困難である。
そこで本研究では,新しいスーパーピクセルプロトタイプサンプリングネットワーク(spsn)アーキテクチャを提案する。
提案モデルは入力されたrgb画像と深度マップをコンポーネントスーパーピクセルに分割し,コンポーネントプロトタイプを生成する。
本研究では,本ネットワークが有能なオブジェクトに対応するプロトタイプのみをサンプリングするために,プロトタイプサンプリングネットワークを設計する。
さらに,各RGBおよび深度特徴マップの品質を認識し,その信頼性に比例してそれらを適応的に重み付けする信頼選択モジュールを提案する。
提案手法は,RGB画像と深度マップの不整合に頑健にし,非塩性物体の影響を除去する。
提案手法は5つの人気のあるデータセットで評価され,最新性能が得られた。
提案手法の有効性を比較実験により検証した。
関連論文リスト
- RBF Weighted Hyper-Involution for RGB-D Object Detection [0.0]
リアルタイムと2つのストリームRGBDオブジェクト検出モデルを提案する。
提案モデルでは, 深度誘導型ハイパーインボリューションを生深度マップの空間的相互作用パターンに基づいて動的に適応する深度誘導型ハイパーインボリューションと, アップサンプリングに基づくトレーニング可能な融合層からなる。
提案モデルは,NYU Depth v2データセットで他のRGB-Dベースオブジェクト検出モデルよりも優れており,SUN RGB-Dで比較した(第2位)結果が得られることを示す。
論文 参考訳(メタデータ) (2023-09-30T11:25:34Z) - Symmetric Uncertainty-Aware Feature Transmission for Depth
Super-Resolution [52.582632746409665]
カラー誘導DSRのためのSymmetric Uncertainty-aware Feature Transmission (SUFT)を提案する。
本手法は最先端の手法と比較して優れた性能を実現する。
論文 参考訳(メタデータ) (2023-06-01T06:35:59Z) - Dynamic Message Propagation Network for RGB-D Salient Object Detection [47.00147036733322]
本稿では,RGB画像と特徴レベルの深度マップ間のメッセージパッシングを制御することにより,RGB-D有意物体検出のための新しいディープニューラルネットワークフレームワークを提案する。
RGB-D能動的物体検出のための6つのベンチマークデータセットを用いた17の最先端手法と比較して,本手法は定量的・視覚的に,他の手法よりも優れていた。
論文 参考訳(メタデータ) (2022-06-20T03:27:48Z) - Scale Invariant Semantic Segmentation with RGB-D Fusion [12.650574326251023]
RGB-D画像を用いたスケール不変セマンティックセグメンテーションのためのニューラルネットワークアーキテクチャを提案する。
画素単位のセマンティックセグメンテーションのためのRGBデータに深度情報を組み込んで,屋外シーンにおける異なるスケールオブジェクトに対処する。
我々のモデルはコンパクトであり、他のRGBモデルにも容易に適用できる。
論文 参考訳(メタデータ) (2022-04-10T12:54:27Z) - Multi-Scale Iterative Refinement Network for RGB-D Salient Object
Detection [7.062058947498447]
RGB画像の様々なスケールや解像度に、様々な特徴レベルの意味的ギャップがあるため、健全な視覚的手がかりが現れる。
同様のサージェントパターンは、クロスモーダルなディープイメージとマルチスケールバージョンで利用できる。
注意に基づく融合モジュール (ABF) を設計し, 相互相関に対処する。
論文 参考訳(メタデータ) (2022-01-24T10:33:00Z) - Boosting RGB-D Saliency Detection by Leveraging Unlabeled RGB Images [89.81919625224103]
RGB-D Salient Object Detection (SOD) のための深層モデルの訓練は、しばしば多数のラベル付きRGB-D画像を必要とする。
本稿では、ラベルのないRGB画像を活用するために、Dual-Semi RGB-D Salient Object Detection Network (DS-Net)を提案する。
論文 参考訳(メタデータ) (2022-01-01T03:02:27Z) - Self-Supervised Representation Learning for RGB-D Salient Object
Detection [93.17479956795862]
我々は、自己教師付き表現学習を用いて、クロスモーダルオートエンコーダと深さ-輪郭推定という2つのプレテキストタスクを設計する。
我々のプレテキストタスクは、ネットワークがリッチなセマンティックコンテキストをキャプチャする事前トレーニングを実行するのに、少数のRGB-Dデータセットしか必要としない。
RGB-D SODにおけるクロスモーダル核融合の固有の問題として,マルチパス核融合モジュールを提案する。
論文 参考訳(メタデータ) (2021-01-29T09:16:06Z) - MobileSal: Extremely Efficient RGB-D Salient Object Detection [62.04876251927581]
本稿では,効率的なRGB-Dサルエント物体検出(SOD)に焦点を当てた新しいネットワーク,メソッド名を提案する。
RGB-D SODのためのモバイルネットワークの特徴表現能力を強化するために,暗黙的深度復元(IDR)手法を提案する。
IDRとCPRを組み込むことで、7つの挑戦的なRGB-D SODデータセット上のsArtメソッドに対してメソッド名が好ましい。
論文 参考訳(メタデータ) (2020-12-24T04:36:42Z) - Progressively Guided Alternate Refinement Network for RGB-D Salient
Object Detection [63.18846475183332]
我々は,RGB-Dの高次物体検出のための効率的かつコンパクトなディープネットワークを開発することを目指している。
そこで本研究では,改良のための改良ネットワークを提案する。
我々のモデルは、既存の最先端のアプローチよりも大きなマージンで優れています。
論文 参考訳(メタデータ) (2020-08-17T02:55:06Z) - Is Depth Really Necessary for Salient Object Detection? [50.10888549190576]
本稿では,RGB情報のみを推論の入力とする統合深度認識フレームワークの実現に向けた最初の試みを行う。
5つの公開RGB SODベンチマークの最先端のパフォーマンスを上回るだけでなく、5つのベンチマークのRGBDベースのメソッドを大きく上回っている。
論文 参考訳(メタデータ) (2020-05-30T13:40:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。