論文の概要: Cascade Graph Neural Networks for RGB-D Salient Object Detection
- arxiv url: http://arxiv.org/abs/2008.03087v1
- Date: Fri, 7 Aug 2020 10:59:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 01:40:33.838405
- Title: Cascade Graph Neural Networks for RGB-D Salient Object Detection
- Title(参考訳): RGB-Dサルエント物体検出のためのカスケードグラフニューラルネットワーク
- Authors: Ao Luo, Xin Li, Fan Yang, Zhicheng Jiao, Hong Cheng and Siwei Lyu
- Abstract要約: 色情報と深度情報の両方を用いて,RGB-D画像に対する正当性物体検出(SOD)の問題点を考察する。
この2つのデータソース間の相互利益を総合的に蒸留し推論できる統合フレームワークであるCascade Graph Neural Networks(Cas-Gnn)を紹介する。
Cas-Gnnは、いくつかの広く使用されているベンチマークにおいて、既存のRGB-DSODアプローチよりも大幅にパフォーマンスが向上している。
- 参考スコア(独自算出の注目度): 41.57218490671026
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we study the problem of salient object detection (SOD) for
RGB-D images using both color and depth information.A major technical challenge
in performing salient object detection fromRGB-D images is how to fully
leverage the two complementary data sources. Current works either simply
distill prior knowledge from the corresponding depth map for handling the
RGB-image or blindly fuse color and geometric information to generate the
coarse depth-aware representations, hindering the performance of RGB-D saliency
detectors.In this work, we introduceCascade Graph Neural Networks(Cas-Gnn),a
unified framework which is capable of comprehensively distilling and reasoning
the mutual benefits between these two data sources through a set of cascade
graphs, to learn powerful representations for RGB-D salient object detection.
Cas-Gnn processes the two data sources individually and employs a novelCascade
Graph Reasoning(CGR) module to learn powerful dense feature embeddings, from
which the saliency map can be easily inferred. Contrast to the previous
approaches, the explicitly modeling and reasoning of high-level relations
between complementary data sources allows us to better overcome challenges such
as occlusions and ambiguities. Extensive experiments demonstrate that Cas-Gnn
achieves significantly better performance than all existing RGB-DSOD approaches
on several widely-used benchmarks.
- Abstract(参考訳): 本稿では,rgb-d画像におけるsalient object detection(sod)の問題点について,色情報と深度情報の両方を用いて検討し,rgb-d画像からsalient object detection(sod)を行う際の技術的課題について述べる。
Current works either simply distill prior knowledge from the corresponding depth map for handling the RGB-image or blindly fuse color and geometric information to generate the coarse depth-aware representations, hindering the performance of RGB-D saliency detectors.In this work, we introduceCascade Graph Neural Networks(Cas-Gnn),a unified framework which is capable of comprehensively distilling and reasoning the mutual benefits between these two data sources through a set of cascade graphs, to learn powerful representations for RGB-D salient object detection.
Cas-Gnnは2つのデータソースを個別に処理し、新しいCascade Graph Reasoning(CGR)モジュールを使用して強力な高密度な特徴埋め込みを学習する。
従来のアプローチとは対照的に,補完的なデータソース間の高レベルの関係を明示的にモデル化し,推論することで,オクルージョンや曖昧さといった課題を克服することができる。
大規模な実験により、Cas-Gnnはいくつかの広く使用されているベンチマークで既存のRGB-DSODアプローチよりも大幅に性能が向上した。
関連論文リスト
- AGG-Net: Attention Guided Gated-convolutional Network for Depth Image
Completion [1.8820731605557168]
注意誘導ゲート畳み込みネットワーク(AGG-Net)に基づく深度画像補完のための新しいモデルを提案する。
符号化段階では、異なるスケールでの深度と色の特徴の融合を実現するために、AG-GConvモジュールが提案されている。
復号段階では、アテンションガイドスキップ接続(AG-SC)モジュールが提示され、再構成にあまりにも多くの深度に関係のない特徴を導入することを避ける。
論文 参考訳(メタデータ) (2023-09-04T14:16:08Z) - PointMBF: A Multi-scale Bidirectional Fusion Network for Unsupervised
RGB-D Point Cloud Registration [6.030097207369754]
本稿では,RGB画像と深度画像から生成された点雲との間に,マルチスケールの双方向融合を実現するネットワークを提案する。
提案手法は,新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2023-08-09T08:13:46Z) - Multi-Scale Iterative Refinement Network for RGB-D Salient Object
Detection [7.062058947498447]
RGB画像の様々なスケールや解像度に、様々な特徴レベルの意味的ギャップがあるため、健全な視覚的手がかりが現れる。
同様のサージェントパターンは、クロスモーダルなディープイメージとマルチスケールバージョンで利用できる。
注意に基づく融合モジュール (ABF) を設計し, 相互相関に対処する。
論文 参考訳(メタデータ) (2022-01-24T10:33:00Z) - Boosting RGB-D Saliency Detection by Leveraging Unlabeled RGB Images [89.81919625224103]
RGB-D Salient Object Detection (SOD) のための深層モデルの訓練は、しばしば多数のラベル付きRGB-D画像を必要とする。
本稿では、ラベルのないRGB画像を活用するために、Dual-Semi RGB-D Salient Object Detection Network (DS-Net)を提案する。
論文 参考訳(メタデータ) (2022-01-01T03:02:27Z) - RGB-D Salient Object Detection with Ubiquitous Target Awareness [37.6726410843724]
我々は、新しい深度認識フレームワークを用いて、RGB-D有向物体検出問題を解くための最初の試みを行う。
本稿では,RGB-D SODタスクにおける3つの課題を解決するために,ユビキタスターゲット意識(UTA)ネットワークを提案する。
提案するUTAネットワークは深度フリーで,43FPSでリアルタイムに動作可能である。
論文 参考訳(メタデータ) (2021-09-08T04:27:29Z) - Cross-modality Discrepant Interaction Network for RGB-D Salient Object
Detection [78.47767202232298]
本稿では,RGB-D SODのためのクロスモダリティ離散相互作用ネットワーク(CDINet)を提案する。
2つのコンポーネントは、効果的な相互モダリティ相互作用を実装するように設計されている。
我々のネットワークは、定量的にも質的にも15ドルの最先端の手法より優れています。
論文 参考訳(メタデータ) (2021-08-04T11:24:42Z) - Progressively Guided Alternate Refinement Network for RGB-D Salient
Object Detection [63.18846475183332]
我々は,RGB-Dの高次物体検出のための効率的かつコンパクトなディープネットワークを開発することを目指している。
そこで本研究では,改良のための改良ネットワークを提案する。
我々のモデルは、既存の最先端のアプローチよりも大きなマージンで優れています。
論文 参考訳(メタデータ) (2020-08-17T02:55:06Z) - Synergistic saliency and depth prediction for RGB-D saliency detection [76.27406945671379]
既存のRGB-Dサリエンシデータセットは小さく、多様なシナリオに対して過度に適合し、限定的な一般化につながる可能性がある。
そこで本研究では,RGB-Dサリエンシ検出のための半教師付きシステムを提案する。
論文 参考訳(メタデータ) (2020-07-03T14:24:41Z) - Is Depth Really Necessary for Salient Object Detection? [50.10888549190576]
本稿では,RGB情報のみを推論の入力とする統合深度認識フレームワークの実現に向けた最初の試みを行う。
5つの公開RGB SODベンチマークの最先端のパフォーマンスを上回るだけでなく、5つのベンチマークのRGBDベースのメソッドを大きく上回っている。
論文 参考訳(メタデータ) (2020-05-30T13:40:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。