論文の概要: Accurate RGB-D Salient Object Detection via Collaborative Learning
- arxiv url: http://arxiv.org/abs/2007.11782v1
- Date: Thu, 23 Jul 2020 04:33:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 12:29:32.048905
- Title: Accurate RGB-D Salient Object Detection via Collaborative Learning
- Title(参考訳): 協調学習による高精度rgb-dサルエント物体検出
- Authors: Wei Ji, Jingjing Li, Miao Zhang, Yongri Piao, Huchuan Lu
- Abstract要約: RGB-Dサリエンシ検出は、いくつかの課題シナリオにおいて素晴らしい能力を示している。
本稿では,エッジ,深度,塩分濃度をより効率的に活用する新しい協調学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 101.82654054191443
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Benefiting from the spatial cues embedded in depth images, recent progress on
RGB-D saliency detection shows impressive ability on some challenge scenarios.
However, there are still two limitations. One hand is that the pooling and
upsampling operations in FCNs might cause blur object boundaries. On the other
hand, using an additional depth-network to extract depth features might lead to
high computation and storage cost. The reliance on depth inputs during testing
also limits the practical applications of current RGB-D models. In this paper,
we propose a novel collaborative learning framework where edge, depth and
saliency are leveraged in a more efficient way, which solves those problems
tactfully. The explicitly extracted edge information goes together with
saliency to give more emphasis to the salient regions and object boundaries.
Depth and saliency learning is innovatively integrated into the high-level
feature learning process in a mutual-benefit manner. This strategy enables the
network to be free of using extra depth networks and depth inputs to make
inference. To this end, it makes our model more lightweight, faster and more
versatile. Experiment results on seven benchmark datasets show its superior
performance.
- Abstract(参考訳): 深度画像に埋め込まれた空間的手がかりから、最近のRGB-D塩分濃度検出の進歩は、いくつかの課題シナリオにおいて印象的な能力を示している。
しかし、まだ2つの制限がある。
一方、fcnsのプールとアップサンプリング操作はオブジェクト境界のぼやけを引き起こす可能性がある。
一方、深度の特徴を抽出するために追加の深度ネットワークを用いると、高い計算とストレージコストにつながる可能性がある。
テスト中の深度入力への依存は、現在のRGB-Dモデルの実用的応用を制限する。
本稿では,エッジ,深さ,塩分をより効率的に活用し,この問題を効果的に解決する新しい協調学習フレームワークを提案する。
明示的に抽出されたエッジ情報は、サルエント領域とオブジェクト境界をより強調するために、サルエンシーと併用される。
深度学習と塩分学習は、相互に相応しい方法で高レベルの特徴学習プロセスに統合される。
この戦略により、ネットワークは、余分な深度ネットワークと深度入力を使って推論することができない。
この目的のために、私たちのモデルはより軽量で、より速く、より汎用的になります。
7つのベンチマークデータセットの実験結果は、その優れたパフォーマンスを示している。
関連論文リスト
- RGB-D Grasp Detection via Depth Guided Learning with Cross-modal
Attention [14.790193023912973]
本稿では,DGCAN(Depth Guided Cross-modal Attention Network)を用いた新しい学習手法を提案する。
深度チャネルに記録された幾何情報をよりよく活用するために、全6次元矩形表現を専用に考慮して採用する。
余分な掴み深度の予測は特徴学習を大幅に強化し、より正確な結果をもたらす。
論文 参考訳(メタデータ) (2023-02-28T02:41:27Z) - Lightweight Monocular Depth Estimation with an Edge Guided Network [34.03711454383413]
本稿では,新しいエッジガイド深度推定ネットワーク(EGD-Net)を提案する。
特に、軽量なエンコーダデコーダアーキテクチャから始め、エッジガイダンスブランチを組み込む。
コンテクスト情報とエッジアテンション特徴を集約するために,トランスフォーマーをベースとした機能アグリゲーションモジュールを設計する。
論文 参考訳(メタデータ) (2022-09-29T14:45:47Z) - Depth-Adapted CNNs for RGB-D Semantic Segmentation [2.341385717236931]
我々は、RGB畳み込みニューラルネットワーク(CNN)に深度情報を組み込む新しい枠組みを提案する。
具体的には、Z-ACNは2次元奥行き適応オフセットを生成し、RGB画像の特徴抽出を誘導する低レベル特徴に完全に制約される。
生成されたオフセットでは、基本的なCNN演算子を置き換えるために、2つの直感的で効果的な操作を導入する。
論文 参考訳(メタデータ) (2022-06-08T14:59:40Z) - RGB-D Saliency Detection via Cascaded Mutual Information Minimization [122.8879596830581]
既存のRGB-Dサリエンシ検出モデルは、RGBと深さを効果的にマルチモーダル学習を実現するために明示的に奨励するものではない。
本稿では,RGB画像と深度データ間のマルチモーダル情報を「明示的」にモデル化するために,相互情報最小化による新しい多段階学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-15T12:31:27Z) - RGB-D Salient Object Detection with Ubiquitous Target Awareness [37.6726410843724]
我々は、新しい深度認識フレームワークを用いて、RGB-D有向物体検出問題を解くための最初の試みを行う。
本稿では,RGB-D SODタスクにおける3つの課題を解決するために,ユビキタスターゲット意識(UTA)ネットワークを提案する。
提案するUTAネットワークは深度フリーで,43FPSでリアルタイムに動作可能である。
論文 参考訳(メタデータ) (2021-09-08T04:27:29Z) - Sparse Auxiliary Networks for Unified Monocular Depth Prediction and
Completion [56.85837052421469]
コスト効率のよいセンサで得られたデータからシーン形状を推定することは、ロボットや自動運転車にとって鍵となる。
本稿では,1枚のRGB画像から,低コストな能動深度センサによるスパース計測により,深度を推定する問題について検討する。
sparse networks (sans) は,深さ予測と完了という2つのタスクをmonodepthネットワークで実行可能にする,新しいモジュールである。
論文 参考訳(メタデータ) (2021-03-30T21:22:26Z) - MobileSal: Extremely Efficient RGB-D Salient Object Detection [62.04876251927581]
本稿では,効率的なRGB-Dサルエント物体検出(SOD)に焦点を当てた新しいネットワーク,メソッド名を提案する。
RGB-D SODのためのモバイルネットワークの特徴表現能力を強化するために,暗黙的深度復元(IDR)手法を提案する。
IDRとCPRを組み込むことで、7つの挑戦的なRGB-D SODデータセット上のsArtメソッドに対してメソッド名が好ましい。
論文 参考訳(メタデータ) (2020-12-24T04:36:42Z) - EDN: Salient Object Detection via Extremely-Downsampled Network [66.38046176176017]
画像全体のグローバルビューを効果的に学ぶために、極端なダウンサンプリング技術を使用するExtremely-Downsampled Network(EDN)を紹介します。
実験は、ednがリアルタイム速度でsart性能を達成することを実証する。
論文 参考訳(メタデータ) (2020-12-24T04:23:48Z) - Is Depth Really Necessary for Salient Object Detection? [50.10888549190576]
本稿では,RGB情報のみを推論の入力とする統合深度認識フレームワークの実現に向けた最初の試みを行う。
5つの公開RGB SODベンチマークの最先端のパフォーマンスを上回るだけでなく、5つのベンチマークのRGBDベースのメソッドを大きく上回っている。
論文 参考訳(メタデータ) (2020-05-30T13:40:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。