論文の概要: Towards Fast and Accurate Real-World Depth Super-Resolution: Benchmark
Dataset and Baseline
- arxiv url: http://arxiv.org/abs/2104.06174v1
- Date: Tue, 13 Apr 2021 13:27:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-14 13:44:52.656192
- Title: Towards Fast and Accurate Real-World Depth Super-Resolution: Benchmark
Dataset and Baseline
- Title(参考訳): 高速かつ高精度なスーパーリゾリューションを目指して:ベンチマークデータセットとベースライン
- Authors: Lingzhi He, Hongguang Zhu, Feng Li, Huihui Bai, Runmin Cong, Chunjie
Zhang, Chunyu Lin, Meiqin Liu, Yao Zhao
- Abstract要約: 深度写像スーパーリゾリューション(SR)の研究を促進するために,RGB-D-Dという大規模データセットを構築した。
本稿では、RGB画像から高周波成分を適応的に分解して深度マップSRを導出する高速深度マップ超解像(FDSR)ベースラインを提供する。
実世界のLR深度マップでは、より明確な境界を持つより正確なHR深度マップを作成でき、ある程度の精度で深度値誤差を補正できる。
- 参考スコア(独自算出の注目度): 48.69396457721544
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Depth maps obtained by commercial depth sensors are always in low-resolution,
making it difficult to be used in various computer vision tasks. Thus, depth
map super-resolution (SR) is a practical and valuable task, which upscales the
depth map into high-resolution (HR) space. However, limited by the lack of
real-world paired low-resolution (LR) and HR depth maps, most existing methods
use downsampling to obtain paired training samples. To this end, we first
construct a large-scale dataset named "RGB-D-D", which can greatly promote the
study of depth map SR and even more depth-related real-world tasks. The "D-D"
in our dataset represents the paired LR and HR depth maps captured from mobile
phone and Lucid Helios respectively ranging from indoor scenes to challenging
outdoor scenes. Besides, we provide a fast depth map super-resolution (FDSR)
baseline, in which the high-frequency component adaptively decomposed from RGB
image to guide the depth map SR. Extensive experiments on existing public
datasets demonstrate the effectiveness and efficiency of our network compared
with the state-of-the-art methods. Moreover, for the real-world LR depth maps,
our algorithm can produce more accurate HR depth maps with clearer boundaries
and to some extent correct the depth value errors.
- Abstract(参考訳): 商用深度センサによって得られた深度マップは常に低解像度であり、様々なコンピュータビジョンタスクでの使用が困難である。
したがって、深度マップ超解法(SR)は実用的で価値のある課題であり、深度マップを高分解能(HR)空間にスケールアップする。
しかし、現実のペア化低解像度(LR)とHR深度マップが欠如しているため、既存のほとんどの手法はダウンサンプリングを用いてペア化トレーニングサンプルを得る。
この目的のために,我々はまず「RGB-D-D」という大規模データセットを構築した。
我々のデータセットの「D-D」は、屋内シーンから屋外シーンまで、携帯電話とルシッド・ヘリオスから取得したLRとHRの深度マップのペアを表す。
さらに、RGB画像から高周波成分を適応的に分解して深度マップSRを導出する高速深度マップ超解像(FDSR)ベースラインを提供する。
さらに、実世界のLR深度マップでは、より明確な境界を持つより正確なHR深度マップを作成でき、ある程度の精度で深度値誤差を補正できる。
関連論文リスト
- RDFC-GAN: RGB-Depth Fusion CycleGAN for Indoor Depth Completion [28.634851863097953]
本稿では,RDFC-GANという2分岐のエンドツーエンド核融合ネットワークを提案する。
RGBと不完全な深度画像のペアを入力として、密集した深度マップを予測する。
第1分枝は、マンハッタン世界の仮定に固執することにより、エンコーダ・デコーダ構造を用いる。
もう一方のブランチでは、RGBイメージを詳細なテクスチャ化された深度マップに変換するのに適したRGB深度融合CycleGANが適用されている。
論文 参考訳(メタデータ) (2023-06-06T11:03:05Z) - Symmetric Uncertainty-Aware Feature Transmission for Depth
Super-Resolution [52.582632746409665]
カラー誘導DSRのためのSymmetric Uncertainty-aware Feature Transmission (SUFT)を提案する。
本手法は最先端の手法と比較して優れた性能を実現する。
論文 参考訳(メタデータ) (2023-06-01T06:35:59Z) - RGB-Depth Fusion GAN for Indoor Depth Completion [29.938869342958125]
本稿では,RGBと不完全深度画像のペアを入力として,高密度で完成度の高い深度マップを推定する,新しい2分岐エンドツーエンド融合ネットワークを設計する。
あるブランチでは、RGB画像を微細なテクスチャ化深度マップに転送するRGB深度融合GANを提案する。
他方のブランチでは、W-AdaINという名前の適応核融合モジュールを採用し、2つのブランチにまたがる特徴を伝播させます。
論文 参考訳(メタデータ) (2022-03-21T10:26:38Z) - Joint Learning of Salient Object Detection, Depth Estimation and Contour
Extraction [91.43066633305662]
RGB-D Salient Object Detection (SOD) のための新しいマルチタスク・マルチモーダルフィルタトランス (MMFT) ネットワークを提案する。
具体的には、深度推定、健全な物体検出、輪郭推定の3つの相補的なタスクを統合する。マルチタスク機構は、タスク認識の特徴を補助タスクから学習するためのモデルを促進する。
実験の結果、複数のデータセット上での深度に基づくRGB-D SOD法をはるかに上回るだけでなく、高品質の深度マップと塩分濃度を同時に正確に予測できることがわかった。
論文 参考訳(メタデータ) (2022-03-09T17:20:18Z) - Weakly-Supervised Monocular Depth Estimationwith Resolution-Mismatched
Data [73.9872931307401]
単眼深度推定ネットワークをトレーニングするための弱教師付きフレームワークを提案する。
提案フレームワークは, 共有重量単分子深度推定ネットワークと蒸留用深度再構成ネットワークから構成される。
実験結果から,本手法は教師なし・半教師付き学習ベース方式よりも優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2021-09-23T18:04:12Z) - High-resolution Depth Maps Imaging via Attention-based Hierarchical
Multi-modal Fusion [84.24973877109181]
誘導DSRのための新しい注意に基づく階層型マルチモーダル融合ネットワークを提案する。
本手法は,再現精度,動作速度,メモリ効率の点で最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-04-04T03:28:33Z) - Multi-Scale Progressive Fusion Learning for Depth Map Super-Resolution [11.072332820377612]
深度カメラが収集する深度マップの解像度は、RGBカメラの解像度よりも低いことが多い。
深度マップの超解法における大きな問題は、明らかにギザギザと細部が過剰に失われることである。
本稿では,各領域に階層的特徴を統合する構造を持つ深度マップSRのためのマルチスケールプログレッシブ・フュージョン・ネットワークを提案する。
論文 参考訳(メタデータ) (2020-11-24T03:03:07Z) - Channel Attention based Iterative Residual Learning for Depth Map
Super-Resolution [58.626803922196146]
我々は、合成データセットで訓練されたDSRモデルは制限的であり、実世界のDSRタスクを扱うのに有効ではないと論じる。
我々は、異なる深度センサの現実世界の劣化に対処するために2つの貢献をしている。
4つのモジュールからなる実世界のDSRのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-02T09:12:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。