論文の概要: Multi-Scale Progressive Fusion Learning for Depth Map Super-Resolution
- arxiv url: http://arxiv.org/abs/2011.11865v1
- Date: Tue, 24 Nov 2020 03:03:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 13:20:03.885891
- Title: Multi-Scale Progressive Fusion Learning for Depth Map Super-Resolution
- Title(参考訳): 深度マップ超解法のためのマルチスケールプログレッシブ融合学習
- Authors: Chuhua Xian, Kun Qian, Zitian Zhang, and Charlie C.L. Wang
- Abstract要約: 深度カメラが収集する深度マップの解像度は、RGBカメラの解像度よりも低いことが多い。
深度マップの超解法における大きな問題は、明らかにギザギザと細部が過剰に失われることである。
本稿では,各領域に階層的特徴を統合する構造を持つ深度マップSRのためのマルチスケールプログレッシブ・フュージョン・ネットワークを提案する。
- 参考スコア(独自算出の注目度): 11.072332820377612
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Limited by the cost and technology, the resolution of depth map collected by
depth camera is often lower than that of its associated RGB camera. Although
there have been many researches on RGB image super-resolution (SR), a major
problem with depth map super-resolution is that there will be obvious jagged
edges and excessive loss of details. To tackle these difficulties, in this
work, we propose a multi-scale progressive fusion network for depth map SR,
which possess an asymptotic structure to integrate hierarchical features in
different domains. Given a low-resolution (LR) depth map and its associated
high-resolution (HR) color image, We utilize two different branches to achieve
multi-scale feature learning. Next, we propose a step-wise fusion strategy to
restore the HR depth map. Finally, a multi-dimensional loss is introduced to
constrain clear boundaries and details. Extensive experiments show that our
proposed method produces improved results against state-of-the-art methods both
qualitatively and quantitatively.
- Abstract(参考訳): コストと技術によって制限された深度マップの解像度は、しばしば関連するRGBカメラの解像度よりも低い。
RGB画像の超解像(SR)に関する研究は数多く行われているが、深度マップの超解像の大きな問題は、明らかにギザギザと細部が過剰に失われることである。
そこで本研究では,異なる領域に階層的特徴を統合する漸近的構造を持つ深度マップsrのための多スケールプログレッシブ・フュージョン・ネットワークを提案する。
低解像度 (lr) 深度マップとそれに伴う高分解能 (hr) カラーイメージが与えられ, マルチスケール特徴学習を実現するために, 2つの異なる枝を用いる。
次に、HR深度マップを復元するためのステップワイズ融合戦略を提案する。
最後に、明確な境界と詳細を制約するために多次元の損失を導入する。
広範な実験により,提案手法は定性的および定量的に最先端手法に対して優れた結果をもたらすことが示された。
関連論文リスト
- Decoupling Fine Detail and Global Geometry for Compressed Depth Map Super-Resolution [55.9977636042469]
ビット深度圧縮は、微妙な変化のある領域で均一な深度表現を生成し、詳細情報の回復を妨げる。
密集したランダムノイズは、シーンのグローバルな幾何学的構造を推定する精度を低下させる。
圧縮深度マップ超解像のための新しいフレームワークGDNetを提案する。
論文 参考訳(メタデータ) (2024-11-05T16:37:30Z) - Symmetric Uncertainty-Aware Feature Transmission for Depth
Super-Resolution [52.582632746409665]
カラー誘導DSRのためのSymmetric Uncertainty-aware Feature Transmission (SUFT)を提案する。
本手法は最先端の手法と比較して優れた性能を実現する。
論文 参考訳(メタデータ) (2023-06-01T06:35:59Z) - Guided Depth Super-Resolution by Deep Anisotropic Diffusion [18.445649181582823]
誘導異方性拡散と深層畳み込みネットワークを組み合わせた新しい手法を提案する。
誘導深度超解像のための3つの一般的なベンチマークで前例のない結果を得た。
論文 参考訳(メタデータ) (2022-11-21T15:48:13Z) - Weakly-Supervised Monocular Depth Estimationwith Resolution-Mismatched
Data [73.9872931307401]
単眼深度推定ネットワークをトレーニングするための弱教師付きフレームワークを提案する。
提案フレームワークは, 共有重量単分子深度推定ネットワークと蒸留用深度再構成ネットワークから構成される。
実験結果から,本手法は教師なし・半教師付き学習ベース方式よりも優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2021-09-23T18:04:12Z) - BridgeNet: A Joint Learning Network of Depth Map Super-Resolution and
Monocular Depth Estimation [60.34562823470874]
本稿では,DSR(Deep Map Super- resolution)とMDE(Monocular depth Estimation)の併用学習ネットワークを提案する。
1つは特徴符号化プロセスのために設計された高周波アテンションブリッジ(HABdg)で、これはDSRタスクを誘導するMDEタスクの高周波情報を学ぶ。
もう一つは、深度マップ再構築プロセス用に設計されたコンテンツガイダンスブリッジ(CGBdg)であり、MDEタスクのためにDSRタスクから学んだコンテンツガイダンスを提供する。
論文 参考訳(メタデータ) (2021-07-27T01:28:23Z) - Towards Fast and Accurate Real-World Depth Super-Resolution: Benchmark
Dataset and Baseline [48.69396457721544]
深度写像スーパーリゾリューション(SR)の研究を促進するために,RGB-D-Dという大規模データセットを構築した。
本稿では、RGB画像から高周波成分を適応的に分解して深度マップSRを導出する高速深度マップ超解像(FDSR)ベースラインを提供する。
実世界のLR深度マップでは、より明確な境界を持つより正確なHR深度マップを作成でき、ある程度の精度で深度値誤差を補正できる。
論文 参考訳(メタデータ) (2021-04-13T13:27:26Z) - High-resolution Depth Maps Imaging via Attention-based Hierarchical
Multi-modal Fusion [84.24973877109181]
誘導DSRのための新しい注意に基づく階層型マルチモーダル融合ネットワークを提案する。
本手法は,再現精度,動作速度,メモリ効率の点で最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-04-04T03:28:33Z) - Multimodal Deep Unfolding for Guided Image Super-Resolution [23.48305854574444]
ディープラーニング手法は、低解像度の入力から高解像度の出力へのエンドツーエンドのマッピングを学習するために、トレーニングデータに依存する。
本稿では,スパース事前を組み込んだマルチモーダル深層学習設計を提案し,他の画像モダリティからの情報をネットワークアーキテクチャに効果的に統合する。
提案手法は,サイド情報を用いた畳み込みスパース符号化の反復的アルゴリズムに類似した,新しい展開演算子に依存している。
論文 参考訳(メタデータ) (2020-01-21T14:41:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。