論文の概要: Decoupling Fine Detail and Global Geometry for Compressed Depth Map Super-Resolution
- arxiv url: http://arxiv.org/abs/2411.03239v1
- Date: Tue, 05 Nov 2024 16:37:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-06 14:59:40.280844
- Title: Decoupling Fine Detail and Global Geometry for Compressed Depth Map Super-Resolution
- Title(参考訳): 圧縮深度マップ超解法における微細細部と大域形状のデカップリング
- Authors: Huan Zheng, Wencheng Han, Jianbing Shen,
- Abstract要約: ビット深度圧縮は、微妙な変化のある領域で均一な深度表現を生成し、詳細情報の回復を妨げる。
密集したランダムノイズは、シーンのグローバルな幾何学的構造を推定する精度を低下させる。
圧縮深度マップ超解像のための新しいフレームワークGDNetを提案する。
- 参考スコア(独自算出の注目度): 55.9977636042469
- License:
- Abstract: Recovering high-quality depth maps from compressed sources has gained significant attention due to the limitations of consumer-grade depth cameras and the bandwidth restrictions during data transmission. However, current methods still suffer from two challenges. First, bit-depth compression produces a uniform depth representation in regions with subtle variations, hindering the recovery of detailed information. Second, densely distributed random noise reduces the accuracy of estimating the global geometric structure of the scene. To address these challenges, we propose a novel framework, termed geometry-decoupled network (GDNet), for compressed depth map super-resolution that decouples the high-quality depth map reconstruction process by handling global and detailed geometric features separately. To be specific, we propose the fine geometry detail encoder (FGDE), which is designed to aggregate fine geometry details in high-resolution low-level image features while simultaneously enriching them with complementary information from low-resolution context-level image features. In addition, we develop the global geometry encoder (GGE) that aims at suppressing noise and extracting global geometric information effectively via constructing compact feature representation in a low-rank space. We conduct experiments on multiple benchmark datasets, demonstrating that our GDNet significantly outperforms current methods in terms of geometric consistency and detail recovery. In the ECCV 2024 AIM Compressed Depth Upsampling Challenge, our solution won the 1st place award. Our codes will be available.
- Abstract(参考訳): 圧縮されたソースから高品質な深度マップを復元することは、コンシューマグレードの深度カメラの限界とデータ伝送時の帯域幅制限により、大きな注目を集めている。
しかし、現在の方法は2つの課題に悩まされている。
第一に、ビット深度圧縮は微妙な変化のある領域における均一な深度表現を生成し、詳細情報の回復を妨げる。
第二に、密度分布のランダムノイズは、シーンのグローバルな幾何学的構造を推定する精度を低下させる。
これらの課題に対処するために,グローバルかつ詳細な幾何学的特徴を別々に扱うことにより,高品質な深度マップ再構成処理を分離する圧縮深度マップ超解像のための新しいフレームワークGDNetを提案する。
具体的には、高解像度の低レベル画像特徴において細かな幾何学的細部を集約すると共に、低解像度の文脈レベルの画像特徴から補完的な情報でそれらを強化するFGDE( fine geometry details encoder)を提案する。
さらに,低ランク空間におけるコンパクトな特徴表現の構築を通じて,雑音の抑制とグローバルな幾何学情報を効果的に抽出することを目的としたグローバル幾何エンコーダ(GGE)を開発した。
我々は、複数のベンチマークデータセットで実験を行い、GDNetが幾何的一貫性と詳細回復の観点から、現在の手法を著しく上回っていることを実証した。
ECCV 2024 AIM Compressed Depth Upsampling Challengeでは、私たちのソリューションが第1位を獲得しました。
私たちのコードは利用可能です。
関連論文リスト
- PGNeXt: High-Resolution Salient Object Detection via Pyramid Grafting Network [24.54269823691119]
本稿では、データセットとネットワークフレームワークの両方の観点から、より難解な高分解能サルエントオブジェクト検出(HRSOD)について述べる。
HRSODデータセットの欠如を補うため、UHRSDと呼ばれる大規模高解像度の高分解能物体検出データセットを慎重に収集した。
すべての画像はピクセルレベルで微妙にアノテートされ、以前の低解像度のSODデータセットをはるかに上回っている。
論文 参考訳(メタデータ) (2024-08-02T09:31:21Z) - Symmetric Uncertainty-Aware Feature Transmission for Depth
Super-Resolution [52.582632746409665]
カラー誘導DSRのためのSymmetric Uncertainty-aware Feature Transmission (SUFT)を提案する。
本手法は最先端の手法と比較して優れた性能を実現する。
論文 参考訳(メタデータ) (2023-06-01T06:35:59Z) - Super-Resolving Face Image by Facial Parsing Information [52.1267613768555]
顔超解像は、低解像度の顔画像を対応する高解像度の画像に変換する技術である。
我々は,低解像度の顔画像から先行する顔を抽出する,新しい解析マップ付き顔超解像ネットワークを構築した。
高解像度特徴はより正確な空間情報を含み、低解像度特徴は強い文脈情報を提供する。
論文 参考訳(メタデータ) (2023-04-06T08:19:03Z) - ${S}^{2}$Net: Accurate Panorama Depth Estimation on Spherical Surface [4.649656275858966]
単球面上の単分子パノラマ深度推定のためのエンドツーエンドのディープネットワークを提案する。
具体的には、等方形画像から抽出した特徴写像を一様分散格子でサンプリングした単位球面に投影する。
本研究では,機能マップをスキップ接続から解き放ち,グローバルコンテキストの獲得能力を高めるために,グローバルなクロスアテンションベースの融合モジュールを提案する。
論文 参考訳(メタデータ) (2023-01-14T07:39:15Z) - Learning Continuous Depth Representation via Geometric Spatial
Aggregator [47.1698365486215]
深度マップ超解法(DSR)のための新しい連続深度表現法を提案する。
この表現の中心は我々の提案した幾何空間アグリゲータ(GSA)であり、これは任意にアップサンプリングされたターゲットグリッドにより変調された距離場を利用する。
また、局所座標間の関数マッピングを構築するための原理的な方法を持つGeoDSRというトランスフォーマースタイルのバックボーンも提示する。
論文 参考訳(メタデータ) (2022-12-07T07:48:23Z) - Deep Hierarchical Super-Resolution for Scientific Data Reduction and
Visualization [11.095493889344317]
我々は,オクツリーデータ表現上のニューラルネットワークを用いた階層的超解像(SR)に対するアプローチを提案する。
ニューラルネットワークの階層構造をトレーニングし、それぞれの空間次元を2段階のディテールで2倍のアップスケーリングを可能にします。
我々は,これらのネットワークを,オクツリーノード境界にシームアーティファクトを導入することなく,マルチレゾリューションデータを一様に高分解能にスケールアップする階層的超分解能アルゴリズムで活用する。
論文 参考訳(メタデータ) (2021-05-30T18:32:11Z) - High-resolution Depth Maps Imaging via Attention-based Hierarchical
Multi-modal Fusion [84.24973877109181]
誘導DSRのための新しい注意に基づく階層型マルチモーダル融合ネットワークを提案する。
本手法は,再現精度,動作速度,メモリ効率の点で最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-04-04T03:28:33Z) - Hyperspectral Image Super-resolution via Deep Progressive Zero-centric
Residual Learning [62.52242684874278]
空間情報とスペクトル情報の相互モダリティ分布が問題となる。
本稿では,PZRes-Netという,新しいテクスライトウェイトなディープニューラルネットワークベースのフレームワークを提案する。
本フレームワークは,高分解能かつテクテッセロ中心の残像を学習し,シーンの空間的詳細を高頻度で表現する。
論文 参考訳(メタデータ) (2020-06-18T06:32:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。