論文の概要: Learning Continuous Depth Representation via Geometric Spatial
Aggregator
- arxiv url: http://arxiv.org/abs/2212.03499v1
- Date: Wed, 7 Dec 2022 07:48:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 15:04:40.207186
- Title: Learning Continuous Depth Representation via Geometric Spatial
Aggregator
- Title(参考訳): 幾何空間アグリゲータによる連続深度表現の学習
- Authors: Xiaohang Wang, Xuanhong Chen, Bingbing Ni, Zhengyan Tong, Hang Wang
- Abstract要約: 深度マップ超解法(DSR)のための新しい連続深度表現法を提案する。
この表現の中心は我々の提案した幾何空間アグリゲータ(GSA)であり、これは任意にアップサンプリングされたターゲットグリッドにより変調された距離場を利用する。
また、局所座標間の関数マッピングを構築するための原理的な方法を持つGeoDSRというトランスフォーマースタイルのバックボーンも提示する。
- 参考スコア(独自算出の注目度): 47.1698365486215
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Depth map super-resolution (DSR) has been a fundamental task for 3D computer
vision. While arbitrary scale DSR is a more realistic setting in this scenario,
previous approaches predominantly suffer from the issue of inefficient
real-numbered scale upsampling. To explicitly address this issue, we propose a
novel continuous depth representation for DSR. The heart of this representation
is our proposed Geometric Spatial Aggregator (GSA), which exploits a distance
field modulated by arbitrarily upsampled target gridding, through which the
geometric information is explicitly introduced into feature aggregation and
target generation. Furthermore, bricking with GSA, we present a
transformer-style backbone named GeoDSR, which possesses a principled way to
construct the functional mapping between local coordinates and the
high-resolution output results, empowering our model with the advantage of
arbitrary shape transformation ready to help diverse zooming demand. Extensive
experimental results on standard depth map benchmarks, e.g., NYU v2, have
demonstrated that the proposed framework achieves significant restoration gain
in arbitrary scale depth map super-resolution compared with the prior art. Our
codes are available at https://github.com/nana01219/GeoDSR.
- Abstract(参考訳): 深度マップ超解像(DSR)は3次元コンピュータビジョンの基本的な課題である。
任意のスケールDSRは、このシナリオではより現実的な設定であるが、従来のアプローチは主に非効率な実数スケールアップサンプリングの問題に悩まされている。
そこで本研究では,DSRのための新しい連続深度表現法を提案する。
この表現の中心は我々の提案した幾何学的空間アグリゲータ (GSA) であり、これは任意にアップサンプリングされたターゲットグリッドにより変調された距離場を利用して、幾何学的情報を特徴集約とターゲット生成に明示的に導入する。
さらに,gsrを用いたブリック化により,局所座標と高分解能出力結果との関数マッピングを原理的に構築する手法を持つgeodsrというトランスフォーマチックバックボーンを提案する。
標準深度マップベンチマーク(nyu v2 など)の広範な実験結果から,提案手法が任意のスケール深度マップのスーパーレゾリューションにおいて,先行技術と比較して相当な回復率を達成できることが示されている。
私たちのコードはhttps://github.com/nana01219/geodsrで利用可能です。
関連論文リスト
- GeoLRM: Geometry-Aware Large Reconstruction Model for High-Quality 3D Gaussian Generation [65.33726478659304]
GeoLRM(Geometry-Aware Large Restruction Model)は、512kガウスと21の入力画像で11GBのGPUメモリで高品質な資産を予測できる手法である。
従来の作品では、3D構造の本質的な空間性は無視されており、3D画像と2D画像の間の明示的な幾何学的関係は利用されていない。
GeoLRMは、3Dポイントを直接処理し、変形可能なクロスアテンション機構を使用する新しい3D対応トランスフォーマー構造を導入することで、これらの問題に対処する。
論文 参考訳(メタデータ) (2024-06-21T17:49:31Z) - Hi-Map: Hierarchical Factorized Radiance Field for High-Fidelity
Monocular Dense Mapping [51.739466714312805]
ニューラルラジアンス場(NeRF)に基づく新しいモノクリン高密度マッピング手法であるHi-Mapを導入する。
ハイマップは、RGB入力のみを用いた効率的かつ高忠実なマッピングを実現する能力において例外的である。
論文 参考訳(メタデータ) (2024-01-06T12:32:25Z) - DSR-Diff: Depth Map Super-Resolution with Diffusion Model [38.68563026759223]
本稿では,遅延空間内の拡散モデルを用いて,深度マップの超解像誘導を行う新しいCDSRパラダイムを提案する。
提案手法は,最先端手法と比較して,広範囲な実験において優れた性能を示した。
論文 参考訳(メタデータ) (2023-11-16T14:18:10Z) - RGB-based Category-level Object Pose Estimation via Decoupled Metric
Scale Recovery [72.13154206106259]
本研究では、6次元のポーズとサイズ推定を分離し、不完全なスケールが剛性変換に与える影響を緩和するパイプラインを提案する。
具体的には,事前学習した単分子推定器を用いて局所的な幾何学的情報を抽出する。
別個のブランチは、カテゴリレベルの統計に基づいてオブジェクトのメートル法スケールを直接復元するように設計されている。
論文 参考訳(メタデータ) (2023-09-19T02:20:26Z) - BridgeNet: A Joint Learning Network of Depth Map Super-Resolution and
Monocular Depth Estimation [60.34562823470874]
本稿では,DSR(Deep Map Super- resolution)とMDE(Monocular depth Estimation)の併用学習ネットワークを提案する。
1つは特徴符号化プロセスのために設計された高周波アテンションブリッジ(HABdg)で、これはDSRタスクを誘導するMDEタスクの高周波情報を学ぶ。
もう一つは、深度マップ再構築プロセス用に設計されたコンテンツガイダンスブリッジ(CGBdg)であり、MDEタスクのためにDSRタスクから学んだコンテンツガイダンスを提供する。
論文 参考訳(メタデータ) (2021-07-27T01:28:23Z) - Discrete Cosine Transform Network for Guided Depth Map Super-Resolution [19.86463937632802]
目標は、高解像度(HR)RGB画像を使用してエッジとオブジェクトの輪郭に関する余分な情報を提供し、低解像度の深度マップをHR画像にアップサンプリングできるようにすることです。
本稿では,4つのコンポーネントから構成されるDCTNet(Digital Discrete Cosine Transform Network)を提案する。
本手法は,最新手法を越しに,正確かつ人事深度マップを生成できることを示した。
論文 参考訳(メタデータ) (2021-04-14T17:01:03Z) - High-resolution Depth Maps Imaging via Attention-based Hierarchical
Multi-modal Fusion [84.24973877109181]
誘導DSRのための新しい注意に基づく階層型マルチモーダル融合ネットワークを提案する。
本手法は,再現精度,動作速度,メモリ効率の点で最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-04-04T03:28:33Z) - Exploring intermediate representation for monocular vehicle pose
estimation [38.85309013717312]
1枚のRGB画像からSO(3)の車両ポーズを復元する学習ベースの新しいフレームワークを提案する。
局所的な外観から観測角度へマッピングする以前の作品とは対照的に、我々は意味のある中間幾何学的表現(IGR)を抽出して進歩的なアプローチを探求する。
このアプローチは、知覚強度をIGRに変換するディープモデルを特徴とし、カメラ座標系における物体の向きを符号化する3次元表現にマッピングする。
論文 参考訳(メタデータ) (2020-11-17T06:30:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。