論文の概要: SphereDepth: Panorama Depth Estimation from Spherical Domain
- arxiv url: http://arxiv.org/abs/2208.13714v2
- Date: Tue, 30 Aug 2022 03:01:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-31 09:14:20.866787
- Title: SphereDepth: Panorama Depth Estimation from Spherical Domain
- Title(参考訳): sphere depth: 球面領域からのパノラマ深度の推定
- Authors: Qingsong Yan, Qiang Wang, Kaiyong Zhao, Bo Li, Xiaowen Chu, Fei Deng
- Abstract要約: 本稿では,新しいパノラマ深度推定法であるSphereDepthを提案する。
プロジェクション前処理なしで球面メッシュ上の深さを直接予測する。
パノラマ深度推定の最先端手法と同等の結果が得られる。
- 参考スコア(独自算出の注目度): 17.98608948955211
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The panorama image can simultaneously demonstrate complete information of the
surrounding environment and has many advantages in virtual tourism, games,
robotics, etc. However, the progress of panorama depth estimation cannot
completely solve the problems of distortion and discontinuity caused by the
commonly used projection methods. This paper proposes SphereDepth, a novel
panorama depth estimation method that predicts the depth directly on the
spherical mesh without projection preprocessing. The core idea is to establish
the relationship between the panorama image and the spherical mesh and then use
a deep neural network to extract features on the spherical domain to predict
depth. To address the efficiency challenges brought by the high-resolution
panorama data, we introduce two hyper-parameters for the proposed spherical
mesh processing framework to balance the inference speed and accuracy.
Validated on three public panorama datasets, SphereDepth achieves comparable
results with the state-of-the-art methods of panorama depth estimation.
Benefiting from the spherical domain setting, SphereDepth can generate a
high-quality point cloud and significantly alleviate the issues of distortion
and discontinuity.
- Abstract(参考訳): パノラマ画像は、周辺環境の完全な情報を同時に示すことができ、仮想観光、ゲーム、ロボット工学等に多くの利点がある。
しかし, パノラマ深度推定の進展は, 一般的な投影法によって生じる歪みや不連続性の問題を完全に解決することができない。
本稿では,プロジェクション前処理なしで球面メッシュ上の深度を直接予測する新しいパノラマ深度推定法であるSphereDepthを提案する。
中心となる考え方は、パノラマ画像と球面メッシュの関係を確立し、深層ニューラルネットワークを使用して球面領域の特徴を抽出して深度を予測することである。
高分解能パノラマデータによる効率問題に対処するため,提案した球面メッシュ処理フレームワークに2つのハイパーパラメータを導入し,推論速度と精度のバランスをとる。
3つのパノラマデータセット上で検証されたspheredepthは、パノラマ深度推定の最先端手法と同等の結果を得る。
球面領域設定の利点により、spheredepthは高品質のポイントクラウドを生成し、歪みと不連続性の問題を著しく軽減することができる。
関連論文リスト
- Robust and Flexible Omnidirectional Depth Estimation with Multiple 360° Cameras [8.850391039025077]
我々は、複数の360度カメラの幾何的制約と冗長情報を用いて、頑健で柔軟な全方位深度推定を実現する。
この2つのアルゴリズムは, 土壌パノラマ入力を施した場合でも, 精度よく深度マップを予測し, 最先端性能を実現する。
論文 参考訳(メタデータ) (2024-09-23T07:31:48Z) - SphereDiffusion: Spherical Geometry-Aware Distortion Resilient Diffusion Model [63.685132323224124]
制御可能な球状パノラマ画像生成は、様々な領域でかなりの応用可能性を持っている。
本稿では,これらの課題に対処するために,SphereDiffusionの新しいフレームワークを提案する。
Structured3Dデータセットの実験では、SphereDiffusionは制御可能な球面画像生成の品質を大幅に改善し、平均して約35%のFIDを相対的に削減している。
論文 参考訳(メタデータ) (2024-03-15T06:26:46Z) - GUPNet++: Geometry Uncertainty Propagation Network for Monocular 3D
Object Detection [95.8940731298518]
我々はGUPNet++(Geometry Uncertainty Propagation Network)を提案する。
トレーニング中の幾何射影の不確実性伝播関係をモデル化し、エンドツーエンドのモデル学習の安定性と効率を向上させる。
実験により,提案手法は画像ベースモノクロ3次元検出におけるSOTA性能を得るだけでなく,簡易なフレームワークで有効性を示す。
論文 参考訳(メタデータ) (2023-10-24T08:45:15Z) - Calibrating Panoramic Depth Estimation for Practical Localization and
Mapping [20.621442016969976]
周囲環境の絶対深度値は, 局所化, ナビゲーション, 3次元構造推定など, 様々な補助技術にとって重要な手がかりとなる。
本研究では,パノラマ画像から推定される精度の高い深度が,3次元情報を必要とする幅広い下流タスクに対して,強力で軽量な入力として機能することを提案する。
論文 参考訳(メタデータ) (2023-08-27T04:50:05Z) - PanoGRF: Generalizable Spherical Radiance Fields for Wide-baseline
Panoramas [54.4948540627471]
広帯域パノラマのための一般化可能な球面放射場パノGRFを提案する。
パノGRFは、視線画像に基づいて訓練された一般化可能な放射場とは異なり、パノラマからパースペクティブへの変換から情報損失を回避する。
複数のパノラマデータセットの結果は、パノGRFが最先端の一般化可能なビュー合成法よりも著しく優れていることを示している。
論文 参考訳(メタデータ) (2023-06-02T13:35:07Z) - ${S}^{2}$Net: Accurate Panorama Depth Estimation on Spherical Surface [4.649656275858966]
単球面上の単分子パノラマ深度推定のためのエンドツーエンドのディープネットワークを提案する。
具体的には、等方形画像から抽出した特徴写像を一様分散格子でサンプリングした単位球面に投影する。
本研究では,機能マップをスキップ接続から解き放ち,グローバルコンテキストの獲得能力を高めるために,グローバルなクロスアテンションベースの融合モジュールを提案する。
論文 参考訳(メタデータ) (2023-01-14T07:39:15Z) - PanoFormer: Panorama Transformer for Indoor 360{\deg} Depth Estimation [35.698249161263966]
畳み込みニューラルネットワーク(CNN)に基づく既存のパノラマ深さ推定手法は、パノラマ歪みの除去に重点を置いている。
本稿では,パノラマ画像の深さを推定するパノラマ変換器を提案する。
特に、球面接領域のパッチをトークンに分割し、パノラマ歪みの負の効果を低減する。
論文 参考訳(メタデータ) (2022-03-17T12:19:43Z) - A learning-based view extrapolation method for axial super-resolution [52.748944517480155]
軸光界分解能は、再焦点によって異なる深さで特徴を区別する能力を指します。
せん断エピポーラ平面画像の軸体積から新しい視点を推定する学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-11T07:22:13Z) - Depth Completion using Piecewise Planar Model [94.0808155168311]
深度マップは一連の学習された基底で表現することができ、閉じた解法で効率的に解ける。
しかし、この方法の1つの問題は、色境界が深さ境界と矛盾する場合にアーチファクトを生成することである。
私たちは、より厳密な深度回復モデルを実行します。
論文 参考訳(メタデータ) (2020-12-06T07:11:46Z) - Distortion-aware Monocular Depth Estimation for Omnidirectional Images [26.027353545874522]
室内パノラマにおけるこの問題に対処するために,DAMO(Distortion-Aware Monocular Omnidirectional)深度推定ネットワークを提案する。
まず、全方位画像からキャリブレーションされた意味的特徴を抽出する歪み認識モジュールを提案する。
第二に、球面から投影される領域の不均一分布を扱うために、目的関数に対するプラグアンドプレイ球面対応重み行列を導入する。
論文 参考訳(メタデータ) (2020-10-18T08:47:57Z) - Deep 3D Capture: Geometry and Reflectance from Sparse Multi-View Images [59.906948203578544]
本稿では,任意の物体の高品質な形状と複雑な空間変化を持つBRDFを再構成する学習に基づく新しい手法を提案する。
まず、深層多視点ステレオネットワークを用いて、ビューごとの深度マップを推定する。
これらの深度マップは、異なるビューを粗く整列するために使用される。
本稿では,新しい多視点反射率推定ネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-03-27T21:28:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。