論文の概要: High-Resolution Depth Estimation for 360-degree Panoramas through
Perspective and Panoramic Depth Images Registration
- arxiv url: http://arxiv.org/abs/2210.10414v2
- Date: Thu, 20 Oct 2022 00:37:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 10:54:11.846266
- Title: High-Resolution Depth Estimation for 360-degree Panoramas through
Perspective and Panoramic Depth Images Registration
- Title(参考訳): 遠近法とパノラマ深度画像登録による360度パノラマの高解像度深度推定
- Authors: Chi-Han Peng and Jiayao Zhang
- Abstract要約: 本研究では,パノラマの高分解能(2048×1024以上)深度を計算するための新しい手法を提案する。
提案手法は,既存のパノラマ法よりも定性的に優れた結果を生成するとともに,これらの手法では見つからないデータセット上で定量的に評価する。
- 参考スコア(独自算出の注目度): 3.4583104874165804
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a novel approach to compute high-resolution (2048x1024 and higher)
depths for panoramas that is significantly faster and qualitatively and
qualitatively more accurate than the current state-of-the-art method
(360MonoDepth). As traditional neural network-based methods have limitations in
the output image sizes (up to 1024x512) due to GPU memory constraints, both
360MonoDepth and our method rely on stitching multiple perspective disparity or
depth images to come out a unified panoramic depth map. However, to achieve
globally consistent stitching, 360MonoDepth relied on solving extensive
disparity map alignment and Poisson-based blending problems, leading to high
computation time. Instead, we propose to use an existing panoramic depth map
(computed in real-time by any panorama-based method) as the common target for
the individual perspective depth maps to register to. This key idea made
producing globally consistent stitching results from a straightforward task.
Our experiments show that our method generates qualitatively better results
than existing panorama-based methods, and further outperforms them
quantitatively on datasets unseen by these methods.
- Abstract(参考訳): 本研究では,パノラマの高分解能(2048×1024以上)深度を計算する新しい手法を提案する。
従来のニューラルネットワークベースの手法では、gpuメモリの制約による出力画像サイズ(最大1024x512)が制限されているため、360monodepthと我々の手法は、複数の視点の差や深度画像を縫い合わせることで、統一されたパノラマ深度マップを生成する。
しかし、360MonoDepthは、グローバルに一貫した縫合を実現するために、広範囲な不均一マップアライメントとPoissonベースのブレンディング問題を解くことに頼り、高い計算時間を生み出した。
そこで我々は,既存のパノラマ深度マップ(任意のパノラマ方式でリアルタイムに計算)を,個々の視点深度マップが登録する共通のターゲットとして用いることを提案する。
このキーとなるアイデアは、単純なタスクからグローバルに一貫した縫合結果を生み出しました。
実験の結果,既存のパノラマ法よりも定性的に優れた結果が得られた。
関連論文リスト
- Refinement of Monocular Depth Maps via Multi-View Differentiable Rendering [4.717325308876748]
本稿では,複数の画像から一貫した詳細な深度マップを生成するための新しい手法を提案する。
我々は、位相的に完全だが計量的に不正確な深度マップを生成する単眼深度推定の進歩を活用する。
提案手法は,高密度で詳細で高品質な深度マップを作成でき,また屋内シナリオの挑戦も可能であり,最先端の深度復元手法よりも優れている。
論文 参考訳(メタデータ) (2024-10-04T18:50:28Z) - Robust and Flexible Omnidirectional Depth Estimation with Multiple 360° Cameras [8.850391039025077]
我々は、複数の360度カメラの幾何的制約と冗長情報を用いて、頑健で柔軟な全方位深度推定を実現する。
この2つのアルゴリズムは, 土壌パノラマ入力を施した場合でも, 精度よく深度マップを予測し, 最先端性能を実現する。
論文 参考訳(メタデータ) (2024-09-23T07:31:48Z) - Pixel-Aligned Multi-View Generation with Depth Guided Decoder [86.1813201212539]
画素レベルの画像・マルチビュー生成のための新しい手法を提案する。
従来の作業とは異なり、潜伏映像拡散モデルのVAEデコーダにマルチビュー画像にアテンション層を組み込む。
本モデルにより,マルチビュー画像間の画素アライメントが向上する。
論文 参考訳(メタデータ) (2024-08-26T04:56:41Z) - Generative Powers of Ten [60.6740997942711]
本稿では,複数の画像スケールにまたがる一貫したコンテンツを生成するために,テキスト・ツー・イメージ・モデルを用いる手法を提案する。
マルチスケール拡散サンプリングを共同で行うことで実現した。
本手法は従来の超解像法よりも深いズームレベルを実現する。
論文 参考訳(メタデータ) (2023-12-04T18:59:25Z) - SphereDepth: Panorama Depth Estimation from Spherical Domain [17.98608948955211]
本稿では,新しいパノラマ深度推定法であるSphereDepthを提案する。
プロジェクション前処理なしで球面メッシュ上の深さを直接予測する。
パノラマ深度推定の最先端手法と同等の結果が得られる。
論文 参考訳(メタデータ) (2022-08-29T16:50:19Z) - 360MonoDepth: High-Resolution 360{\deg} Monocular Depth Estimation [15.65828728205071]
360degデータでは 単分子深度推定は 依然として課題です
現在のCNNベースのメソッドは、GPUメモリが限られているため、そのような高解像度をサポートしない。
タンジェント画像を用いた高解像度360deg画像からの単眼深度推定のためのフレキシブルなフレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-30T18:57:29Z) - Neural Radiance Fields Approach to Deep Multi-View Photometric Stereo [103.08512487830669]
多視点測光ステレオ問題(MVPS)に対する現代的な解法を提案する。
我々は、光度ステレオ(PS)画像形成モデルを用いて表面配向を取得し、それを多視点のニューラルラディアンス場表現とブレンドして物体の表面形状を復元する。
本手法は,多視点画像のニューラルレンダリングを行い,深部光度ステレオネットワークによって推定される表面の正規性を活用している。
論文 参考訳(メタデータ) (2021-10-11T20:20:03Z) - Boosting Monocular Depth Estimation Models to High-Resolution via
Content-Adaptive Multi-Resolution Merging [14.279471205248534]
本研究では,一貫したシーン構造と高周波の詳細が深度推定性能に与える影響を示す。
本稿では,画像全体の深さ推定を改善する二重推定法と,局所的な詳細を付加するパッチ選択法を提案する。
異なる解像度での推定とコンテキストの変化を組み合わせることで、高精細度でマルチメガピクセルの深度マップを作成できることを実証した。
論文 参考訳(メタデータ) (2021-05-28T17:55:15Z) - Towards Unpaired Depth Enhancement and Super-Resolution in the Wild [121.96527719530305]
最先端のデータ駆動による深度マップの超解像法は、同じシーンの低解像度と高解像度の深度マップの登録ペアに依存している。
未経験データからの学習に基づく深度マップの強化について考察する。
論文 参考訳(メタデータ) (2021-05-25T16:19:16Z) - Depth image denoising using nuclear norm and learning graph model [107.51199787840066]
グループベース画像復元法は,パッチ間の類似性収集に有効である。
各パッチに対して、検索ウィンドウ内で最もよく似たパッチを見つけ、グループ化する。
提案手法は, 主観的, 客観的両面において, 最先端の復調法よりも優れている。
論文 参考訳(メタデータ) (2020-08-09T15:12:16Z) - Deep 3D Capture: Geometry and Reflectance from Sparse Multi-View Images [59.906948203578544]
本稿では,任意の物体の高品質な形状と複雑な空間変化を持つBRDFを再構成する学習に基づく新しい手法を提案する。
まず、深層多視点ステレオネットワークを用いて、ビューごとの深度マップを推定する。
これらの深度マップは、異なるビューを粗く整列するために使用される。
本稿では,新しい多視点反射率推定ネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-03-27T21:28:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。