論文の概要: Matching Free Depth Recovery from Structured Light
- arxiv url: http://arxiv.org/abs/2501.07113v1
- Date: Mon, 13 Jan 2025 08:03:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-14 14:24:17.437504
- Title: Matching Free Depth Recovery from Structured Light
- Title(参考訳): 構造光からの自由深さ復元
- Authors: Zhuohang Yu, Kai Wang, Juyong Zhang,
- Abstract要約: 構造化光システムにより撮像された画像から深度を推定するための新しい手法を提案する。
本手法では,密度ボクセル格子を用いてシーン形状を表現し,自己教師付き可変ボリュームレンダリングを用いて学習する。
- 参考スコア(独自算出の注目度): 28.865683021793625
- License:
- Abstract: We present a novel approach for depth estimation from images captured by structured light systems. Unlike many previous methods that rely on image matching process, our approach uses a density voxel grid to represent scene geometry, which is trained via self-supervised differentiable volume rendering. Our method leverages color fields derived from projected patterns in structured light systems during the rendering process, enabling the isolated optimization of the geometry field. This contributes to faster convergence and high-quality output. Additionally, we incorporate normalized device coordinates (NDC), a distortion loss, and a novel surface-based color loss to enhance geometric fidelity. Experimental results demonstrate that our method outperforms existing matching-based techniques in geometric performance for few-shot scenarios, achieving approximately a 60% reduction in average estimated depth errors on synthetic scenes and about 30% on real-world captured scenes. Furthermore, our approach delivers fast training, with a speed roughly three times faster than previous matching-free methods that employ implicit representations.
- Abstract(参考訳): 構造化光システムにより撮像された画像から深度を推定するための新しい手法を提案する。
画像マッチングプロセスに依存する多くの従来の手法とは異なり,本手法では密度ボクセル格子を用いてシーン形状を表現し,自己教師付き微分可能なボリュームレンダリングを用いて学習する。
本手法は, 描画過程における構造光系の投影パターンから得られる色場を利用して, 幾何場の孤立最適化を可能にする。
これはより高速な収束と高品質な出力に寄与する。
さらに、正規化デバイス座標(NDC)、歪み損失、新しい表面色損失を取り入れ、幾何学的忠実度を高める。
提案手法は, 合成シーンの平均深度誤差を約60%低減し, 実世界の撮影シーンで約30%の精度で再現できることを示す。
さらに,提案手法は,暗黙的表現を用いた従来のマッチングフリー手法の約3倍の速さで高速な学習を実現する。
関連論文リスト
- Efficient Depth-Guided Urban View Synthesis [52.841803876653465]
高速フィードフォワード推論とシーンごとのファインチューニングのための効率的な深層誘導型都市ビュー合成(EDUS)を提案する。
EDUSは、粗い入力画像から一般化可能な都市ビュー合成を可能にするためのガイダンスとして、ノイズの多い幾何学的先行情報を利用する。
その結果,EDUSは高速なテスト時間最適化と組み合わせることで,スパース・ビュー・セッティングにおける最先端性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2024-07-17T08:16:25Z) - Depth Reconstruction with Neural Signed Distance Fields in Structured Light Systems [15.603880588503355]
本稿では,3次元空間の暗黙的表現を用いた多フレーム構造光設定のための新しい深度推定手法を提案する。
我々のアプローチでは、自己教師付き微分可能レンダリングによって訓練された、ニューラルサイン付き距離場(SDF)を用いる。
論文 参考訳(メタデータ) (2024-05-20T13:24:35Z) - DNS SLAM: Dense Neural Semantic-Informed SLAM [92.39687553022605]
DNS SLAMは、ハイブリッド表現を備えた新しいRGB-DセマンティックSLAMアプローチである。
本手法は画像に基づく特徴抽出と多視点幾何制約を統合し,外観の細部を改良する。
実験により, 合成データと実世界のデータ追跡の両面において, 最先端の性能が得られた。
論文 参考訳(メタデータ) (2023-11-30T21:34:44Z) - Efficient Multi-View Inverse Rendering Using a Hybrid Differentiable
Rendering Method [19.330797817738542]
シーンの3次元形状と反射率を効率的に再構成する,新しいハイブリッド微分可能レンダリング手法を提案する。
本手法は, 最先端の手法と同等あるいは高い品質で再現が可能であり, 効率がよい。
論文 参考訳(メタデータ) (2023-08-19T12:48:10Z) - High-Resolution Volumetric Reconstruction for Clothed Humans [27.900514732877827]
本稿では,1~6RGB画像のスパース集合から,衣服の人間を再構築する新しい手法を提案する。
提案手法は,P2S法の平均点通過精度を50%以上削減し,約2mmの精度を512容積分解能で達成する。
論文 参考訳(メタデータ) (2023-07-25T06:37:50Z) - ARF: Artistic Radiance Fields [63.79314417413371]
本稿では,任意のスタイル画像の芸術的特徴を3Dシーンに転送する方法を提案する。
点雲やメッシュ上で3次元スタイリングを行う従来の手法は、幾何的再構成誤差に敏感である。
より頑健なラディアンス場表現の体系化を提案する。
論文 参考訳(メタデータ) (2022-06-13T17:55:31Z) - Neural 3D Reconstruction in the Wild [86.6264706256377]
そこで我々は,インターネット写真コレクションから効率よく高精度な表面再構成を実現する新しい手法を提案する。
そこで本研究では,これらのシーンにおける再構成性能を評価するための新しいベンチマークとプロトコルを提案する。
論文 参考訳(メタデータ) (2022-05-25T17:59:53Z) - Extracting Triangular 3D Models, Materials, and Lighting From Images [59.33666140713829]
多視点画像観測による材料と照明の協調最適化手法を提案する。
従来のグラフィックスエンジンにデプロイ可能な,空間的に変化する材料と環境を備えたメッシュを活用します。
論文 参考訳(メタデータ) (2021-11-24T13:58:20Z) - Depth image denoising using nuclear norm and learning graph model [107.51199787840066]
グループベース画像復元法は,パッチ間の類似性収集に有効である。
各パッチに対して、検索ウィンドウ内で最もよく似たパッチを見つけ、グループ化する。
提案手法は, 主観的, 客観的両面において, 最先端の復調法よりも優れている。
論文 参考訳(メタデータ) (2020-08-09T15:12:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。