論文の概要: Real-Time Scene Reconstruction using Light Field Probes
- arxiv url: http://arxiv.org/abs/2507.14624v1
- Date: Sat, 19 Jul 2025 13:43:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-22 20:51:31.974061
- Title: Real-Time Scene Reconstruction using Light Field Probes
- Title(参考訳): 光電場プローブを用いた実時間シーン再構成
- Authors: Yaru Liu, Derek Nowrouzezahri, Morgan Mcguire,
- Abstract要約: 画像からフォトリアリスティックな大規模なシーンを再構築することは、コンピュータグラフィックスにおける長年の問題である。
本研究では,シーンジオメトリを明示的に使用せずに,複雑なシーンを効率的に再構築する新しいビュー合成手法について検討する。
我々のアプローチは、仮想現実(VR)および拡張現実(AR)アプリケーションに適用できる可能性がある。
- 参考スコア(独自算出の注目度): 2.283090308443312
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reconstructing photo-realistic large-scale scenes from images, for example at city scale, is a long-standing problem in computer graphics. Neural rendering is an emerging technique that enables photo-realistic image synthesis from previously unobserved viewpoints; however, state-of-the-art neural rendering methods have difficulty efficiently rendering a high complex large-scale scene because these methods typically trade scene size, fidelity, and rendering speed for quality. The other stream of techniques utilizes scene geometries for reconstruction. But the cost of building and maintaining a large set of geometry data increases as scene size grows. Our work explores novel view synthesis methods that efficiently reconstruct complex scenes without explicit use of scene geometries. Specifically, given sparse images of the scene (captured from the real world), we reconstruct intermediate, multi-scale, implicit representations of scene geometries. In this way, our method avoids explicitly relying on scene geometry, significantly reducing the computational cost of maintaining large 3D data. Unlike current methods, we reconstruct the scene using a probe data structure. Probe data hold highly accurate depth information of dense data points, enabling the reconstruction of highly complex scenes. By reconstructing the scene using probe data, the rendering cost is independent of the complexity of the scene. As such, our approach combines geometry reconstruction and novel view synthesis. Moreover, when rendering large-scale scenes, compressing and streaming probe data is more efficient than using explicit scene geometry. Therefore, our neural representation approach can potentially be applied to virtual reality (VR) and augmented reality (AR) applications.
- Abstract(参考訳): 例えば、都市スケールで写真から大規模なシーンを再構成することは、コンピュータグラフィックスにおける長年の問題である。
ニューラルレンダリングは、これまで観測されていなかった視点から写真リアリスティックな画像合成を可能にする新しい技術である。しかし、最先端のニューラルレンダリング手法は、通常、シーンサイズ、忠実度、レンダリング速度を品質のために交換するため、複雑な大規模シーンを効率よくレンダリングすることが困難である。
その他の技法のストリームは、シーンジオメトリーを再構築に利用している。
しかし、シーンサイズが大きくなるにつれて、大規模な幾何学データの構築と維持のコストが増大する。
本研究では,シーンジオメトリを明示的に使用せずに,複雑なシーンを効率的に再構築する新しいビュー合成手法について検討する。
具体的には、シーンのスパース画像(実世界から捉えた)が与えられた場合、シーンジオメトリの中間的、多スケール、暗黙的な表現を再構成する。
このようにして,本手法はシーン形状に明示的に依存することを避け,大規模な3次元データを維持するための計算コストを大幅に削減する。
現在の手法とは異なり、プローブデータ構造を用いてシーンを再構成する。
プローブデータは、高密度なデータポイントの高精度な深度情報を保持し、高度に複雑なシーンの再構築を可能にする。
プローブデータを用いてシーンを再構成することにより、レンダリングコストはシーンの複雑さとは無関係となる。
そこで本手法は,幾何学的再構成と新しいビュー合成を組み合わせたものである。
さらに、大規模なシーンをレンダリングする場合、圧縮およびストリーミングプローブデータは、明示的なシーン形状を使用するよりも効率的である。
したがって、私たちのニューラル表現アプローチは、仮想現実(VR)および拡張現実(AR)アプリケーションに適用できる可能性がある。
関連論文リスト
- ClaraVid: A Holistic Scene Reconstruction Benchmark From Aerial Perspective With Delentropy-Based Complexity Profiling [5.6168844664788855]
既存のデータセットの制限を克服するために特別に設計された合成空中データセットであるClaraVidを紹介する。
このデータセットは、4032x3024で撮影された16,917枚の高解像度画像で構成されている。
神経再建をさらに進めるために,DSP(Delentropic Scene Profile)を導入する。
論文 参考訳(メタデータ) (2025-03-22T20:26:20Z) - Total-Decom: Decomposed 3D Scene Reconstruction with Minimal Interaction [51.3632308129838]
人間のインタラクションを最小限に抑えた3次元再構成法であるTotal-Decomを提案する。
提案手法は,Segment Anything Model (SAM) とハイブリッド型暗黙的なニューラルサーフェス表現をシームレスに統合し,メッシュベースの領域成長技術を用いて正確な3次元オブジェクト分解を行う。
提案手法をベンチマークデータセット上で広範囲に評価し,アニメーションやシーン編集などの下流アプリケーションの可能性を示す。
論文 参考訳(メタデータ) (2024-03-28T11:12:33Z) - Neural 3D Scene Reconstruction from Multiple 2D Images without 3D
Supervision [41.20504333318276]
平面制約下でのスパース深度を用いてシーンを3次元の監督なしに再構成する新しいニューラル再構成法を提案する。
シーンを表すために,符号付き距離関数場,色場,確率場を導入する。
我々は、これらのフィールドを最適化し、2D画像で識別可能な光線マーキングを監督することでシーンを再構築する。
論文 参考訳(メタデータ) (2023-06-30T13:30:48Z) - CompNVS: Novel View Synthesis with Scene Completion [83.19663671794596]
本稿では,スパースグリッドに基づくニューラルシーン表現を用いた生成パイプラインを提案する。
画像特徴を3次元空間に符号化し、幾何学的完備化ネットワークとその後のテクスチャ塗布ネットワークを用いて、欠落した領域を外挿する。
フォトリアリスティック画像列は、整合性関連微分可能レンダリングによって最終的に得られる。
論文 参考訳(メタデータ) (2022-07-23T09:03:13Z) - PhotoScene: Photorealistic Material and Lighting Transfer for Indoor
Scenes [84.66946637534089]
PhotoSceneは、シーンの入力画像を取得し、高品質な素材と同様の照明を備えたフォトリアリスティックデジタルツインを構築するフレームワークである。
プロシージャ素材グラフを用いてシーン素材をモデル化し、そのようなグラフはフォトリアリスティックおよび解像度非依存の材料を表す。
ScanNet, SUN RGB-D, ストック写真からのオブジェクトとレイアウトの再構築について検討し, 高品質で完全に再現可能な3Dシーンを再現できることを実証した。
論文 参考訳(メタデータ) (2022-07-02T06:52:44Z) - ERF: Explicit Radiance Field Reconstruction From Scratch [12.254150867994163]
センサのポーズとキャリブレーションでシーンの一連の画像を処理し,フォトリアルなデジタルモデルを推定する,新しい高密度3次元再構成手法を提案する。
重要な革新の1つは、根底にある体積表現が完全に明示的であることである。
我々は,本手法が汎用的かつ実用的であることを示し,撮影に高度に制御された実験室の設置は必要とせず,多種多様な物体でシーンを再構築することができることを示した。
論文 参考訳(メタデータ) (2022-02-28T19:37:12Z) - Advances in Neural Rendering [115.05042097988768]
本稿では,古典的レンダリングと学習された3Dシーン表現を組み合わせた手法について述べる。
これらの手法の重要な利点は、これらが3D一貫性を持ち、キャプチャされたシーンの新たな視点のようなアプリケーションを可能にすることである。
静的なシーンを扱う方法に加えて、非厳密な変形オブジェクトをモデル化するためのニューラルシーン表現についても取り上げる。
論文 参考訳(メタデータ) (2021-11-10T18:57:01Z) - RetrievalFuse: Neural 3D Scene Reconstruction with a Database [34.44425679892233]
トレーニングデータベースからシーンジオメトリを直接活用する新しい手法を紹介します。
まず,シーンデータベースから上位k個のボリュームチャンクを検索して構築した3次元シーンの初期推定値の合成を学習する。
これらの候補は最終シーン生成に洗練され、候補から最も一貫性のある幾何集合を効果的に選択できる注意に基づく改良がなされる。
本研究では,3次元超解像と疎点雲表面再構成のためのデータベースを用いて,神経シーンの再構成を実証する。
論文 参考訳(メタデータ) (2021-03-31T18:00:09Z) - Non-Rigid Neural Radiance Fields: Reconstruction and Novel View
Synthesis of a Dynamic Scene From Monocular Video [76.19076002661157]
Non-Rigid Neural Radiance Fields (NR-NeRF) は、一般的な非剛体動的シーンに対する再構成および新しいビュー合成手法である。
一つのコンシューマ級カメラでさえ、新しい仮想カメラビューからダイナミックシーンの洗練されたレンダリングを合成するのに十分であることを示す。
論文 参考訳(メタデータ) (2020-12-22T18:46:12Z) - Neural Sparse Voxel Fields [151.20366604586403]
高速かつ高品質な自由視点レンダリングのためのニューラルシーン表現であるNeural Sparse Voxel Fields (NSVF)を紹介する。
NSVFは、各細胞の局所特性をモデル化するために、スパース・ボクセル・オクツリーで組織された、ボクセルに結合した暗黙のフィールドのセットを定義する。
提案手法は, 高い品質を達成しつつ, 推論時の最先端技術(NeRF(Mildenhall et al., 2020))よりも10倍以上高速である。
論文 参考訳(メタデータ) (2020-07-22T17:51:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。