論文の概要: PARF: Primitive-Aware Radiance Fusion for Indoor Scene Novel View
Synthesis
- arxiv url: http://arxiv.org/abs/2309.17190v1
- Date: Fri, 29 Sep 2023 12:40:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-02 14:04:53.507137
- Title: PARF: Primitive-Aware Radiance Fusion for Indoor Scene Novel View
Synthesis
- Title(参考訳): PARF: 室内シーンの新規合成のためのプリミティブ・アウェア・ラジアンス・フュージョン
- Authors: Haiyang Ying and Baowei Jiang and Jinzhi Zhang and Di Xu and Tao Yu
and Qionghai Dai and Lu Fang
- Abstract要約: 本稿では,高精巧な視点合成性能を有する高速シーンレージアンス場再構成法を提案する。
鍵となる考え方は、セマンティックパーシングとプリミティブ抽出を完全活用して、放射場再構成プロセスの制約と高速化である。
- 参考スコア(独自算出の注目度): 42.590313926912415
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a method for fast scene radiance field reconstruction
with strong novel view synthesis performance and convenient scene editing
functionality. The key idea is to fully utilize semantic parsing and primitive
extraction for constraining and accelerating the radiance field reconstruction
process. To fulfill this goal, a primitive-aware hybrid rendering strategy was
proposed to enjoy the best of both volumetric and primitive rendering. We
further contribute a reconstruction pipeline conducts primitive parsing and
radiance field learning iteratively for each input frame which successfully
fuses semantic, primitive, and radiance information into a single framework.
Extensive evaluations demonstrate the fast reconstruction ability, high
rendering quality, and convenient editing functionality of our method.
- Abstract(参考訳): 本稿では,高精巧なビュー合成性能と便利なシーン編集機能を備えた高速シーンレイディアンスフィールド再構成手法を提案する。
鍵となる考え方は、セマンティック解析とプリミティブ抽出を完全活用して、放射場再構成プロセスの制約と高速化である。
この目標を達成するために、ボリュームレンダリングとプリミティブレンダリングの両方の利点を享受するために、プリミティブなハイブリッドレンダリング戦略が提案された。
さらに、各入力フレームに対して、プリミティブ解析およびラディアンスフィールド学習を反復的に実施し、セマンティック、プリミティブ、およびラディアンス情報を単一のフレームワークに融合させる。
広範な評価により,高速な復元性能,高いレンダリング品質,簡便な編集機能を示す。
関連論文リスト
- Anisotropic Neural Representation Learning for High-Quality Neural
Rendering [0.0]
本稿では、学習可能なビュー依存機能を利用してシーン表現と再構成を改善する異方性ニューラル表現学習法を提案する。
我々の手法は柔軟であり、NeRFベースのフレームワークにプラグインできる。
論文 参考訳(メタデータ) (2023-11-30T07:29:30Z) - Reconstructing Continuous Light Field From Single Coded Image [7.937367109582907]
本研究では,対象シーンの連続光場を単一観測画像から再構成する手法を提案する。
カメラに実装された共同開口露光符号化により、3次元シーン情報の観察画像への効果的な埋め込みが可能となる。
NeRFベースのニューラルレンダリングは、連続的な視点から3Dシーンの高品質なビュー合成を可能にする。
論文 参考訳(メタデータ) (2023-11-16T07:59:01Z) - VoxNeRF: Bridging Voxel Representation and Neural Radiance Fields for
Enhanced Indoor View Synthesis [51.49008959209671]
本稿では,室内ビュー合成の品質と効率を高めるために,ボリューム表現を活用する新しいアプローチであるVoxNeRFを紹介する。
我々は,空間的特徴を適応的に捉えるためにマルチレゾリューション・ハッシュ・グリッドを使用し,室内シーンの閉塞や複雑な形状を効果的に管理する。
我々は,3つの屋内データセットに対するアプローチを検証するとともに,VoxNeRFが最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2023-11-09T11:32:49Z) - TensoIR: Tensorial Inverse Rendering [53.51211939277516]
テンソルIRはテンソル分解とニューラルフィールドに基づく新しい逆レンダリング手法である。
TensoRFは、放射場モデリングのための最先端のアプローチである。
論文 参考訳(メタデータ) (2023-04-24T21:39:13Z) - VolRecon: Volume Rendering of Signed Ray Distance Functions for
Generalizable Multi-View Reconstruction [64.09702079593372]
VolRecon は Signed Ray Distance Function (SRDF) を用いた新しい一般化可能な暗黙的再構成法である
DTUデータセットでは、VolReconはスパースビュー再構築においてSparseNeuSを約30%上回り、フルビュー再構築においてMVSNetと同等の精度を達成する。
論文 参考訳(メタデータ) (2022-12-15T18:59:54Z) - IntrinsicNeRF: Learning Intrinsic Neural Radiance Fields for Editable
Novel View Synthesis [90.03590032170169]
内在性ニューラルレンダリング法に内在性分解を導入した内在性ニューラルレイディアンス場(IntrinsicNeRF)を提案する。
そこで,本研究では,オブジェクト固有・ルームスケールシーンと合成・実単語データの両方を用いて,一貫した本質的な分解結果が得られることを示す。
論文 参考訳(メタデータ) (2022-10-02T22:45:11Z) - MVSNeRF: Fast Generalizable Radiance Field Reconstruction from
Multi-View Stereo [52.329580781898116]
MVSNeRFは、ビュー合成のための神経放射場を効率的に再構築できる新しいニューラルレンダリング手法である。
高密度にキャプチャされた画像に対して,シーン毎の最適化を考慮に入れたニューラルネットワークの先行研究とは異なり,高速ネットワーク推論により,近傍の3つの入力ビューのみからラミアンスフィールドを再構成できる汎用ディープニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-03-29T13:15:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。