論文の概要: PARF: Primitive-Aware Radiance Fusion for Indoor Scene Novel View
Synthesis
- arxiv url: http://arxiv.org/abs/2309.17190v1
- Date: Fri, 29 Sep 2023 12:40:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-02 14:04:53.507137
- Title: PARF: Primitive-Aware Radiance Fusion for Indoor Scene Novel View
Synthesis
- Title(参考訳): PARF: 室内シーンの新規合成のためのプリミティブ・アウェア・ラジアンス・フュージョン
- Authors: Haiyang Ying and Baowei Jiang and Jinzhi Zhang and Di Xu and Tao Yu
and Qionghai Dai and Lu Fang
- Abstract要約: 本稿では,高精巧な視点合成性能を有する高速シーンレージアンス場再構成法を提案する。
鍵となる考え方は、セマンティックパーシングとプリミティブ抽出を完全活用して、放射場再構成プロセスの制約と高速化である。
- 参考スコア(独自算出の注目度): 42.590313926912415
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a method for fast scene radiance field reconstruction
with strong novel view synthesis performance and convenient scene editing
functionality. The key idea is to fully utilize semantic parsing and primitive
extraction for constraining and accelerating the radiance field reconstruction
process. To fulfill this goal, a primitive-aware hybrid rendering strategy was
proposed to enjoy the best of both volumetric and primitive rendering. We
further contribute a reconstruction pipeline conducts primitive parsing and
radiance field learning iteratively for each input frame which successfully
fuses semantic, primitive, and radiance information into a single framework.
Extensive evaluations demonstrate the fast reconstruction ability, high
rendering quality, and convenient editing functionality of our method.
- Abstract(参考訳): 本稿では,高精巧なビュー合成性能と便利なシーン編集機能を備えた高速シーンレイディアンスフィールド再構成手法を提案する。
鍵となる考え方は、セマンティック解析とプリミティブ抽出を完全活用して、放射場再構成プロセスの制約と高速化である。
この目標を達成するために、ボリュームレンダリングとプリミティブレンダリングの両方の利点を享受するために、プリミティブなハイブリッドレンダリング戦略が提案された。
さらに、各入力フレームに対して、プリミティブ解析およびラディアンスフィールド学習を反復的に実施し、セマンティック、プリミティブ、およびラディアンス情報を単一のフレームワークに融合させる。
広範な評価により,高速な復元性能,高いレンダリング品質,簡便な編集機能を示す。
関連論文リスト
- RISE-SDF: a Relightable Information-Shared Signed Distance Field for Glossy Object Inverse Rendering [26.988572852463815]
本稿では,新しいエンド・ツー・エンド・エンド・リライトブル・ニューラル・リバース・レンダリングシステムを提案する。
本アルゴリズムは,逆レンダリングとリライトにおける最先端性能を実現する。
実験により, 逆レンダリングおよびリライティングにおける最先端性能が得られた。
論文 参考訳(メタデータ) (2024-09-30T09:42:10Z) - UniVoxel: Fast Inverse Rendering by Unified Voxelization of Scene Representation [66.95976870627064]
We design a Unified Voxelization framework for explicit learning of scene representations, called UniVoxel。
そこで本研究では,シーンの形状,材料,照明を軽量ニューラルネットワークで容易に学習できるため,シーンを潜在容積表現に符号化することを提案する。
実験の結果、UniVoxelは他の方法と比較して最適化効率を著しく向上させ、シーンごとのトレーニング時間を数時間から18分に短縮し、良好な再現性を実現した。
論文 参考訳(メタデータ) (2024-07-28T17:24:14Z) - NeuS-PIR: Learning Relightable Neural Surface using Pre-Integrated Rendering [23.482941494283978]
本稿では,マルチビュー画像やビデオから可照性神経表面を復元するNeuS-PIR法を提案する。
NeRFや離散メッシュに基づく手法とは異なり,提案手法は暗黙のニューラルサーフェス表現を用いて高品質な幾何学を再構築する。
本手法は,現代のグラフィックスエンジンとシームレスに統合可能なリライトなどの高度なアプリケーションを実現する。
論文 参考訳(メタデータ) (2023-06-13T09:02:57Z) - TensoIR: Tensorial Inverse Rendering [51.57268311847087]
テンソルIRはテンソル分解とニューラルフィールドに基づく新しい逆レンダリング手法である。
TensoRFは、放射場モデリングのための最先端のアプローチである。
論文 参考訳(メタデータ) (2023-04-24T21:39:13Z) - VolRecon: Volume Rendering of Signed Ray Distance Functions for
Generalizable Multi-View Reconstruction [64.09702079593372]
VolRecon は Signed Ray Distance Function (SRDF) を用いた新しい一般化可能な暗黙的再構成法である
DTUデータセットでは、VolReconはスパースビュー再構築においてSparseNeuSを約30%上回り、フルビュー再構築においてMVSNetと同等の精度を達成する。
論文 参考訳(メタデータ) (2022-12-15T18:59:54Z) - IntrinsicNeRF: Learning Intrinsic Neural Radiance Fields for Editable
Novel View Synthesis [90.03590032170169]
内在性ニューラルレンダリング法に内在性分解を導入した内在性ニューラルレイディアンス場(IntrinsicNeRF)を提案する。
そこで,本研究では,オブジェクト固有・ルームスケールシーンと合成・実単語データの両方を用いて,一貫した本質的な分解結果が得られることを示す。
論文 参考訳(メタデータ) (2022-10-02T22:45:11Z) - MVSNeRF: Fast Generalizable Radiance Field Reconstruction from
Multi-View Stereo [52.329580781898116]
MVSNeRFは、ビュー合成のための神経放射場を効率的に再構築できる新しいニューラルレンダリング手法である。
高密度にキャプチャされた画像に対して,シーン毎の最適化を考慮に入れたニューラルネットワークの先行研究とは異なり,高速ネットワーク推論により,近傍の3つの入力ビューのみからラミアンスフィールドを再構成できる汎用ディープニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-03-29T13:15:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。