論文の概要: PARF: Primitive-Aware Radiance Fusion for Indoor Scene Novel View
Synthesis
- arxiv url: http://arxiv.org/abs/2309.17190v1
- Date: Fri, 29 Sep 2023 12:40:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-02 14:04:53.507137
- Title: PARF: Primitive-Aware Radiance Fusion for Indoor Scene Novel View
Synthesis
- Title(参考訳): PARF: 室内シーンの新規合成のためのプリミティブ・アウェア・ラジアンス・フュージョン
- Authors: Haiyang Ying and Baowei Jiang and Jinzhi Zhang and Di Xu and Tao Yu
and Qionghai Dai and Lu Fang
- Abstract要約: 本稿では,高精巧な視点合成性能を有する高速シーンレージアンス場再構成法を提案する。
鍵となる考え方は、セマンティックパーシングとプリミティブ抽出を完全活用して、放射場再構成プロセスの制約と高速化である。
- 参考スコア(独自算出の注目度): 42.590313926912415
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a method for fast scene radiance field reconstruction
with strong novel view synthesis performance and convenient scene editing
functionality. The key idea is to fully utilize semantic parsing and primitive
extraction for constraining and accelerating the radiance field reconstruction
process. To fulfill this goal, a primitive-aware hybrid rendering strategy was
proposed to enjoy the best of both volumetric and primitive rendering. We
further contribute a reconstruction pipeline conducts primitive parsing and
radiance field learning iteratively for each input frame which successfully
fuses semantic, primitive, and radiance information into a single framework.
Extensive evaluations demonstrate the fast reconstruction ability, high
rendering quality, and convenient editing functionality of our method.
- Abstract(参考訳): 本稿では,高精巧なビュー合成性能と便利なシーン編集機能を備えた高速シーンレイディアンスフィールド再構成手法を提案する。
鍵となる考え方は、セマンティック解析とプリミティブ抽出を完全活用して、放射場再構成プロセスの制約と高速化である。
この目標を達成するために、ボリュームレンダリングとプリミティブレンダリングの両方の利点を享受するために、プリミティブなハイブリッドレンダリング戦略が提案された。
さらに、各入力フレームに対して、プリミティブ解析およびラディアンスフィールド学習を反復的に実施し、セマンティック、プリミティブ、およびラディアンス情報を単一のフレームワークに融合させる。
広範な評価により,高速な復元性能,高いレンダリング品質,簡便な編集機能を示す。
関連論文リスト
- EnvGS: Modeling View-Dependent Appearance with Environment Gaussian [78.74634059559891]
EnvGSは、環境の反射を捉えるための明示的な3D表現として、ガウスプリミティブのセットを利用する新しいアプローチである。
これらの環境を効率的にレンダリングするために,高速レンダリングにGPUのRTコアを利用するレイトレーシングベースのリフレクションを開発した。
複数の実世界および合成データセットから得られた結果は,本手法がより詳細な反射を生成することを示す。
論文 参考訳(メタデータ) (2024-12-19T18:59:57Z) - RISE-SDF: a Relightable Information-Shared Signed Distance Field for Glossy Object Inverse Rendering [26.988572852463815]
本稿では,新しいエンド・ツー・エンド・エンド・リライトブル・ニューラル・リバース・レンダリングシステムを提案する。
本アルゴリズムは,逆レンダリングとリライトにおける最先端性能を実現する。
実験により, 逆レンダリングおよびリライティングにおける最先端性能が得られた。
論文 参考訳(メタデータ) (2024-09-30T09:42:10Z) - UniVoxel: Fast Inverse Rendering by Unified Voxelization of Scene Representation [66.95976870627064]
We design a Unified Voxelization framework for explicit learning of scene representations, called UniVoxel。
そこで本研究では,シーンの形状,材料,照明を軽量ニューラルネットワークで容易に学習できるため,シーンを潜在容積表現に符号化することを提案する。
実験の結果、UniVoxelは他の方法と比較して最適化効率を著しく向上させ、シーンごとのトレーニング時間を数時間から18分に短縮し、良好な再現性を実現した。
論文 参考訳(メタデータ) (2024-07-28T17:24:14Z) - VoxNeRF: Bridging Voxel Representation and Neural Radiance Fields for Enhanced Indoor View Synthesis [73.50359502037232]
VoxNeRFは、ニューラル室内再構成と新しいビュー合成の質と効率を高めるための新しいアプローチである。
本稿では,最も関連性の高い領域に計算資源を割り当てる効率的なボクセル誘導サンプリング手法を提案する。
私たちのアプローチは、ScanNetとScanNet++に関する広範な実験で検証されています。
論文 参考訳(メタデータ) (2023-11-09T11:32:49Z) - NeuS-PIR: Learning Relightable Neural Surface using Pre-Integrated Rendering [23.482941494283978]
本稿では,マルチビュー画像やビデオから可照性神経表面を復元するNeuS-PIR法を提案する。
NeRFや離散メッシュに基づく手法とは異なり,提案手法は暗黙のニューラルサーフェス表現を用いて高品質な幾何学を再構築する。
本手法は,現代のグラフィックスエンジンとシームレスに統合可能なリライトなどの高度なアプリケーションを実現する。
論文 参考訳(メタデータ) (2023-06-13T09:02:57Z) - TensoIR: Tensorial Inverse Rendering [51.57268311847087]
テンソルIRはテンソル分解とニューラルフィールドに基づく新しい逆レンダリング手法である。
TensoRFは、放射場モデリングのための最先端のアプローチである。
論文 参考訳(メタデータ) (2023-04-24T21:39:13Z) - MVSNeRF: Fast Generalizable Radiance Field Reconstruction from
Multi-View Stereo [52.329580781898116]
MVSNeRFは、ビュー合成のための神経放射場を効率的に再構築できる新しいニューラルレンダリング手法である。
高密度にキャプチャされた画像に対して,シーン毎の最適化を考慮に入れたニューラルネットワークの先行研究とは異なり,高速ネットワーク推論により,近傍の3つの入力ビューのみからラミアンスフィールドを再構成できる汎用ディープニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-03-29T13:15:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。