論文の概要: ResNeRF: Geometry-Guided Residual Neural Radiance Field for Indoor Scene
Novel View Synthesis
- arxiv url: http://arxiv.org/abs/2211.16211v1
- Date: Sat, 26 Nov 2022 08:48:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 16:39:55.121394
- Title: ResNeRF: Geometry-Guided Residual Neural Radiance Field for Indoor Scene
Novel View Synthesis
- Title(参考訳): resnerf: 室内シーン新規視点合成のための幾何誘導残留神経放射場
- Authors: Yuting Xiao, Yiqun Zhao, Yanyu Xu, Shenghua Gao
- Abstract要約: ResNeRFは、屋内シーンノベルビュー合成のための幾何学誘導2段階フレームワークである。
本研究では,シーン形状から推定されるベース密度と,その形状によってパラメータ化された残差密度に基づいて,シーンの密度分布を特徴付ける。
本手法は, 室内環境を再現し, 室内環境を再現し, 室内環境を再現し, 室内環境を再現し, 室内環境を再現し, 室内環境を再現し, 室内環境を再現し, 室内環境を再現する。
- 参考スコア(独自算出の注目度): 36.87468496678243
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We represent the ResNeRF, a novel geometry-guided two-stage framework for
indoor scene novel view synthesis. Be aware of that a good geometry would
greatly boost the performance of novel view synthesis, and to avoid the
geometry ambiguity issue, we propose to characterize the density distribution
of the scene based on a base density estimated from scene geometry and a
residual density parameterized by the geometry. In the first stage, we focus on
geometry reconstruction based on SDF representation, which would lead to a good
geometry surface of the scene and also a sharp density. In the second stage,
the residual density is learned based on the SDF learned in the first stage for
encoding more details about the appearance. In this way, our method can better
learn the density distribution with the geometry prior for high-fidelity novel
view synthesis while preserving the 3D structures. Experiments on large-scale
indoor scenes with many less-observed and textureless areas show that with the
good 3D surface, our method achieves state-of-the-art performance for novel
view synthesis.
- Abstract(参考訳): ResNeRFは,屋内シーンの新規ビュー合成のための幾何学誘導型2段階フレームワークである。
良質な幾何学が新規な視点合成の性能を著しく高めることに留意し,幾何学的曖昧さの問題を回避すべく,シーンの密度分布を,シーン形状から推定されたベース密度と、この幾何学でパラメータ化された残留密度に基づいて特徴付けることを提案する。
第1段階では, sdf表現に基づく幾何学的再構成に焦点をあて, シーンの良好な幾何学的表面と鋭い密度をもたらす。
第2段階では、残差密度は第1段階で学んだSDFに基づいて学習し、外観の詳細を符号化する。
このように,3次元構造を維持しつつ,高忠実度な新規ビュー合成に先立って,幾何の密度分布をよりよく学習することができる。
観察が困難でテクスチャのない領域が多い大規模室内シーンにおける実験により,良好な3次元表面において,新しい視点合成のための最先端の性能が得られることを示した。
関連論文リスト
- AniSDF: Fused-Granularity Neural Surfaces with Anisotropic Encoding for High-Fidelity 3D Reconstruction [55.69271635843385]
AniSDF(AniSDF)は,高忠実度3次元再構成のための物理に基づく符号化による融合粒度ニューラルサーフェスを学習する新しいアプローチである。
本手法は, 幾何再構成と新規ビュー合成の両面において, SDF法の品質を飛躍的に向上させる。
論文 参考訳(メタデータ) (2024-10-02T03:10:38Z) - Spurfies: Sparse Surface Reconstruction using Local Geometry Priors [8.260048622127913]
我々はスパースビュー表面再構成の新しい手法であるSpurfiesを紹介した。
それは、合成データに基づいて訓練された局所幾何学的先行情報を利用するために、外観と幾何学的情報を切り離す。
提案手法をDTUデータセット上で検証し,従来技術よりも表面品質が35%向上したことを示す。
論文 参考訳(メタデータ) (2024-08-29T14:02:47Z) - Geometry-guided Feature Learning and Fusion for Indoor Scene Reconstruction [14.225228781008209]
本稿では3次元シーン再構成のための新しい幾何学的統合機構を提案する。
提案手法は,特徴学習,特徴融合,ネットワーク監視という3段階の3次元幾何学を取り入れている。
論文 参考訳(メタデータ) (2024-08-28T08:02:47Z) - NeuRodin: A Two-stage Framework for High-Fidelity Neural Surface Reconstruction [63.85586195085141]
サイン付き距離関数 (SDF) を用いたボリュームレンダリングは, 表面再構成において有意な機能を示した。
ニューロディン(NeuRodin)は、新しい2段階の神経表面再構成フレームワークである。
NeuRodinは高忠実な表面再構成を実現し、密度ベース手法の柔軟な最適化特性を維持している。
論文 参考訳(メタデータ) (2024-08-19T17:36:35Z) - RaNeuS: Ray-adaptive Neural Surface Reconstruction [87.20343320266215]
微分可能放射場 eg NeRF を利用して、新しいビューレンダリングを生成するとともに、詳細な3次元表面を再構成する。
本研究では,SDFから放射場への射影を一様等間隔のアイコニカル正規化で定式化し,最適化することを考えると,光度重み付け係数を改良する。
提案する textitRaNeuS は,合成データと実データの両方で広く評価されている。
論文 参考訳(メタデータ) (2024-06-14T07:54:25Z) - Invisible Stitch: Generating Smooth 3D Scenes with Depth Inpainting [75.7154104065613]
本稿では,3次元融合過程を学習するために,教師の蒸留と自己学習によって訓練された新しい深度補完モデルを提案する。
また,地上の真理幾何に基づくシーン生成手法のベンチマーク手法も導入した。
論文 参考訳(メタデータ) (2024-04-30T17:59:40Z) - PGAHum: Prior-Guided Geometry and Appearance Learning for High-Fidelity Animatable Human Reconstruction [9.231326291897817]
我々はPGAHumを紹介した。PGAHumは、高忠実でアニマタブルな人体再構成のための、事前ガイダンス付き幾何学および外観学習フレームワークである。
我々はPGAHumの3つの主要モジュールにおける3次元人体前駆体を徹底的に利用し、複雑な細部と見えないポーズのフォトリアリスティックなビュー合成による高品質な幾何再構成を実現する。
論文 参考訳(メタデータ) (2024-04-22T04:22:30Z) - Recovering Fine Details for Neural Implicit Surface Reconstruction [3.9702081347126943]
そこで我々はD-NeuSを提案する。D-NeuSは、微細な幾何学的詳細を復元できるボリュームレンダリング型ニューラル暗示表面再構成法である。
我々は,SDFゼロクロスの補間により表面点に多視点の特徴的整合性を付与する。
本手法は,高精度な表面を細部で再構成し,その性能を向上する。
論文 参考訳(メタデータ) (2022-11-21T10:06:09Z) - Volume Rendering of Neural Implicit Surfaces [57.802056954935495]
本稿では,ニューラルボリュームレンダリングにおける幾何学的表現と再構成を改善することを目的とする。
体積密度を幾何学の関数としてモデル化することで実現する。
この新たな密度表現を挑戦的なシーンマルチビューデータセットに適用することで、高品質な幾何学的再構成を実現した。
論文 参考訳(メタデータ) (2021-06-22T20:23:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。