論文の概要: ResNeRF: Geometry-Guided Residual Neural Radiance Field for Indoor Scene
Novel View Synthesis
- arxiv url: http://arxiv.org/abs/2211.16211v3
- Date: Tue, 11 Jul 2023 08:49:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-12 19:06:41.601464
- Title: ResNeRF: Geometry-Guided Residual Neural Radiance Field for Indoor Scene
Novel View Synthesis
- Title(参考訳): resnerf: 室内シーン新規視点合成のための幾何誘導残留神経放射場
- Authors: Yuting Xiao, Yiqun Zhao, Yanyu Xu, Shenghua Gao
- Abstract要約: ResNeRFは、屋内シーンノベルビュー合成のための幾何学誘導2段階フレームワークである。
本研究では,シーン形状から推定されるベース密度と,その形状によってパラメータ化された残差密度に基づいて,シーンの密度分布を特徴付ける。
本手法は, 室内環境を再現し, 室内環境を再現し, 室内環境を再現し, 室内環境を再現し, 室内環境を再現し, 室内環境を再現し, 室内環境を再現し, 室内環境を再現する。
- 参考スコア(独自算出の注目度): 36.87468496678243
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We represent the ResNeRF, a novel geometry-guided two-stage framework for
indoor scene novel view synthesis. Be aware of that a good geometry would
greatly boost the performance of novel view synthesis, and to avoid the
geometry ambiguity issue, we propose to characterize the density distribution
of the scene based on a base density estimated from scene geometry and a
residual density parameterized by the geometry. In the first stage, we focus on
geometry reconstruction based on SDF representation, which would lead to a good
geometry surface of the scene and also a sharp density. In the second stage,
the residual density is learned based on the SDF learned in the first stage for
encoding more details about the appearance. In this way, our method can better
learn the density distribution with the geometry prior for high-fidelity novel
view synthesis while preserving the 3D structures. Experiments on large-scale
indoor scenes with many less-observed and textureless areas show that with the
good 3D surface, our method achieves state-of-the-art performance for novel
view synthesis.
- Abstract(参考訳): ResNeRFは,屋内シーンの新規ビュー合成のための幾何学誘導型2段階フレームワークである。
良質な幾何学が新規な視点合成の性能を著しく高めることに留意し,幾何学的曖昧さの問題を回避すべく,シーンの密度分布を,シーン形状から推定されたベース密度と、この幾何学でパラメータ化された残留密度に基づいて特徴付けることを提案する。
第1段階では, sdf表現に基づく幾何学的再構成に焦点をあて, シーンの良好な幾何学的表面と鋭い密度をもたらす。
第2段階では、残差密度は第1段階で学んだSDFに基づいて学習し、外観の詳細を符号化する。
このように,3次元構造を維持しつつ,高忠実度な新規ビュー合成に先立って,幾何の密度分布をよりよく学習することができる。
観察が困難でテクスチャのない領域が多い大規模室内シーンにおける実験により,良好な3次元表面において,新しい視点合成のための最先端の性能が得られることを示した。
関連論文リスト
- Invisible Stitch: Generating Smooth 3D Scenes with Depth Inpainting [75.7154104065613]
本稿では,3次元融合過程を学習するために,教師の蒸留と自己学習によって訓練された新しい深度補完モデルを提案する。
また,地上の真理幾何に基づくシーン生成手法のベンチマーク手法も導入した。
論文 参考訳(メタデータ) (2024-04-30T17:59:40Z) - SAGS: Structure-Aware 3D Gaussian Splatting [53.6730827668389]
本研究では,シーンの形状を暗黙的に符号化する構造認識型ガウス散乱法(SAGS)を提案する。
SAGSは、最先端のレンダリング性能と、ベンチマークノベルビュー合成データセットのストレージ要件の削減を反映している。
論文 参考訳(メタデータ) (2024-04-29T23:26:30Z) - PGAHum: Prior-Guided Geometry and Appearance Learning for High-Fidelity Animatable Human Reconstruction [9.231326291897817]
我々はPGAHumを紹介した。PGAHumは、高忠実でアニマタブルな人体再構成のための、事前ガイダンス付き幾何学および外観学習フレームワークである。
我々はPGAHumの3つの主要モジュールにおける3次元人体前駆体を徹底的に利用し、複雑な細部と見えないポーズのフォトリアリスティックなビュー合成による高品質な幾何再構成を実現する。
論文 参考訳(メタデータ) (2024-04-22T04:22:30Z) - Binary Opacity Grids: Capturing Fine Geometric Detail for Mesh-Based
View Synthesis [70.40950409274312]
我々は、細い構造を再構築する能力を損なうことなく、表面への収束を促すために密度場を変更する。
また, メッシュの単純化と外観モデルの適合により, 融合型メッシュ方式を開発した。
私たちのモデルで生成されたコンパクトメッシュは、モバイルデバイス上でリアルタイムでレンダリングできます。
論文 参考訳(メタデータ) (2024-02-19T18:59:41Z) - Recovering Fine Details for Neural Implicit Surface Reconstruction [3.9702081347126943]
そこで我々はD-NeuSを提案する。D-NeuSは、微細な幾何学的詳細を復元できるボリュームレンダリング型ニューラル暗示表面再構成法である。
我々は,SDFゼロクロスの補間により表面点に多視点の特徴的整合性を付与する。
本手法は,高精度な表面を細部で再構成し,その性能を向上する。
論文 参考訳(メタデータ) (2022-11-21T10:06:09Z) - Neural 3D Scene Reconstruction with the Manhattan-world Assumption [58.90559966227361]
本稿では,多視点画像から3次元屋内シーンを再構築する課題について述べる。
平面的制約は、最近の暗黙の神経表現に基づく再構成手法に便利に組み込むことができる。
提案手法は, 従来の手法よりも3次元再構成品質に優れていた。
論文 参考訳(メタデータ) (2022-05-05T17:59:55Z) - Depth Completion using Geometry-Aware Embedding [22.333381291860498]
本稿では,幾何認識の埋め込みを効率的に学習する手法を提案する。
局所的および大域的な幾何学的構造情報を、例えば、シーンレイアウト、オブジェクトのサイズと形状などの3Dポイントから符号化し、深度推定を導く。
論文 参考訳(メタデータ) (2022-03-21T12:06:27Z) - Volume Rendering of Neural Implicit Surfaces [57.802056954935495]
本稿では,ニューラルボリュームレンダリングにおける幾何学的表現と再構成を改善することを目的とする。
体積密度を幾何学の関数としてモデル化することで実現する。
この新たな密度表現を挑戦的なシーンマルチビューデータセットに適用することで、高品質な幾何学的再構成を実現した。
論文 参考訳(メタデータ) (2021-06-22T20:23:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。