論文の概要: Anti-Aliased Neural Implicit Surfaces with Encoding Level of Detail
- arxiv url: http://arxiv.org/abs/2309.10336v1
- Date: Tue, 19 Sep 2023 05:44:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 16:04:25.612498
- Title: Anti-Aliased Neural Implicit Surfaces with Encoding Level of Detail
- Title(参考訳): ディテールレベルを符号化した抗aliasedneural implicit surface
- Authors: Yiyu Zhuang, Qi Zhang, Ying Feng, Hao Zhu, Yao Yao, Xiaoyu Li, Yan-Pei
Cao, Ying Shan, Xun Cao
- Abstract要約: 本稿では,高頻度幾何細部リカバリとアンチエイリアス化された新しいビューレンダリングのための効率的なニューラル表現であるLoD-NeuSを提案する。
我々の表現は、光線に沿った円錐状のフラストラム内の多面体化から空間特徴を集約する。
- 参考スコア(独自算出の注目度): 54.03399077258403
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present LoD-NeuS, an efficient neural representation for high-frequency
geometry detail recovery and anti-aliased novel view rendering. Drawing
inspiration from voxel-based representations with the level of detail (LoD), we
introduce a multi-scale tri-plane-based scene representation that is capable of
capturing the LoD of the signed distance function (SDF) and the space radiance.
Our representation aggregates space features from a multi-convolved
featurization within a conical frustum along a ray and optimizes the LoD
feature volume through differentiable rendering. Additionally, we propose an
error-guided sampling strategy to guide the growth of the SDF during the
optimization. Both qualitative and quantitative evaluations demonstrate that
our method achieves superior surface reconstruction and photorealistic view
synthesis compared to state-of-the-art approaches.
- Abstract(参考訳): 本稿では,高頻度幾何細部リカバリとアンチエイリアス化された新しいビューレンダリングのための効率的なニューラル表現であるLoD-NeuSを提案する。
詳細レベル (LoD) のボクセルに基づく表現からインスピレーションを得て, 符号付き距離関数 (SDF) と空間放射率のLoDをキャプチャ可能な, 多次元三面体に基づくシーン表現を導入する。
我々の表現は、光線に沿った円錐状のフラストラム内の多面体化から空間特徴を集約し、微分レンダリングによりLoD特徴量を最適化する。
さらに,最適化中のSDFの成長を導くために,誤り誘導型サンプリング手法を提案する。
定性的かつ定量的な評価は,本手法が最先端のアプローチに比べて優れた表面再構成と光リアルビュー合成を実現することを示す。
関連論文リスト
- LiftRefine: Progressively Refined View Synthesis from 3D Lifting with Volume-Triplane Representations [21.183524347952762]
単視点または少数視点の入力画像から3次元のニューラルフィールドを用いた新しいビュー合成法を提案する。
我々の再構成モデルはまず、粗いスケールの3D表現として1つ以上の入力画像をボリュームから3D空間に持ち上げる。
我々の拡散モデルは、三面体からのレンダリング画像に欠けている詳細を幻覚させる。
論文 参考訳(メタデータ) (2024-12-19T02:23:55Z) - ProbeSDF: Light Field Probes for Neural Surface Reconstruction [4.0130618054041385]
SDFベースのディファレンシャルレンダリングフレームワークは、最先端のマルチビュー3次元形状再構成を実現している。
我々は、その中核的な外観モデルを最小限に修正することで、このアプローチの族を再検討する。
この性能は、広く異なる2つの一般的なアプリケーションフィールド上の実データ上で一貫して達成されることを示す。
論文 参考訳(メタデータ) (2024-12-13T12:18:26Z) - G2SDF: Surface Reconstruction from Explicit Gaussians with Implicit SDFs [84.07233691641193]
G2SDFはニューラル暗黙の符号付き距離場をガウススプラッティングフレームワークに統合する新しいアプローチである。
G2SDFは, 3DGSの効率を維持しつつ, 従来よりも優れた品質を実現する。
論文 参考訳(メタデータ) (2024-11-25T20:07:07Z) - RaNeuS: Ray-adaptive Neural Surface Reconstruction [87.20343320266215]
微分可能放射場 eg NeRF を利用して、新しいビューレンダリングを生成するとともに、詳細な3次元表面を再構成する。
本研究では,SDFから放射場への射影を一様等間隔のアイコニカル正規化で定式化し,最適化することを考えると,光度重み付け係数を改良する。
提案する textitRaNeuS は,合成データと実データの両方で広く評価されている。
論文 参考訳(メタデータ) (2024-06-14T07:54:25Z) - Anisotropic Neural Representation Learning for High-Quality Neural
Rendering [0.0]
本稿では、学習可能なビュー依存機能を利用してシーン表現と再構成を改善する異方性ニューラル表現学習法を提案する。
我々の手法は柔軟であり、NeRFベースのフレームワークにプラグインできる。
論文 参考訳(メタデータ) (2023-11-30T07:29:30Z) - VolRecon: Volume Rendering of Signed Ray Distance Functions for
Generalizable Multi-View Reconstruction [64.09702079593372]
VolRecon は Signed Ray Distance Function (SRDF) を用いた新しい一般化可能な暗黙的再構成法である
DTUデータセットでは、VolReconはスパースビュー再構築においてSparseNeuSを約30%上回り、フルビュー再構築においてMVSNetと同等の精度を達成する。
論文 参考訳(メタデータ) (2022-12-15T18:59:54Z) - DARF: Depth-Aware Generalizable Neural Radiance Field [51.29437249009986]
本稿では,Depth-Aware Dynamic Smpling(DADS)戦略を用いたDARF(Depth-Aware Generalizable Neural Radiance Field)を提案する。
筆者らのフレームワークは,数枚の入力画像で,画素レベルと幾何学レベルの両方の見えないシーンを推測する。
DARFは、最先端の一般化可能なNeRF法と比較して、レンダリング品質と深さ推定を改善しつつ、サンプルを50%削減する。
論文 参考訳(メタデータ) (2022-12-05T14:00:59Z) - NeuralUDF: Learning Unsigned Distance Fields for Multi-view
Reconstruction of Surfaces with Arbitrary Topologies [87.06532943371575]
本稿では2次元画像からボリュームレンダリングにより任意の位相で表面を再構成する新しい手法であるNeuralUDFを提案する。
本稿では,表面をUDF(Unsigned Distance Function)として表現し,ニューラルUDF表現を学習するための新しいボリュームレンダリング手法を提案する。
論文 参考訳(メタデータ) (2022-11-25T15:21:45Z) - Recovering Fine Details for Neural Implicit Surface Reconstruction [3.9702081347126943]
そこで我々はD-NeuSを提案する。D-NeuSは、微細な幾何学的詳細を復元できるボリュームレンダリング型ニューラル暗示表面再構成法である。
我々は,SDFゼロクロスの補間により表面点に多視点の特徴的整合性を付与する。
本手法は,高精度な表面を細部で再構成し,その性能を向上する。
論文 参考訳(メタデータ) (2022-11-21T10:06:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。