論文の概要: Deep Appearance Prefiltering
- arxiv url: http://arxiv.org/abs/2211.05932v1
- Date: Tue, 8 Nov 2022 16:42:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-20 13:32:20.541953
- Title: Deep Appearance Prefiltering
- Title(参考訳): ディープ・ルック・プレフィルター
- Authors: Steve Bako, Pradeep Sen, Anton Kaplanyan
- Abstract要約: シーンの外観を保ちながら、3Dシーンの複雑さとは無関係にレンダリングコストを抑えるのが理想的なレベル(LoD)手法である。
複雑な幾何学と材料を用いた3D環境の事前フィルタリングのための,初の包括的マルチスケールLoDフレームワークを提案する。
提案手法は,最先端のプリフィルタ手法と比較し,複雑なシーンに対するメモリの大幅な節約を実現している。
- 参考スコア(独自算出の注目度): 11.986267753557994
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Physically based rendering of complex scenes can be prohibitively costly with
a potentially unbounded and uneven distribution of complexity across the
rendered image. The goal of an ideal level of detail (LoD) method is to make
rendering costs independent of the 3D scene complexity, while preserving the
appearance of the scene. However, current prefiltering LoD methods are limited
in the appearances they can support due to their reliance of approximate models
and other heuristics. We propose the first comprehensive multi-scale LoD
framework for prefiltering 3D environments with complex geometry and materials
(e.g., the Disney BRDF), while maintaining the appearance with respect to the
ray-traced reference. Using a multi-scale hierarchy of the scene, we perform a
data-driven prefiltering step to obtain an appearance phase function and
directional coverage mask at each scale. At the heart of our approach is a
novel neural representation that encodes this information into a compact latent
form that is easy to decode inside a physically based renderer. Once a scene is
baked out, our method requires no original geometry, materials, or textures at
render time. We demonstrate that our approach compares favorably to
state-of-the-art prefiltering methods and achieves considerable savings in
memory for complex scenes.
- Abstract(参考訳): 複雑なシーンの物理的にベースとしたレンダリングは、レンダリングされた画像全体の複雑さの潜在的に非バウンドで不均一な分布を伴って、不当にコストがかかる可能性がある。
理想的なレベル・オブ・ディテール(LoD)手法の目標は、シーンの外観を保ちながら、レンダリングコストを3Dシーンの複雑さとは無関係にすることである。
しかし、現在のフィルター前lod法は、近似モデルや他のヒューリスティックに依存するため、サポートできる外観に制限がある。
本稿では,複雑な形状と材料(disney brdfなど)を用いた3次元環境の事前フィルタを行うための,最初の包括的多スケール型lodフレームワークを提案する。
シーンのマルチスケール階層を用いて,データ駆動による事前フィルタを行い,各スケールで出現位相関数と指向性カバーマスクを得る。
我々のアプローチの核心は、この情報を物理的にベースとしたレンダラー内で容易に復号できるコンパクトな潜在形式に符号化する新しい神経表現である。
一度シーンを焼き尽くすと、レンダリング時に元の幾何学、素材、テクスチャを必要としない。
提案手法は,最先端のプリフィルタ手法と比較し,複雑なシーンに対するメモリの大幅な節約を実現する。
関連論文リスト
- SceneCraft: Layout-Guided 3D Scene Generation [29.713491313796084]
シーンクラフト(SceneCraft)は、テキスト記述や空間的レイアウトの好みに則った、室内の詳細なシーンを生成する新しい方法である。
本手法は,多様なテクスチャ,一貫した幾何,現実的な視覚的品質を有する複雑な屋内シーン生成において,既存のアプローチを著しく上回っている。
論文 参考訳(メタデータ) (2024-10-11T17:59:58Z) - EVER: Exact Volumetric Ellipsoid Rendering for Real-time View Synthesis [72.53316783628803]
実時間微分可能な発光専用ボリュームレンダリング法であるExact Volumetric Ellipsoid Rendering (EVER)を提案する。
3D Gaussian Splatting(3DGS)による最近の手法とは異なり、プリミティブベースの表現は正確なボリュームレンダリングを可能にする。
本手法は,3DGSよりもブレンディング問題の方が精度が高く,ビューレンダリングの追従作業も容易であることを示す。
論文 参考訳(メタデータ) (2024-10-02T17:59:09Z) - Efficient Scene Appearance Aggregation for Level-of-Detail Rendering [42.063285161104474]
本稿では,複雑なシーンの集合的な外観を表す新しいボリューム表現について述べる。
ボクセル内の局所的な相関関係と,シーンの異なる部分におけるグローバルな相関関係を捉えるという課題に対処する。
論文 参考訳(メタデータ) (2024-08-19T01:01:12Z) - Bridging 3D Gaussian and Mesh for Freeview Video Rendering [57.21847030980905]
GauMeshはダイナミックシーンのモデリングとレンダリングのために3D GaussianとMeshをブリッジする。
提案手法は, 動的シーンの異なる部分を表現するために, プリミティブの適切なタイプに適応することを示す。
論文 参考訳(メタデータ) (2024-03-18T04:01:26Z) - Denoising Diffusion via Image-Based Rendering [54.20828696348574]
実世界の3Dシーンの高速かつ詳細な再構築と生成を可能にする最初の拡散モデルを提案する。
まず、大きな3Dシーンを効率よく正確に表現できる新しいニューラルシーン表現であるIBプレーンを導入する。
第二に,2次元画像のみを用いて,この新たな3次元シーン表現の事前学習を行うためのデノイング拡散フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-05T19:00:45Z) - BerfScene: Bev-conditioned Equivariant Radiance Fields for Infinite 3D
Scene Generation [96.58789785954409]
本研究では,同変放射場と鳥眼視図のガイダンスを組み込んだ実用的で効率的な3次元表現を提案する。
局所的なシーンを合成し、スムーズな一貫性で縫い合わせることで、大規模で無限スケールの3Dシーンを作ります。
論文 参考訳(メタデータ) (2023-12-04T18:56:10Z) - Differentiable Blocks World: Qualitative 3D Decomposition by Rendering
Primitives [70.32817882783608]
本稿では,3次元プリミティブを用いて,シンプルでコンパクトで動作可能な3次元世界表現を実現する手法を提案する。
既存の3次元入力データに依存するプリミティブ分解法とは異なり,本手法は画像を直接操作する。
得られたテクスチャ化されたプリミティブは入力画像を忠実に再構成し、視覚的な3Dポイントを正確にモデル化する。
論文 参考訳(メタデータ) (2023-07-11T17:58:31Z) - Blocks2World: Controlling Realistic Scenes with Editable Primitives [5.541644538483947]
我々は3Dシーンのレンダリングと編集のための新しい方法であるBlocks2Worldを提案する。
本手法は,コンベックス分解を用いて,各シーンの様々な物体から3次元並列入力を抽出することから始める。
次のステージでは、2Dレンダリングされた凸プリミティブから画像を生成することを学ぶ条件付きモデルをトレーニングする。
論文 参考訳(メタデータ) (2023-07-07T21:38:50Z) - 3inGAN: Learning a 3D Generative Model from Images of a Self-similar
Scene [34.2144933185175]
3inGANは、単一の自己相似3Dシーンの2D画像から訓練された無条件3D生成モデルである。
実地および合成源から得られた,様々なスケールと複雑さの半確率的な場面での結果を示す。
論文 参考訳(メタデータ) (2022-11-27T18:03:21Z) - Facial Geometric Detail Recovery via Implicit Representation [147.07961322377685]
そこで本研究では,一眼の顔画像のみを用いて,テクスチャガイドを用いた幾何的細部復元手法を提案する。
提案手法は,高品質なテクスチャ補完と暗黙の面の強力な表現性を組み合わせたものである。
本手法は, 顔の正確な細部を復元するだけでなく, 正常部, アルベド部, シェーディング部を自己監督的に分解する。
論文 参考訳(メタデータ) (2022-03-18T01:42:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。