論文の概要: Deep Appearance Prefiltering
- arxiv url: http://arxiv.org/abs/2211.05932v1
- Date: Tue, 8 Nov 2022 16:42:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-20 13:32:20.541953
- Title: Deep Appearance Prefiltering
- Title(参考訳): ディープ・ルック・プレフィルター
- Authors: Steve Bako, Pradeep Sen, Anton Kaplanyan
- Abstract要約: シーンの外観を保ちながら、3Dシーンの複雑さとは無関係にレンダリングコストを抑えるのが理想的なレベル(LoD)手法である。
複雑な幾何学と材料を用いた3D環境の事前フィルタリングのための,初の包括的マルチスケールLoDフレームワークを提案する。
提案手法は,最先端のプリフィルタ手法と比較し,複雑なシーンに対するメモリの大幅な節約を実現している。
- 参考スコア(独自算出の注目度): 11.986267753557994
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Physically based rendering of complex scenes can be prohibitively costly with
a potentially unbounded and uneven distribution of complexity across the
rendered image. The goal of an ideal level of detail (LoD) method is to make
rendering costs independent of the 3D scene complexity, while preserving the
appearance of the scene. However, current prefiltering LoD methods are limited
in the appearances they can support due to their reliance of approximate models
and other heuristics. We propose the first comprehensive multi-scale LoD
framework for prefiltering 3D environments with complex geometry and materials
(e.g., the Disney BRDF), while maintaining the appearance with respect to the
ray-traced reference. Using a multi-scale hierarchy of the scene, we perform a
data-driven prefiltering step to obtain an appearance phase function and
directional coverage mask at each scale. At the heart of our approach is a
novel neural representation that encodes this information into a compact latent
form that is easy to decode inside a physically based renderer. Once a scene is
baked out, our method requires no original geometry, materials, or textures at
render time. We demonstrate that our approach compares favorably to
state-of-the-art prefiltering methods and achieves considerable savings in
memory for complex scenes.
- Abstract(参考訳): 複雑なシーンの物理的にベースとしたレンダリングは、レンダリングされた画像全体の複雑さの潜在的に非バウンドで不均一な分布を伴って、不当にコストがかかる可能性がある。
理想的なレベル・オブ・ディテール(LoD)手法の目標は、シーンの外観を保ちながら、レンダリングコストを3Dシーンの複雑さとは無関係にすることである。
しかし、現在のフィルター前lod法は、近似モデルや他のヒューリスティックに依存するため、サポートできる外観に制限がある。
本稿では,複雑な形状と材料(disney brdfなど)を用いた3次元環境の事前フィルタを行うための,最初の包括的多スケール型lodフレームワークを提案する。
シーンのマルチスケール階層を用いて,データ駆動による事前フィルタを行い,各スケールで出現位相関数と指向性カバーマスクを得る。
我々のアプローチの核心は、この情報を物理的にベースとしたレンダラー内で容易に復号できるコンパクトな潜在形式に符号化する新しい神経表現である。
一度シーンを焼き尽くすと、レンダリング時に元の幾何学、素材、テクスチャを必要としない。
提案手法は,最先端のプリフィルタ手法と比較し,複雑なシーンに対するメモリの大幅な節約を実現する。
関連論文リスト
- Denoising Diffusion via Image-Based Rendering [54.20828696348574]
実世界の3Dシーンの高速かつ詳細な再構築と生成を可能にする最初の拡散モデルを提案する。
まず、大きな3Dシーンを効率よく正確に表現できる新しいニューラルシーン表現であるIBプレーンを導入する。
第二に,2次元画像のみを用いて,この新たな3次元シーン表現の事前学習を行うためのデノイング拡散フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-05T19:00:45Z) - SceneWiz3D: Towards Text-guided 3D Scene Composition [134.71933134180782]
既存のアプローチでは、大規模なテキスト・ツー・イメージモデルを使用して3D表現を最適化するか、オブジェクト中心のデータセット上で3Dジェネレータをトレーニングする。
テキストから高忠実度3Dシーンを合成する新しい手法であるSceneWiz3Dを紹介する。
論文 参考訳(メタデータ) (2023-12-13T18:59:30Z) - BerfScene: Bev-conditioned Equivariant Radiance Fields for Infinite 3D
Scene Generation [96.58789785954409]
本研究では,同変放射場と鳥眼視図のガイダンスを組み込んだ実用的で効率的な3次元表現を提案する。
局所的なシーンを合成し、スムーズな一貫性で縫い合わせることで、大規模で無限スケールの3Dシーンを作ります。
論文 参考訳(メタデータ) (2023-12-04T18:56:10Z) - FLARE: Fast Learning of Animatable and Relightable Mesh Avatars [64.48254296523977]
私たちのゴールは、幾何学的に正確で、リアルで、楽しい、現在のレンダリングシステムと互換性のあるビデオから、パーソナライズ可能な3Dアバターを効率的に学習することです。
単眼ビデオからアニマタブルアバターとリライトブルアバターの作成を可能にする技術であるFLAREを紹介する。
論文 参考訳(メタデータ) (2023-10-26T16:13:00Z) - Differentiable Blocks World: Qualitative 3D Decomposition by Rendering
Primitives [70.32817882783608]
本稿では,3次元プリミティブを用いて,シンプルでコンパクトで動作可能な3次元世界表現を実現する手法を提案する。
既存の3次元入力データに依存するプリミティブ分解法とは異なり,本手法は画像を直接操作する。
得られたテクスチャ化されたプリミティブは入力画像を忠実に再構成し、視覚的な3Dポイントを正確にモデル化する。
論文 参考訳(メタデータ) (2023-07-11T17:58:31Z) - Blocks2World: Controlling Realistic Scenes with Editable Primitives [5.541644538483947]
我々は3Dシーンのレンダリングと編集のための新しい方法であるBlocks2Worldを提案する。
本手法は,コンベックス分解を用いて,各シーンの様々な物体から3次元並列入力を抽出することから始める。
次のステージでは、2Dレンダリングされた凸プリミティブから画像を生成することを学ぶ条件付きモデルをトレーニングする。
論文 参考訳(メタデータ) (2023-07-07T21:38:50Z) - 3inGAN: Learning a 3D Generative Model from Images of a Self-similar
Scene [34.2144933185175]
3inGANは、単一の自己相似3Dシーンの2D画像から訓練された無条件3D生成モデルである。
実地および合成源から得られた,様々なスケールと複雑さの半確率的な場面での結果を示す。
論文 参考訳(メタデータ) (2022-11-27T18:03:21Z) - Facial Geometric Detail Recovery via Implicit Representation [147.07961322377685]
そこで本研究では,一眼の顔画像のみを用いて,テクスチャガイドを用いた幾何的細部復元手法を提案する。
提案手法は,高品質なテクスチャ補完と暗黙の面の強力な表現性を組み合わせたものである。
本手法は, 顔の正確な細部を復元するだけでなく, 正常部, アルベド部, シェーディング部を自己監督的に分解する。
論文 参考訳(メタデータ) (2022-03-18T01:42:59Z) - ERF: Explicit Radiance Field Reconstruction From Scratch [12.254150867994163]
センサのポーズとキャリブレーションでシーンの一連の画像を処理し,フォトリアルなデジタルモデルを推定する,新しい高密度3次元再構成手法を提案する。
重要な革新の1つは、根底にある体積表現が完全に明示的であることである。
我々は,本手法が汎用的かつ実用的であることを示し,撮影に高度に制御された実験室の設置は必要とせず,多種多様な物体でシーンを再構築することができることを示した。
論文 参考訳(メタデータ) (2022-02-28T19:37:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。