論文の概要: Efficient Scene Appearance Aggregation for Level-of-Detail Rendering
- arxiv url: http://arxiv.org/abs/2409.03761v1
- Date: Mon, 19 Aug 2024 01:01:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-15 05:41:23.434734
- Title: Efficient Scene Appearance Aggregation for Level-of-Detail Rendering
- Title(参考訳): レベル・オブ・ディテールレンダリングのための効率の良いシーン表示アグリゲーション
- Authors: Yang Zhou, Tao Huang, Ravi Ramamoorthi, Pradeep Sen, Ling-Qi Yan,
- Abstract要約: 本稿では,複雑なシーンの集合的な外観を表す新しいボリューム表現について述べる。
ボクセル内の局所的な相関関係と,シーンの異なる部分におけるグローバルな相関関係を捉えるという課題に対処する。
- 参考スコア(独自算出の注目度): 42.063285161104474
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Creating an appearance-preserving level-of-detail (LoD) representation for arbitrary 3D scenes is a challenging problem. The appearance of a scene is an intricate combination of both geometry and material models, and is further complicated by correlation due to the spatial configuration of scene elements. We present a novel volumetric representation for the aggregated appearance of complex scenes and an efficient pipeline for LoD generation and rendering. The core of our representation is the Aggregated Bidirectional Scattering Distribution Function (ABSDF) that summarizes the far-field appearance of all surfaces inside a voxel. We propose a closed-form factorization of the ABSDF that accounts for spatially varying and orientation-varying material parameters. We tackle the challenge of capturing the correlation existing locally within a voxel and globally across different parts of the scene. Our method faithfully reproduces appearance and achieves higher quality than existing scene filtering methods while being inherently efficient to render. The memory footprint and rendering cost of our representation are independent of the original scene complexity.
- Abstract(参考訳): 任意の3Dシーンのための外観保存レベル(LoD)表現を作成することは難しい問題である。
シーンの外観は、幾何学モデルと物質モデルの両方の複雑な組み合わせであり、シーン要素の空間配置による相関によりさらに複雑である。
本稿では,複雑なシーンの集合的な外観のための新しいボリューム表現と,LoD生成とレンダリングのための効率的なパイプラインを提案する。
我々の表現の中核は、ボクセル内のすべての表面の遠距離場外見を要約するアグリゲート二方向散乱分布関数(ABSDF)である。
本稿では,空間的に変化し,方向が変化する物質パラメータを考慮に入れた ABSDF のクローズドフォーム分解法を提案する。
ボクセル内の局所的な相関関係と,シーンの異なる部分におけるグローバルな相関関係を捉えるという課題に対処する。
本手法は外観を忠実に再現し,レンダリングが本質的に効率的でありながら,既存のシーンフィルタリング法よりも高い品質を実現する。
私たちの表現のメモリフットプリントとレンダリングコストは、元のシーンの複雑さとは無関係です。
関連論文リスト
- Dynamic Scene Understanding through Object-Centric Voxelization and Neural Rendering [57.895846642868904]
オブジェクト中心学習が可能な動的シーンのための3次元生成モデルDynaVol-Sを提案する。
ボキセル化は、個々の空間的位置において、物体ごとの占有確率を推定する。
提案手法は2次元セマンティックな特徴を統合して3次元セマンティック・グリッドを作成し,複数の不整合ボクセル・グリッドを通してシーンを表現する。
論文 参考訳(メタデータ) (2024-07-30T15:33:58Z) - Object-level Scene Deocclusion [92.39886029550286]
オブジェクトレベルのシーン・デクルージョンのためのPArallel可視・コミュールト拡散フレームワークPACOを提案する。
PACOをトレーニングするために、500kサンプルの大規模なデータセットを作成し、自己教師付き学習を可能にします。
COCOAと様々な現実世界のシーンの実験では、PACOがシーンの排除に優れた能力を示し、芸術の状態をはるかに上回っている。
論文 参考訳(メタデータ) (2024-06-11T20:34:10Z) - Mixed Diffusion for 3D Indoor Scene Synthesis [55.94569112629208]
混合離散連続拡散モデルアーキテクチャであるMiDiffusionを提案する。
シーンレイアウトを2次元のフロアプランとオブジェクトの集合で表現し、それぞれがそのカテゴリ、場所、サイズ、方向で定義する。
実験により,MiDiffusionは床条件下での3次元シーン合成において,最先端の自己回帰モデルや拡散モデルよりもかなり優れていることが示された。
論文 参考訳(メタデータ) (2024-05-31T17:54:52Z) - Style-Consistent 3D Indoor Scene Synthesis with Decoupled Objects [84.45345829270626]
制御可能な3D屋内シーン合成は、技術進歩の最前線にある。
シーンスタイリングの現在の手法は、シーン全体にスタイルを適用することに限定されている。
室内3Dシーンを合成するためのユニークなパイプラインを提案する。
論文 参考訳(メタデータ) (2024-01-24T03:10:36Z) - DORSal: Diffusion for Object-centric Representations of Scenes et al [28.181157214966493]
最近の3Dシーン理解の進歩は、多様なシーンの大きなデータセットにわたる表現のスケーラブルな学習を可能にする。
本研究では,凍結したオブジェクト中心のスロットベースのシーン表現を条件とした3次元シーン生成にビデオ拡散アーキテクチャを適用したDORSalを提案する。
論文 参考訳(メタデータ) (2023-06-13T18:32:35Z) - CommonScenes: Generating Commonsense 3D Indoor Scenes with Scene Graph
Diffusion [83.30168660888913]
シーングラフを対応する制御可能な3Dシーンに変換する完全生成モデルであるCommonScenesを提案する。
パイプラインは2つのブランチで構成されており、1つは変分オートエンコーダでシーン全体のレイアウトを予測し、もう1つは互換性のある形状を生成する。
生成されたシーンは、入力シーングラフを編集し、拡散モデルのノイズをサンプリングすることで操作することができる。
論文 参考訳(メタデータ) (2023-05-25T17:39:13Z) - Deep Appearance Prefiltering [11.986267753557994]
シーンの外観を保ちながら、3Dシーンの複雑さとは無関係にレンダリングコストを抑えるのが理想的なレベル(LoD)手法である。
複雑な幾何学と材料を用いた3D環境の事前フィルタリングのための,初の包括的マルチスケールLoDフレームワークを提案する。
提案手法は,最先端のプリフィルタ手法と比較し,複雑なシーンに対するメモリの大幅な節約を実現している。
論文 参考訳(メタデータ) (2022-11-08T16:42:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。