論文の概要: A Generalizable Light Transport 3D Embedding for Global Illumination
- arxiv url: http://arxiv.org/abs/2510.18189v1
- Date: Tue, 21 Oct 2025 00:29:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:12.742733
- Title: A Generalizable Light Transport 3D Embedding for Global Illumination
- Title(参考訳): グローバルイルミネーションのための汎用光輸送3D埋め込み
- Authors: Bing Xu, Mukund Varma T, Cheng Wang, Tzumao Li, Lifan Wu, Bartlomiej Wronski, Ravi Ramamoorthi, Marco Salvi,
- Abstract要約: 本稿では,3次元シーン構成から直接グローバル照明を近似する一般化可能な3次元光輸送埋め込みを提案する。
スケーラブルトランスフォーマーは、グローバルなポイントツーポイントインタラクションをモデル化して、これらの機能をニューラルプリミティブにエンコードする。
様々なレイアウト, 形状, 材料を有する屋内の様々なシーンにまたがって, グローバル照明の拡散予測結果を示す。
- 参考スコア(独自算出の注目度): 30.088406137167997
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Global illumination (GI) is essential for realistic rendering but remains computationally expensive due to the complexity of simulating indirect light transport. Recent neural methods have mainly relied on per-scene optimization, sometimes extended to handle changes in camera or geometry. Efforts toward cross-scene generalization have largely stayed in 2D screen space, such as neural denoising or G-buffer based GI prediction, which often suffer from view inconsistency and limited spatial understanding. We propose a generalizable 3D light transport embedding that approximates global illumination directly from 3D scene configurations, without using rasterized or path-traced cues. Each scene is represented as a point cloud with geometric and material features. A scalable transformer models global point-to-point interactions to encode these features into neural primitives. At render time, each query point retrieves nearby primitives via nearest-neighbor search and aggregates their latent features through cross-attention to predict the desired rendering quantity. We demonstrate results on diffuse global illumination prediction across diverse indoor scenes with varying layouts, geometry, and materials. The embedding trained for irradiance estimation can be quickly adapted to new rendering tasks with limited fine-tuning. We also present preliminary results for spatial-directional radiance field estimation for glossy materials and show how the normalized field can accelerate unbiased path guiding. This approach highlights a path toward integrating learned priors into rendering pipelines without explicit ray-traced illumination cues.
- Abstract(参考訳): グローバル照明(GI)は、現実的なレンダリングには不可欠であるが、間接的な光輸送をシミュレートする複雑さのため、計算に費用がかかる。
最近のニューラルメソッドは主にシーンごとの最適化に依存しており、時にはカメラや幾何学の変化に対処するために拡張されている。
クロスシーンの一般化への取り組みは、ニューラルデノイングやGバッファに基づくGI予測のような2次元のスクリーン空間に留まり、視界の不整合や空間的理解の制限に悩まされることが多い。
我々は,ラスタ化やパストレーシングを使わずに,グローバル照明を直接3次元シーン構成から近似する一般化可能な3次元光輸送埋め込みを提案する。
各シーンは幾何学的特徴と物質的特徴を持つ点雲として表現される。
スケーラブルトランスフォーマーは、グローバルなポイントツーポイントインタラクションをモデル化して、これらの機能をニューラルプリミティブにエンコードする。
レンダリング時に、各クエリポイントは最寄りの検索を通じて近隣のプリミティブを検索し、クロスアテンションを通じて潜伏した特徴を集約し、所望のレンダリング量を予測します。
様々なレイアウト, 形状, 材料を有する屋内の様々なシーンにまたがって, グローバル照明の拡散予測結果を示す。
照射推定のために訓練された埋め込みは、微調整を限定した新しいレンダリングタスクに迅速に適応できる。
また,光沢材料に対する空間方向放射場推定のための予備的な結果を示し,正規化場が非偏光路案内をいかに加速するかを示す。
このアプローチでは、明示的にレイトされた照明手段を使わずに、学習済みの事前情報をパイプラインに組み込む方法が強調されている。
関連論文リスト
- Geometry-Aware Global Feature Aggregation for Real-Time Indirect Illumination [16.592953713673506]
画面空間における拡散間接照明の予測を行う学習ベース推定器を提案する。
直接照明と組み合わせて、世界的に照射された高ダイナミックレンジの結果を合成する。
本手法は, 様々な色の照明や環境照明など, 複雑な照明の処理に優れる。
論文 参考訳(メタデータ) (2025-08-12T10:36:03Z) - Generalizable and Relightable Gaussian Splatting for Human Novel View Synthesis [49.67420486373202]
GRGSは、多彩な照明条件下での高忠実なヒューマン・ノベル・ビュー・シンセサイザーのための一般的な3Dガウスのフレームワークである。
我々は, 精密深度および表面の正常度を予測するために, 合成依存データに基づいて学習した照明対応幾何微細化(LGR)モジュールを提案する。
論文 参考訳(メタデータ) (2025-05-27T17:59:47Z) - 3D Gaussian Inverse Rendering with Approximated Global Illumination [15.899514468603627]
スクリーン空間線トレーシングによる3次元ガウシアンスプラッティングの効率的な大域的照明を可能にする新しい手法を提案する。
私たちの重要な洞察は、相当量の間接的な光を現在の視界のフラストタルから見える表面まで遡ることができるということです。
実験では,画面空間の近似により間接照明が可能となり,リアルタイムのレンダリングと編集が可能であることを示す。
論文 参考訳(メタデータ) (2025-04-02T05:02:25Z) - CVT-xRF: Contrastive In-Voxel Transformer for 3D Consistent Radiance Fields from Sparse Inputs [65.80187860906115]
スパース入力によるNeRFの性能向上のための新しい手法を提案する。
まず, サンプル線が, 3次元空間内の特定のボクセルと交差することを保証するために, ボクセルを用いた放射線サンプリング戦略を採用する。
次に、ボクセル内の追加点をランダムにサンプリングし、トランスフォーマーを適用して各線上の他の点の特性を推測し、ボリュームレンダリングに組み込む。
論文 参考訳(メタデータ) (2024-03-25T15:56:17Z) - GIR: 3D Gaussian Inverse Rendering for Relightable Scene Factorization [62.13932669494098]
本稿では,3次元ガウス表現を用いた3次元ガウス逆レンダリング(GIR)手法を提案する。
最短固有ベクトルを用いて各3次元ガウスの正規性を計算する。
我々は3次元ガウシアン毎に方向対応の放射光を格納し、多重バウンス光輸送を近似するために二次照明をアンタングルするために、効率的なボクセルベースの間接照明追跡方式を採用する。
論文 参考訳(メタデータ) (2023-12-08T16:05:15Z) - Relightable 3D Gaussians: Realistic Point Cloud Relighting with BRDF Decomposition and Ray Tracing [21.498078188364566]
フォトリアリスティックなリライトを実現するために,新しい微分可能な点ベースレンダリングフレームワークを提案する。
提案したフレームワークは、メッシュベースのグラフィクスパイプラインを、編集、トレース、リライトを可能にするポイントベースのパイプラインで革新する可能性を示している。
論文 参考訳(メタデータ) (2023-11-27T18:07:58Z) - Spatiotemporally Consistent HDR Indoor Lighting Estimation [66.26786775252592]
本研究では,屋内照明推定問題を解決するための物理動機付きディープラーニングフレームワークを提案する。
深度マップを用いた1枚のLDR画像から,任意の画像位置における空間的に一貫した照明を予測できる。
我々のフレームワークは、最先端の単一画像やビデオベースの手法と比較して、高画質で光リアリスティック照明予測を実現する。
論文 参考訳(メタデータ) (2023-05-07T20:36:29Z) - Extracting Triangular 3D Models, Materials, and Lighting From Images [59.33666140713829]
多視点画像観測による材料と照明の協調最適化手法を提案する。
従来のグラフィックスエンジンにデプロイ可能な,空間的に変化する材料と環境を備えたメッシュを活用します。
論文 参考訳(メタデータ) (2021-11-24T13:58:20Z) - Lighthouse: Predicting Lighting Volumes for Spatially-Coherent
Illumination [84.00096195633793]
入力狭帯域ステレオ画像ペアからシーン内の任意の3次元位置における入射照度を推定する深層学習ソリューションを提案する。
本モデルでは,入力ステレオペア近傍の視野ビューと,各シーン内の球状パノラマのみを監督する。
提案手法は,高精細な仮想物体を実画像に挿入して照らし出すのに十分な空間変化の連続した照明を予測できることを実証する。
論文 参考訳(メタデータ) (2020-03-18T17:46:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。