論文の概要: Active Exploration for Neural Global Illumination of Variable Scenes
- arxiv url: http://arxiv.org/abs/2203.08272v1
- Date: Tue, 15 Mar 2022 21:45:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-19 10:30:34.960523
- Title: Active Exploration for Neural Global Illumination of Variable Scenes
- Title(参考訳): 可変シーンのニューラルグローバル照明のためのアクティブ探索
- Authors: Stavros Diolatzis and Julien Philip and George Drettakis
- Abstract要約: マルコフ連鎖モンテカルロを用いた新しいアクティブ探索法を提案する。
我々は、新しいシーンインスタンスのレンダリングを学習するニューラルジェネレータにアプローチを適用する。
本手法は, 硬質光輸送路のインタラクティブなレンダリングを可能にする。
- 参考スコア(独自算出の注目度): 6.591705508311505
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural rendering algorithms introduce a fundamentally new approach for
photorealistic rendering, typically by learning a neural representation of
illumination on large numbers of ground truth images. When training for a given
variable scene, i.e., changing objects, materials, lights and viewpoint, the
space D of possible training data instances quickly becomes unmanageable as the
dimensions of variable parameters increase. We introduce a novel Active
Exploration method using Markov Chain Monte Carlo, which explores D, generating
samples (i.e., ground truth renderings) that best help training and interleaves
training and on-the-fly sample data generation. We introduce a self-tuning
sample reuse strategy to minimize the expensive step of rendering training
samples. We apply our approach on a neural generator that learns to render
novel scene instances given an explicit parameterization of the scene
configuration. Our results show that Active Exploration trains our network much
more efficiently than uniformly sampling, and together with our resolution
enhancement approach, achieves better quality than uniform sampling at
convergence. Our method allows interactive rendering of hard light transport
paths (e.g., complex caustics) -- that require very high samples counts to be
captured -- and provides dynamic scene navigation and manipulation, after
training for 5-18 hours depending on required quality and variations.
- Abstract(参考訳): ニューラルレンダリングアルゴリズムは、多くの基底真理画像の照明の神経表現を学習することで、フォトリアリスティックレンダリングの基本的な新しいアプローチを導入している。
与えられた可変シーン、すなわちオブジェクト、材料、ライト、ビューポイントのトレーニングでは、可変パラメータの次元が増加すると、可能なトレーニングデータインスタンスの空間dはすぐに管理不能になる。
本稿では,dを探索するマルコフ連鎖モンテカルロを用いた新しい能動的探索法を紹介し,トレーニングとオンザフライサンプルデータ生成の最も助けとなるサンプル(すなわち,グランド・トゥルート・レンダリング)を生成する。
トレーニングサンプルをレンダリングするコストを最小化するために,自己調整型サンプル再利用戦略を導入する。
我々は、シーン構成の明示的なパラメータ化を条件に、新しいシーンインスタンスのレンダリングを学習するニューラルジェネレータにアプローチを適用する。
その結果, 能動探査は一様サンプリングよりも効率的にネットワークを訓練でき, コンバージェンスにおける一様サンプリングよりも優れた品質が得られることがわかった。
本手法では,要求品質と変動に応じて5~18時間トレーニング後の動的シーンナビゲーションと操作が可能な,非常に高いサンプル数を必要とするハードライト輸送経路(複雑な因果関係など)のインタラクティブなレンダリングを可能にする。
関連論文リスト
- Gear-NeRF: Free-Viewpoint Rendering and Tracking with Motion-aware Spatio-Temporal Sampling [70.34875558830241]
本研究では,シーンをレンダリングする動的領域の階層化モデリングを可能にする意味的セマンティックギアに基づく,時間的(4D)埋め込みの学習方法を提案する。
同時に、ほぼ無償で、当社のトラッキングアプローチは、既存のNeRFベースのメソッドでまだ達成されていない機能である、自由視点(free-view of interest)を可能にします。
論文 参考訳(メタデータ) (2024-06-06T03:37:39Z) - Fast LiDAR Upsampling using Conditional Diffusion Models [1.3709133749179265]
既存の手法は拡散モデルを用いて高忠実度で洗練されたLiDARデータを生成する可能性を示している。
高速かつ高品質な3次元シーンポイント雲のスパース・ツー・デンスアップサンプリングのための条件拡散モデルに基づく新しいアプローチを提案する。
本手法では,条件付き塗装マスクを用いて訓練した拡散確率モデルを用いて,画像補完タスクの性能向上を図っている。
論文 参考訳(メタデータ) (2024-05-08T08:38:28Z) - Multi-Level Neural Scene Graphs for Dynamic Urban Environments [64.26401304233843]
本稿では, 動的都市環境に対する新しい分解可能放射場アプローチを提案する。
本稿では,数百の高速移動物体を含む数十のシーケンスから数千の画像にスケールする多段階ニューラルシーングラフ表現を提案する。
論文 参考訳(メタデータ) (2024-03-29T21:52:01Z) - DNS SLAM: Dense Neural Semantic-Informed SLAM [92.39687553022605]
DNS SLAMは、ハイブリッド表現を備えた新しいRGB-DセマンティックSLAMアプローチである。
本手法は画像に基づく特徴抽出と多視点幾何制約を統合し,外観の細部を改良する。
実験により, 合成データと実世界のデータ追跡の両面において, 最先端の性能が得られた。
論文 参考訳(メタデータ) (2023-11-30T21:34:44Z) - RL-based Stateful Neural Adaptive Sampling and Denoising for Real-Time
Path Tracing [1.534667887016089]
モンテカルロ経路追跡は、現実的な画像合成の強力な手法であるが、低いサンプル数での高レベルのノイズに悩まされている。
本稿では,サンプリング重要度ネットワーク,遅延空間エンコーダネットワーク,デノイザネットワークをエンドツーエンドでトレーニングするフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-05T12:39:27Z) - Fast Non-Rigid Radiance Fields from Monocularized Data [66.74229489512683]
本稿では,不規則に変形するシーンを360度内向きに合成する新しい手法を提案する。
提案手法のコアとなるのは, 空間情報と時間情報の処理を分離し, 訓練と推論を高速化する効率的な変形モジュール, 2) 高速ハッシュ符号化ニューラルラジオアンスフィールドとしての標準シーンを表す静的モジュールである。
どちらの場合も,本手法は従来の手法よりもはるかに高速で,7分未満で収束し,1K解像度でリアルタイムのフレームレートを実現するとともに,生成した新規なビューに対して高い視覚的精度が得られる。
論文 参考訳(メタデータ) (2022-12-02T18:51:10Z) - Neural-Sim: Learning to Generate Training Data with NeRF [31.81496344354997]
本稿では,ニューラルレージアンスフィールド(NeRF)を対象アプリケーションの損失関数を持つ閉ループに使用した,最初の完全微分可能な合成データパイプラインを提案する。
提案手法は,人的負担を伴わないオンデマンドでデータを生成し,目標タスクの精度を最大化する。
論文 参考訳(メタデータ) (2022-07-22T22:48:33Z) - AdaNeRF: Adaptive Sampling for Real-time Rendering of Neural Radiance
Fields [8.214695794896127]
新たなビュー合成は、スパース観測から直接神経放射場を学習することで、近年革新されている。
この新たなパラダイムによる画像のレンダリングは、ボリュームレンダリング方程式の正確な4分の1は、各光線に対して大量のサンプルを必要とするため、遅い。
本稿では,必要なサンプル点数を最大限に削減する方法を学習し,方向性を示す新しいデュアルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-07-21T05:59:13Z) - Neural Point Light Fields [80.98651520818785]
本稿では,スパース点雲上に存在する光の場を暗黙的に表現するニューラルポイント光場について紹介する。
これらの点光場は、光線方向と局所点特徴近傍の関数として機能し、光場条件付きトレーニング画像を高密度の被写体とパララックスを介さずに補間することができる。
論文 参考訳(メタデータ) (2021-12-02T18:20:10Z) - Photon-Driven Neural Path Guiding [102.12596782286607]
本稿では,スパース標本群から誘導される経路の高品質なサンプリング分布を再構築するニューラルパス誘導手法を提案する。
我々は、光源から追跡した光子をサンプリング密度再構成の入力として利用し、強力なグローバル照明の挑戦シーンに非常に効果的である。
提案手法は,従来の最先端の経路案内手法よりも,テストシーンのレンダリング結果が大幅に向上する。
論文 参考訳(メタデータ) (2020-10-05T04:54:01Z) - Stillleben: Realistic Scene Synthesis for Deep Learning in Robotics [33.30312206728974]
本稿では,シーン認識タスクの学習データを生成するための合成パイプラインについて述べる。
本手法は,物理シミュレーションを用いて,物体メッシュを物理的に現実的で密集したシーンに配置する。
私たちのパイプラインは、ディープニューラルネットワークのトレーニング中にオンラインで実行できます。
論文 参考訳(メタデータ) (2020-05-12T10:11:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。