論文の概要: Photon Field Networks for Dynamic Real-Time Volumetric Global
Illumination
- arxiv url: http://arxiv.org/abs/2304.07338v1
- Date: Fri, 14 Apr 2023 18:17:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-18 19:29:36.007704
- Title: Photon Field Networks for Dynamic Real-Time Volumetric Global
Illumination
- Title(参考訳): 動的実時間体積大域照明のための光子場ネットワーク
- Authors: David Bauer, Qi Wu, Kwan-Liu Ma
- Abstract要約: 我々は、間接的体積的大域照明の位相関数対応多光ニューラル表現を開発する。
我々は,視覚的品質,ノイズ,推論,レンダリング速度など,手法の性能の詳細な評価を行う。
結果は、レイマーチング、パストレース、光子マッピングと比較される。
- 参考スコア(独自算出の注目度): 33.489890950757975
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Volume data is commonly found in many scientific disciplines, like medicine,
physics, and biology. Experts rely on robust scientific visualization
techniques to extract valuable insights from the data. Recent years have shown
path tracing to be the preferred approach for volumetric rendering, given its
high levels of realism. However, real-time volumetric path tracing often
suffers from stochastic noise and long convergence times, limiting interactive
exploration. In this paper, we present a novel method to enable real-time
global illumination for volume data visualization. We develop Photon Field
Networks -- a phase-function-aware, multi-light neural representation of
indirect volumetric global illumination. The fields are trained on multi-phase
photon caches that we compute a priori. Training can be done within seconds,
after which the fields can be used in various rendering tasks. To showcase
their potential, we develop a custom neural path tracer, with which our photon
fields achieve interactive framerates even on large datasets. We conduct
in-depth evaluations of the method's performance, including visual quality,
stochastic noise, inference and rendering speeds, and accuracy regarding
illumination and phase function awareness. Results are compared to ray
marching, path tracing and photon mapping. Our findings show that Photon Field
Networks can faithfully represent indirect global illumination across the phase
spectrum while exhibiting less stochastic noise and rendering at a
significantly faster rate than traditional methods.
- Abstract(参考訳): ボリュームデータは医学、物理学、生物学など多くの科学分野で一般的に見られる。
専門家は、データから貴重な洞察を抽出するために、堅牢な科学的可視化技術に頼る。
近年、高レベルのリアリズムを考えると、パストレースがボリュームレンダリングの好ましいアプローチであることが示されている。
しかし、リアルタイムボリュームパストレースはしばしば確率的ノイズと長い収束時間に悩まされ、対話的な探索が制限される。
本稿では,ボリュームデータ可視化のためのリアルタイムグローバル照明を実現する新しい手法を提案する。
我々は、光子場ネットワーク -- 間接体積大域照明の位相関数認識、マルチライトニューラル表現 -- を開発した。
フィールドは、プリオリを計算する多相フォトンキャッシュに基づいて訓練される。
トレーニングは数秒で行え、その後、様々なレンダリングタスクでフィールドを使うことができる。
その可能性を示すために,光子フィールドが大規模データセットでもインタラクティブなフレームレートを実現する,独自のニューラルパストレーサを開発した。
我々は,視覚的品質,確率的雑音,推論と描画速度,照明と位相関数の認識に関する精度など,手法の性能の詳細な評価を行う。
結果はレイマーチング、パストレーシング、フォトンマッピングと比較される。
この結果から,光電場ネットワークは位相スペクトルの間接的大域照明を忠実に表現でき,確率的雑音やレンダリングは従来の手法よりもはるかに高速であることがわかった。
関連論文リスト
- Neural Radiance Transfer Fields for Relightable Novel-view Synthesis
with Global Illumination [63.992213016011235]
本稿では,ニューラル計算された放射光伝達関数を学習し,新しい視点下でのシーンリライティング手法を提案する。
本手法は,1つの未知の照明条件下で,シーンの実際の画像に対してのみ監視することができる。
その結果, シーンパラメータのアンタングルの復元は, 現状よりも有意に向上していることがわかった。
論文 参考訳(メタデータ) (2022-07-27T16:07:48Z) - Fast Dynamic Radiance Fields with Time-Aware Neural Voxels [106.69049089979433]
タイムアウェアなボクセル特徴を持つシーンを表現し,TiNeuVoxという名前のラジアンスフィールドフレームワークを提案する。
我々のフレームワークは、高いレンダリング品質を維持しながら、動的ラディアンスフィールドの最適化を加速する。
TiNeuVoxは8分と8MBのストレージでトレーニングを完了しています。
論文 参考訳(メタデータ) (2022-05-30T17:47:31Z) - Unsupervised Discovery and Composition of Object Light Fields [57.198174741004095]
オブジェクト中心の合成シーン表現において、オブジェクトを光場として表現することを提案する。
オブジェクト中心の光場から大域的な光場を再構成できる新しい光場合成モジュールを提案する。
論文 参考訳(メタデータ) (2022-05-08T17:50:35Z) - Active Exploration for Neural Global Illumination of Variable Scenes [6.591705508311505]
マルコフ連鎖モンテカルロを用いた新しいアクティブ探索法を提案する。
我々は、新しいシーンインスタンスのレンダリングを学習するニューラルジェネレータにアプローチを適用する。
本手法は, 硬質光輸送路のインタラクティブなレンダリングを可能にする。
論文 参考訳(メタデータ) (2022-03-15T21:45:51Z) - Learning Neural Transmittance for Efficient Rendering of Reflectance
Fields [43.24427791156121]
本稿では,ニューラルリフレクタンスフィールドのレンダリングを高速化する事前計算型ニューラルトランスミッション関数に基づく新しい手法を提案する。
実シーンと合成シーンの結果は、最小の精度で環境マップ下でのレンダリングにおいて、ほぼ2桁のスピードアップを示す。
論文 参考訳(メタデータ) (2021-10-25T21:12:25Z) - MVSNeRF: Fast Generalizable Radiance Field Reconstruction from
Multi-View Stereo [52.329580781898116]
MVSNeRFは、ビュー合成のための神経放射場を効率的に再構築できる新しいニューラルレンダリング手法である。
高密度にキャプチャされた画像に対して,シーン毎の最適化を考慮に入れたニューラルネットワークの先行研究とは異なり,高速ネットワーク推論により,近傍の3つの入力ビューのみからラミアンスフィールドを再構成できる汎用ディープニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-03-29T13:15:23Z) - Light Stage Super-Resolution: Continuous High-Frequency Relighting [58.09243542908402]
光ステージから採取した人間の顔の「超解像」を学習ベースで解析する手法を提案する。
本手法では,ステージ内の隣接する照明に対応する撮像画像を集約し,ニューラルネットワークを用いて顔の描画を合成する。
我々の学習モデルは、リアルな影と特異なハイライトを示す任意の光方向のレンダリングを生成することができる。
論文 参考訳(メタデータ) (2020-10-17T23:40:43Z) - Back to Event Basics: Self-Supervised Learning of Image Reconstruction
for Event Cameras via Photometric Constancy [0.0]
イベントカメラは、非同期な方法で、低レイテンシで高時間分解能の輝度インクリメントをサンプリングする新しい視覚センサである。
本稿では,光学的フロー推定のための新しい軽量ニューラルネットワークを提案する。
複数のデータセットにまたがる結果から、提案した自己教師型アプローチのパフォーマンスは最先端技術と一致していることがわかる。
論文 参考訳(メタデータ) (2020-09-17T13:30:05Z) - PX-NET: Simple and Efficient Pixel-Wise Training of Photometric Stereo
Networks [26.958763133729846]
光を反射する物体の正確な3D再構成は、コンピュータビジョンにおいて非常に難しい課題だ。
本稿では,グローバルにレンダリングされた画像のトレーニングデータ(観測マップ)を,画素単位の独立なデータに置き換えることで,正規予測のための新たな画素単位のトレーニング手順を提案する。
我々のネットワークであるPX-NETは、合成データセット上の他のピクセルワイズ手法と比較して最先端の性能を実現している。
論文 参考訳(メタデータ) (2020-08-11T18:03:13Z) - Crowdsampling the Plenoptic Function [56.10020793913216]
このようなデータから時間変動照明下での新しいビュー合成手法を提案する。
本稿では,新しいDeepMPI表現について紹介する。
本手法は従来のMPI法と同等のパララックスとビュー依存効果を合成し, 反射率の変化と光の時間変化を同時に補間する。
論文 参考訳(メタデータ) (2020-07-30T02:52:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。