論文の概要: Denoising Monte Carlo Renders with Diffusion Models
- arxiv url: http://arxiv.org/abs/2404.00491v2
- Date: Mon, 26 Aug 2024 19:39:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-28 19:29:21.825222
- Title: Denoising Monte Carlo Renders with Diffusion Models
- Title(参考訳): 拡散モデルによるモンテカルロレンダのノイズ化
- Authors: Vaibhav Vavilala, Rahul Vasanth, David Forsyth,
- Abstract要約: 物理的にベースとしたレンダリングはモンテカルロノイズを含み、ピクセル当たりの光の数が減少するにつれてばらつきが増す。
このノイズは、良い現代人にはゼロ平均だが、重い尾を持つことがある。
拡散モデルが低忠実度レンダリングをうまく認知できることを実証する。
- 参考スコア(独自算出の注目度): 5.228564799458042
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Physically-based renderings contain Monte-Carlo noise, with variance that increases as the number of rays per pixel decreases. This noise, while zero-mean for good modern renderers, can have heavy tails (most notably, for scenes containing specular or refractive objects). Learned methods for restoring low fidelity renders are highly developed, because suppressing render noise means one can save compute and use fast renders with few rays per pixel. We demonstrate that a diffusion model can denoise low fidelity renders successfully. Furthermore, our method can be conditioned on a variety of natural render information, and this conditioning helps performance. Quantitative experiments show that our method is competitive with SOTA across a range of sampling rates. Qualitative examination of the reconstructions suggests that the image prior applied by a diffusion method strongly favors reconstructions that are like real images -- so have straight shadow boundaries, curved specularities and no fireflies.
- Abstract(参考訳): 物理的にベースとしたレンダリングはモンテカルロノイズを含み、ピクセル当たりの光の数が減少するにつれてばらつきが増す。
このノイズは、良いモダンなレンダラーにはゼロ平均でありながら、重い尾(特にスペックや屈折性のある物体を含むシーン)を持つことができる。
低忠実度レンダリングを復元するための学習手法は、レンダリングノイズを抑えることは、計算を節約し、1ピクセルあたりの光量が少ない高速レンダリングを使用することを意味するため、高度に開発されている。
拡散モデルが低忠実度レンダリングをうまく認知できることを実証する。
さらに,本手法は様々な自然なレンダリング情報に対して条件付けが可能であり,この条件付けにより性能が向上する。
定量的実験により,本手法はサンプリングレートの範囲でSOTAと競合することが示された。
再現の質的な検証は、拡散法で事前に適用された画像は、実際の画像と同様の復元を強く好んでいることを示唆している。
関連論文リスト
- ReNoise: Real Image Inversion Through Iterative Noising [62.96073631599749]
本研究では,操作数を増やすことなく,高い品質と操作率の逆転法を導入し,再現精度を向上する。
我々は,近年の高速化拡散モデルを含む様々なサンプリングアルゴリズムとモデルを用いて,Renoise手法の性能を評価する。
論文 参考訳(メタデータ) (2024-03-21T17:52:08Z) - ExposureDiffusion: Learning to Expose for Low-light Image Enhancement [87.08496758469835]
この研究は、拡散モデルと物理ベースの露光モデルとをシームレスに統合することで、この問題に対処する。
提案手法は,バニラ拡散モデルと比較して性能が大幅に向上し,推論時間を短縮する。
提案するフレームワークは、実際のペア付きデータセット、SOTAノイズモデル、および異なるバックボーンネットワークの両方で動作する。
論文 参考訳(メタデータ) (2023-07-15T04:48:35Z) - Low-Light Image Enhancement with Wavelet-based Diffusion Models [50.632343822790006]
拡散モデルは画像復元作業において有望な結果を得たが、時間を要する、過剰な計算資源消費、不安定な復元に悩まされている。
本稿では,DiffLLと呼ばれる高能率かつ高能率な拡散型低光画像強調手法を提案する。
論文 参考訳(メタデータ) (2023-06-01T03:08:28Z) - TensoIR: Tensorial Inverse Rendering [51.57268311847087]
テンソルIRはテンソル分解とニューラルフィールドに基づく新しい逆レンダリング手法である。
TensoRFは、放射場モデリングのための最先端のアプローチである。
論文 参考訳(メタデータ) (2023-04-24T21:39:13Z) - Shape, Light & Material Decomposition from Images using Monte Carlo
Rendering and Denoising [0.7366405857677225]
レイトレーシングとモンテカルロの統合を取り入れたより現実的なシェーディングモデルが, 形状, 材料, 照明の分解を著しく改善することを示す。
我々は、新しい逆レンダリングパイプラインに複数の重要サンプリングとデノイングを組み込んだ。
これは収束を大幅に改善し、低いサンプル数での勾配に基づく最適化を可能にする。
論文 参考訳(メタデータ) (2022-06-07T15:19:18Z) - InfoNeRF: Ray Entropy Minimization for Few-Shot Neural Volume Rendering [55.70938412352287]
ニューラルな暗黙表現に基づく数ショットの新規ビュー合成のための情報理論正規化手法を提案する。
提案手法は,不十分な視点で発生する潜在的な復元の不整合を最小化する。
複数の標準ベンチマークにおいて,既存のニューラルビュー合成手法と比較して一貫した性能向上を実現している。
論文 参考訳(メタデータ) (2021-12-31T11:56:01Z) - Deblurring via Stochastic Refinement [85.42730934561101]
条件付き拡散モデルに基づくブラインドデブロアリングのための代替フレームワークを提案する。
提案手法は,PSNRなどの歪み指標の点で競合する。
論文 参考訳(メタデータ) (2021-12-05T04:36:09Z) - Unsupervised Image Restoration Using Partially Linear Denoisers [2.3061446605472558]
本稿では, 非線形画像依存写像, 線形雑音依存項, 残差項の和として分解可能な構造付きデノイザのクラスを提案する。
雑音が平均値と既知分散度をゼロとする条件下では,ノイズのみを学習できることを示す。
本手法は, 学習にクリーンな画像を必要としない, 教師なし, 自己監督型ディープ・デノゲーション・モデルよりも優れている。
論文 参考訳(メタデータ) (2020-08-14T02:13:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。