論文の概要: Noise-based Enhancement for Foveated Rendering
- arxiv url: http://arxiv.org/abs/2204.04455v1
- Date: Sat, 9 Apr 2022 12:00:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-15 04:22:23.427264
- Title: Noise-based Enhancement for Foveated Rendering
- Title(参考訳): foveated renderingにおけるノイズベース強調
- Authors: Taimoor Tariq, Cara Tursun and Piotr Didyk
- Abstract要約: フェーベレートレンダリングと呼ばれる新しい画像合成技術は、この観測を利用して、周囲の合成画像の空間分解能を低下させる。
この特定の周波数範囲を効率的にプロシージャノイズに置き換えることが実証された。
我々の主な貢献は、拡張と校正に必要なノイズのパラメータを導出する知覚にインスパイアされた技法である。
- 参考スコア(独自算出の注目度): 10.124827218817439
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human visual sensitivity to spatial details declines towards the periphery.
Novel image synthesis techniques, so-called foveated rendering, exploit this
observation and reduce the spatial resolution of synthesized images for the
periphery, avoiding the synthesis of high-spatial-frequency details that are
costly to generate but not perceived by a viewer. However, contemporary
techniques do not make a clear distinction between the range of spatial
frequencies that must be reproduced and those that can be omitted. For a given
eccentricity, there is a range of frequencies that are detectable but not
resolvable. While the accurate reproduction of these frequencies is not
required, an observer can detect their absence if completely omitted. We use
this observation to improve the performance of existing foveated rendering
techniques. We demonstrate that this specific range of frequencies can be
efficiently replaced with procedural noise whose parameters are carefully tuned
to image content and human perception. Consequently, these frequencies do not
have to be synthesized during rendering, allowing more aggressive foveation,
and they can be replaced by noise generated in a less expensive post-processing
step, leading to improved performance of the rendering system. Our main
contribution is a perceptually-inspired technique for deriving the parameters
of the noise required for the enhancement and its calibration. The method
operates on rendering output and runs at rates exceeding 200FPS at 4K
resolution, making it suitable for integration with real-time foveated
rendering systems for VR and AR devices. We validate our results and compare
them to the existing contrast enhancement technique in user experiments.
- Abstract(参考訳): 空間的詳細に対する人間の視覚感度は周囲に向かって低下する。
フェーベレートレンダリングと呼ばれる新しい画像合成技術は、この観測を生かし、周囲の合成画像の空間分解能を低減し、視聴者が認識しない高空間周波数の細部を合成することを避ける。
しかし、現代技術は、再生しなければならない空間周波数の範囲と省略できる周波数の範囲を明確に区別するものではない。
所定の偏心性については、検出できるが解決できない周波数の範囲がある。
これらの周波数の正確な再現は必要ないが、観測者は完全に省略すればその欠如を検出することができる。
この観測結果を用いて、既存のフェーベレートレンダリング技術の性能を向上する。
画像内容や人間の知覚にパラメータを注意深く調整した手続き的雑音に、この特定の周波数範囲を効率的に置き換えることができることを示す。
その結果、これらの周波数はレンダリング中に合成される必要がなく、より積極的なフェーベーションが可能となり、より安価な後処理ステップで発生するノイズに置き換えられ、レンダリングシステムの性能が向上する。
我々の主な貢献は、拡張と校正に必要なノイズのパラメータを導出する知覚にインスパイアされた技法である。
この方法は、出力をレンダリングし、4K解像度で200FPSを超える速度で動作し、VRやARデバイス用のリアルタイムフェーベレートレンダリングシステムとの統合に適している。
その結果を検証し,ユーザ実験で既存のコントラスト強調手法と比較した。
関連論文リスト
- FreqINR: Frequency Consistency for Implicit Neural Representation with Adaptive DCT Frequency Loss [5.349799154834945]
本稿では、新しい任意スケール超解像法であるFreqINR(FreqINR)について述べる。
トレーニングでは,適応離散コサイン変換周波数損失(adaptive Discrete Cosine Transform Frequency Loss,ADFL)を用いて,HR画像と地絡画像の周波数ギャップを最小化する。
推論の際には,低分解能(LR)画像と地軸画像のスペクトルコヒーレンスを維持するために受容場を拡張した。
論文 参考訳(メタデータ) (2024-08-25T03:53:17Z) - WaveDH: Wavelet Sub-bands Guided ConvNet for Efficient Image Dehazing [20.094839751816806]
画像デハージングにおけるこの効率ギャップに対処するために設計された,新規でコンパクトなConvNetであるWaveDHを紹介する。
我々のWaveDHはウェーブレットサブバンドを利用して、誘導型アップ・アンド・ダウンサンプリングと周波数認識機能の改良を行う。
提案手法であるWaveDHは,計算コストを大幅に削減した画像デハージングベンチマークにおいて,最先端の多くの手法より優れている。
論文 参考訳(メタデータ) (2024-04-02T02:52:05Z) - Denoising Monte Carlo Renders with Diffusion Models [5.228564799458042]
物理的にベースとしたレンダリングはモンテカルロノイズを含み、ピクセル当たりの光の数が減少するにつれてばらつきが増す。
このノイズは、良い現代人にはゼロ平均だが、重い尾を持つことがある。
拡散モデルが低忠実度レンダリングをうまく認知できることを実証する。
論文 参考訳(メタデータ) (2024-03-30T23:19:40Z) - Reconstruct-and-Generate Diffusion Model for Detail-Preserving Image
Denoising [16.43285056788183]
再構成・生成拡散モデル(Reconstruct-and-Generate Diffusion Model, RnG)と呼ばれる新しい手法を提案する。
提案手法は, 再構成型復調ネットワークを利用して, 基礎となるクリーン信号の大半を復元する。
拡散アルゴリズムを用いて残留する高周波の詳細を生成し、視覚的品質を向上させる。
論文 参考訳(メタデータ) (2023-09-19T16:01:20Z) - Spectral Enhanced Rectangle Transformer for Hyperspectral Image
Denoising [64.11157141177208]
ハイパースペクトル画像の空間的およびスペクトル的相関をモデル化するスペクトル拡張矩形変換器を提案する。
前者に対しては、長方形自己アテンションを水平および垂直に利用し、空間領域における非局所的類似性を捉える。
後者のために,空間スペクトル立方体の大域的低ランク特性を抽出し,雑音を抑制するスペクトル拡張モジュールを設計する。
論文 参考訳(メタデータ) (2023-04-03T09:42:13Z) - Harnessing Low-Frequency Neural Fields for Few-Shot View Synthesis [82.31272171857623]
オーバフィッティングから高周波数のニューラルフィールドを規則化するために、低周波ニューラルフィールドを利用する。
数発の入力に過度に適合しないよう、周波数を調整するための簡単なyet- Effective戦略を提案する。
論文 参考訳(メタデータ) (2023-03-15T05:15:21Z) - Representing Noisy Image Without Denoising [91.73819173191076]
ラドン空間におけるフラクショナルオーダーモーメント(FMR)は、ノイズの多い画像から直接ロバストな表現を引き出すように設計されている。
従来の整数順序法とは異なり、我々の研究は特別な場合のような古典的手法を取り入れたより汎用的な設計である。
論文 参考訳(メタデータ) (2023-01-18T10:13:29Z) - SAR Despeckling using a Denoising Diffusion Probabilistic Model [52.25981472415249]
スペックルの存在は画像品質を劣化させ、SAR画像理解アプリケーションの性能に悪影響を及ぼす。
本稿では,SAR脱種のための拡散確率モデルであるSAR-DDPMを紹介する。
提案手法は, 最先端の切り離し法と比較して, 定量化と定性化の両面で有意な改善を実現している。
論文 参考訳(メタデータ) (2022-06-09T14:00:26Z) - Exploring Inter-frequency Guidance of Image for Lightweight Gaussian
Denoising [1.52292571922932]
本稿では,周波数帯域を低域から高域に漸進的に洗練するために,IGNetと呼ばれる新しいネットワークアーキテクチャを提案する。
この設計では、より周波数間先行と情報を利用するため、モデルサイズは軽量化でき、競争結果も維持できる。
論文 参考訳(メタデータ) (2021-12-22T10:35:53Z) - Designing a Practical Degradation Model for Deep Blind Image
Super-Resolution [134.9023380383406]
単一画像スーパーレゾリューション (sisr) 法は, 推定劣化モデルが実画像から逸脱した場合はうまく動作しない。
本稿では, ランダムにシャッフルされたブラー, ダウンサンプリング, ノイズ劣化からなる, より複雑で実用的な劣化モデルを提案する。
論文 参考訳(メタデータ) (2021-03-25T17:40:53Z) - Focal Frequency Loss for Image Reconstruction and Synthesis [125.7135706352493]
周波数領域の狭さが画像再構成と合成品質をさらに改善できることを示す。
本稿では,合成が難しい周波数成分に適応的に焦点を合わせることのできる,新しい焦点周波数損失を提案する。
論文 参考訳(メタデータ) (2020-12-23T17:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。