論文の概要: Make Explicit Calibration Implicit: Calibrate Denoiser Instead of the
Noise Model
- arxiv url: http://arxiv.org/abs/2308.03448v2
- Date: Mon, 25 Dec 2023 07:26:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-28 01:47:18.099412
- Title: Make Explicit Calibration Implicit: Calibrate Denoiser Instead of the
Noise Model
- Title(参考訳): 明示的校正を示唆する:騒音モデルの代わりに校正法
- Authors: Xin Jin, Jia-Wen Xiao, Ling-Hao Han, Chunle Guo, Xialei Liu, Chongyi
Li, Ming-Ming Cheng
- Abstract要約: デジタルゲインやカメラセンサーによらず有効であるLED(Lighting Every Darkness)を導入する。
LEDは明示的なノイズモデルのキャリブレーションの必要性を排除し、高速な展開と最小限のデータを必要とする暗黙の微調整プロセスを活用する。
LEDは、センサー工学の利点を生かしながら、ディープラーニングの進歩にもっと注力することを可能にする。
- 参考スコア(独自算出の注目度): 83.9497193551511
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Explicit calibration-based methods have dominated RAW image denoising under
extremely low-light environments. However, these methods are impeded by several
critical limitations: a) the explicit calibration process is both labor- and
time-intensive, b) challenge exists in transferring denoisers across different
camera models, and c) the disparity between synthetic and real noise is
exacerbated by digital gain. To address these issues, we introduce a
groundbreaking pipeline named Lighting Every Darkness (LED), which is effective
regardless of the digital gain or the camera sensor. LED eliminates the need
for explicit noise model calibration, instead utilizing an implicit fine-tuning
process that allows quick deployment and requires minimal data. Structural
modifications are also included to reduce the discrepancy between synthetic and
real noise without extra computational demands. Our method surpasses existing
methods in various camera models, including new ones not in public datasets,
with just a few pairs per digital gain and only 0.5% of the typical iterations.
Furthermore, LED also allows researchers to focus more on deep learning
advancements while still utilizing sensor engineering benefits. Code and
related materials can be found in https://srameo.github.io/projects/led-iccv23/ .
- Abstract(参考訳): 超低照度環境下でRAW画像が顕著な校正法で支配されている。
しかし、これらの方法にはいくつかの限界がある。
a) 明示的な校正プロセスは、労働と時間集約の両方である。
b) 異なるカメラモデル間でデノイザを転送する際の課題
c) 合成音と実音との差は、デジタル利得によって悪化する。
これらの問題に対処するために、デジタルゲインやカメラセンサーに関係なく有効であるLED(Lighting Every Darkness)という画期的なパイプラインを導入する。
LEDは明示的なノイズモデルのキャリブレーションの必要性を排除し、高速な展開と最小限のデータを必要とする暗黙の微調整プロセスを活用する。
構造的な変更は、余分な計算要求を伴わずに合成ノイズと実雑音の差を低減するためにも含まれる。
提案手法は,デジタルゲイン当たり数対,典型的なイテレーションの0.5%に過ぎず,公開データセットにない新しいものを含む,さまざまなカメラモデルにおける既存手法を上回る。
さらにLEDは、センサー工学の利点を生かしながら、ディープラーニングの進歩に集中することができる。
コードと関連資料はhttps://srameo.github.io/projects/led-iccv23/にある。
関連論文リスト
- Joint Demosaicing and Denoising with Double Deep Image Priors [5.3686304202729]
現代のデジタルカメラの処理パイプラインにおいて、RAW画像の復号化と復号化は重要なステップである。
最近のディープ・ニューラル・ネットワークベースのアプローチは、このような課題を緩和するために、共同の解答と妄想の有効性を示している。
本稿では,JDD-DoubleDIPと呼ばれる,RAW画像を直接操作し,トレーニングデータを必要とせずに,新たな共同復調・復調手法を提案する。
論文 参考訳(メタデータ) (2023-09-18T01:53:10Z) - Towards General Low-Light Raw Noise Synthesis and Modeling [37.87312467017369]
生成モデルにより信号非依存ノイズを合成する新しい視点を導入する。
具体的には、信号に依存しないノイズと信号に依存しないノイズを物理と学習に基づく方法で合成する。
このようにして、本手法は一般的なモデルとみなすことができ、つまり、異なるISOレベルの異なるノイズ特性を同時に学習することができる。
論文 参考訳(メタデータ) (2023-07-31T09:10:10Z) - Realistic Noise Synthesis with Diffusion Models [68.48859665320828]
Deep Image Denoisingモデルは、しばしば高品質なパフォーマンスのために大量のトレーニングデータに依存します。
本稿では,拡散モデル,すなわちRealistic Noise Synthesize Diffusor(RNSD)を用いて現実的な雑音を合成する新しい手法を提案する。
RNSDは、より現実的なノイズや空間的相関を複数の周波数で生成できるような、ガイド付きマルチスケールコンテンツを組み込むことができる。
論文 参考訳(メタデータ) (2023-05-23T12:56:01Z) - Modeling sRGB Camera Noise with Normalizing Flows [35.29066692454865]
各種ISOレベルにおけるsRGB画像の複雑な雑音分布を学習できる正規化フローに基づく新しいsRGB領域雑音モデルを提案する。
我々の正規化フローベースアプローチは、ノイズモデリングや合成タスクにおいて、他のモデルよりも優れています。
論文 参考訳(メタデータ) (2022-06-02T00:56:34Z) - Rethinking Noise Synthesis and Modeling in Raw Denoising [75.55136662685341]
センサの実際の雑音を直接サンプリングすることで、ノイズを合成する新しい視点を導入する。
それは本質的に、異なるカメラセンサーに対して正確な生画像ノイズを発生させる。
論文 参考訳(メタデータ) (2021-10-10T10:45:24Z) - Physics-based Noise Modeling for Extreme Low-light Photography [63.65570751728917]
CMOS光センサの撮像パイプラインにおけるノイズ統計について検討する。
実雑音構造を正確に特徴付けることのできる包括的ノイズモデルを定式化する。
我々のノイズモデルは、学習に基づく低照度復調アルゴリズムのためのリアルなトレーニングデータを合成するのに利用できる。
論文 参考訳(メタデータ) (2021-08-04T16:36:29Z) - CERL: A Unified Optimization Framework for Light Enhancement with
Realistic Noise [81.47026986488638]
現実世界で撮影された低照度画像は、センサーノイズによって必然的に破損する。
既存の光強調法は、拡張中の現実世界のノイズの重要な影響を見落としているか、ノイズ除去を別の前処理または後処理のステップとして扱うかのどちらかである。
実世界の低照度雑音画像(CERL)のコーディネート・エンハンスメントを行い,光強調部と雑音抑制部を一体化・物理接地したフレームワークにシームレスに統合する。
論文 参考訳(メタデータ) (2021-08-01T15:31:15Z) - Designing a Practical Degradation Model for Deep Blind Image
Super-Resolution [134.9023380383406]
単一画像スーパーレゾリューション (sisr) 法は, 推定劣化モデルが実画像から逸脱した場合はうまく動作しない。
本稿では, ランダムにシャッフルされたブラー, ダウンサンプリング, ノイズ劣化からなる, より複雑で実用的な劣化モデルを提案する。
論文 参考訳(メタデータ) (2021-03-25T17:40:53Z) - Learning Model-Blind Temporal Denoisers without Ground Truths [46.778450578529814]
合成データで訓練されたデノイザーは、未知のノイズの多様性に対処できないことが多い。
従来の画像ベース手法は、ビデオデノイザに直接適用した場合、ノイズが過度に収まる。
本稿では,これらの課題に対処する上で有効な,ビデオ・デノベーション・ネットワークの汎用フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-07T07:19:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。