論文の概要: TS-Diff: Two-Stage Diffusion Model for Low-Light RAW Image Enhancement
- arxiv url: http://arxiv.org/abs/2505.04281v1
- Date: Wed, 07 May 2025 09:35:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-08 19:07:36.031882
- Title: TS-Diff: Two-Stage Diffusion Model for Low-Light RAW Image Enhancement
- Title(参考訳): TS-Diff:低照度RAW画像強調のための2段階拡散モデル
- Authors: Yi Li, Zhiyuan Zhang, Jiangnan Xia, Jianghan Cheng, Qilong Wu, Junwei Li, Yibin Tian, Hui Kong,
- Abstract要約: 本稿では,超低照度RAW画像の高精細化を目的とした2段階拡散モデル(TS-Diff)を提案する。
事前学習段階では、TS-Diffはノイズ空間に基づいて複数の仮想カメラを構築し、ノイズの多い画像を合成する。
CFIモジュールは、様々な仮想カメラで一般化可能な機能を学習できるように設計されている。
- 参考スコア(独自算出の注目度): 24.82475420931148
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a novel Two-Stage Diffusion Model (TS-Diff) for enhancing extremely low-light RAW images. In the pre-training stage, TS-Diff synthesizes noisy images by constructing multiple virtual cameras based on a noise space. Camera Feature Integration (CFI) modules are then designed to enable the model to learn generalizable features across diverse virtual cameras. During the aligning stage, CFIs are averaged to create a target-specific CFI$^T$, which is fine-tuned using a small amount of real RAW data to adapt to the noise characteristics of specific cameras. A structural reparameterization technique further simplifies CFI$^T$ for efficient deployment. To address color shifts during the diffusion process, a color corrector is introduced to ensure color consistency by dynamically adjusting global color distributions. Additionally, a novel dataset, QID, is constructed, featuring quantifiable illumination levels and a wide dynamic range, providing a comprehensive benchmark for training and evaluation under extreme low-light conditions. Experimental results demonstrate that TS-Diff achieves state-of-the-art performance on multiple datasets, including QID, SID, and ELD, excelling in denoising, generalization, and color consistency across various cameras and illumination levels. These findings highlight the robustness and versatility of TS-Diff, making it a practical solution for low-light imaging applications. Source codes and models are available at https://github.com/CircccleK/TS-Diff
- Abstract(参考訳): 本稿では,超低照度RAW画像の高精細化を目的とした2段階拡散モデル(TS-Diff)を提案する。
事前学習段階では、TS-Diffはノイズ空間に基づいて複数の仮想カメラを構築し、ノイズの多い画像を合成する。
カメラ機能統合(CFI)モジュールは、モデルが様々な仮想カメラで一般化可能な機能を学習できるように設計される。
調整段階において、CFIは目標固有のCFI$^T$を作成するために平均化され、これは特定のカメラのノイズ特性に適応するために、少量の実RAWデータを用いて微調整される。
さらに、CFI$^T$を効率的な展開のために単純化する構造的パラメータ化手法が提案されている。
拡散過程における色変化に対処するため、グローバルな色分布を動的に調整することで色整合性を確保するために色補正器が導入された。
さらに、定量化可能な照明レベルと広いダイナミックレンジを備えた新しいデータセットQIDが構築され、極低照度条件下でのトレーニングと評価のための総合的なベンチマークを提供する。
実験により、TS-Diffは、QID、SID、EDDを含む複数のデータセットで最先端のパフォーマンスを達成し、様々なカメラと照明レベルの色調に優れることを示した。
これらの知見は、TS-Diffの堅牢性と汎用性を強調し、低照度イメージングアプリケーションのための実用的な解決策である。
ソースコードとモデルはhttps://github.com/CircccleK/TS-Diffで公開されている。
関連論文リスト
- LDM-ISP: Enhancing Neural ISP for Low Light with Latent Diffusion Models [54.93010869546011]
本稿では,事前学習した潜伏拡散モデルを用いて,超低照度画像の高精細化のためのニューラルISPを実現することを提案する。
具体的には、RAWドメイン上で動作するために事前訓練された潜在拡散モデルを調整するために、軽量なテーミングモジュールのセットをトレーニングする。
遅延拡散モデルにおけるUNet復調と復号化の異なる役割を観察し、低照度画像強調タスクを遅延空間低周波コンテンツ生成と復号位相高周波ディテール保守に分解するきっかけとなる。
論文 参考訳(メタデータ) (2023-12-02T04:31:51Z) - ToddlerDiffusion: Interactive Structured Image Generation with Cascaded Schrödinger Bridge [63.00793292863]
ToddlerDiffusionは、RGB画像生成の複雑なタスクを、よりシンプルで解釈可能なステージに分解するための新しいアプローチである。
提案手法はToddler Diffusionと呼ばれ,それぞれが中間表現を生成する責務を担っている。
ToddlerDiffusionは、常に最先端のメソッドより優れています。
論文 参考訳(メタデータ) (2023-11-24T15:20:01Z) - Enhancing Low-light Light Field Images with A Deep Compensation Unfolding Network [52.77569396659629]
本稿では,低光環境下で撮像した光場(LF)画像の復元に,DCUNet(Deep compensation network openfolding)を提案する。
このフレームワークは、中間拡張結果を使用して照明マップを推定し、展開プロセスで新しい拡張結果を生成する。
本稿では,LF画像の特徴を適切に活用するために,擬似明示的特徴相互作用モジュールを提案する。
論文 参考訳(メタデータ) (2023-08-10T07:53:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。