論文の概要: When Color-Space Decoupling Meets Diffusion for Adverse-Weather Image Restoration
- arxiv url: http://arxiv.org/abs/2509.17024v1
- Date: Sun, 21 Sep 2025 10:39:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.077237
- Title: When Color-Space Decoupling Meets Diffusion for Adverse-Weather Image Restoration
- Title(参考訳): 逆ウェザー画像復元のためのカラー空間デカップリング
- Authors: Wenxuan Fang, Jili Fan, Chao Wang, Xiantao Hu, Jiangwei Weng, Ying Tai, Jian Yang, Jun Li,
- Abstract要約: 我々はLumina-Chroma Decomposition Network(LCDN)とLumina-Guided Diffusion Model(LGDM)を提示する。
LCDNは、YCbCr色空間で劣化した画像を処理し、分解関連輝度と劣化不変色成分を別々に処理する。
LGDMにはTextitDynamic Time Step Lossが組み込まれており、デノナイジングネットワークを最適化し、画像内の低周波と高周波の両方の特徴のバランスの取れた回復を保証する。
- 参考スコア(独自算出の注目度): 31.345996524182127
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adverse Weather Image Restoration (AWIR) is a highly challenging task due to the unpredictable and dynamic nature of weather-related degradations. Traditional task-specific methods often fail to generalize to unseen or complex degradation types, while recent prompt-learning approaches depend heavily on the degradation estimation capabilities of vision-language models, resulting in inconsistent restorations. In this paper, we propose \textbf{LCDiff}, a novel framework comprising two key components: \textit{Lumina-Chroma Decomposition Network} (LCDN) and \textit{Lumina-Guided Diffusion Model} (LGDM). LCDN processes degraded images in the YCbCr color space, separately handling degradation-related luminance and degradation-invariant chrominance components. This decomposition effectively mitigates weather-induced degradation while preserving color fidelity. To further enhance restoration quality, LGDM leverages degradation-related luminance information as a guiding condition, eliminating the need for explicit degradation prompts. Additionally, LGDM incorporates a \textit{Dynamic Time Step Loss} to optimize the denoising network, ensuring a balanced recovery of both low- and high-frequency features in the image. Finally, we present DriveWeather, a comprehensive all-weather driving dataset designed to enable robust evaluation. Extensive experiments demonstrate that our approach surpasses state-of-the-art methods, setting a new benchmark in AWIR. The dataset and code are available at: https://github.com/fiwy0527/LCDiff.
- Abstract(参考訳): 逆気象画像復元(AWIR)は、気象関連劣化の予測不能かつ動的性質のため、非常に困難な課題である。
従来のタスク固有の手法は、目に見えない、あるいは複雑な劣化タイプに一般化できないことが多いが、近年の急進学習アプローチは、視覚言語モデルの劣化推定能力に大きく依存しており、一貫性のない復元をもたらす。
本稿では,<textit{Lumina-Chroma Decomposition Network} (LCDN)と<textit{Lumina-Guided Diffusion Model} (LGDM)の2つの主要なコンポーネントからなる新しいフレームワークである<textbf{LCDiff}を提案する。
LCDNは、YCbCr色空間で劣化した画像を処理し、分解関連輝度と劣化不変色成分を別々に処理する。
この分解は、色忠実性を維持しながら、気象による劣化を効果的に軽減する。
復元品質をさらに向上するため、LGDMは劣化関連輝度情報を誘導条件として活用し、明確な劣化プロンプトを不要とした。
さらに、LGDMは \textit{Dynamic Time Step Loss} を組み込んで、デノナイジングネットワークを最適化し、画像内の低周波と高周波の両方の特徴のバランスの取れた回復を保証する。
最後に、ロバストな評価を可能にするために設計された総合的な全天候駆動データセットであるDriveWeatherを紹介する。
大規模な実験により、我々のアプローチは最先端の手法を超越し、新しいベンチマークをAWIRに設定した。
データセットとコードは、 https://github.com/fiwy0527/LCDiff.comで入手できる。
関連論文リスト
- CIVQLLIE: Causal Intervention with Vector Quantization for Low-Light Image Enhancement [5.948286668586509]
現在の低照度画像強調法は重大な課題に直面している。
CIVQLLIEは、因果推論による離散表現学習のパワーを活用する新しいフレームワークである。
論文 参考訳(メタデータ) (2025-08-05T11:36:39Z) - EvRWKV: A Continuous Interactive RWKV Framework for Effective Event-Guided Low-Light Image Enhancement [10.556338127441167]
イベントカメラは、輝度変化を非同期にキャプチャすることで、高ダイナミックレンジとマイクロ秒の時間分解能を提供する。
EvRWKVは、二重ドメイン処理による連続的な相互モーダル相互作用を実現する新しいフレームワークである。
我々は,EvRWKVが最先端性能を実現し,ノイズを抑制し,構造的詳細を復元し,低照度環境に挑戦する際の視覚的明瞭度を向上させることにより,画像品質を効果的に向上することを示す。
論文 参考訳(メタデータ) (2025-07-01T19:05:04Z) - Rethinking High-speed Image Reconstruction Framework with Spike Camera [48.627095354244204]
スパイクカメラは連続的なスパイクストリームを生成し、従来のRGBカメラよりも低帯域幅でダイナミックレンジの高速シーンをキャプチャする。
従来のトレーニングパラダイムを超える新しいスパイク・ツー・イメージ再構築フレームワークであるSpikeCLIPを導入する。
実世界の低照度データセットに対する実験により、SpikeCLIPはテクスチャの詳細と回復した画像の輝度バランスを大幅に向上することが示された。
論文 参考訳(メタデータ) (2025-01-08T13:00:17Z) - Low-Light Video Enhancement via Spatial-Temporal Consistent Decomposition [52.89441679581216]
低照度ビデオエンハンスメント(LLVE)は、激しい視認性とノイズに悩まされる動的または静的なシーンの復元を目指している。
本稿では、ビューに依存しない、ビューに依存しないコンポーネントを組み込んだ革新的なビデオ分解戦略を提案する。
我々のフレームワークは、既存のメソッドを一貫して上回り、新しいSOTAパフォーマンスを確立します。
論文 参考訳(メタデータ) (2024-05-24T15:56:40Z) - Joint Conditional Diffusion Model for Image Restoration with Mixed Degradations [29.14467633167042]
悪天候下における画像復元のための新しい手法を提案する。
大気散乱モデルに基づく混合劣化モデルを用いて, 復元過程全体を導出する。
マルチウェザーおよび気象特化データセットの実験は、最先端の競合手法よりも、我々の手法が優れていることを示す。
論文 参考訳(メタデータ) (2024-04-11T14:07:16Z) - CodeEnhance: A Codebook-Driven Approach for Low-Light Image Enhancement [97.95330185793358]
低照度画像強調(LLIE)は、低照度画像を改善することを目的としている。
既存の手法では、様々な明るさ劣化からの回復の不確実性と、テクスチャと色情報の喪失という2つの課題に直面している。
我々は、量子化された先行値と画像の精細化を利用して、新しいエンハンスメント手法、CodeEnhanceを提案する。
論文 参考訳(メタデータ) (2024-04-08T07:34:39Z) - Reti-Diff: Illumination Degradation Image Restoration with Retinex-based
Latent Diffusion Model [59.08821399652483]
照明劣化画像復元(IDIR)技術は、劣化した画像の視認性を改善し、劣化した照明の悪影響を軽減することを目的としている。
これらのアルゴリズムのうち、拡散モデル(DM)に基づく手法は期待できる性能を示しているが、画像レベルの分布を予測する際に、重い計算要求や画素の不一致の問題に悩まされることが多い。
我々は、コンパクトな潜在空間内でDMを活用して、簡潔な指導先を生成することを提案し、IDIRタスクのためのReti-Diffと呼ばれる新しいソリューションを提案する。
Reti-Diff は Retinex-based Latent DM (RLDM) と Retinex-Guided Transformer (RG) の2つの鍵成分からなる。
論文 参考訳(メタデータ) (2023-11-20T09:55:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。