論文の概要: DACA-Net: A Degradation-Aware Conditional Diffusion Network for Underwater Image Enhancement
- arxiv url: http://arxiv.org/abs/2507.22501v1
- Date: Wed, 30 Jul 2025 09:16:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-31 16:14:18.111377
- Title: DACA-Net: A Degradation-Aware Conditional Diffusion Network for Underwater Image Enhancement
- Title(参考訳): DACA-Net:水中画像強調のための劣化を考慮した条件拡散ネットワーク
- Authors: Chang Huang, Jiahang Cao, Jun Ma, Kieren Yu, Cong Li, Huayong Yang, Kaishun Wu,
- Abstract要約: 水中画像は通常、散乱や吸収といった複雑な光学効果により、激しい色歪み、視界の低さ、構造的明瞭さの低下に悩まされる。
既存の拡張手法は、様々な劣化条件を適応的に扱うのに苦労し、水中固有の物理的前提を効果的に活用できないことが多い。
本研究では,水中画像の適応的・堅牢性を高めるための劣化認識条件拡散モデルを提案する。
- 参考スコア(独自算出の注目度): 16.719513778795367
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Underwater images typically suffer from severe colour distortions, low visibility, and reduced structural clarity due to complex optical effects such as scattering and absorption, which greatly degrade their visual quality and limit the performance of downstream visual perception tasks. Existing enhancement methods often struggle to adaptively handle diverse degradation conditions and fail to leverage underwater-specific physical priors effectively. In this paper, we propose a degradation-aware conditional diffusion model to enhance underwater images adaptively and robustly. Given a degraded underwater image as input, we first predict its degradation level using a lightweight dual-stream convolutional network, generating a continuous degradation score as semantic guidance. Based on this score, we introduce a novel conditional diffusion-based restoration network with a Swin UNet backbone, enabling adaptive noise scheduling and hierarchical feature refinement. To incorporate underwater-specific physical priors, we further propose a degradation-guided adaptive feature fusion module and a hybrid loss function that combines perceptual consistency, histogram matching, and feature-level contrast. Comprehensive experiments on benchmark datasets demonstrate that our method effectively restores underwater images with superior colour fidelity, perceptual quality, and structural details. Compared with SOTA approaches, our framework achieves significant improvements in both quantitative metrics and qualitative visual assessments.
- Abstract(参考訳): 水中画像は通常、激しい色歪み、視界の低さ、散乱や吸収などの複雑な光学効果による構造的明瞭さに悩まされ、視覚的品質が大幅に低下し、下流の視覚的タスクの性能が低下する。
既存の拡張手法は、様々な劣化条件を適応的に扱うのに苦労し、水中固有の物理的前提を効果的に活用できないことが多い。
本稿では,水中画像の適応的・堅牢性を高めるための劣化認識条件拡散モデルを提案する。
水中の劣化画像を入力として、まず軽量な二重ストリーム畳み込みネットワークを用いて劣化レベルを予測し、セマンティックガイダンスとして連続的な劣化スコアを生成する。
このスコアに基づいて,Swin UNetバックボーンを用いた条件拡散に基づく新しい復元ネットワークを導入し,適応的なノイズスケジューリングと階層的特徴改善を実現する。
さらに, 水中の物理的先行性を考慮した適応型特徴融合モジュールと, 知覚的整合性, ヒストグラムマッチング, 特徴レベルのコントラストを組み合わせたハイブリッド損失関数を提案する。
ベンチマークデータセットの総合的な実験により,提案手法はより優れた色彩忠実度,知覚的品質,構造的詳細を有する水中画像を効果的に復元することを示した。
我々のフレームワークは,SOTAアプローチと比較して,定量測定と質的視覚評価の両方において,大幅な改善を実現している。
関連論文リスト
- Underwater Diffusion Attention Network with Contrastive Language-Image Joint Learning for Underwater Image Enhancement [0.8747606955991707]
UDAN-CLIPは、合成水中データセットで事前トレーニングされた画像間拡散フレームワークである。
視覚言語モデルに基づくカスタマイズされた分類器、空間的注意モジュール、新しいCLIP拡散損失で拡張される。
提案したコントリビューションにより、UDAN-CLIPモデルにより、より効果的な水中画像強調を行うことができる。
論文 参考訳(メタデータ) (2025-05-26T12:24:56Z) - PIGUIQA: A Physical Imaging Guided Perceptual Framework for Underwater Image Quality Assessment [59.9103803198087]
水中画像品質評価(UIQA)のための物理画像ガイド型知覚フレームワークを提案する。
水中放射移動理論を応用して、物理に基づく画像推定を統合して、これらの歪みの定量的な測定値を確立する。
提案モデルは,画像品質のスコアを正確に予測し,最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-12-20T03:31:45Z) - Phaseformer: Phase-based Attention Mechanism for Underwater Image Restoration and Beyond [25.975859029063585]
水中画像復元(UIR)のための1.77Mパラメータを持つ軽量位相変換器ネットワークを提案する。
本手法は,位相に基づく自己認識機構を用いて,非汚染特徴を効果的に抽出することに焦点を当てる。
LOLデータセットを用いた低照度画像強調の有効性を示す。
論文 参考訳(メタデータ) (2024-12-02T12:48:19Z) - HUPE: Heuristic Underwater Perceptual Enhancement with Semantic Collaborative Learning [62.264673293638175]
既存の水中画像強調法は主に視覚的品質の向上に重点を置いており、実際的な意味を見落としている。
視覚的品質を高め,他の下流タスクに対処する柔軟性を示す,水中知覚向上のための可逆的ネットワークHを提案する。
論文 参考訳(メタデータ) (2024-11-27T12:37:03Z) - DGNet: Dynamic Gradient-Guided Network for Water-Related Optics Image
Enhancement [77.0360085530701]
水中画像強調(UIE)は、水中環境によって引き起こされる複雑な劣化のために難しい課題である。
従来の手法では、劣化過程を理想化し、中音や物体の動きが画像の特徴の分布に与える影響を無視することが多い。
提案手法では,予測画像を用いて疑似ラベルを動的に更新し,動的勾配を加えてネットワークの勾配空間を最適化する。
論文 参考訳(メタデータ) (2023-12-12T06:07:21Z) - WaterFlow: Heuristic Normalizing Flow for Underwater Image Enhancement
and Beyond [52.27796682972484]
既存の水中画像強調法は, 画像品質の向上に重点を置いており, 実践への影響を無視している。
本稿では,検出駆動型水中画像強調のための正規化フローであるWaterFlowを提案する。
微分可能性や解釈可能性を考慮すると、事前をデータ駆動マッピング手法に組み込む。
論文 参考訳(メタデータ) (2023-08-02T04:17:35Z) - PUGAN: Physical Model-Guided Underwater Image Enhancement Using GAN with
Dual-Discriminators [120.06891448820447]
鮮明で視覚的に快適な画像を得る方法は、人々の共通の関心事となっている。
水中画像強調(UIE)の課題も、時間とともに現れた。
本稿では,UIE のための物理モデル誘導型 GAN モデルを提案する。
我々のPUGANは質的および定量的な測定値において最先端の手法より優れています。
論文 参考訳(メタデータ) (2023-06-15T07:41:12Z) - Underwater image enhancement with Image Colorfulness Measure [7.292965806774365]
トレーニング可能なエンドツーエンドニューラルモデルである新しいエンハンスメントモデルを提案する。
より詳細に、コントラストとカラフルネスのために、この拡張ネットワークはピクセルレベルと特性レベルのトレーニング基準によって共同で最適化されている。
論文 参考訳(メタデータ) (2020-04-18T12:44:57Z) - Domain Adaptive Adversarial Learning Based on Physics Model Feedback for
Underwater Image Enhancement [10.143025577499039]
物理モデルに基づくフィードバック制御と,水中画像の高機能化のための領域適応機構を用いた,新しい頑健な対角学習フレームワークを提案する。
水中画像形成モデルを用いてRGB-Dデータから水中訓練データセットをシミュレーションする新しい手法を提案する。
合成および実水中画像の最終的な改良結果は,提案手法の優位性を示している。
論文 参考訳(メタデータ) (2020-02-20T07:50:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。