論文の概要: Underwater Diffusion Attention Network with Contrastive Language-Image Joint Learning for Underwater Image Enhancement
- arxiv url: http://arxiv.org/abs/2505.19895v1
- Date: Mon, 26 May 2025 12:24:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:43.414018
- Title: Underwater Diffusion Attention Network with Contrastive Language-Image Joint Learning for Underwater Image Enhancement
- Title(参考訳): コントラスト言語画像連成学習を用いた水中拡散注意ネットワークによる水中画像強調
- Authors: Afrah Shaahid, Muzammil Behzad,
- Abstract要約: UDAN-CLIPは、合成水中データセットで事前トレーニングされた画像間拡散フレームワークである。
視覚言語モデルに基づくカスタマイズされた分類器、空間的注意モジュール、新しいCLIP拡散損失で拡張される。
提案したコントリビューションにより、UDAN-CLIPモデルにより、より効果的な水中画像強調を行うことができる。
- 参考スコア(独自算出の注目度): 0.8747606955991707
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Underwater images are often affected by complex degradations such as light absorption, scattering, color casts, and artifacts, making enhancement critical for effective object detection, recognition, and scene understanding in aquatic environments. Existing methods, especially diffusion-based approaches, typically rely on synthetic paired datasets due to the scarcity of real underwater references, introducing bias and limiting generalization. Furthermore, fine-tuning these models can degrade learned priors, resulting in unrealistic enhancements due to domain shifts. To address these challenges, we propose UDAN-CLIP, an image-to-image diffusion framework pre-trained on synthetic underwater datasets and enhanced with a customized classifier based on vision-language model, a spatial attention module, and a novel CLIP-Diffusion loss. The classifier preserves natural in-air priors and semantically guides the diffusion process, while the spatial attention module focuses on correcting localized degradations such as haze and low contrast. The proposed CLIP-Diffusion loss further strengthens visual-textual alignment and helps maintain semantic consistency during enhancement. The proposed contributions empower our UDAN-CLIP model to perform more effective underwater image enhancement, producing results that are not only visually compelling but also more realistic and detail-preserving. These improvements are consistently validated through both quantitative metrics and qualitative visual comparisons, demonstrating the model's ability to correct distortions and restore natural appearance in challenging underwater conditions.
- Abstract(参考訳): 水中画像は、しばしば光吸収、散乱、カラーキャスト、アーティファクトなどの複雑な劣化の影響を受け、水中環境における効果的な物体の検出、認識、シーン理解に重要な強化をもたらす。
既存の手法、特に拡散に基づくアプローチは、通常、実際の水中参照の不足やバイアスの導入、一般化の制限のために合成されたデータセットに依存している。
さらに、これらのモデルを微調整することで、学習前のモデルを劣化させ、ドメインシフトによる非現実的な拡張をもたらす。
これらの課題に対処するために、合成水中データセットに基づいて事前訓練され、視覚言語モデルに基づくカスタマイズされた分類器、空間的注意モジュール、新しいCLIP拡散損失を用いたUDAN-CLIPを提案する。
分類器は、自然の空気中の先行を保存し、拡散過程を意味的に導く一方、空間的注意モジュールは、ヘイズや低コントラストのような局所的な劣化の補正に重点を置いている。
提案したCLIP拡散損失は、視覚的テキストアライメントをさらに強化し、拡張中のセマンティック一貫性を維持するのに役立つ。
提案したコントリビューションにより、UDAN-CLIPモデルにより、より効果的な水中画像強調が可能となり、視覚的に魅力的であるだけでなく、よりリアルでディテールを保存できる結果が得られます。
これらの改善は、定量的な測定値と定性的な視覚的比較によって一貫して検証され、モデルの歪みを補正し、挑戦的な水中条件下で自然の外観を復元する能力を示す。
関連論文リスト
- Phaseformer: Phase-based Attention Mechanism for Underwater Image Restoration and Beyond [25.975859029063585]
水中画像復元(UIR)のための1.77Mパラメータを持つ軽量位相変換器ネットワークを提案する。
本手法は,位相に基づく自己認識機構を用いて,非汚染特徴を効果的に抽出することに焦点を当てる。
LOLデータセットを用いた低照度画像強調の有効性を示す。
論文 参考訳(メタデータ) (2024-12-02T12:48:19Z) - HUPE: Heuristic Underwater Perceptual Enhancement with Semantic Collaborative Learning [62.264673293638175]
既存の水中画像強調法は主に視覚的品質の向上に重点を置いており、実際的な意味を見落としている。
視覚的品質を高め,他の下流タスクに対処する柔軟性を示す,水中知覚向上のための可逆的ネットワークHを提案する。
論文 参考訳(メタデータ) (2024-11-27T12:37:03Z) - Denoising as Adaptation: Noise-Space Domain Adaptation for Image Restoration [64.84134880709625]
拡散モデルを用いて,雑音空間を介して領域適応を行うことが可能であることを示す。
特に、補助的な条件入力が多段階の復調過程にどのように影響するかというユニークな性質を活用することにより、有意義な拡散損失を導出する。
拡散モデルにおけるチャネルシャッフル層や残留スワッピング型コントラスト学習などの重要な戦略を提案する。
論文 参考訳(メタデータ) (2024-06-26T17:40:30Z) - Underwater Image Enhancement by Diffusion Model with Customized CLIP-Classifier [5.352081564604589]
水中画像強調(UIE)は、低品質の入力から視覚的品質を改善することを目的としている。
UIE タスクに Contrastive Language- Image Pretraining (CLIP) の可能性を生かした新しいフレームワークである CLIP-UIE を提案する。
具体的には,大気中の自然画像から実際の水中領域に誘導される対応する水中画像に分解することで,合成画像の合成に色移動を用いることを提案する。
論文 参考訳(メタデータ) (2024-05-25T12:56:15Z) - WaterFlow: Heuristic Normalizing Flow for Underwater Image Enhancement
and Beyond [52.27796682972484]
既存の水中画像強調法は, 画像品質の向上に重点を置いており, 実践への影響を無視している。
本稿では,検出駆動型水中画像強調のための正規化フローであるWaterFlowを提案する。
微分可能性や解釈可能性を考慮すると、事前をデータ駆動マッピング手法に組み込む。
論文 参考訳(メタデータ) (2023-08-02T04:17:35Z) - LLDiffusion: Learning Degradation Representations in Diffusion Models
for Low-Light Image Enhancement [118.83316133601319]
現在の低照度画像強調(LLIE)の深層学習法は、通常、ペア化されたデータから学んだピクセルワイドマッピングに依存している。
本稿では,拡散モデルを用いたLLIEの劣化認識学習手法を提案する。
論文 参考訳(メタデータ) (2023-07-27T07:22:51Z) - PUGAN: Physical Model-Guided Underwater Image Enhancement Using GAN with
Dual-Discriminators [120.06891448820447]
鮮明で視覚的に快適な画像を得る方法は、人々の共通の関心事となっている。
水中画像強調(UIE)の課題も、時間とともに現れた。
本稿では,UIE のための物理モデル誘導型 GAN モデルを提案する。
我々のPUGANは質的および定量的な測定値において最先端の手法より優れています。
論文 参考訳(メタデータ) (2023-06-15T07:41:12Z) - Domain Adaptive Adversarial Learning Based on Physics Model Feedback for
Underwater Image Enhancement [10.143025577499039]
物理モデルに基づくフィードバック制御と,水中画像の高機能化のための領域適応機構を用いた,新しい頑健な対角学習フレームワークを提案する。
水中画像形成モデルを用いてRGB-Dデータから水中訓練データセットをシミュレーションする新しい手法を提案する。
合成および実水中画像の最終的な改良結果は,提案手法の優位性を示している。
論文 参考訳(メタデータ) (2020-02-20T07:50:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。