論文の概要: CPDM: Content-Preserving Diffusion Model for Underwater Image
Enhancement
- arxiv url: http://arxiv.org/abs/2401.15649v1
- Date: Sun, 28 Jan 2024 12:51:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-30 17:00:27.357420
- Title: CPDM: Content-Preserving Diffusion Model for Underwater Image
Enhancement
- Title(参考訳): CPDM:水中画像強調のためのコンテンツ保存拡散モデル
- Authors: Xiaowen Shi and Yuan-Gen Wang
- Abstract要約: 水環境における画像劣化は複雑であり、時間とともに変化するため、水中画像強調(UIE)は困難である。
既存の主流の手法は物理モデルかデータ駆動のどちらかに依存しており、画像条件の変化やトレーニングの不安定性によるパフォーマンスのボトルネックに悩まされている。
本稿では、UIEタスクに拡散モデルを適用するための最初の試みを行い、上記の課題に対処するためのコンテンツ保存拡散モデル(CPDM)を提案する。
- 参考スコア(独自算出の注目度): 9.987250173009423
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Underwater image enhancement (UIE) is challenging since image degradation in
aquatic environments is complicated and changing over time. Existing mainstream
methods rely on either physical-model or data-driven, suffering from
performance bottlenecks due to changes in imaging conditions or training
instability. In this article, we make the first attempt to adapt the diffusion
model to the UIE task and propose a Content-Preserving Diffusion Model (CPDM)
to address the above challenges. CPDM first leverages a diffusion model as its
fundamental model for stable training and then designs a content-preserving
framework to deal with changes in imaging conditions. Specifically, we
construct a conditional input module by adopting both the raw image and the
difference between the raw and noisy images as the input, which can enhance the
model's adaptability by considering the changes involving the raw images in
underwater environments. To preserve the essential content of the raw images,
we construct a content compensation module for content-aware training by
extracting low-level features from the raw images. Extensive experimental
results validate the effectiveness of our CPDM, surpassing the state-of-the-art
methods in terms of both subjective and objective metrics.
- Abstract(参考訳): 水環境における画像劣化は複雑で時間とともに変化するため、水中画像強調(UIE)は困難である。
既存の主流の手法は物理モデルまたはデータ駆動のいずれかに依存しており、撮像条件の変化やトレーニング不安定性によるパフォーマンスのボトルネックに悩まされている。
本稿では、UIEタスクに拡散モデルを適用するための最初の試みを行い、上記の課題に対処するためのコンテンツ保存拡散モデル(CPDM)を提案する。
cpdmはまず拡散モデルを安定トレーニングの基本モデルとして活用し、次に画像条件の変化に対応するコンテンツ保存フレームワークを設計した。
具体的には,生画像と生画像の違いの両方を入力として用いて条件付き入力モジュールを構築し,水中環境における生画像の変更を考慮し,モデルの適応性を向上させる。
原画像の本質的内容を保存するため,本研究では,原画像から低レベルの特徴を抽出し,コンテンツ認識トレーニングのためのコンテンツ補償モジュールを構築した。
広範な実験結果からcpdmの有効性が検証され,主観的および客観的な測定値において最先端の手法を上回った。
関連論文リスト
- Stable Flow: Vital Layers for Training-Free Image Editing [74.52248787189302]
拡散モデルはコンテンツ合成と編集の分野に革命をもたらした。
最近のモデルでは、従来のUNetアーキテクチャをDiffusion Transformer (DiT)に置き換えている。
画像形成に欠かせないDiT内の「硝子層」を自動同定する手法を提案する。
次に、実画像編集を可能にするために、フローモデルのための改良された画像反転手法を提案する。
論文 参考訳(メタデータ) (2024-11-21T18:59:51Z) - UIE-UnFold: Deep Unfolding Network with Color Priors and Vision Transformer for Underwater Image Enhancement [27.535028176427623]
水中画像強調(UIE)は様々な海洋用途において重要な役割を担っている。
現在の学習に基づくアプローチは、水中画像形成に関わる物理過程に関する明確な事前知識を欠いていることが多い。
そこで本稿では,UIEのカラープリエントとステージ間特徴付与を統合した新しいディープ・アンフォールディング・ネットワーク(DUN)を提案する。
論文 参考訳(メタデータ) (2024-08-20T08:48:33Z) - JoReS-Diff: Joint Retinex and Semantic Priors in Diffusion Model for Low-light Image Enhancement [69.6035373784027]
低照度画像強調(LLIE)は条件付き拡散モデルを用いて有望な性能を実現している。
従来手法は、タスク固有の条件戦略の十分な定式化の重要性を無視するものであった。
本稿では,Retinex および semantic-based pre-processing condition を付加した新しいアプローチである JoReS-Diff を提案する。
論文 参考訳(メタデータ) (2023-12-20T08:05:57Z) - DGNet: Dynamic Gradient-Guided Network for Water-Related Optics Image
Enhancement [77.0360085530701]
水中画像強調(UIE)は、水中環境によって引き起こされる複雑な劣化のために難しい課題である。
従来の手法では、劣化過程を理想化し、中音や物体の動きが画像の特徴の分布に与える影響を無視することが多い。
提案手法では,予測画像を用いて疑似ラベルを動的に更新し,動的勾配を加えてネットワークの勾配空間を最適化する。
論文 参考訳(メタデータ) (2023-12-12T06:07:21Z) - CoDi: Conditional Diffusion Distillation for Higher-Fidelity and Faster
Image Generation [49.3016007471979]
大規模な生成拡散モデルは、テキスト・ツー・イメージ生成に革命をもたらし、条件付き生成タスクに大きな可能性を秘めている。
しかし、彼らの普及は高い計算コストによって妨げられ、リアルタイムの応用が制限される。
本稿では,事前学習した潜伏拡散モデルに付加的な画像条件入力を適応させるCoDiという新しい手法を提案する。
論文 参考訳(メタデータ) (2023-10-02T17:59:18Z) - Steerable Conditional Diffusion for Out-of-Distribution Adaptation in Medical Image Reconstruction [75.91471250967703]
我々は、ステアブル条件拡散と呼ばれる新しいサンプリングフレームワークを導入する。
このフレームワークは、利用可能な測定によって提供される情報のみに基づいて、画像再構成と並行して拡散モデルを適用する。
様々な画像モダリティにまたがるアウト・オブ・ディストリビューション性能の大幅な向上を実現した。
論文 参考訳(メタデータ) (2023-08-28T08:47:06Z) - PUGAN: Physical Model-Guided Underwater Image Enhancement Using GAN with
Dual-Discriminators [120.06891448820447]
鮮明で視覚的に快適な画像を得る方法は、人々の共通の関心事となっている。
水中画像強調(UIE)の課題も、時間とともに現れた。
本稿では,UIE のための物理モデル誘導型 GAN モデルを提案する。
我々のPUGANは質的および定量的な測定値において最先端の手法より優れています。
論文 参考訳(メタデータ) (2023-06-15T07:41:12Z) - A Unified Conditional Framework for Diffusion-based Image Restoration [39.418415473235235]
画像復元のための拡散モデルに基づく統一条件付きフレームワークを提案する。
我々は、軽量なUNetを利用して初期ガイダンスと拡散モデルを予測し、指導の残余を学習する。
そこで本研究では,高解像度画像を扱うために,単純なステップ間パッチ分割方式を提案する。
論文 参考訳(メタデータ) (2023-05-31T17:22:24Z) - Adaptive Uncertainty Distribution in Deep Learning for Unsupervised
Underwater Image Enhancement [1.9249287163937976]
ディープラーニングベースの水中画像強化における大きな課題の1つは、高品質なトレーニングデータの可用性の制限である。
本研究では、条件付き変分オートエンコーダ(cVAE)を用いて、深層学習モデルのトレーニングを行う、新しい教師なし水中画像強調フレームワークを提案する。
提案手法は, 定量化と定性化の両面において, 他の最先端手法と比較して, 競争性能が向上することを示す。
論文 参考訳(メタデータ) (2022-12-18T01:07:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。