論文の概要: CPDM: Content-Preserving Diffusion Model for Underwater Image
Enhancement
- arxiv url: http://arxiv.org/abs/2401.15649v1
- Date: Sun, 28 Jan 2024 12:51:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-30 17:00:27.357420
- Title: CPDM: Content-Preserving Diffusion Model for Underwater Image
Enhancement
- Title(参考訳): CPDM:水中画像強調のためのコンテンツ保存拡散モデル
- Authors: Xiaowen Shi and Yuan-Gen Wang
- Abstract要約: 水環境における画像劣化は複雑であり、時間とともに変化するため、水中画像強調(UIE)は困難である。
既存の主流の手法は物理モデルかデータ駆動のどちらかに依存しており、画像条件の変化やトレーニングの不安定性によるパフォーマンスのボトルネックに悩まされている。
本稿では、UIEタスクに拡散モデルを適用するための最初の試みを行い、上記の課題に対処するためのコンテンツ保存拡散モデル(CPDM)を提案する。
- 参考スコア(独自算出の注目度): 9.987250173009423
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Underwater image enhancement (UIE) is challenging since image degradation in
aquatic environments is complicated and changing over time. Existing mainstream
methods rely on either physical-model or data-driven, suffering from
performance bottlenecks due to changes in imaging conditions or training
instability. In this article, we make the first attempt to adapt the diffusion
model to the UIE task and propose a Content-Preserving Diffusion Model (CPDM)
to address the above challenges. CPDM first leverages a diffusion model as its
fundamental model for stable training and then designs a content-preserving
framework to deal with changes in imaging conditions. Specifically, we
construct a conditional input module by adopting both the raw image and the
difference between the raw and noisy images as the input, which can enhance the
model's adaptability by considering the changes involving the raw images in
underwater environments. To preserve the essential content of the raw images,
we construct a content compensation module for content-aware training by
extracting low-level features from the raw images. Extensive experimental
results validate the effectiveness of our CPDM, surpassing the state-of-the-art
methods in terms of both subjective and objective metrics.
- Abstract(参考訳): 水環境における画像劣化は複雑で時間とともに変化するため、水中画像強調(UIE)は困難である。
既存の主流の手法は物理モデルまたはデータ駆動のいずれかに依存しており、撮像条件の変化やトレーニング不安定性によるパフォーマンスのボトルネックに悩まされている。
本稿では、UIEタスクに拡散モデルを適用するための最初の試みを行い、上記の課題に対処するためのコンテンツ保存拡散モデル(CPDM)を提案する。
cpdmはまず拡散モデルを安定トレーニングの基本モデルとして活用し、次に画像条件の変化に対応するコンテンツ保存フレームワークを設計した。
具体的には,生画像と生画像の違いの両方を入力として用いて条件付き入力モジュールを構築し,水中環境における生画像の変更を考慮し,モデルの適応性を向上させる。
原画像の本質的内容を保存するため,本研究では,原画像から低レベルの特徴を抽出し,コンテンツ認識トレーニングのためのコンテンツ補償モジュールを構築した。
広範な実験結果からcpdmの有効性が検証され,主観的および客観的な測定値において最先端の手法を上回った。
関連論文リスト
- DGNet: Dynamic Gradient-Guided Network for Water-Related Optics Image
Enhancement [77.0360085530701]
水中画像強調(UIE)は、水中環境によって引き起こされる複雑な劣化のために難しい課題である。
従来の手法では、劣化過程を理想化し、中音や物体の動きが画像の特徴の分布に与える影響を無視することが多い。
提案手法では,予測画像を用いて疑似ラベルを動的に更新し,動的勾配を加えてネットワークの勾配空間を最適化する。
論文 参考訳(メタデータ) (2023-12-12T06:07:21Z) - CoDi: Conditional Diffusion Distillation for Higher-Fidelity and Faster
Image Generation [49.3016007471979]
大規模な生成拡散モデルは、テキスト・ツー・イメージ生成に革命をもたらし、条件付き生成タスクに大きな可能性を秘めている。
しかし、彼らの普及は高い計算コストによって妨げられ、リアルタイムの応用が制限される。
本稿では,事前学習した潜伏拡散モデルに付加的な画像条件入力を適応させるCoDiという新しい手法を提案する。
論文 参考訳(メタデータ) (2023-10-02T17:59:18Z) - Steered Diffusion: A Generalized Framework for Plug-and-Play Conditional
Image Synthesis [62.07413805483241]
Steered Diffusionは、無条件生成のために訓練された拡散モデルを用いたゼロショット条件画像生成のためのフレームワークである。
塗装,着色,テキスト誘導セマンティック編集,画像超解像などのタスクに対して,ステアリング拡散を用いた実験を行った。
論文 参考訳(メタデータ) (2023-09-30T02:03:22Z) - Steerable Conditional Diffusion for Out-of-Distribution Adaptation in
Imaging Inverse Problems [78.76955228709241]
我々は、ステアブル条件拡散と呼ばれる新しいサンプリングフレームワークを導入する。
このフレームワークは、利用可能な測定データに特化してデノイングネットワークを適用する。
我々は多様な画像モダリティをまたいだOOD性能の大幅な向上を実現した。
論文 参考訳(メタデータ) (2023-08-28T08:47:06Z) - LLDiffusion: Learning Degradation Representations in Diffusion Models
for Low-Light Image Enhancement [118.83316133601319]
現在の低照度画像強調(LLIE)の深層学習法は、通常、ペア化されたデータから学んだピクセルワイドマッピングに依存している。
本稿では,拡散モデルを用いたLLIEの劣化認識学習手法を提案する。
論文 参考訳(メタデータ) (2023-07-27T07:22:51Z) - PUGAN: Physical Model-Guided Underwater Image Enhancement Using GAN with
Dual-Discriminators [120.06891448820447]
鮮明で視覚的に快適な画像を得る方法は、人々の共通の関心事となっている。
水中画像強調(UIE)の課題も、時間とともに現れた。
本稿では,UIE のための物理モデル誘導型 GAN モデルを提案する。
我々のPUGANは質的および定量的な測定値において最先端の手法より優れています。
論文 参考訳(メタデータ) (2023-06-15T07:41:12Z) - A Unified Conditional Framework for Diffusion-based Image Restoration [39.418415473235235]
画像復元のための拡散モデルに基づく統一条件付きフレームワークを提案する。
我々は、軽量なUNetを利用して初期ガイダンスと拡散モデルを予測し、指導の残余を学習する。
そこで本研究では,高解像度画像を扱うために,単純なステップ間パッチ分割方式を提案する。
論文 参考訳(メタデータ) (2023-05-31T17:22:24Z) - Adaptive Uncertainty Distribution in Deep Learning for Unsupervised
Underwater Image Enhancement [1.9249287163937976]
ディープラーニングベースの水中画像強化における大きな課題の1つは、高品質なトレーニングデータの可用性の制限である。
本研究では、条件付き変分オートエンコーダ(cVAE)を用いて、深層学習モデルのトレーニングを行う、新しい教師なし水中画像強調フレームワークを提案する。
提案手法は, 定量化と定性化の両面において, 他の最先端手法と比較して, 競争性能が向上することを示す。
論文 参考訳(メタデータ) (2022-12-18T01:07:20Z) - DOLCE: A Model-Based Probabilistic Diffusion Framework for Limited-Angle
CT Reconstruction [42.028139152832466]
Limited-Angle Computed Tomography (LACT) は、セキュリティから医療まで様々な用途で使用される非破壊的評価技術である。
DOLCEは、条件付き拡散モデルを画像として用いた、LACTのための新しいディープモデルベースのフレームワークである。
論文 参考訳(メタデータ) (2022-11-22T15:30:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。