論文の概要: PUGAN: Physical Model-Guided Underwater Image Enhancement Using GAN with
Dual-Discriminators
- arxiv url: http://arxiv.org/abs/2306.08918v1
- Date: Thu, 15 Jun 2023 07:41:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 16:03:01.722334
- Title: PUGAN: Physical Model-Guided Underwater Image Enhancement Using GAN with
Dual-Discriminators
- Title(参考訳): PUGAN:デュアルディスクリミネーター付きGANを用いた物理モデル誘導水中画像強調
- Authors: Runmin Cong, Wenyu Yang, Wei Zhang, Chongyi Li, Chun-Le Guo, Qingming
Huang, and Sam Kwong
- Abstract要約: 鮮明で視覚的に快適な画像を得る方法は、人々の共通の関心事となっている。
水中画像強調(UIE)の課題も、時間とともに現れた。
本稿では,UIE のための物理モデル誘導型 GAN モデルを提案する。
我々のPUGANは質的および定量的な測定値において最先端の手法より優れています。
- 参考スコア(独自算出の注目度): 120.06891448820447
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Due to the light absorption and scattering induced by the water medium,
underwater images usually suffer from some degradation problems, such as low
contrast, color distortion, and blurring details, which aggravate the
difficulty of downstream underwater understanding tasks. Therefore, how to
obtain clear and visually pleasant images has become a common concern of
people, and the task of underwater image enhancement (UIE) has also emerged as
the times require. Among existing UIE methods, Generative Adversarial Networks
(GANs) based methods perform well in visual aesthetics, while the physical
model-based methods have better scene adaptability. Inheriting the advantages
of the above two types of models, we propose a physical model-guided GAN model
for UIE in this paper, referred to as PUGAN. The entire network is under the
GAN architecture. On the one hand, we design a Parameters Estimation subnetwork
(Par-subnet) to learn the parameters for physical model inversion, and use the
generated color enhancement image as auxiliary information for the Two-Stream
Interaction Enhancement sub-network (TSIE-subnet). Meanwhile, we design a
Degradation Quantization (DQ) module in TSIE-subnet to quantize scene
degradation, thereby achieving reinforcing enhancement of key regions. On the
other hand, we design the Dual-Discriminators for the style-content adversarial
constraint, promoting the authenticity and visual aesthetics of the results.
Extensive experiments on three benchmark datasets demonstrate that our PUGAN
outperforms state-of-the-art methods in both qualitative and quantitative
metrics.
- Abstract(参考訳): 水媒体によって引き起こされる光の吸収と散乱のため、水中画像は通常、低コントラスト、色歪、ぼやけた細部といったいくつかの劣化の問題に悩まされ、水中での理解作業の難しさを悪化させる。
そのため、鮮明で視覚的に快適な画像を得る方法は人々の共通の関心事となり、時間とともに水中画像強調(UIE)の課題も現れた。
既存のuie手法のうち、ジェネレーティブ・アドバーサリアン・ネットワーク(gans)ベースの手法は視覚美学において良好に機能するが、物理モデルに基づく手法はシーン適応性が向上する。
本稿では,上記の2種類のモデルの利点を継承し,uieの物理モデル誘導ganモデルを提案する。
ネットワーク全体がGANアーキテクチャの下にある。
一方、パラメータ推定サブネット(Par-subnet)を設計し、物理モデル逆転のパラメータを学習し、生成した色強調画像を2ストリームインタラクション強化サブネットワーク(TSIE-subnet)の補助情報として利用する。
一方,tsie-subnetにおける劣化量子化(dq)モジュールを設計し,シーン劣化を定量化し,キー領域の強化を図る。
一方,本研究では,文体対向制約に対するデュアル・ディスクリミネータを設計し,結果の真正性や視覚的美学を促進する。
3つのベンチマークデータセットに対する大規模な実験により、PUGANは定性的および定量的な測定値の両方において最先端の手法より優れていることが示された。
関連論文リスト
- UIE-UnFold: Deep Unfolding Network with Color Priors and Vision Transformer for Underwater Image Enhancement [27.535028176427623]
水中画像強調(UIE)は様々な海洋用途において重要な役割を担っている。
現在の学習に基づくアプローチは、水中画像形成に関わる物理過程に関する明確な事前知識を欠いていることが多い。
そこで本稿では,UIEのカラープリエントとステージ間特徴付与を統合した新しいディープ・アンフォールディング・ネットワーク(DUN)を提案する。
論文 参考訳(メタデータ) (2024-08-20T08:48:33Z) - A Physical Model-Guided Framework for Underwater Image Enhancement and Depth Estimation [19.204227769408725]
既存の水中画像強調手法では、深度や対光といった画像モデルパラメータを正確に推定することができない。
先進的なUIEモデルとDeep Degradation Modelを併用したモデル誘導フレームワークを提案する。
本フレームワークは水中の多様なシーンにまたがって顕著な拡張効果をもたらす。
論文 参考訳(メタデータ) (2024-07-05T03:10:13Z) - DGNet: Dynamic Gradient-Guided Network for Water-Related Optics Image
Enhancement [77.0360085530701]
水中画像強調(UIE)は、水中環境によって引き起こされる複雑な劣化のために難しい課題である。
従来の手法では、劣化過程を理想化し、中音や物体の動きが画像の特徴の分布に与える影響を無視することが多い。
提案手法では,予測画像を用いて疑似ラベルを動的に更新し,動的勾配を加えてネットワークの勾配空間を最適化する。
論文 参考訳(メタデータ) (2023-12-12T06:07:21Z) - RAUNE-Net: A Residual and Attention-Driven Underwater Image Enhancement
Method [2.6645441842326756]
水中画像強調(UIE)は、水中環境の特徴的な性質のために課題を提起する。
本稿では、RAUNE-Netと呼ばれるより信頼性が高く合理的なUIEネットワークを提案する。
提案手法は,様々な実世界の水中画像に対して,有望な客観的性能と一貫した視覚的結果を得る。
論文 参考訳(メタデータ) (2023-11-01T03:00:07Z) - LLDiffusion: Learning Degradation Representations in Diffusion Models
for Low-Light Image Enhancement [118.83316133601319]
現在の低照度画像強調(LLIE)の深層学習法は、通常、ペア化されたデータから学んだピクセルワイドマッピングに依存している。
本稿では,拡散モデルを用いたLLIEの劣化認識学習手法を提案する。
論文 参考訳(メタデータ) (2023-07-27T07:22:51Z) - Semantic-aware Texture-Structure Feature Collaboration for Underwater
Image Enhancement [58.075720488942125]
水中画像の強調は海洋工学や水生ロボット工学において重要な技術として注目されている。
我々は,高レベルな意味認識事前学習モデルと協調して,効率的でコンパクトな拡張ネットワークを開発する。
また,提案手法を水中の有意な物体検出タスクに適用し,高レベルの視覚タスクに適した意味認識能力を明らかにする。
論文 参考訳(メタデータ) (2022-11-19T07:50:34Z) - Underwater Image Enhancement via Medium Transmission-Guided Multi-Color
Space Embedding [88.46682991985907]
本稿では,Ucolor と呼ばれる媒体透過誘導多色空間埋め込みによる水中画像強調ネットワークを提案する。
当社のネットワークは、複数の色空間を埋め込むことにより、水中画像の視覚的品質を効果的に改善できます。
論文 参考訳(メタデータ) (2021-04-27T07:35:30Z) - Towards Unsupervised Deep Image Enhancement with Generative Adversarial
Network [92.01145655155374]
監視されていない画像強調生成ネットワーク(UEGAN)を提案する。
教師なしの方法で所望の特性を持つ画像の集合から、対応する画像と画像のマッピングを学習する。
その結果,提案モデルは画像の美的品質を効果的に向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:22:46Z) - Perceptual underwater image enhancement with deep learning and physical
priors [35.37760003463292]
本稿では,2つの知覚強調モデルを提案する。
トレーニングデータの欠如により, 物理的先行とデータ駆動的手がかりを融合したハイブリッド水中画像合成モデルが提案され, トレーニングデータを合成する。
実験結果から,提案手法は実環境および合成水中データセット上でのいくつかの最先端手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2020-08-21T22:11:34Z) - Domain Adaptive Adversarial Learning Based on Physics Model Feedback for
Underwater Image Enhancement [10.143025577499039]
物理モデルに基づくフィードバック制御と,水中画像の高機能化のための領域適応機構を用いた,新しい頑健な対角学習フレームワークを提案する。
水中画像形成モデルを用いてRGB-Dデータから水中訓練データセットをシミュレーションする新しい手法を提案する。
合成および実水中画像の最終的な改良結果は,提案手法の優位性を示している。
論文 参考訳(メタデータ) (2020-02-20T07:50:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。