論文の概要: DGD-cGAN: A Dual Generator for Image Dewatering and Restoration
- arxiv url: http://arxiv.org/abs/2211.10026v1
- Date: Fri, 18 Nov 2022 04:42:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 15:35:46.920193
- Title: DGD-cGAN: A Dual Generator for Image Dewatering and Restoration
- Title(参考訳): DGD-cGAN:画像脱水再生用デュアルジェネレータ
- Authors: Salma Gonzalez-Sabbagh, Antonio Robles-Kelly and Shang Gao
- Abstract要約: 二重発生器脱水cGAN (DGD-cGAN) は水柱によって誘導されるヘイズと色を除去する。
実験の結果,DGD-cGANは最先端の手法に比べて改善の限界を保っていることがわかった。
- 参考スコア(独自算出の注目度): 4.944086064811032
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Underwater images are usually covered with a blue-greenish colour cast,
making them distorted, blurry or low in contrast. This phenomenon occurs due to
the light attenuation given by the scattering and absorption in the water
column. In this paper, we present an image enhancement approach for dewatering
which employs a conditional generative adversarial network (cGAN) with two
generators. Our Dual Generator Dewatering cGAN (DGD-cGAN) removes the haze and
colour cast induced by the water column and restores the true colours of
underwater scenes whereby the effects of various attenuation and scattering
phenomena that occur in underwater images are tackled by the two generators.
The first generator takes at input the underwater image and predicts the
dewatered scene, while the second generator learns the underwater image
formation process by implementing a custom loss function based upon the
transmission and the veiling light components of the image formation model. Our
experiments show that DGD-cGAN consistently delivers a margin of improvement as
compared with the state-of-the-art methods on several widely available
datasets.
- Abstract(参考訳): 水中の画像は通常、青緑がかった色で覆われ、歪んだり、ぼやけたり、コントラストが低かったりする。
この現象は、水柱の散乱と吸収によって生じる光の減衰によって起こる。
本稿では,2つのジェネレータを用いた条件付き生成対向ネットワーク(cGAN)を用いた脱水のための画像強調手法を提案する。
この2重発電機脱水cgan(dgd-cgan)は,水中画像に発生する様々な減衰・散乱現象の影響を2つの発生器で取り組むことにより,水柱によって引き起こされるヘイズ・カラーキャストを除去し,水中シーンの真の色彩を復元する。
第1のジェネレータは、水中画像を入力すると脱水シーンを予測し、第2のジェネレータは、画像形成モデルの送信と対光成分に基づいてカスタムロス機能を実装することにより、水中画像形成過程を学習する。
我々の実験によると、DGD-cGANは、いくつかの広く利用可能なデータセットの最先端の手法と比較して、一貫して改善の限界を提供する。
関連論文リスト
- WaterHE-NeRF: Water-ray Tracing Neural Radiance Fields for Underwater
Scene Reconstruction [6.036702530679703]
本研究では,3次元空間における色,密度,照度減衰を正確にエンコードするRetinex理論による新しい水線トレーシング場を開発する。
WaterHE-NeRFは、その発光減衰機構を通じて、劣化画像と鮮明な多視点画像の両方を生成する。
論文 参考訳(メタデータ) (2023-12-12T02:55:14Z) - Dual Adversarial Resilience for Collaborating Robust Underwater Image
Enhancement and Perception [54.672052775549]
本研究では,水中画像の強調と検出を行うために,CARNetと呼ばれる協調的対向レジリエンスネットワークを導入する。
本稿では,ネットワークが様々な種類の攻撃を識別・除去できるように,視覚駆動型と知覚駆動型の両方による同時攻撃訓練戦略を提案する。
実験により,提案手法は画像の高画質化を図り,最先端の手法よりも平均6.71%高い検出精度が得られた。
論文 参考訳(メタデータ) (2023-09-03T06:52:05Z) - Transmission and Color-guided Network for Underwater Image Enhancement [8.894719412298397]
水中画像強調のための適応透過・動的カラー誘導ネットワーク(ATDCnet)を提案する。
物理の知識を生かして,適応型トランスミッション指向モジュール(ATM)を設計し,ネットワークをより良く誘導する。
色偏差問題に対処するため,強調画像色を後処理する動的色誘導モジュール (DCM) を設計した。
論文 参考訳(メタデータ) (2023-08-09T11:43:54Z) - PUGAN: Physical Model-Guided Underwater Image Enhancement Using GAN with
Dual-Discriminators [120.06891448820447]
鮮明で視覚的に快適な画像を得る方法は、人々の共通の関心事となっている。
水中画像強調(UIE)の課題も、時間とともに現れた。
本稿では,UIE のための物理モデル誘導型 GAN モデルを提案する。
我々のPUGANは質的および定量的な測定値において最先端の手法より優れています。
論文 参考訳(メタデータ) (2023-06-15T07:41:12Z) - Unpaired Overwater Image Defogging Using Prior Map Guided CycleGAN [60.257791714663725]
オーバーウォーターシーンで画像をデフォグするための先行マップガイドサイクロン (PG-CycleGAN) を提案する。
提案手法は,最先端の教師付き,半教師付き,非教師付きデグジングアプローチより優れている。
論文 参考訳(メタデータ) (2022-12-23T03:00:28Z) - A Wavelet-based Dual-stream Network for Underwater Image Enhancement [11.178274779143209]
水中画像のカラーキャストやぼやけた細部に対処するウェーブレットベースのデュアルストリームネットワークを提案する。
離散ウェーブレット変換を用いて、入力画像を複数の周波数帯域に分解することで、これらのアーティファクトを別々に処理する。
提案手法を実環境および合成水中データセットの両方で検証し,計算複雑性の低い色補正およびぼかし除去におけるモデルの有効性を示した。
論文 参考訳(メタデータ) (2022-02-17T16:57:25Z) - U-shape Transformer for Underwater Image Enhancement [0.0]
本研究では,5004枚の画像対を含む大規模水中画像データセットを構築した。
UIEタスクに初めてトランスモデルを導入したU字型トランスを報告した。
コントラストと彩度をさらに向上するため、RGB, LAB, LCH色空間を組み合わせた新しいロス関数を設計した。
論文 参考訳(メタデータ) (2021-11-23T13:15:56Z) - D2C: Diffusion-Denoising Models for Few-shot Conditional Generation [109.68228014811443]
コントラスト表現を用いた拡散復号モデル(D2C)について述べる。
D2Cは、学習した拡散に基づく遅延表現を用いて、表現品質を改善するために、生成と対照的な自己教師付き学習を改善する。
条件付き画像操作では、D2C世代はStyleGAN2世代よりも2桁早く生成でき、二重盲検でヒト評価者の50%から60%が好んでいる。
論文 参考訳(メタデータ) (2021-06-12T16:32:30Z) - Underwater Image Enhancement via Medium Transmission-Guided Multi-Color
Space Embedding [88.46682991985907]
本稿では,Ucolor と呼ばれる媒体透過誘導多色空間埋め込みによる水中画像強調ネットワークを提案する。
当社のネットワークは、複数の色空間を埋め込むことにより、水中画像の視覚的品質を効果的に改善できます。
論文 参考訳(メタデータ) (2021-04-27T07:35:30Z) - Underwater Image Enhancement via Learning Water Type Desensitized
Representations [29.05252230912826]
本稿では,これらの課題に対処するため,SCNetと呼ばれる新しい水中画像強調(UIE)フレームワークを提案する。
SCNetは、空間次元とチャネル次元の両方にわたる正規化スキームに基づいており、水型脱感応特徴を学習する鍵となるアイデアである。
2つの実世界のUIEデータセットによる実験結果から,提案手法は多様な水型で画像の強化に有効であることが示された。
論文 参考訳(メタデータ) (2021-02-01T07:34:54Z) - Blur, Noise, and Compression Robust Generative Adversarial Networks [85.68632778835253]
劣化画像から直接クリーンな画像生成装置を学習するために, ぼかし, ノイズ, 圧縮堅牢なGAN(BNCR-GAN)を提案する。
NR-GANにインスパイアされたBNCR-GANは、画像、ぼやけたカーネル、ノイズ、品質要素ジェネレータで構成される多重ジェネレータモデルを使用する。
CIFAR-10の大規模比較とFFHQの一般性解析によるBNCR-GANの有効性を実証する。
論文 参考訳(メタデータ) (2020-03-17T17:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。