論文の概要: DGD-cGAN: A Dual Generator for Image Dewatering and Restoration
- arxiv url: http://arxiv.org/abs/2211.10026v1
- Date: Fri, 18 Nov 2022 04:42:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 15:35:46.920193
- Title: DGD-cGAN: A Dual Generator for Image Dewatering and Restoration
- Title(参考訳): DGD-cGAN:画像脱水再生用デュアルジェネレータ
- Authors: Salma Gonzalez-Sabbagh, Antonio Robles-Kelly and Shang Gao
- Abstract要約: 二重発生器脱水cGAN (DGD-cGAN) は水柱によって誘導されるヘイズと色を除去する。
実験の結果,DGD-cGANは最先端の手法に比べて改善の限界を保っていることがわかった。
- 参考スコア(独自算出の注目度): 4.944086064811032
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Underwater images are usually covered with a blue-greenish colour cast,
making them distorted, blurry or low in contrast. This phenomenon occurs due to
the light attenuation given by the scattering and absorption in the water
column. In this paper, we present an image enhancement approach for dewatering
which employs a conditional generative adversarial network (cGAN) with two
generators. Our Dual Generator Dewatering cGAN (DGD-cGAN) removes the haze and
colour cast induced by the water column and restores the true colours of
underwater scenes whereby the effects of various attenuation and scattering
phenomena that occur in underwater images are tackled by the two generators.
The first generator takes at input the underwater image and predicts the
dewatered scene, while the second generator learns the underwater image
formation process by implementing a custom loss function based upon the
transmission and the veiling light components of the image formation model. Our
experiments show that DGD-cGAN consistently delivers a margin of improvement as
compared with the state-of-the-art methods on several widely available
datasets.
- Abstract(参考訳): 水中の画像は通常、青緑がかった色で覆われ、歪んだり、ぼやけたり、コントラストが低かったりする。
この現象は、水柱の散乱と吸収によって生じる光の減衰によって起こる。
本稿では,2つのジェネレータを用いた条件付き生成対向ネットワーク(cGAN)を用いた脱水のための画像強調手法を提案する。
この2重発電機脱水cgan(dgd-cgan)は,水中画像に発生する様々な減衰・散乱現象の影響を2つの発生器で取り組むことにより,水柱によって引き起こされるヘイズ・カラーキャストを除去し,水中シーンの真の色彩を復元する。
第1のジェネレータは、水中画像を入力すると脱水シーンを予測し、第2のジェネレータは、画像形成モデルの送信と対光成分に基づいてカスタムロス機能を実装することにより、水中画像形成過程を学習する。
我々の実験によると、DGD-cGANは、いくつかの広く利用可能なデータセットの最先端の手法と比較して、一貫して改善の限界を提供する。
関連論文リスト
- U2NeRF: Unsupervised Underwater Image Restoration and Neural Radiance Fields [20.30434798359958]
マルチビュー幾何学に基づく新しいビューのレンダリングと復元を同時に行うトランスフォーマーベースのアーキテクチャであるUnsupervised Underwater Neural Radiance Field U2NeRFを提案する。
我々は,12の水中シーンからなる水中ビュー合成UVSデータセットを,合成生成データと実世界のデータの両方を含む形でリリースする。
論文 参考訳(メタデータ) (2024-11-25T08:02:28Z) - Underwater Image Enhancement with Cascaded Contrastive Learning [51.897854142606725]
水中画像強調(UIE)は、水中環境の複雑さと水中画像劣化の多様性のために非常に困難な課題である。
既存のディープラーニングベースのUIEメソッドの多くは、多様な劣化に同時に対処できないシングルステージネットワークに従っている。
本稿では,2段階の深層学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-16T03:16:44Z) - Underwater Image Enhancement via Dehazing and Color Restoration [17.263563715287045]
既存の水中画像強調法は、ヘイズとカラーキャストを統一的な劣化過程として扱う。
水中画像の品質を向上させるために,視覚トランス (ViT) ベースのネットワーク (WaterFormer と呼ぶ) を提案する。
論文 参考訳(メタデータ) (2024-09-15T15:58:20Z) - FDCE-Net: Underwater Image Enhancement with Embedding Frequency and Dual Color Encoder [49.79611204954311]
水中画像は、低明度、色の変化、ぼやけた詳細、吸光光によるノイズ、水や懸濁粒子による散乱などの様々な問題に悩まされることが多い。
従来の水中画像強調法(UIE)は主に空間領域の強調に焦点を当てており、画像固有の周波数領域情報を無視している。
論文 参考訳(メタデータ) (2024-04-27T15:16:34Z) - WaterHE-NeRF: Water-ray Tracing Neural Radiance Fields for Underwater
Scene Reconstruction [6.036702530679703]
本研究では,3次元空間における色,密度,照度減衰を正確にエンコードするRetinex理論による新しい水線トレーシング場を開発する。
WaterHE-NeRFは、その発光減衰機構を通じて、劣化画像と鮮明な多視点画像の両方を生成する。
論文 参考訳(メタデータ) (2023-12-12T02:55:14Z) - PUGAN: Physical Model-Guided Underwater Image Enhancement Using GAN with
Dual-Discriminators [120.06891448820447]
鮮明で視覚的に快適な画像を得る方法は、人々の共通の関心事となっている。
水中画像強調(UIE)の課題も、時間とともに現れた。
本稿では,UIE のための物理モデル誘導型 GAN モデルを提案する。
我々のPUGANは質的および定量的な測定値において最先端の手法より優れています。
論文 参考訳(メタデータ) (2023-06-15T07:41:12Z) - Unpaired Overwater Image Defogging Using Prior Map Guided CycleGAN [60.257791714663725]
オーバーウォーターシーンで画像をデフォグするための先行マップガイドサイクロン (PG-CycleGAN) を提案する。
提案手法は,最先端の教師付き,半教師付き,非教師付きデグジングアプローチより優れている。
論文 参考訳(メタデータ) (2022-12-23T03:00:28Z) - A Wavelet-based Dual-stream Network for Underwater Image Enhancement [11.178274779143209]
水中画像のカラーキャストやぼやけた細部に対処するウェーブレットベースのデュアルストリームネットワークを提案する。
離散ウェーブレット変換を用いて、入力画像を複数の周波数帯域に分解することで、これらのアーティファクトを別々に処理する。
提案手法を実環境および合成水中データセットの両方で検証し,計算複雑性の低い色補正およびぼかし除去におけるモデルの有効性を示した。
論文 参考訳(メタデータ) (2022-02-17T16:57:25Z) - Underwater Image Enhancement via Medium Transmission-Guided Multi-Color
Space Embedding [88.46682991985907]
本稿では,Ucolor と呼ばれる媒体透過誘導多色空間埋め込みによる水中画像強調ネットワークを提案する。
当社のネットワークは、複数の色空間を埋め込むことにより、水中画像の視覚的品質を効果的に改善できます。
論文 参考訳(メタデータ) (2021-04-27T07:35:30Z) - Blur, Noise, and Compression Robust Generative Adversarial Networks [85.68632778835253]
劣化画像から直接クリーンな画像生成装置を学習するために, ぼかし, ノイズ, 圧縮堅牢なGAN(BNCR-GAN)を提案する。
NR-GANにインスパイアされたBNCR-GANは、画像、ぼやけたカーネル、ノイズ、品質要素ジェネレータで構成される多重ジェネレータモデルを使用する。
CIFAR-10の大規模比較とFFHQの一般性解析によるBNCR-GANの有効性を実証する。
論文 参考訳(メタデータ) (2020-03-17T17:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。