論文の概要: Adaptive Uncertainty Distribution in Deep Learning for Unsupervised
Underwater Image Enhancement
- arxiv url: http://arxiv.org/abs/2212.08983v1
- Date: Sun, 18 Dec 2022 01:07:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 17:22:07.681653
- Title: Adaptive Uncertainty Distribution in Deep Learning for Unsupervised
Underwater Image Enhancement
- Title(参考訳): 教師なし水中画像強調のための深層学習における適応的不確かさ分布
- Authors: Alzayat Saleh, Marcus Sheaves, Dean Jerry, and Mostafa Rahimi Azghadi
- Abstract要約: ディープラーニングベースの水中画像強化における大きな課題の1つは、高品質なトレーニングデータの可用性の制限である。
本研究では、条件付き変分オートエンコーダ(cVAE)を用いて、深層学習モデルのトレーニングを行う、新しい教師なし水中画像強調フレームワークを提案する。
提案手法は, 定量化と定性化の両面において, 他の最先端手法と比較して, 競争性能が向上することを示す。
- 参考スコア(独自算出の注目度): 1.9249287163937976
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: One of the main challenges in deep learning-based underwater image
enhancement is the limited availability of high-quality training data.
Underwater images are difficult to capture and are often of poor quality due to
the distortion and loss of colour and contrast in water. This makes it
difficult to train supervised deep learning models on large and diverse
datasets, which can limit the model's performance. In this paper, we explore an
alternative approach to supervised underwater image enhancement. Specifically,
we propose a novel unsupervised underwater image enhancement framework that
employs a conditional variational autoencoder (cVAE) to train a deep learning
model with probabilistic adaptive instance normalization (PAdaIN) and
statistically guided multi-colour space stretch that produces realistic
underwater images. The resulting framework is composed of a U-Net as a feature
extractor and a PAdaIN to encode the uncertainty, which we call UDnet. To
improve the visual quality of the images generated by UDnet, we use a
statistically guided multi-colour space stretch module that ensures visual
consistency with the input image and provides an alternative to training using
a ground truth image. The proposed model does not need manual human annotation
and can learn with a limited amount of data and achieves state-of-the-art
results on underwater images. We evaluated our proposed framework on eight
publicly-available datasets. The results show that our proposed framework
yields competitive performance compared to other state-of-the-art approaches in
quantitative as well as qualitative metrics. Code available at
https://github.com/alzayats/UDnet .
- Abstract(参考訳): ディープラーニングベースの水中画像強化における大きな課題の1つは、高品質なトレーニングデータの可用性の制限である。
水中の画像は撮影が困難であり、水中の色やコントラストの歪みや損失のため品質が悪いことが多い。
これにより、大規模で多様なデータセット上で教師付きディープラーニングモデルをトレーニングすることが難しくなり、モデルのパフォーマンスが制限される。
本稿では, 監視水中画像強調のための代替手法について検討する。
具体的には,条件付き変分オートエンコーダ(cvae)を用いて,確率的適応インスタンス正規化(padain)による深層学習モデルと,実写的な水中画像を生成する統計的誘導型マルチカラー空間拡張モデルを提案する。
その結果得られたフレームワークは,UDnetと呼ばれる不確実性を符号化する機能抽出器としてU-NetとPAdaINから構成される。
UDnetによって生成された画像の視覚的品質を改善するために,入力画像との視覚的整合性を確保し,地上の真理画像を用いたトレーニングの代替となる,統計的にガイドされたマルチカラー空間ストレッチモジュールを使用する。
提案モデルでは人手によるアノテーションを必要とせず、限られた量のデータで学習し、水中画像の最先端結果が得られる。
提案フレームワークを8つのデータセット上で評価した。
その結果,提案フレームワークは質的指標と同様に定量的に評価される他の最先端手法と比較して,競争性能が向上することが示された。
コードはhttps://github.com/alzayats/udnet。
関連論文リスト
- UIE-UnFold: Deep Unfolding Network with Color Priors and Vision Transformer for Underwater Image Enhancement [27.535028176427623]
水中画像強調(UIE)は様々な海洋用途において重要な役割を担っている。
現在の学習に基づくアプローチは、水中画像形成に関わる物理過程に関する明確な事前知識を欠いていることが多い。
そこで本稿では,UIEのカラープリエントとステージ間特徴付与を統合した新しいディープ・アンフォールディング・ネットワーク(DUN)を提案する。
論文 参考訳(メタデータ) (2024-08-20T08:48:33Z) - DGNet: Dynamic Gradient-Guided Network for Water-Related Optics Image
Enhancement [77.0360085530701]
水中画像強調(UIE)は、水中環境によって引き起こされる複雑な劣化のために難しい課題である。
従来の手法では、劣化過程を理想化し、中音や物体の動きが画像の特徴の分布に与える影響を無視することが多い。
提案手法では,予測画像を用いて疑似ラベルを動的に更新し,動的勾配を加えてネットワークの勾配空間を最適化する。
論文 参考訳(メタデータ) (2023-12-12T06:07:21Z) - PUGAN: Physical Model-Guided Underwater Image Enhancement Using GAN with
Dual-Discriminators [120.06891448820447]
鮮明で視覚的に快適な画像を得る方法は、人々の共通の関心事となっている。
水中画像強調(UIE)の課題も、時間とともに現れた。
本稿では,UIE のための物理モデル誘導型 GAN モデルを提案する。
我々のPUGANは質的および定量的な測定値において最先端の手法より優れています。
論文 参考訳(メタデータ) (2023-06-15T07:41:12Z) - MetaUE: Model-based Meta-learning for Underwater Image Enhancement [25.174894007563374]
本論文では,様々な水中シナリオ下でクリーンな画像を復元するためのモデルに基づくディープラーニング手法を提案する。
メタラーニング戦略は、合成水中データセット上で事前訓練されたモデルを得るために用いられる。
その後、モデルが実際の水中データセットに微調整され、MetaUEと呼ばれる信頼性の高い水中画像拡張モデルが得られる。
論文 参考訳(メタデータ) (2023-03-12T02:38:50Z) - Improving GAN Training via Feature Space Shrinkage [69.98365478398593]
本稿では,識別器の画像表現空間におけるトレーニングデータの領域を縮小するAdaptiveMixを提案する。
直接有界な特徴空間を考慮し, ハードサンプルを構築し, ハードサンプルと簡単なサンプル間の特徴距離を狭めることを提案する。
評価結果から,我々のAdaptiveMixはGANの訓練を容易にし,生成したサンプルの画像品質を効果的に向上させることができることが示された。
論文 参考訳(メタデータ) (2023-03-02T20:22:24Z) - Domain Adaptation for Underwater Image Enhancement via Content and Style
Separation [7.077978580799124]
水中画像は、カラーキャスト、低コントラスト、光吸収、屈折、散乱によるハジー効果に悩まされている。
近年の学習に基づく手法は水中画像の強調に驚くべき性能を示した。
本稿では,コンテンツとスタイル分離による水中画像強調のためのドメイン適応フレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-17T09:30:29Z) - SGUIE-Net: Semantic Attention Guided Underwater Image Enhancement with
Multi-Scale Perception [18.87163028415309]
そこで我々はSGUIE-Netと呼ばれる新しい水中画像強調ネットワークを提案する。
一般的な意味領域を共有する様々な画像に対して,意味情報を高レベルなガイダンスとして導入する。
この戦略は、異なるセマンティックオブジェクトに対する堅牢で視覚的に快適な拡張を実現するのに役立ちます。
論文 参考訳(メタデータ) (2022-01-08T14:03:24Z) - Image Quality Assessment using Contrastive Learning [50.265638572116984]
我々は、補助的な問題を解決するために、対照的な対の目的を用いて深層畳み込みニューラルネットワーク(CNN)を訓練する。
本研究では,最新のNR画像品質モデルと比較して,ContriQUEが競争性能を向上することを示す。
以上の結果から,大きなラベル付き主観的画像品質データセットを必要とせずに,知覚的関連性を持つ強力な品質表現が得られることが示唆された。
論文 参考訳(メタデータ) (2021-10-25T21:01:00Z) - Underwater Image Restoration via Contrastive Learning and a Real-world
Dataset [59.35766392100753]
本稿では,教師なし画像から画像への翻訳フレームワークに基づく水中画像復元手法を提案する。
提案手法は, 生画像と復元画像の相互情報を最大化するために, コントラスト学習と生成敵ネットワークを利用した。
論文 参考訳(メタデータ) (2021-06-20T16:06:26Z) - Towards Unsupervised Deep Image Enhancement with Generative Adversarial
Network [92.01145655155374]
監視されていない画像強調生成ネットワーク(UEGAN)を提案する。
教師なしの方法で所望の特性を持つ画像の集合から、対応する画像と画像のマッピングを学習する。
その結果,提案モデルは画像の美的品質を効果的に向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:22:46Z) - Domain Adaptive Adversarial Learning Based on Physics Model Feedback for
Underwater Image Enhancement [10.143025577499039]
物理モデルに基づくフィードバック制御と,水中画像の高機能化のための領域適応機構を用いた,新しい頑健な対角学習フレームワークを提案する。
水中画像形成モデルを用いてRGB-Dデータから水中訓練データセットをシミュレーションする新しい手法を提案する。
合成および実水中画像の最終的な改良結果は,提案手法の優位性を示している。
論文 参考訳(メタデータ) (2020-02-20T07:50:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。