論文の概要: Domain Adaptation for Underwater Image Enhancement via Content and Style
Separation
- arxiv url: http://arxiv.org/abs/2202.08537v1
- Date: Thu, 17 Feb 2022 09:30:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-18 15:18:02.166349
- Title: Domain Adaptation for Underwater Image Enhancement via Content and Style
Separation
- Title(参考訳): コンテンツとスタイル分離による水中画像強調のためのドメイン適応
- Authors: Yu-Wei Chen, Soo-Chang Pei
- Abstract要約: 水中画像は、カラーキャスト、低コントラスト、光吸収、屈折、散乱によるハジー効果に悩まされている。
近年の学習に基づく手法は水中画像の強調に驚くべき性能を示した。
本稿では,コンテンツとスタイル分離による水中画像強調のためのドメイン適応フレームワークを提案する。
- 参考スコア(独自算出の注目度): 7.077978580799124
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Underwater image suffer from color cast, low contrast and hazy effect due to
light absorption, refraction and scattering, which degraded the high-level
application, e.g, object detection and object tracking. Recent learning-based
methods demonstrate astonishing performance on underwater image enhancement,
however, most of these works use synthesis pair data for supervised learning
and ignore the domain gap to real-world data. In this paper, we propose a
domain adaptation framework for underwater image enhancement via content and
style separation, we assume image could be disentangled to content and style
latent, and image could be clustered to the sub-domain of associated style in
latent space, the goal is to build up the mapping between underwater style
latent and clean one. Different from prior works of domain adaptation for
underwater image enhancement, which target to minimize the latent discrepancy
of synthesis and real-world data, we aim to distinguish style latent from
different sub-domains. To solve the problem of lacking pair real-world data, we
leverage synthesis to real image-to-image translation to obtain pseudo real
underwater image pairs for supervised learning, and enhancement can be achieved
by input content and clean style latent into generator. Our model provide a
user interact interface to adjust different enhanced level by latent
manipulation. Experiment on various public real-world underwater benchmarks
demonstrate that the proposed framework is capable to perform domain adaptation
for underwater image enhancement and outperform various state-of-the-art
underwater image enhancement algorithms in quantity and quality. The model and
source code are available at https://github.com/fordevoted/UIESS
- Abstract(参考訳): 水中画像は、光吸収、屈折、散乱によるカラーキャスト、低コントラスト、ハジー効果に悩まされ、物体検出や物体追跡などの高レベルな用途が劣化した。
近年の学習に基づく手法は水中画像強調における驚くべき性能を示しているが、これらの作品の多くは合成ペアデータを用いて教師あり学習を行い、実世界データに対するドメインギャップを無視している。
本稿では,水中画像強調のためのコンテンツとスタイル分離によるドメイン適応フレームワークを提案し,画像がコンテンツとスタイル潜伏とに絡み合うことができることを仮定し,潜伏空間における関連するスタイルのサブドメインにイメージをクラスタリングし,水中潜伏とクリーンな画像間のマッピングを構築することを目的とする。
合成と実世界のデータの遅延を最小限に抑えることを目的とした,水中画像強調のための領域適応の先行研究とは違って,異なるサブドメインからスタイル潜在度を区別することを目的とする。
実世界のペアデータの欠如を解決するため,実画像から画像への変換に合成を活用し,教師付き学習のための擬似実水中画像ペアを得る。
本モデルでは,潜時操作により異なる拡張レベルを調整できるユーザインタラクションインタフェースを提供する。
実世界の様々な水中ベンチマーク実験により,提案フレームワークは水中画像強調のための領域適応を行い,様々な水中画像強調アルゴリズムの量と品質に優れることを示した。
モデルとソースコードはhttps://github.com/fordevoted/UIESSで入手できる。
関連論文リスト
- HUPE: Heuristic Underwater Perceptual Enhancement with Semantic Collaborative Learning [62.264673293638175]
既存の水中画像強調法は主に視覚的品質の向上に重点を置いており、実際的な意味を見落としている。
視覚的品質を高め,他の下流タスクに対処する柔軟性を示す,水中知覚向上のための可逆的ネットワークHを提案する。
論文 参考訳(メタデータ) (2024-11-27T12:37:03Z) - DGNet: Dynamic Gradient-Guided Network for Water-Related Optics Image
Enhancement [77.0360085530701]
水中画像強調(UIE)は、水中環境によって引き起こされる複雑な劣化のために難しい課題である。
従来の手法では、劣化過程を理想化し、中音や物体の動きが画像の特徴の分布に与える影響を無視することが多い。
提案手法では,予測画像を用いて疑似ラベルを動的に更新し,動的勾配を加えてネットワークの勾配空間を最適化する。
論文 参考訳(メタデータ) (2023-12-12T06:07:21Z) - PUGAN: Physical Model-Guided Underwater Image Enhancement Using GAN with
Dual-Discriminators [120.06891448820447]
鮮明で視覚的に快適な画像を得る方法は、人々の共通の関心事となっている。
水中画像強調(UIE)の課題も、時間とともに現れた。
本稿では,UIE のための物理モデル誘導型 GAN モデルを提案する。
我々のPUGANは質的および定量的な測定値において最先端の手法より優れています。
論文 参考訳(メタデータ) (2023-06-15T07:41:12Z) - MetaUE: Model-based Meta-learning for Underwater Image Enhancement [25.174894007563374]
本論文では,様々な水中シナリオ下でクリーンな画像を復元するためのモデルに基づくディープラーニング手法を提案する。
メタラーニング戦略は、合成水中データセット上で事前訓練されたモデルを得るために用いられる。
その後、モデルが実際の水中データセットに微調整され、MetaUEと呼ばれる信頼性の高い水中画像拡張モデルが得られる。
論文 参考訳(メタデータ) (2023-03-12T02:38:50Z) - SyreaNet: A Physically Guided Underwater Image Enhancement Framework
Integrating Synthetic and Real Images [17.471353846746474]
水中画像強調(UIE)は高レベルの視覚関連水中作業に不可欠である。
合成データと実データの両方を統合するUIEのためのフレームワーク textitSyreaNet を提案する。
論文 参考訳(メタデータ) (2023-02-16T12:57:52Z) - Adaptive deep learning framework for robust unsupervised underwater image enhancement [3.0516727053033392]
ディープラーニングベースの水中画像強化における大きな課題の1つは、高品質なトレーニングデータの可用性の制限である。
本研究では、条件付き変分オートエンコーダ(cVAE)を用いて、深層学習モデルのトレーニングを行う、新しい教師なし水中画像強調フレームワークを提案する。
提案手法は, 定量化と定性化の両面において, 他の最先端手法と比較して, 競争性能が向上することを示す。
論文 参考訳(メタデータ) (2022-12-18T01:07:20Z) - Semantic-aware Texture-Structure Feature Collaboration for Underwater
Image Enhancement [58.075720488942125]
水中画像の強調は海洋工学や水生ロボット工学において重要な技術として注目されている。
我々は,高レベルな意味認識事前学習モデルと協調して,効率的でコンパクトな拡張ネットワークを開発する。
また,提案手法を水中の有意な物体検出タスクに適用し,高レベルの視覚タスクに適した意味認識能力を明らかにする。
論文 参考訳(メタデータ) (2022-11-19T07:50:34Z) - Domain Adaptation for Underwater Image Enhancement [51.71570701102219]
本稿では,ドメイン間およびドメイン内ギャップを最小限に抑えるために,新しい2相水中ドメイン適応ネットワーク(TUDA)を提案する。
第1段階では、入力画像のリアリズムを強化する翻訳部と、拡張部とを含む新しい二重配向ネットワークを設計する。
第2フェーズでは、ランクベースの水中品質評価手法が組み込まれている強化画像の評価品質に応じて、実データを簡単に分類する。
論文 参考訳(メタデータ) (2021-08-22T06:38:19Z) - Underwater Image Restoration via Contrastive Learning and a Real-world
Dataset [59.35766392100753]
本稿では,教師なし画像から画像への翻訳フレームワークに基づく水中画像復元手法を提案する。
提案手法は, 生画像と復元画像の相互情報を最大化するために, コントラスト学習と生成敵ネットワークを利用した。
論文 参考訳(メタデータ) (2021-06-20T16:06:26Z) - Domain Adaptive Adversarial Learning Based on Physics Model Feedback for
Underwater Image Enhancement [10.143025577499039]
物理モデルに基づくフィードバック制御と,水中画像の高機能化のための領域適応機構を用いた,新しい頑健な対角学習フレームワークを提案する。
水中画像形成モデルを用いてRGB-Dデータから水中訓練データセットをシミュレーションする新しい手法を提案する。
合成および実水中画像の最終的な改良結果は,提案手法の優位性を示している。
論文 参考訳(メタデータ) (2020-02-20T07:50:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。