論文の概要: SyreaNet: A Physically Guided Underwater Image Enhancement Framework
Integrating Synthetic and Real Images
- arxiv url: http://arxiv.org/abs/2302.08269v2
- Date: Thu, 25 May 2023 23:21:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-29 20:42:04.951154
- Title: SyreaNet: A Physically Guided Underwater Image Enhancement Framework
Integrating Synthetic and Real Images
- Title(参考訳): SyreaNet: 合成画像と実画像を統合する物理ガイド付き水中画像強調フレームワーク
- Authors: Junjie Wen, Jinqiang Cui, Zhenjun Zhao, Ruixin Yan, Zhi Gao, Lihua
Dou, Ben M. Chen
- Abstract要約: 水中画像強調(UIE)は高レベルの視覚関連水中作業に不可欠である。
合成データと実データの両方を統合するUIEのためのフレームワーク textitSyreaNet を提案する。
- 参考スコア(独自算出の注目度): 17.471353846746474
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Underwater image enhancement (UIE) is vital for high-level vision-related
underwater tasks. Although learning-based UIE methods have made remarkable
achievements in recent years, it's still challenging for them to consistently
deal with various underwater conditions, which could be caused by: 1) the use
of the simplified atmospheric image formation model in UIE may result in severe
errors; 2) the network trained solely with synthetic images might have
difficulty in generalizing well to real underwater images. In this work, we,
for the first time, propose a framework \textit{SyreaNet} for UIE that
integrates both synthetic and real data under the guidance of the revised
underwater image formation model and novel domain adaptation (DA) strategies.
First, an underwater image synthesis module based on the revised model is
proposed. Then, a physically guided disentangled network is designed to predict
the clear images by combining both synthetic and real underwater images. The
intra- and inter-domain gaps are abridged by fully exchanging the domain
knowledge. Extensive experiments demonstrate the superiority of our framework
over other state-of-the-art (SOTA) learning-based UIE methods qualitatively and
quantitatively. The code and dataset are publicly available at
https://github.com/RockWenJJ/SyreaNet.git.
- Abstract(参考訳): 水中画像強調(UIE)は高レベルの視覚関連水中作業に不可欠である。
近年、学習に基づくuie手法は目覚ましい成果を上げているが、様々な水中条件に一貫して対応することが課題となっている。
1) UIEにおける簡易な大気画像形成モデルの使用は,重大な誤りをもたらす可能性がある。
2)合成画像のみを訓練したネットワークでは,実際の水中画像への一般化が困難であった。
本稿では,本研究で初めて,改良された水中画像形成モデルと新規ドメイン適応(da)戦略の指導のもとに合成データと実データの両方を統合する,uieのためのフレームワーク \textit{syreanet}を提案する。
まず,修正モデルに基づく水中画像合成モジュールを提案する。
そして、合成画像と実際の水中画像の両方を組み合わせることにより、明瞭な画像を予測するように物理的に誘導された不等角化ネットワークを設計する。
ドメイン内およびドメイン間ギャップは、ドメイン知識を完全に交換することで解消される。
sota(state-of-the-art)学習に基づくuie法よりも,質的かつ定量的にフレームワークの優位性を示す広範な実験を行った。
コードとデータセットはhttps://github.com/RockWenJJ/SyreaNet.gitで公開されている。
関連論文リスト
- Physics-Inspired Synthesized Underwater Image Dataset [9.959844922120528]
PHISWIDは、物理にインスパイアされた画像合成による水中画像処理の強化に適したデータセットである。
以上の結果から,PHISWIDでトレーニングを行う場合の基本的U-Netアーキテクチャでさえ,水中画像強調において既存の手法よりも大幅に優れていたことが判明した。
我々はPHISWIDを公開し、水中イメージング技術の進歩に重要なリソースを提供する。
論文 参考訳(メタデータ) (2024-04-05T10:23:10Z) - DGNet: Dynamic Gradient-Guided Network for Water-Related Optics Image
Enhancement [77.0360085530701]
水中画像強調(UIE)は、水中環境によって引き起こされる複雑な劣化のために難しい課題である。
従来の手法では、劣化過程を理想化し、中音や物体の動きが画像の特徴の分布に与える影響を無視することが多い。
提案手法では,予測画像を用いて疑似ラベルを動的に更新し,動的勾配を加えてネットワークの勾配空間を最適化する。
論文 参考訳(メタデータ) (2023-12-12T06:07:21Z) - PUGAN: Physical Model-Guided Underwater Image Enhancement Using GAN with
Dual-Discriminators [120.06891448820447]
鮮明で視覚的に快適な画像を得る方法は、人々の共通の関心事となっている。
水中画像強調(UIE)の課題も、時間とともに現れた。
本稿では,UIE のための物理モデル誘導型 GAN モデルを提案する。
我々のPUGANは質的および定量的な測定値において最先端の手法より優れています。
論文 参考訳(メタデータ) (2023-06-15T07:41:12Z) - MetaUE: Model-based Meta-learning for Underwater Image Enhancement [25.174894007563374]
本論文では,様々な水中シナリオ下でクリーンな画像を復元するためのモデルに基づくディープラーニング手法を提案する。
メタラーニング戦略は、合成水中データセット上で事前訓練されたモデルを得るために用いられる。
その後、モデルが実際の水中データセットに微調整され、MetaUEと呼ばれる信頼性の高い水中画像拡張モデルが得られる。
論文 参考訳(メタデータ) (2023-03-12T02:38:50Z) - Domain Adaptation for Underwater Image Enhancement via Content and Style
Separation [7.077978580799124]
水中画像は、カラーキャスト、低コントラスト、光吸収、屈折、散乱によるハジー効果に悩まされている。
近年の学習に基づく手法は水中画像の強調に驚くべき性能を示した。
本稿では,コンテンツとスタイル分離による水中画像強調のためのドメイン適応フレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-17T09:30:29Z) - Domain Adaptation for Underwater Image Enhancement [51.71570701102219]
本稿では,ドメイン間およびドメイン内ギャップを最小限に抑えるために,新しい2相水中ドメイン適応ネットワーク(TUDA)を提案する。
第1段階では、入力画像のリアリズムを強化する翻訳部と、拡張部とを含む新しい二重配向ネットワークを設計する。
第2フェーズでは、ランクベースの水中品質評価手法が組み込まれている強化画像の評価品質に応じて、実データを簡単に分類する。
論文 参考訳(メタデータ) (2021-08-22T06:38:19Z) - Single Underwater Image Enhancement Using an Analysis-Synthesis Network [21.866940227491146]
水中画像強調のためのほとんどの深層モデルは、水中画像形成モデルに基づく合成データセットの訓練に頼っている。
新しい水中合成データセットが最初に確立され、改良された環境光合成方程式が組み込まれている。
ANA-SYNという名前の統一されたフレームワークは、事前情報とデータ情報の協調の下で、効果的に水中画像を強化することができる。
論文 参考訳(メタデータ) (2021-08-20T06:29:12Z) - Underwater Image Restoration via Contrastive Learning and a Real-world
Dataset [59.35766392100753]
本稿では,教師なし画像から画像への翻訳フレームワークに基づく水中画像復元手法を提案する。
提案手法は, 生画像と復元画像の相互情報を最大化するために, コントラスト学習と生成敵ネットワークを利用した。
論文 参考訳(メタデータ) (2021-06-20T16:06:26Z) - Domain Adaptation for Image Dehazing [72.15994735131835]
既存のほとんどの方法は、合成ヘイズ画像のデハージングモデルを訓練するが、ドメインシフトによる実際のヘイズ画像の一般化は困難である。
画像変換モジュールと2つの画像デハージングモジュールからなるドメイン適応パラダイムを提案する。
実世界の合成画像と実世界の画像の両方で実験結果から,我々のモデルは最先端の脱ハージングアルゴリズムに対して好適に機能することが示された。
論文 参考訳(メタデータ) (2020-05-10T13:54:56Z) - Two-shot Spatially-varying BRDF and Shape Estimation [89.29020624201708]
形状とSVBRDFを段階的に推定した新しいディープラーニングアーキテクチャを提案する。
ドメインランダム化された幾何学と現実的な材料を用いた大規模合成学習データセットを作成する。
合成データセットと実世界のデータセットの両方の実験により、合成データセットでトレーニングされたネットワークが、実世界の画像に対してうまく一般化できることが示されている。
論文 参考訳(メタデータ) (2020-04-01T12:56:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。