論文の概要: MetaUE: Model-based Meta-learning for Underwater Image Enhancement
- arxiv url: http://arxiv.org/abs/2303.06543v1
- Date: Sun, 12 Mar 2023 02:38:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-14 18:22:27.336638
- Title: MetaUE: Model-based Meta-learning for Underwater Image Enhancement
- Title(参考訳): MetaUE:水中画像強調のためのモデルベースメタラーニング
- Authors: Zhenwei Zhang and Haorui Yan and Ke Tang and Yuping Duan
- Abstract要約: 本論文では,様々な水中シナリオ下でクリーンな画像を復元するためのモデルに基づくディープラーニング手法を提案する。
メタラーニング戦略は、合成水中データセット上で事前訓練されたモデルを得るために用いられる。
その後、モデルが実際の水中データセットに微調整され、MetaUEと呼ばれる信頼性の高い水中画像拡張モデルが得られる。
- 参考スコア(独自算出の注目度): 25.174894007563374
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The challenges in recovering underwater images are the presence of diverse
degradation factors and the lack of ground truth images. Although synthetic
underwater image pairs can be used to overcome the problem of inadequately
observing data, it may result in over-fitting and enhancement degradation. This
paper proposes a model-based deep learning method for restoring clean images
under various underwater scenarios, which exhibits good interpretability and
generalization ability. More specifically, we build up a multi-variable
convolutional neural network model to estimate the clean image, background
light and transmission map, respectively. An efficient loss function is also
designed to closely integrate the variables based on the underwater image
model. The meta-learning strategy is used to obtain a pre-trained model on the
synthetic underwater dataset, which contains different types of degradation to
cover the various underwater environments. The pre-trained model is then
fine-tuned on real underwater datasets to obtain a reliable underwater image
enhancement model, called MetaUE. Numerical experiments demonstrate that the
pre-trained model has good generalization ability, allowing it to remove the
color degradation for various underwater attenuation images such as blue, green
and yellow, etc. The fine-tuning makes the model able to adapt to different
underwater datasets, the enhancement results of which outperform the
state-of-the-art underwater image restoration methods. All our codes and data
are available at \url{https://github.com/Duanlab123/MetaUE}.
- Abstract(参考訳): 水中画像の復元における課題は、多様な劣化要因の存在と地上真理画像の欠如である。
合成水中画像ペアは、不適切なデータ観測の問題を克服するために使用できるが、過剰フィッティングと拡張劣化をもたらす可能性がある。
本稿では,様々な水中シナリオでクリーンイメージを復元するためのモデルベース深層学習手法を提案する。
より具体的には、クリーン画像、背景光、送信マップをそれぞれ推定するために、多変量畳み込みニューラルネットワークモデルを構築した。
また、水中画像モデルに基づいて変数を密に統合する効率的な損失関数も設計されている。
メタラーニング戦略は、様々な水中環境をカバーする様々な種類の劣化を含む合成水中データセットの事前学習モデルを得るために使用される。
事前訓練されたモデルは、実際の水中データセット上で微調整され、metaueと呼ばれる信頼性の高い水中画像拡張モデルを得る。
数値実験により, 事前学習モデルでは, 青色, 緑, 黄色などの水中減衰画像の色劣化を除去できるほど, 高い一般化能を有することが示された。
微調整により、モデルは異なる水中データセットに適応でき、その結果は最先端の水中画像復元方法より優れている。
すべてのコードとデータは、 \url{https://github.com/Duanlab123/MetaUE}で利用可能です。
関連論文リスト
- Physics-Inspired Synthesized Underwater Image Dataset [9.959844922120528]
PHISWIDは、物理にインスパイアされた画像合成による水中画像処理の強化に適したデータセットである。
以上の結果から,PHISWIDでトレーニングを行う場合の基本的U-Netアーキテクチャでさえ,水中画像強調において既存の手法よりも大幅に優れていたことが判明した。
我々はPHISWIDを公開し、水中イメージング技術の進歩に重要なリソースを提供する。
論文 参考訳(メタデータ) (2024-04-05T10:23:10Z) - Physics Informed and Data Driven Simulation of Underwater Images via
Residual Learning [5.095097384893417]
一般的に水中の画像は、光が水中を伝播するにつれて減衰し後方散乱するため、色歪みと低コントラストに悩まされる。
既存の単純な劣化モデル(大気画像の「ヘイジング」効果に似ている)は水中画像の劣化を適切に表現するには不十分である。
水中効果を自動的にシミュレートする深層学習型アーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-02-07T21:53:28Z) - DGNet: Dynamic Gradient-Guided Network for Water-Related Optics Image
Enhancement [77.0360085530701]
水中画像強調(UIE)は、水中環境によって引き起こされる複雑な劣化のために難しい課題である。
従来の手法では、劣化過程を理想化し、中音や物体の動きが画像の特徴の分布に与える影響を無視することが多い。
提案手法では,予測画像を用いて疑似ラベルを動的に更新し,動的勾配を加えてネットワークの勾配空間を最適化する。
論文 参考訳(メタデータ) (2023-12-12T06:07:21Z) - A deep learning approach for marine snow synthesis and removal [55.86191108738564]
本稿では,深層学習技術を用いた海洋雪の干渉低減手法を提案する。
まず,GAN(Generative Adversarial Network)モデルを用いて,現実的な積雪サンプルを合成する。
次に、画像から画像への変換タスクとして海洋性除雪を行うためにU-Netモデルを訓練する。
論文 参考訳(メタデータ) (2023-11-27T07:19:41Z) - Learning Heavily-Degraded Prior for Underwater Object Detection [59.5084433933765]
本稿では、検出器フレンドリーな画像から、転送可能な事前知識を求める。
これは、検出器フレンドリー(DFUI)と水中画像の高度に劣化した領域が、特徴分布のギャップがあることを統計的に観察したものである。
高速かつパラメータの少ない本手法は変圧器型検出器よりも優れた性能を保っている。
論文 参考訳(メタデータ) (2023-08-24T12:32:46Z) - PUGAN: Physical Model-Guided Underwater Image Enhancement Using GAN with
Dual-Discriminators [120.06891448820447]
鮮明で視覚的に快適な画像を得る方法は、人々の共通の関心事となっている。
水中画像強調(UIE)の課題も、時間とともに現れた。
本稿では,UIE のための物理モデル誘導型 GAN モデルを提案する。
我々のPUGANは質的および定量的な測定値において最先端の手法より優れています。
論文 参考訳(メタデータ) (2023-06-15T07:41:12Z) - Adaptive Uncertainty Distribution in Deep Learning for Unsupervised
Underwater Image Enhancement [1.9249287163937976]
ディープラーニングベースの水中画像強化における大きな課題の1つは、高品質なトレーニングデータの可用性の制限である。
本研究では、条件付き変分オートエンコーダ(cVAE)を用いて、深層学習モデルのトレーニングを行う、新しい教師なし水中画像強調フレームワークを提案する。
提案手法は, 定量化と定性化の両面において, 他の最先端手法と比較して, 競争性能が向上することを示す。
論文 参考訳(メタデータ) (2022-12-18T01:07:20Z) - Domain Adaptation for Underwater Image Enhancement via Content and Style
Separation [7.077978580799124]
水中画像は、カラーキャスト、低コントラスト、光吸収、屈折、散乱によるハジー効果に悩まされている。
近年の学習に基づく手法は水中画像の強調に驚くべき性能を示した。
本稿では,コンテンツとスタイル分離による水中画像強調のためのドメイン適応フレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-17T09:30:29Z) - Underwater Image Restoration via Contrastive Learning and a Real-world
Dataset [59.35766392100753]
本稿では,教師なし画像から画像への翻訳フレームワークに基づく水中画像復元手法を提案する。
提案手法は, 生画像と復元画像の相互情報を最大化するために, コントラスト学習と生成敵ネットワークを利用した。
論文 参考訳(メタデータ) (2021-06-20T16:06:26Z) - Generating Physically-Consistent Satellite Imagery for Climate Visualizations [53.61991820941501]
我々は,将来的な洪水や森林再生イベントの合成衛星画像を作成するために,生成的敵ネットワークを訓練する。
純粋なディープラーニングベースのモデルでは、洪水の可視化を生成することができるが、洪水の影響を受けない場所では幻覚的な洪水が発生する。
我々は,地球観測におけるセグメンテーションガイドによる画像と画像の変換のためのコードとデータセットを公開している。
論文 参考訳(メタデータ) (2021-04-10T15:00:15Z) - Domain Adaptive Adversarial Learning Based on Physics Model Feedback for
Underwater Image Enhancement [10.143025577499039]
物理モデルに基づくフィードバック制御と,水中画像の高機能化のための領域適応機構を用いた,新しい頑健な対角学習フレームワークを提案する。
水中画像形成モデルを用いてRGB-Dデータから水中訓練データセットをシミュレーションする新しい手法を提案する。
合成および実水中画像の最終的な改良結果は,提案手法の優位性を示している。
論文 参考訳(メタデータ) (2020-02-20T07:50:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。