論文の概要: A Generalized Physical-knowledge-guided Dynamic Model for Underwater
Image Enhancement
- arxiv url: http://arxiv.org/abs/2308.05447v1
- Date: Thu, 10 Aug 2023 09:09:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-11 13:11:03.951693
- Title: A Generalized Physical-knowledge-guided Dynamic Model for Underwater
Image Enhancement
- Title(参考訳): 水中画像強調のための一般物理知識誘導動的モデル
- Authors: Pan Mu, Hanning Xu, Zheyuan Liu, Zheng Wang, Sixian Chan, Cong Bai
- Abstract要約: 我々は、物理知識誘導動的モデル(GUPDM用ショート)による一般化水中画像強調法を設計する。
本研究は, 大気光と透過率を変化させ, 様々な水中画像タイプをシミュレートする。
次に、動的畳み込みを用いて水中画像から事前情報を適応的に抽出し、PMSのパラメータを生成するADSとTDSを設計する。
- 参考スコア(独自算出の注目度): 15.625794673532509
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Underwater images often suffer from color distortion and low contrast
resulting in various image types, due to the scattering and absorption of light
by water. While it is difficult to obtain high-quality paired training samples
with a generalized model. To tackle these challenges, we design a Generalized
Underwater image enhancement method via a Physical-knowledge-guided Dynamic
Model (short for GUPDM), consisting of three parts: Atmosphere-based Dynamic
Structure (ADS), Transmission-guided Dynamic Structure (TDS), and Prior-based
Multi-scale Structure (PMS). In particular, to cover complex underwater scenes,
this study changes the global atmosphere light and the transmission to simulate
various underwater image types (e.g., the underwater image color ranging from
yellow to blue) through the formation model. We then design ADS and TDS that
use dynamic convolutions to adaptively extract prior information from
underwater images and generate parameters for PMS. These two modules enable the
network to select appropriate parameters for various water types adaptively.
Besides, the multi-scale feature extraction module in PMS uses convolution
blocks with different kernel sizes and obtains weights for each feature map via
channel attention block and fuses them to boost the receptive field of the
network. The source code will be available at
\href{https://github.com/shiningZZ/GUPDM}{https://github.com/shiningZZ/GUPDM}.
- Abstract(参考訳): 水中の画像は、水による光の散乱と吸収のために、色歪やコントラストの低下によって様々な画像タイプに陥ることが多い。
一般化モデルを用いて高品質なペアトレーニングサンプルを得ることは困難である。
これらの課題に対処するために,大気系動的構造(ADS),透過型動的構造(TDS),先行型マルチスケール構造(PMS)の3つの部分からなる物理知識誘導動的モデル(GUPDMのショート)を用いた汎用水中画像強調手法を設計した。
特に、複雑な水中のシーンをカバーするために、この研究は大気の光と透過を変化させ、形成モデルを通して様々な水中画像(例えば、黄色から青までの水中画像色)をシミュレートする。
次に、動的畳み込みを用いて水中画像から事前情報を適応的に抽出し、PMSのパラメータを生成するADSとTDSを設計する。
これら2つのモジュールにより、ネットワークは様々な水型に対する適切なパラメータを適応的に選択できる。
さらに、PMSのマルチスケール特徴抽出モジュールは、カーネルサイズが異なる畳み込みブロックを使用し、チャネルアテンションブロックを介して各特徴マップの重みを求め、それらを融合させてネットワークの受容野を高める。
ソースコードは \href{https://github.com/shiningZZ/GUPDM}{https://github.com/shiningZZ/GUPDM} で入手できる。
関連論文リスト
- UIE-UnFold: Deep Unfolding Network with Color Priors and Vision Transformer for Underwater Image Enhancement [27.535028176427623]
水中画像強調(UIE)は様々な海洋用途において重要な役割を担っている。
現在の学習に基づくアプローチは、水中画像形成に関わる物理過程に関する明確な事前知識を欠いていることが多い。
そこで本稿では,UIEのカラープリエントとステージ間特徴付与を統合した新しいディープ・アンフォールディング・ネットワーク(DUN)を提案する。
論文 参考訳(メタデータ) (2024-08-20T08:48:33Z) - A Physical Model-Guided Framework for Underwater Image Enhancement and Depth Estimation [19.204227769408725]
既存の水中画像強調手法では、深度や対光といった画像モデルパラメータを正確に推定することができない。
先進的なUIEモデルとDeep Degradation Modelを併用したモデル誘導フレームワークを提案する。
本フレームワークは水中の多様なシーンにまたがって顕著な拡張効果をもたらす。
論文 参考訳(メタデータ) (2024-07-05T03:10:13Z) - DGNet: Dynamic Gradient-Guided Network for Water-Related Optics Image
Enhancement [77.0360085530701]
水中画像強調(UIE)は、水中環境によって引き起こされる複雑な劣化のために難しい課題である。
従来の手法では、劣化過程を理想化し、中音や物体の動きが画像の特徴の分布に与える影響を無視することが多い。
提案手法では,予測画像を用いて疑似ラベルを動的に更新し,動的勾配を加えてネットワークの勾配空間を最適化する。
論文 参考訳(メタデータ) (2023-12-12T06:07:21Z) - Learning Heavily-Degraded Prior for Underwater Object Detection [59.5084433933765]
本稿では、検出器フレンドリーな画像から、転送可能な事前知識を求める。
これは、検出器フレンドリー(DFUI)と水中画像の高度に劣化した領域が、特徴分布のギャップがあることを統計的に観察したものである。
高速かつパラメータの少ない本手法は変圧器型検出器よりも優れた性能を保っている。
論文 参考訳(メタデータ) (2023-08-24T12:32:46Z) - Transmission and Color-guided Network for Underwater Image Enhancement [8.894719412298397]
水中画像強調のための適応透過・動的カラー誘導ネットワーク(ATDCnet)を提案する。
物理の知識を生かして,適応型トランスミッション指向モジュール(ATM)を設計し,ネットワークをより良く誘導する。
色偏差問題に対処するため,強調画像色を後処理する動的色誘導モジュール (DCM) を設計した。
論文 参考訳(メタデータ) (2023-08-09T11:43:54Z) - PUGAN: Physical Model-Guided Underwater Image Enhancement Using GAN with
Dual-Discriminators [120.06891448820447]
鮮明で視覚的に快適な画像を得る方法は、人々の共通の関心事となっている。
水中画像強調(UIE)の課題も、時間とともに現れた。
本稿では,UIE のための物理モデル誘導型 GAN モデルを提案する。
我々のPUGANは質的および定量的な測定値において最先端の手法より優れています。
論文 参考訳(メタデータ) (2023-06-15T07:41:12Z) - RSFDM-Net: Real-time Spatial and Frequency Domains Modulation Network
for Underwater Image Enhancement [5.3240763486073055]
水中画像における色や細部を効率的に拡張するためのリアルタイム空間・周波数領域変調ネットワーク(RSFDM-Net)を提案する。
提案した条件付きネットワークは,適応フーリエゲーティング機構 (AFGM) とマルチスケール・コントラルアテンションモジュール (MCAM) を用いて設計されている。
画像のカラーキャストと低彩度をより正確に補正するために、一次ネットに3分岐特徴抽出(TFE)ブロックを導入する。
論文 参考訳(メタデータ) (2023-02-23T17:27:05Z) - CM-GAN: Image Inpainting with Cascaded Modulation GAN and Object-Aware
Training [112.96224800952724]
複雑な画像に大きな穴をあける際の可視像構造を生成するためのカスケード変調GAN(CM-GAN)を提案する。
各デコーダブロックにおいて、まず大域変調を適用し、粗い意味認識合成構造を行い、次に大域変調の出力に空間変調を適用し、空間適応的に特徴写像を更に調整する。
さらに,ネットワークがホール内の新たな物体を幻覚させるのを防ぐため,実世界のシナリオにおける物体除去タスクのニーズを満たすために,オブジェクト認識型トレーニングスキームを設計する。
論文 参考訳(メタデータ) (2022-03-22T16:13:27Z) - Underwater Image Enhancement via Medium Transmission-Guided Multi-Color
Space Embedding [88.46682991985907]
本稿では,Ucolor と呼ばれる媒体透過誘導多色空間埋め込みによる水中画像強調ネットワークを提案する。
当社のネットワークは、複数の色空間を埋め込むことにより、水中画像の視覚的品質を効果的に改善できます。
論文 参考訳(メタデータ) (2021-04-27T07:35:30Z) - Conditional Variational Image Deraining [158.76814157115223]
キャラクタリゼーション性能向上のための条件変分画像レイニング(CVID)ネットワーク
本研究では,各画像の降雨密度マップを推定するための空間密度推定(SDE)モジュールを提案する。
合成および実世界のデータセットを用いた実験により,提案したCVIDネットワークは,画像のデライニングにおける従来の決定論的手法よりもはるかに優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2020-04-23T11:51:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。