論文の概要: Underwater Image Enhancement via Dehazing and Color Restoration
- arxiv url: http://arxiv.org/abs/2409.09779v1
- Date: Sun, 15 Sep 2024 15:58:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-17 17:30:41.925934
- Title: Underwater Image Enhancement via Dehazing and Color Restoration
- Title(参考訳): 脱毛・色復元による水中画像の強調
- Authors: Chengqin Wu, Shuai Yu, Qingson Hu, Jingxiang Xu, Lijun Zhang,
- Abstract要約: 既存の水中画像強調法は、ヘイズとカラーキャストを統一的な劣化過程として扱う。
水中画像の品質を向上させるために,視覚トランス (ViT) ベースのネットワーク (WaterFormer と呼ぶ) を提案する。
- 参考スコア(独自算出の注目度): 17.263563715287045
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rapid development of marine engineering projects such as marine resource extraction and oceanic surveys, underwater visual imaging and analysis has become a critical technology. Unfortunately, due to the inevitable non-linear attenuation of light in underwater environments, underwater images and videos often suffer from low contrast, blurriness, and color degradation, which significantly complicate the subsequent research. Existing underwater image enhancement methods often treat the haze and color cast as a unified degradation process and disregard their independence and interdependence, which limits the performance improvement. Here, we propose a Vision Transformer (ViT)-based network (referred to as WaterFormer) to improve the underwater image quality. WaterFormer contains three major components: a dehazing block (DehazeFormer Block) to capture the self-correlated haze features and extract deep-level features, a Color Restoration Block (CRB) to capture self-correlated color cast features, and a Channel Fusion Block (CFB) to capture fusion features within the network. To ensure authenticity, a soft reconstruction layer based on the underwater imaging physics model is included. To improve the quality of the enhanced images, we introduce the Chromatic Consistency Loss and Sobel Color Loss to train the network. Comprehensive experimental results demonstrate that WaterFormer outperforms other state-of-the-art methods in enhancing underwater images.
- Abstract(参考訳): 海洋資源抽出や海洋調査などの海洋工学プロジェクトの急速な発展に伴い、水中のビジュアルイメージングと分析が重要な技術となっている。
残念なことに、水中環境における光の避けられない非線形減衰のため、水中の画像やビデオは低コントラスト、ぼかし、色劣化に悩まされ、その後の研究を著しく複雑にしている。
既存の水中画像強調法は、ヘイズとカラーキャストを統一的な劣化過程として扱い、独立性や相互依存を無視し、性能改善を制限していることが多い。
本稿では,水中画像の品質を向上させるために,視覚変換器(ViT)ベースのネットワーク(WaterFormer)を提案する。
WaterFormerには3つの主要なコンポーネントが含まれている: 自己相関型ヘイズ機能をキャプチャし、深いレベルの特徴を抽出するデハズブロック(DehazeFormer Block)、自己相関型カラーキャスト機能をキャプチャするカラー復元ブロック(CRB)、ネットワーク内の融合機能をキャプチャするチャンネルフュージョンブロック(CFB)である。
信頼性を確保するため、水中イメージング物理モデルに基づくソフトリコンストラクション層を含む。
改良画像の品質向上のために,ネットワークのトレーニングにクロマティック一貫性損失とソベルカラー損失を導入する。
総合的な実験結果から、ウォーターホルダーは水中画像の高精細化において、他の最先端の手法よりも優れていることが示されている。
関連論文リスト
- Underwater Image Enhancement with Cascaded Contrastive Learning [51.897854142606725]
水中画像強調(UIE)は、水中環境の複雑さと水中画像劣化の多様性のために非常に困難な課題である。
既存のディープラーニングベースのUIEメソッドの多くは、多様な劣化に同時に対処できないシングルステージネットワークに従っている。
本稿では,2段階の深層学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-16T03:16:44Z) - FDCE-Net: Underwater Image Enhancement with Embedding Frequency and Dual Color Encoder [49.79611204954311]
水中画像は、低明度、色の変化、ぼやけた詳細、吸光光によるノイズ、水や懸濁粒子による散乱などの様々な問題に悩まされることが多い。
従来の水中画像強調法(UIE)は主に空間領域の強調に焦点を当てており、画像固有の周波数領域情報を無視している。
論文 参考訳(メタデータ) (2024-04-27T15:16:34Z) - Physics-Inspired Synthesized Underwater Image Dataset [9.959844922120528]
PHISWIDは、物理にインスパイアされた画像合成による水中画像処理の強化に適したデータセットである。
以上の結果から,PHISWIDでトレーニングを行う場合の基本的U-Netアーキテクチャでさえ,水中画像強調において既存の手法よりも大幅に優れていたことが判明した。
我々はPHISWIDを公開し、水中イメージング技術の進歩に重要なリソースを提供する。
論文 参考訳(メタデータ) (2024-04-05T10:23:10Z) - Learning Heavily-Degraded Prior for Underwater Object Detection [59.5084433933765]
本稿では、検出器フレンドリーな画像から、転送可能な事前知識を求める。
これは、検出器フレンドリー(DFUI)と水中画像の高度に劣化した領域が、特徴分布のギャップがあることを統計的に観察したものである。
高速かつパラメータの少ない本手法は変圧器型検出器よりも優れた性能を保っている。
論文 参考訳(メタデータ) (2023-08-24T12:32:46Z) - PUGAN: Physical Model-Guided Underwater Image Enhancement Using GAN with
Dual-Discriminators [120.06891448820447]
鮮明で視覚的に快適な画像を得る方法は、人々の共通の関心事となっている。
水中画像強調(UIE)の課題も、時間とともに現れた。
本稿では,UIE のための物理モデル誘導型 GAN モデルを提案する。
我々のPUGANは質的および定量的な測定値において最先端の手法より優れています。
論文 参考訳(メタデータ) (2023-06-15T07:41:12Z) - DeepSeeColor: Realtime Adaptive Color Correction for Autonomous
Underwater Vehicles via Deep Learning Methods [0.0]
DeepSeeColorは、最先端の水中画像生成モデルとディープラーニングフレームワークの効率を組み合わせた、新しいアルゴリズムである。
DeepSeeColorは、一般的な「シースルー」アルゴリズムに匹敵する性能を提供し、最大60Hzの速度で画像を高速に処理できることを示す。
論文 参考訳(メタデータ) (2023-03-07T16:38:50Z) - Underwater enhancement based on a self-learning strategy and attention
mechanism for high-intensity regions [0.0]
水中活動中に取得した画像は、濁度や光の減衰などの水の環境特性に悩まされる。
水中画像の強化に関する最近の研究と深層学習のアプローチに基づき、合成地下構造を生成する組合わせデータセットの欠如に対処する。
本稿では,ペアデータセットを必要としない深層学習に基づく水中画像強調のための自己教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2022-08-04T19:55:40Z) - Underwater Image Restoration via Contrastive Learning and a Real-world
Dataset [59.35766392100753]
本稿では,教師なし画像から画像への翻訳フレームワークに基づく水中画像復元手法を提案する。
提案手法は, 生画像と復元画像の相互情報を最大化するために, コントラスト学習と生成敵ネットワークを利用した。
論文 参考訳(メタデータ) (2021-06-20T16:06:26Z) - Underwater Image Enhancement via Medium Transmission-Guided Multi-Color
Space Embedding [88.46682991985907]
本稿では,Ucolor と呼ばれる媒体透過誘導多色空間埋め込みによる水中画像強調ネットワークを提案する。
当社のネットワークは、複数の色空間を埋め込むことにより、水中画像の視覚的品質を効果的に改善できます。
論文 参考訳(メタデータ) (2021-04-27T07:35:30Z) - Underwater image enhancement with Image Colorfulness Measure [7.292965806774365]
トレーニング可能なエンドツーエンドニューラルモデルである新しいエンハンスメントモデルを提案する。
より詳細に、コントラストとカラフルネスのために、この拡張ネットワークはピクセルレベルと特性レベルのトレーニング基準によって共同で最適化されている。
論文 参考訳(メタデータ) (2020-04-18T12:44:57Z) - Domain Adaptive Adversarial Learning Based on Physics Model Feedback for
Underwater Image Enhancement [10.143025577499039]
物理モデルに基づくフィードバック制御と,水中画像の高機能化のための領域適応機構を用いた,新しい頑健な対角学習フレームワークを提案する。
水中画像形成モデルを用いてRGB-Dデータから水中訓練データセットをシミュレーションする新しい手法を提案する。
合成および実水中画像の最終的な改良結果は,提案手法の優位性を示している。
論文 参考訳(メタデータ) (2020-02-20T07:50:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。