論文の概要: RAUNE-Net: A Residual and Attention-Driven Underwater Image Enhancement
Method
- arxiv url: http://arxiv.org/abs/2311.00246v1
- Date: Wed, 1 Nov 2023 03:00:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-02 15:09:58.164103
- Title: RAUNE-Net: A Residual and Attention-Driven Underwater Image Enhancement
Method
- Title(参考訳): RAUNE-Net:残留・注意駆動型水中画像強調手法
- Authors: Wangzhen Peng, Chenghao Zhou, Runze Hu, Jingchao Cao, Yutao Liu
- Abstract要約: 水中画像強調(UIE)は、水中環境の特徴的な性質のために課題を提起する。
本稿では、RAUNE-Netと呼ばれるより信頼性が高く合理的なUIEネットワークを提案する。
提案手法は,様々な実世界の水中画像に対して,有望な客観的性能と一貫した視覚的結果を得る。
- 参考スコア(独自算出の注目度): 2.6645441842326756
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Underwater image enhancement (UIE) poses challenges due to distinctive
properties of the underwater environment, including low contrast, high
turbidity, visual blurriness, and color distortion. In recent years, the
application of deep learning has quietly revolutionized various areas of
scientific research, including UIE. However, existing deep learning-based UIE
methods generally suffer from issues of weak robustness and limited
adaptability. In this paper, inspired by residual and attention mechanisms, we
propose a more reliable and reasonable UIE network called RAUNE-Net by
employing residual learning of high-level features at the network's bottle-neck
and two aspects of attention manipulations in the down-sampling procedure.
Furthermore, we collect and create two datasets specifically designed for
evaluating UIE methods, which contains different types of underwater
distortions and degradations. The experimental validation demonstrates that our
method obtains promising objective performance and consistent visual results
across various real-world underwater images compared to other eight UIE
methods. Our example code and datasets are publicly available at
https://github.com/fansuregrin/RAUNE-Net.
- Abstract(参考訳): 水中画像強調 (uie) は, 低コントラスト, 高濁度, 視覚のぼやけ, 色歪など, 水中環境に特有の特性を有するため, 課題となっている。
近年、深層学習の応用は、UIEを含む様々な科学研究分野に静かに革命をもたらした。
しかし、既存のディープラーニングベースのUIEメソッドは通常、弱い堅牢性と限定的な適応性の問題に悩まされる。
本稿では,ネットワークのボトルネックにおける高次特徴の残差学習と,ダウンサンプリング処理における注目操作の2つの側面を用いて,RAUNE-Netと呼ばれるより信頼性が高く合理的なUIEネットワークを提案する。
さらに,異なる種類の水中歪みや劣化を含むUIE法の評価に特化して設計された2つのデータセットを収集・作成する。
実験により,本手法は,他の8つのUIE法と比較して,様々な実世界の水中画像に対して,有望な客観的性能と一貫した視覚的結果が得られることを示した。
サンプルコードとデータセットはhttps://github.com/fansuregrin/raune-netで公開されている。
関連論文リスト
- DGNet: Dynamic Gradient-Guided Network for Water-Related Optics Image
Enhancement [77.0360085530701]
水中画像強調(UIE)は、水中環境によって引き起こされる複雑な劣化のために難しい課題である。
従来の手法では、劣化過程を理想化し、中音や物体の動きが画像の特徴の分布に与える影響を無視することが多い。
提案手法では,予測画像を用いて疑似ラベルを動的に更新し,動的勾配を加えてネットワークの勾配空間を最適化する。
論文 参考訳(メタデータ) (2023-12-12T06:07:21Z) - UWFormer: Underwater Image Enhancement via a Semi-Supervised Multi-Scale Transformer [26.15238399758745]
水中画像は、品質が悪く、色調が歪んだり、コントラストが低かったりすることが多い。
現在のディープラーニング手法は、マルチスケール拡張に欠けるニューラル畳み込みネットワーク(CNN)に依存している。
半教師付き学習によって複数の周波数の画像を拡張するためのマルチスケールトランスフォーマーベースネットワークを提案する。
論文 参考訳(メタデータ) (2023-10-31T06:19:09Z) - Dual Adversarial Resilience for Collaborating Robust Underwater Image
Enhancement and Perception [54.672052775549]
本研究では,水中画像の強調と検出を行うために,CARNetと呼ばれる協調的対向レジリエンスネットワークを導入する。
本稿では,ネットワークが様々な種類の攻撃を識別・除去できるように,視覚駆動型と知覚駆動型の両方による同時攻撃訓練戦略を提案する。
実験により,提案手法は画像の高画質化を図り,最先端の手法よりも平均6.71%高い検出精度が得られた。
論文 参考訳(メタデータ) (2023-09-03T06:52:05Z) - Learning Heavily-Degraded Prior for Underwater Object Detection [59.5084433933765]
本稿では、検出器フレンドリーな画像から、転送可能な事前知識を求める。
これは、検出器フレンドリー(DFUI)と水中画像の高度に劣化した領域が、特徴分布のギャップがあることを統計的に観察したものである。
高速かつパラメータの少ない本手法は変圧器型検出器よりも優れた性能を保っている。
論文 参考訳(メタデータ) (2023-08-24T12:32:46Z) - PUGAN: Physical Model-Guided Underwater Image Enhancement Using GAN with
Dual-Discriminators [120.06891448820447]
鮮明で視覚的に快適な画像を得る方法は、人々の共通の関心事となっている。
水中画像強調(UIE)の課題も、時間とともに現れた。
本稿では,UIE のための物理モデル誘導型 GAN モデルを提案する。
我々のPUGANは質的および定量的な測定値において最先端の手法より優れています。
論文 参考訳(メタデータ) (2023-06-15T07:41:12Z) - Adaptive Uncertainty Distribution in Deep Learning for Unsupervised
Underwater Image Enhancement [1.9249287163937976]
ディープラーニングベースの水中画像強化における大きな課題の1つは、高品質なトレーニングデータの可用性の制限である。
本研究では、条件付き変分オートエンコーダ(cVAE)を用いて、深層学習モデルのトレーニングを行う、新しい教師なし水中画像強調フレームワークを提案する。
提案手法は, 定量化と定性化の両面において, 他の最先端手法と比較して, 競争性能が向上することを示す。
論文 参考訳(メタデータ) (2022-12-18T01:07:20Z) - Underwater Image Restoration via Contrastive Learning and a Real-world
Dataset [59.35766392100753]
本稿では,教師なし画像から画像への翻訳フレームワークに基づく水中画像復元手法を提案する。
提案手法は, 生画像と復元画像の相互情報を最大化するために, コントラスト学習と生成敵ネットワークを利用した。
論文 参考訳(メタデータ) (2021-06-20T16:06:26Z) - Accurate RGB-D Salient Object Detection via Collaborative Learning [101.82654054191443]
RGB-Dサリエンシ検出は、いくつかの課題シナリオにおいて素晴らしい能力を示している。
本稿では,エッジ,深度,塩分濃度をより効率的に活用する新しい協調学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-23T04:33:36Z) - Underwater object detection using Invert Multi-Class Adaboost with deep
learning [37.14538666012363]
小型物体検出のための新しいニューラルネットワークアーキテクチャであるSample-WeIghted hyPEr Network(SWIPENet)を提案する。
提案するSWIPENet+IMAフレームワークは,複数の最先端オブジェクト検出手法に対して,検出精度の向上を実現する。
論文 参考訳(メタデータ) (2020-05-23T15:30:38Z) - MLFcGAN: Multi-level Feature Fusion based Conditional GAN for Underwater
Image Color Correction [35.16835830904171]
水中画像色補正のための条件付き生成逆数ネットワーク(GAN)に基づく深層マルチスケール機能融合ネットを提案する。
ネットワーク上では,まずマルチスケールの特徴を抽出し,各スケールの局所的特徴をグローバルな特徴で拡張する。
この設計は、より効率的で高速なネットワーク学習を促進するために検証され、色補正とディテール保存の両方の性能が向上した。
論文 参考訳(メタデータ) (2020-02-13T04:15:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。