論文の概要: Medium Transmission Map Matters for Learning to Restore Real-World
Underwater Images
- arxiv url: http://arxiv.org/abs/2203.09414v1
- Date: Thu, 17 Mar 2022 16:13:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-18 15:23:39.469068
- Title: Medium Transmission Map Matters for Learning to Restore Real-World
Underwater Images
- Title(参考訳): 実世界の水中画像の復元学習のための中間送信マップ
- Authors: Yan Kai, Liang Lanyue, Zheng Ziqiang, Wang Guoqing, Yang Yang
- Abstract要約: 画像強調を支援するためのガイダンスとしてメディア送信マップを導入する。
提案手法は,既存のモデルより30倍高速なテストR90において,22.6dBの高度な結果が得られる。
- 参考スコア(独自算出の注目度): 3.0980025155565376
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Underwater visual perception is essentially important for underwater
exploration, archeology, ecosystem and so on. The low illumination, light
reflections, scattering, absorption and suspended particles inevitably lead to
the critically degraded underwater image quality, which causes great challenges
on recognizing the objects from the underwater images. The existing underwater
enhancement methods that aim to promote the underwater visibility, heavily
suffer from the poor image restoration performance and generalization ability.
To reduce the difficulty of underwater image enhancement, we introduce the
media transmission map as guidance to assist in image enhancement. We formulate
the interaction between the underwater visual images and the transmission map
to obtain better enhancement results. Even with simple and lightweight network
configuration, the proposed method can achieve advanced results of 22.6 dB on
the challenging Test-R90 with an impressive 30 times faster than the existing
models. Comprehensive experimental results have demonstrated the superiority
and potential on underwater perception. Paper's code is privoded on:
https://github.com/GroupG-yk/MTUR-Net
- Abstract(参考訳): 水中の視覚知覚は、水中探査、考古学、生態系などにおいて本質的に重要である。
低照度、光反射、散乱、吸収、懸濁粒子は必然的に水中画像の品質を低下させ、水中画像から物体を認識する上で大きな課題を引き起こす。
水中視認性向上を目的とした既存の水中強調法は,画像復元性能の低下や一般化能力の低下に苦しむ。
水中画像強調の難易度を低減するため,画像強調を支援するためのガイダンスとしてメディア送信マップを提案する。
水中視覚画像と伝送マップとの相互作用を定式化し、より優れた強調結果を得る。
単純で軽量なネットワーク構成であっても、既存のモデルより30倍高速なTest-R90において22.6dBの高度な結果が得られる。
総合実験の結果,水中知覚における優越性と潜在性が示された。
Paperのコードは民営化されている。 https://github.com/GroupG-yk/MTUR-Net
関連論文リスト
- HUPE: Heuristic Underwater Perceptual Enhancement with Semantic Collaborative Learning [62.264673293638175]
既存の水中画像強調法は主に視覚的品質の向上に重点を置いており、実際的な意味を見落としている。
視覚的品質を高め,他の下流タスクに対処する柔軟性を示す,水中知覚向上のための可逆的ネットワークHを提案する。
論文 参考訳(メタデータ) (2024-11-27T12:37:03Z) - Underwater Image Enhancement via Dehazing and Color Restoration [17.263563715287045]
既存の水中画像強調法は、ヘイズとカラーキャストを統一的な劣化過程として扱う。
水中画像の品質を向上させるために,視覚トランス (ViT) ベースのネットワーク (WaterFormer と呼ぶ) を提案する。
論文 参考訳(メタデータ) (2024-09-15T15:58:20Z) - LU2Net: A Lightweight Network for Real-time Underwater Image Enhancement [4.353142366661057]
Lightweight Underwater Unet (LU2Net)は、水中画像のリアルタイムエンハンスメントのために設計された新しいU字型ネットワークである。
LU2Netは、現在最先端の水中画像強調法よりも8倍の速度で、十分に強化された水中画像を提供することができる。
論文 参考訳(メタデータ) (2024-06-21T08:33:13Z) - Atlantis: Enabling Underwater Depth Estimation with Stable Diffusion [30.122666238416716]
正確な地球深度データを用いて水中画像を生成する新しいパイプラインを提案する。
このアプローチは、水中深度推定のための教師付きモデルのトレーニングを容易にする。
我々は、特別に作成された水中、深度、テキストデータ三重項に基づいて訓練された独自のDepth2Underwater ControlNetを導入する。
論文 参考訳(メタデータ) (2023-12-19T08:56:33Z) - Dual Adversarial Resilience for Collaborating Robust Underwater Image
Enhancement and Perception [54.672052775549]
本研究では,水中画像の強調と検出を行うために,CARNetと呼ばれる協調的対向レジリエンスネットワークを導入する。
本稿では,ネットワークが様々な種類の攻撃を識別・除去できるように,視覚駆動型と知覚駆動型の両方による同時攻撃訓練戦略を提案する。
実験により,提案手法は画像の高画質化を図り,最先端の手法よりも平均6.71%高い検出精度が得られた。
論文 参考訳(メタデータ) (2023-09-03T06:52:05Z) - Learning Heavily-Degraded Prior for Underwater Object Detection [59.5084433933765]
本稿では、検出器フレンドリーな画像から、転送可能な事前知識を求める。
これは、検出器フレンドリー(DFUI)と水中画像の高度に劣化した領域が、特徴分布のギャップがあることを統計的に観察したものである。
高速かつパラメータの少ない本手法は変圧器型検出器よりも優れた性能を保っている。
論文 参考訳(メタデータ) (2023-08-24T12:32:46Z) - WaterFlow: Heuristic Normalizing Flow for Underwater Image Enhancement
and Beyond [52.27796682972484]
既存の水中画像強調法は, 画像品質の向上に重点を置いており, 実践への影響を無視している。
本稿では,検出駆動型水中画像強調のための正規化フローであるWaterFlowを提案する。
微分可能性や解釈可能性を考慮すると、事前をデータ駆動マッピング手法に組み込む。
論文 参考訳(メタデータ) (2023-08-02T04:17:35Z) - Unpaired Overwater Image Defogging Using Prior Map Guided CycleGAN [60.257791714663725]
オーバーウォーターシーンで画像をデフォグするための先行マップガイドサイクロン (PG-CycleGAN) を提案する。
提案手法は,最先端の教師付き,半教師付き,非教師付きデグジングアプローチより優れている。
論文 参考訳(メタデータ) (2022-12-23T03:00:28Z) - Underwater Light Field Retention : Neural Rendering for Underwater
Imaging [6.22867695581195]
水中画像レンダリングは、指定されたクリーンな画像から本物の水中画像を生成することを目的としている。
本稿では,UWNR(Underwater Neural Rendering)と呼ばれる水中画像のニューラルネットワークレンダリング手法を提案する。
論文 参考訳(メタデータ) (2022-03-21T14:22:05Z) - Underwater Image Restoration via Contrastive Learning and a Real-world
Dataset [59.35766392100753]
本稿では,教師なし画像から画像への翻訳フレームワークに基づく水中画像復元手法を提案する。
提案手法は, 生画像と復元画像の相互情報を最大化するために, コントラスト学習と生成敵ネットワークを利用した。
論文 参考訳(メタデータ) (2021-06-20T16:06:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。