論文の概要: Medium Transmission Map Matters for Learning to Restore Real-World
Underwater Images
- arxiv url: http://arxiv.org/abs/2203.09414v1
- Date: Thu, 17 Mar 2022 16:13:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-18 15:23:39.469068
- Title: Medium Transmission Map Matters for Learning to Restore Real-World
Underwater Images
- Title(参考訳): 実世界の水中画像の復元学習のための中間送信マップ
- Authors: Yan Kai, Liang Lanyue, Zheng Ziqiang, Wang Guoqing, Yang Yang
- Abstract要約: 画像強調を支援するためのガイダンスとしてメディア送信マップを導入する。
提案手法は,既存のモデルより30倍高速なテストR90において,22.6dBの高度な結果が得られる。
- 参考スコア(独自算出の注目度): 3.0980025155565376
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Underwater visual perception is essentially important for underwater
exploration, archeology, ecosystem and so on. The low illumination, light
reflections, scattering, absorption and suspended particles inevitably lead to
the critically degraded underwater image quality, which causes great challenges
on recognizing the objects from the underwater images. The existing underwater
enhancement methods that aim to promote the underwater visibility, heavily
suffer from the poor image restoration performance and generalization ability.
To reduce the difficulty of underwater image enhancement, we introduce the
media transmission map as guidance to assist in image enhancement. We formulate
the interaction between the underwater visual images and the transmission map
to obtain better enhancement results. Even with simple and lightweight network
configuration, the proposed method can achieve advanced results of 22.6 dB on
the challenging Test-R90 with an impressive 30 times faster than the existing
models. Comprehensive experimental results have demonstrated the superiority
and potential on underwater perception. Paper's code is privoded on:
https://github.com/GroupG-yk/MTUR-Net
- Abstract(参考訳): 水中の視覚知覚は、水中探査、考古学、生態系などにおいて本質的に重要である。
低照度、光反射、散乱、吸収、懸濁粒子は必然的に水中画像の品質を低下させ、水中画像から物体を認識する上で大きな課題を引き起こす。
水中視認性向上を目的とした既存の水中強調法は,画像復元性能の低下や一般化能力の低下に苦しむ。
水中画像強調の難易度を低減するため,画像強調を支援するためのガイダンスとしてメディア送信マップを提案する。
水中視覚画像と伝送マップとの相互作用を定式化し、より優れた強調結果を得る。
単純で軽量なネットワーク構成であっても、既存のモデルより30倍高速なTest-R90において22.6dBの高度な結果が得られる。
総合実験の結果,水中知覚における優越性と潜在性が示された。
Paperのコードは民営化されている。 https://github.com/GroupG-yk/MTUR-Net
関連論文リスト
- Underwater Image Enhancement via Dehazing and Color Restoration [17.263563715287045]
既存の水中画像強調法は、ヘイズとカラーキャストを統一的な劣化過程として扱う。
水中画像の品質を向上させるために,視覚トランス (ViT) ベースのネットワーク (WaterFormer と呼ぶ) を提案する。
論文 参考訳(メタデータ) (2024-09-15T15:58:20Z) - LU2Net: A Lightweight Network for Real-time Underwater Image Enhancement [4.353142366661057]
Lightweight Underwater Unet (LU2Net)は、水中画像のリアルタイムエンハンスメントのために設計された新しいU字型ネットワークである。
LU2Netは、現在最先端の水中画像強調法よりも8倍の速度で、十分に強化された水中画像を提供することができる。
論文 参考訳(メタデータ) (2024-06-21T08:33:13Z) - Physics-Inspired Synthesized Underwater Image Dataset [9.959844922120528]
PHISWIDは、物理にインスパイアされた画像合成による水中画像処理の強化に適したデータセットである。
以上の結果から,PHISWIDでトレーニングを行う場合の基本的U-Netアーキテクチャでさえ,水中画像強調において既存の手法よりも大幅に優れていたことが判明した。
我々はPHISWIDを公開し、水中イメージング技術の進歩に重要なリソースを提供する。
論文 参考訳(メタデータ) (2024-04-05T10:23:10Z) - Dual Adversarial Resilience for Collaborating Robust Underwater Image
Enhancement and Perception [54.672052775549]
本研究では,水中画像の強調と検出を行うために,CARNetと呼ばれる協調的対向レジリエンスネットワークを導入する。
本稿では,ネットワークが様々な種類の攻撃を識別・除去できるように,視覚駆動型と知覚駆動型の両方による同時攻撃訓練戦略を提案する。
実験により,提案手法は画像の高画質化を図り,最先端の手法よりも平均6.71%高い検出精度が得られた。
論文 参考訳(メタデータ) (2023-09-03T06:52:05Z) - Learning Heavily-Degraded Prior for Underwater Object Detection [59.5084433933765]
本稿では、検出器フレンドリーな画像から、転送可能な事前知識を求める。
これは、検出器フレンドリー(DFUI)と水中画像の高度に劣化した領域が、特徴分布のギャップがあることを統計的に観察したものである。
高速かつパラメータの少ない本手法は変圧器型検出器よりも優れた性能を保っている。
論文 参考訳(メタデータ) (2023-08-24T12:32:46Z) - WaterFlow: Heuristic Normalizing Flow for Underwater Image Enhancement
and Beyond [52.27796682972484]
既存の水中画像強調法は, 画像品質の向上に重点を置いており, 実践への影響を無視している。
本稿では,検出駆動型水中画像強調のための正規化フローであるWaterFlowを提案する。
微分可能性や解釈可能性を考慮すると、事前をデータ駆動マッピング手法に組み込む。
論文 参考訳(メタデータ) (2023-08-02T04:17:35Z) - PUGAN: Physical Model-Guided Underwater Image Enhancement Using GAN with
Dual-Discriminators [120.06891448820447]
鮮明で視覚的に快適な画像を得る方法は、人々の共通の関心事となっている。
水中画像強調(UIE)の課題も、時間とともに現れた。
本稿では,UIE のための物理モデル誘導型 GAN モデルを提案する。
我々のPUGANは質的および定量的な測定値において最先端の手法より優れています。
論文 参考訳(メタデータ) (2023-06-15T07:41:12Z) - Unpaired Overwater Image Defogging Using Prior Map Guided CycleGAN [60.257791714663725]
オーバーウォーターシーンで画像をデフォグするための先行マップガイドサイクロン (PG-CycleGAN) を提案する。
提案手法は,最先端の教師付き,半教師付き,非教師付きデグジングアプローチより優れている。
論文 参考訳(メタデータ) (2022-12-23T03:00:28Z) - Underwater Light Field Retention : Neural Rendering for Underwater
Imaging [6.22867695581195]
水中画像レンダリングは、指定されたクリーンな画像から本物の水中画像を生成することを目的としている。
本稿では,UWNR(Underwater Neural Rendering)と呼ばれる水中画像のニューラルネットワークレンダリング手法を提案する。
論文 参考訳(メタデータ) (2022-03-21T14:22:05Z) - Underwater Image Restoration via Contrastive Learning and a Real-world
Dataset [59.35766392100753]
本稿では,教師なし画像から画像への翻訳フレームワークに基づく水中画像復元手法を提案する。
提案手法は, 生画像と復元画像の相互情報を最大化するために, コントラスト学習と生成敵ネットワークを利用した。
論文 参考訳(メタデータ) (2021-06-20T16:06:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。