論文の概要: SGUIE-Net: Semantic Attention Guided Underwater Image Enhancement with
Multi-Scale Perception
- arxiv url: http://arxiv.org/abs/2201.02832v1
- Date: Sat, 8 Jan 2022 14:03:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-11 17:41:28.906187
- Title: SGUIE-Net: Semantic Attention Guided Underwater Image Enhancement with
Multi-Scale Perception
- Title(参考訳): SGUIE-Net:マルチスケール知覚を用いた意味的注意誘導水中画像強調
- Authors: Qi Qi, Kunqian Li, Haiyong Zheng, Xiang Gao, Guojia Hou, Kun Sun
- Abstract要約: そこで我々はSGUIE-Netと呼ばれる新しい水中画像強調ネットワークを提案する。
一般的な意味領域を共有する様々な画像に対して,意味情報を高レベルなガイダンスとして導入する。
この戦略は、異なるセマンティックオブジェクトに対する堅牢で視覚的に快適な拡張を実現するのに役立ちます。
- 参考スコア(独自算出の注目度): 18.87163028415309
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to the wavelength-dependent light attenuation, refraction and scattering,
underwater images usually suffer from color distortion and blurred details.
However, due to the limited number of paired underwater images with undistorted
images as reference, training deep enhancement models for diverse degradation
types is quite difficult. To boost the performance of data-driven approaches,
it is essential to establish more effective learning mechanisms that mine
richer supervised information from limited training sample resources. In this
paper, we propose a novel underwater image enhancement network, called
SGUIE-Net, in which we introduce semantic information as high-level guidance
across different images that share common semantic regions. Accordingly, we
propose semantic region-wise enhancement module to perceive the degradation of
different semantic regions from multiple scales and feed it back to the global
attention features extracted from its original scale. This strategy helps to
achieve robust and visually pleasant enhancements to different semantic
objects, which should thanks to the guidance of semantic information for
differentiated enhancement. More importantly, for those degradation types that
are not common in the training sample distribution, the guidance connects them
with the already well-learned types according to their semantic relevance.
Extensive experiments on the publicly available datasets and our proposed
dataset demonstrated the impressive performance of SGUIE-Net. The code and
proposed dataset are available at: https://trentqq.github.io/SGUIE-Net.html
- Abstract(参考訳): 波長依存性の光減衰、屈折、散乱のため、水中画像は通常、色歪みとぼやけた詳細に悩まされる。
しかし, 歪みのない画像が参照される水中画像が限られているため, 多様な劣化型に対する深層化モデルの訓練は非常に困難である。
データ駆動型アプローチの性能を高めるためには、限られたトレーニングサンプルリソースからよりリッチな教師付き情報を抽出するより効果的な学習メカニズムを確立することが不可欠である。
本稿では,SGUIE-Netと呼ばれる新しい水中画像強調ネットワークを提案する。
そこで本研究では,複数のスケールから異なる意味領域の劣化を知覚し,元のスケールから抽出したグローバルアテンション特徴にフィードバックする意味領域拡張モジュールを提案する。
この戦略は、異なる意味オブジェクトに対する堅牢で視覚的に快適な拡張を実現するのに役立つ。
さらに重要なことは、トレーニングサンプル分布で一般的でない分解型に対して、ガイダンスは、それらの意味的関連性に応じて、既に習得された型とそれらを結びつける。
公開データセットと提案データセットの大規模な実験により,SGUIE-Netの優れた性能が示された。
コードと提案されたデータセットは以下の通りである。
関連論文リスト
- Semi-LLIE: Semi-supervised Contrastive Learning with Mamba-based Low-light Image Enhancement [59.17372460692809]
本研究は、平均教師による半教師付き低照度強化(Semi-LLIE)フレームワークを提案する。
照度分布を忠実に伝達するために、意味認識によるコントラスト損失を導入し、自然色による画像の強調に寄与する。
また,大規模な視覚言語認識モデル(RAM)に基づく新たな知覚損失を提案し,よりリッチなテキストによる画像生成を支援する。
論文 参考訳(メタデータ) (2024-09-25T04:05:32Z) - SatSynth: Augmenting Image-Mask Pairs through Diffusion Models for Aerial Semantic Segmentation [69.42764583465508]
我々は,地球観測における注釈付きデータの不足に対処するために,生成的画像拡散の可能性を探る。
我々の知る限りでは、衛星セグメンテーションのための画像と対応するマスクの両方を最初に生成する。
論文 参考訳(メタデータ) (2024-03-25T10:30:22Z) - DGNet: Dynamic Gradient-Guided Network for Water-Related Optics Image
Enhancement [77.0360085530701]
水中画像強調(UIE)は、水中環境によって引き起こされる複雑な劣化のために難しい課題である。
従来の手法では、劣化過程を理想化し、中音や物体の動きが画像の特徴の分布に与える影響を無視することが多い。
提案手法では,予測画像を用いて疑似ラベルを動的に更新し,動的勾配を加えてネットワークの勾配空間を最適化する。
論文 参考訳(メタデータ) (2023-12-12T06:07:21Z) - PUGAN: Physical Model-Guided Underwater Image Enhancement Using GAN with
Dual-Discriminators [120.06891448820447]
鮮明で視覚的に快適な画像を得る方法は、人々の共通の関心事となっている。
水中画像強調(UIE)の課題も、時間とともに現れた。
本稿では,UIE のための物理モデル誘導型 GAN モデルを提案する。
我々のPUGANは質的および定量的な測定値において最先端の手法より優れています。
論文 参考訳(メタデータ) (2023-06-15T07:41:12Z) - Learning Semantic-Aware Knowledge Guidance for Low-Light Image
Enhancement [69.47143451986067]
低照度画像強調法 (LLIE) は、照明の改善方法と正常照度画像の生成方法を検討する。
既存の手法の大部分は、異なる領域のセマンティック情報を考慮せずに、グローバルかつ均一な方法で低照度画像を改善する。
セマンティックセグメンテーションモデルにカプセル化される多種多様な事前学習において、低照度強化モデルを支援する新しいセマンティック・アウェア・ナレッジ誘導フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-14T10:22:28Z) - Adaptive Uncertainty Distribution in Deep Learning for Unsupervised
Underwater Image Enhancement [1.9249287163937976]
ディープラーニングベースの水中画像強化における大きな課題の1つは、高品質なトレーニングデータの可用性の制限である。
本研究では、条件付き変分オートエンコーダ(cVAE)を用いて、深層学習モデルのトレーニングを行う、新しい教師なし水中画像強調フレームワークを提案する。
提案手法は, 定量化と定性化の両面において, 他の最先端手法と比較して, 競争性能が向上することを示す。
論文 参考訳(メタデータ) (2022-12-18T01:07:20Z) - USegScene: Unsupervised Learning of Depth, Optical Flow and Ego-Motion
with Semantic Guidance and Coupled Networks [31.600708674008384]
UegSceneは、ステレオカメラ画像の奥行き、光学的流れ、エゴモーション推定を意味的に導くためのフレームワークである。
一般的なKITTIデータセットを用いて,提案手法が他の手法よりも大きなマージンで優れていることを示す。
論文 参考訳(メタデータ) (2022-07-15T13:25:47Z) - A Contrastive Distillation Approach for Incremental Semantic
Segmentation in Aerial Images [15.75291664088815]
現在のディープニューラルアーキテクチャに関する大きな問題は、破滅的な忘れこととして知られている。
我々は、任意の入力を拡張バージョンと比較する、対照的な正則化を提案する。
私たちは、Potsdamデータセットにおけるソリューションの有効性を示し、各テストにおけるインクリメンタルベースラインよりも優れています。
論文 参考訳(メタデータ) (2021-12-07T16:44:45Z) - From Heatmaps to Structural Explanations of Image Classifiers [31.44267537307587]
この論文は、Deep Networkからいくつかの高レベルな概念を純粋に抽出し視覚化しようとする、説明可能なニューラルネットワーク(XNN)を説明することから始まる。
重要な欠落点が信頼性の高いヒートマップ可視化ツールであることに気付き、I-GOSとiGOS++を開発した。
研究プロセスを通じて、我々はディープネットワークの説明を構築する上での洞察について多くを学びました。
論文 参考訳(メタデータ) (2021-09-13T23:39:57Z) - Wavelength-based Attributed Deep Neural Network for Underwater Image
Restoration [9.378355457555319]
本稿では,色チャネルの移動範囲に基づいて,適切な受容場サイズ(コンテキスト)を付与することで,大幅な性能向上が期待できることを示す。
第2の新規性として、学習したマルチコンテキスト特徴を適応的に洗練するための注意的スキップ機構を組み込んだ。
提案するフレームワークはDeep WaveNetと呼ばれ、従来のピクセル単位で機能ベースのコスト関数を使って最適化されている。
論文 参考訳(メタデータ) (2021-06-15T06:47:51Z) - Adaptive Context-Aware Multi-Modal Network for Depth Completion [107.15344488719322]
我々は,観測された空間コンテキストを捉えるために,グラフ伝搬を採用することを提案する。
次に、注意機構を伝搬に適用し、ネットワークが文脈情報を適応的にモデル化することを奨励する。
最後に、抽出したマルチモーダル特徴を効果的に活用するための対称ゲート融合戦略を導入する。
本稿では,Adaptive Context-Aware Multi-Modal Network (ACMNet) を2つのベンチマークで評価した。
論文 参考訳(メタデータ) (2020-08-25T06:00:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。