論文の概要: Enhancing Underwater Images via Adaptive Semantic-aware Codebook Learning
- arxiv url: http://arxiv.org/abs/2602.10586v1
- Date: Wed, 11 Feb 2026 07:20:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:01.52946
- Title: Enhancing Underwater Images via Adaptive Semantic-aware Codebook Learning
- Title(参考訳): 適応意味認識型コードブック学習による水中画像の強調
- Authors: Bosen Lin, Feng Gao, Yanwei Yu, Junyu Dong, Qian Du,
- Abstract要約: 水中画像強調(UIE)は、自然の清浄な参照が利用できない不適切な問題である。
意味認識型離散コードブック表現から適応UIEを実現するSUCode(Semantic-aware Underwater Codebook Network)を提案する。
- 参考スコア(独自算出の注目度): 53.9340120911759
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Underwater Image Enhancement (UIE) is an ill-posed problem where natural clean references are not available, and the degradation levels vary significantly across semantic regions. Existing UIE methods treat images with a single global model and ignore the inconsistent degradation of different scene components. This oversight leads to significant color distortions and loss of fine details in heterogeneous underwater scenes, especially where degradation varies significantly across different image regions. Therefore, we propose SUCode (Semantic-aware Underwater Codebook Network), which achieves adaptive UIE from semantic-aware discrete codebook representation. Compared with one-shot codebook-based methods, SUCode exploits semantic-aware, pixel-level codebook representation tailored to heterogeneous underwater degradation. A three-stage training paradigm is employed to represent raw underwater image features to avoid pseudo ground-truth contamination. Gated Channel Attention Module (GCAM) and Frequency-Aware Feature Fusion (FAFF) jointly integrate channel and frequency cues for faithful color restoration and texture recovery. Extensive experiments on multiple benchmarks demonstrate that SUCode achieves state-of-the-art performance, outperforming recent UIE methods on both reference and no-reference metrics. The code will be made public available at https://github.com/oucailab/SUCode.
- Abstract(参考訳): 水中画像強調(UIE)は、自然の清浄な参照が利用できない不適切な問題であり、劣化レベルは意味領域によって大きく異なる。
既存のUIEメソッドは、イメージを単一のグローバルモデルで処理し、異なるシーンコンポーネントの不整合劣化を無視する。
この監視は、特に画像領域によって劣化が著しく異なる不均一な水中のシーンにおいて、顕著な色歪みと細部の詳細の喪失をもたらす。
そこで我々は,意味認識型離散コードブック表現から適応UIEを実現するSUCode(Semantic-aware Underwater Codebook Network)を提案する。
ワンショットのコードブックベースの方法と比較すると、SUCodeは不均一な水中劣化に合わせたセマンティック・アウェア、ピクセルレベルのコードブック表現を利用する。
擬似地中汚染を避けるため, 水中画像の特徴を表すために3段階の訓練パラダイムが採用された。
Gated Channel Attention Module (GCAM) と Frequency-Aware Feature Fusion (FAFF) は、忠実な色復元とテクスチャ回復のためのチャネルと周波数キューを共同で統合する。
複数のベンチマークに関する大規模な実験では、SUCodeが最先端のパフォーマンスを実現し、参照と非参照の両方のメトリクスにおいて、最近のUIEメソッドよりも優れています。
コードはhttps://github.com/oucailab/SUCode.comで公開される。
関連論文リスト
- A Generative Data Framework with Authentic Supervision for Underwater Image Restoration and Enhancement [51.382274157144714]
我々は、未ペア画像から画像への変換に基づく生成データフレームワークを開発する。
このフレームワークは、正確な地上構造ラベルを持つ合成データセットを構成する。
実験により、我々の合成データに基づいてトレーニングされたモデルが、既存のベンチマークでトレーニングされたモデルに匹敵する、あるいは優れた色復元と一般化性能が得られることが示された。
論文 参考訳(メタデータ) (2025-11-18T14:20:17Z) - Single-Step Latent Diffusion for Underwater Image Restoration [25.229678050715496]
水中画像復元アルゴリズムは、水中で撮影されたシーンの色、コントラスト、外観を復元しようとする。
海洋生態学や養殖から水中建設や考古学まで、様々な応用において重要な道具である。
Slurppは既存の拡散法よりも200倍高速で、合成ベンチマークではPSNRが3dB改善されている。
論文 参考訳(メタデータ) (2025-07-10T16:02:07Z) - Manifold-aware Representation Learning for Degradation-agnostic Image Restoration [135.90908995927194]
画像復元(IR)は、ノイズ、ぼかし、迷路、雨、低照度といった様々な汚職に影響を受ける劣化した入力から高品質な画像を復元することを目的としている。
我々は、入力特徴空間を3つのセマンティックに整列した並列分岐に明示的に分解する1つのIRにおいて、すべてに統一されたフレームワークであるMIRAGEを提案する。
このモジュラ分解は、多種多様な分解の一般化と効率を大幅に改善する。
論文 参考訳(メタデータ) (2025-05-24T12:52:10Z) - UniUIR: Considering Underwater Image Restoration as An All-in-One Learner [62.65503609562905]
我々はUniUIRと呼ばれるユニバーサル水中画像復元手法を提案する。
劣化固有の問題を分離し、UIRタスクにおける様々な劣化の相関関係を探るため、我々はMamba Mixture-of-Expertsモジュールを設計した。
このモジュールは、空間領域と周波数領域の両方において劣化前の情報を抽出し、最適なタスク固有のプロンプトを適応的に選択する。
論文 参考訳(メタデータ) (2025-01-22T16:10:42Z) - DGNet: Dynamic Gradient-Guided Network for Water-Related Optics Image
Enhancement [77.0360085530701]
水中画像強調(UIE)は、水中環境によって引き起こされる複雑な劣化のために難しい課題である。
従来の手法では、劣化過程を理想化し、中音や物体の動きが画像の特徴の分布に与える影響を無視することが多い。
提案手法では,予測画像を用いて疑似ラベルを動的に更新し,動的勾配を加えてネットワークの勾配空間を最適化する。
論文 参考訳(メタデータ) (2023-12-12T06:07:21Z) - Synergistic Multiscale Detail Refinement via Intrinsic Supervision for
Underwater Image Enhancement [39.208417033777415]
マルチステージを含む水中シーンの細部を高度化するための内在監視(SMDR-IS)を提案する。
ASISFモジュールは、多段劣化段階における特徴伝達を正確に制御し、ガイドすることができる。
Bifocal Intrinsic-Context Attention Module (BICA) は画像中のマルチスケールシーン情報を効率的に活用する。
論文 参考訳(メタデータ) (2023-08-23T05:40:55Z) - Adaptive deep learning framework for robust unsupervised underwater image enhancement [3.0516727053033392]
ディープラーニングベースの水中画像強化における大きな課題の1つは、高品質なトレーニングデータの可用性の制限である。
本研究では、条件付き変分オートエンコーダ(cVAE)を用いて、深層学習モデルのトレーニングを行う、新しい教師なし水中画像強調フレームワークを提案する。
提案手法は, 定量化と定性化の両面において, 他の最先端手法と比較して, 競争性能が向上することを示す。
論文 参考訳(メタデータ) (2022-12-18T01:07:20Z) - SGUIE-Net: Semantic Attention Guided Underwater Image Enhancement with
Multi-Scale Perception [18.87163028415309]
そこで我々はSGUIE-Netと呼ばれる新しい水中画像強調ネットワークを提案する。
一般的な意味領域を共有する様々な画像に対して,意味情報を高レベルなガイダンスとして導入する。
この戦略は、異なるセマンティックオブジェクトに対する堅牢で視覚的に快適な拡張を実現するのに役立ちます。
論文 参考訳(メタデータ) (2022-01-08T14:03:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。