論文の概要: A Generative Data Framework with Authentic Supervision for Underwater Image Restoration and Enhancement
- arxiv url: http://arxiv.org/abs/2511.14521v1
- Date: Tue, 18 Nov 2025 14:20:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 16:23:53.15202
- Title: A Generative Data Framework with Authentic Supervision for Underwater Image Restoration and Enhancement
- Title(参考訳): 水中画像復元・改善のための認証スーパービジョン付き生成データフレームワーク
- Authors: Yufeng Tian, Yifan Chen, Zhe Sun, Libang Chen, Mingyu Dou, Jijun Lu, Ye Zheng, Xuelong Li,
- Abstract要約: 我々は、未ペア画像から画像への変換に基づく生成データフレームワークを開発する。
このフレームワークは、正確な地上構造ラベルを持つ合成データセットを構成する。
実験により、我々の合成データに基づいてトレーニングされたモデルが、既存のベンチマークでトレーニングされたモデルに匹敵する、あるいは優れた色復元と一般化性能が得られることが示された。
- 参考スコア(独自算出の注目度): 51.382274157144714
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Underwater image restoration and enhancement are crucial for correcting color distortion and restoring image details, thereby establishing a fundamental basis for subsequent underwater visual tasks. However, current deep learning methodologies in this area are frequently constrained by the scarcity of high-quality paired datasets. Since it is difficult to obtain pristine reference labels in underwater scenes, existing benchmarks often rely on manually selected results from enhancement algorithms, providing debatable reference images that lack globally consistent color and authentic supervision. This limits the model's capabilities in color restoration, image enhancement, and generalization. To overcome this limitation, we propose using in-air natural images as unambiguous reference targets and translating them into underwater-degraded versions, thereby constructing synthetic datasets that provide authentic supervision signals for model learning. Specifically, we establish a generative data framework based on unpaired image-to-image translation, producing a large-scale dataset that covers 6 representative underwater degradation types. The framework constructs synthetic datasets with precise ground-truth labels, which facilitate the learning of an accurate mapping from degraded underwater images to their pristine scene appearances. Extensive quantitative and qualitative experiments across 6 representative network architectures and 3 independent test sets show that models trained on our synthetic data achieve comparable or superior color restoration and generalization performance to those trained on existing benchmarks. This research provides a reliable and scalable data-driven solution for underwater image restoration and enhancement. The generated dataset is publicly available at: https://github.com/yftian2025/SynUIEDatasets.git.
- Abstract(参考訳): 水中画像の復元と強調は、色歪みの補正と画像の復元に不可欠であり、その後の水中視覚タスクの基礎となる。
しかし、この領域における現在のディープラーニング手法は、高品質なペアデータセットの不足によってしばしば制約される。
水中のシーンでプリスタン基準ラベルを得るのは難しいため、既存のベンチマークは拡張アルゴリズムから手作業で選択された結果に頼り、一貫した色と真の監督を欠く不安定な参照画像を提供することが多い。
これにより、カラー復元、画像の強化、一般化におけるモデルの能力が制限される。
この制限を克服するために,大気中の自然画像を不明瞭な参照ターゲットとして使用し,それらを水中で劣化したバージョンに翻訳することにより,モデル学習のための真の監視信号を提供する合成データセットを構築することを提案する。
具体的には、画像から画像への変換を欠いた画像から画像への変換に基づく生成データフレームワークを構築し、6種類の水中劣化を対象とする大規模データセットを作成する。
このフレームワークは、劣化した水中画像から原始的なシーンの外観への正確なマッピングの学習を容易にする、正確な地下構造ラベルを持つ合成データセットを構築する。
6つの代表的ネットワークアーキテクチャと3つの独立したテストセットにまたがる大規模な定量的および定性的実験により、我々の合成データに基づいてトレーニングされたモデルが、既存のベンチマークでトレーニングされたモデルと同等または優れた色復元と一般化性能を達成することを示した。
この研究は、水中画像の復元と強化のための信頼性とスケーラブルなデータ駆動ソリューションを提供する。
生成されたデータセットは、https://github.com/yftian2025/SynUIEDatasets.gitで公開されている。
関連論文リスト
- AerialMegaDepth: Learning Aerial-Ground Reconstruction and View Synthesis [57.249817395828174]
本研究では,3次元都市規模のメッシュからの擬似合成レンダリングと,実地レベルでのクラウドソース画像を組み合わせたスケーラブルなフレームワークを提案する。
擬似合成データは、幅広い空中視点をシミュレートする一方、実際のクラウドソース画像は、地上レベルの画像の視覚的忠実度を改善するのに役立つ。
このハイブリッドデータセットを使用して、いくつかの最先端のアルゴリズムを微調整し、実世界のゼロショット地上作業において大幅な改善を実現する。
論文 参考訳(メタデータ) (2025-04-17T17:57:05Z) - UniUIR: Considering Underwater Image Restoration as An All-in-One Learner [62.65503609562905]
我々はUniUIRと呼ばれるユニバーサル水中画像復元手法を提案する。
劣化固有の問題を分離し、UIRタスクにおける様々な劣化の相関関係を探るため、我々はMamba Mixture-of-Expertsモジュールを設計した。
このモジュールは、空間領域と周波数領域の両方において劣化前の情報を抽出し、最適なタスク固有のプロンプトを適応的に選択する。
論文 参考訳(メタデータ) (2025-01-22T16:10:42Z) - PHISWID: Physics-Inspired Underwater Image Dataset Synthesized from RGB-D Images [9.117162374919715]
本稿では,物理にヒントを得た水中画像データセット(PHISWID)を紹介する。
物理にインスパイアされた画像合成による水中画像処理の強化に適したデータセットである。
我々のデータセットは水中画像処理の発展に寄与する。
論文 参考訳(メタデータ) (2024-04-05T10:23:10Z) - PUGAN: Physical Model-Guided Underwater Image Enhancement Using GAN with
Dual-Discriminators [120.06891448820447]
鮮明で視覚的に快適な画像を得る方法は、人々の共通の関心事となっている。
水中画像強調(UIE)の課題も、時間とともに現れた。
本稿では,UIE のための物理モデル誘導型 GAN モデルを提案する。
我々のPUGANは質的および定量的な測定値において最先端の手法より優れています。
論文 参考訳(メタデータ) (2023-06-15T07:41:12Z) - MetaUE: Model-based Meta-learning for Underwater Image Enhancement [25.174894007563374]
本論文では,様々な水中シナリオ下でクリーンな画像を復元するためのモデルに基づくディープラーニング手法を提案する。
メタラーニング戦略は、合成水中データセット上で事前訓練されたモデルを得るために用いられる。
その後、モデルが実際の水中データセットに微調整され、MetaUEと呼ばれる信頼性の高い水中画像拡張モデルが得られる。
論文 参考訳(メタデータ) (2023-03-12T02:38:50Z) - Adaptive deep learning framework for robust unsupervised underwater image enhancement [3.0516727053033392]
ディープラーニングベースの水中画像強化における大きな課題の1つは、高品質なトレーニングデータの可用性の制限である。
本研究では、条件付き変分オートエンコーダ(cVAE)を用いて、深層学習モデルのトレーニングを行う、新しい教師なし水中画像強調フレームワークを提案する。
提案手法は, 定量化と定性化の両面において, 他の最先端手法と比較して, 競争性能が向上することを示す。
論文 参考訳(メタデータ) (2022-12-18T01:07:20Z) - Underwater Image Restoration via Contrastive Learning and a Real-world
Dataset [59.35766392100753]
本稿では,教師なし画像から画像への翻訳フレームワークに基づく水中画像復元手法を提案する。
提案手法は, 生画像と復元画像の相互情報を最大化するために, コントラスト学習と生成敵ネットワークを利用した。
論文 参考訳(メタデータ) (2021-06-20T16:06:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。