論文の概要: Development of Domain-Invariant Visual Enhancement and Restoration (DIVER) Approach for Underwater Images
- arxiv url: http://arxiv.org/abs/2601.22878v1
- Date: Fri, 30 Jan 2026 11:58:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.418386
- Title: Development of Domain-Invariant Visual Enhancement and Restoration (DIVER) Approach for Underwater Images
- Title(参考訳): 水中画像に対する領域不変視覚強調再生(DIVER)アプローチの開発
- Authors: Rajini Makam, Sharanya Patil, Dhatri Shankari T M, Suresh Sundaram, Narasimhan Sundararajan,
- Abstract要約: 水中画像は、波長依存性の減衰、散乱、照明の不均一により深刻な劣化を被る。
教師なしのドメイン不変ビジュアルエンハンス・アンド・リカバリフレームワークを提案する。
DIVERは、ロバストな水中画像強調のための物理誘導モデリングと経験的補正を統合している。
- 参考スコア(独自算出の注目度): 5.8522596133394424
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Underwater images suffer severe degradation due to wavelength-dependent attenuation, scattering, and illumination non-uniformity that vary across water types and depths. We propose an unsupervised Domain-Invariant Visual Enhancement and Restoration (DIVER) framework that integrates empirical correction with physics-guided modeling for robust underwater image enhancement. DIVER first applies either IlluminateNet for adaptive luminance enhancement or a Spectral Equalization Filter for spectral normalization. An Adaptive Optical Correction Module then refines hue and contrast using channel-adaptive filtering, while Hydro-OpticNet employs physics-constrained learning to compensate for backscatter and wavelength-dependent attenuation. The parameters of IlluminateNet and Hydro-OpticNet are optimized via unsupervised learning using a composite loss function. DIVER is evaluated on eight diverse datasets covering shallow, deep, and highly turbid environments, including both naturally low-light and artificially illuminated scenes, using reference and non-reference metrics. While state-of-the-art methods such as WaterNet, UDNet, and Phaseformer perform reasonably in shallow water, their performance degrades in deep, unevenly illuminated, or artificially lit conditions. In contrast, DIVER consistently achieves best or near-best performance across all datasets, demonstrating strong domain-invariant capability. DIVER yields at least a 9% improvement over SOTA methods in UCIQE. On the low-light SeaThru dataset, where color-palette references enable direct evaluation of color restoration, DIVER achieves at least a 4.9% reduction in GPMAE compared to existing methods. Beyond visual quality, DIVER also improves robotic perception by enhancing ORB-based keypoint repeatability and matching performance, confirming its robustness across diverse underwater environments.
- Abstract(参考訳): 水中画像は、波長依存性の減衰、散乱、および水の種類や深さによって異なる不均一性により、著しく劣化する。
本研究では、物理誘導型モデリングと経験的補正を統合し、ロバストな水中画像強調のための教師なしのドメイン不変視覚強調再生(DIVER)フレームワークを提案する。
DIVERは、適応輝度向上のためにIlluminateNetを適用するか、スペクトル正規化のためにスペクトル等化フィルタを適用する。
アダプティブ光補正モジュールは、チャネル適応フィルタリングを用いて色調とコントラストを洗練し、Hydro-OpticNetは後方散乱と波長依存減衰を補償するために物理制約学習を採用する。
IlluminateNetとHydro-OpticNetのパラメータは、複合損失関数を用いて教師なし学習によって最適化される。
DIVERは、参照と非参照のメトリクスを使用して、自然の低照度と人工的な照度の両方を含む、浅い、深い、非常に濁った環境をカバーする8つの多様なデータセットで評価されている。
WaterNet、UDNet、Phaseformerのような最先端の手法は浅瀬で合理的に機能するが、その性能は深い、不均一に照らされた、あるいは人工的に照らされた状態で低下する。
対照的に、DIVERは、すべてのデータセットで、最高または最良に近いパフォーマンスを一貫して達成し、強力なドメイン不変能力を示している。
DIVERはUCIQEのSOTA法よりも少なくとも9%改善されている。
低照度のSeaThruデータセットでは、カラーパレット参照が色復元の直接評価を可能にするため、DIVERは既存の方法と比較して少なくとも4.9%のGPMAE削減を実現している。
視覚的品質以外に、DIVERはORBベースのキーポイントリピータビリティとマッチング性能を高め、多様な水中環境におけるロバスト性を確認することで、ロボットの知覚を向上させる。
関連論文リスト
- Enhancing Underwater Light Field Images via Global Geometry-aware Diffusion Process [93.00033672476206]
GeoDiff-LFは、SD-Turbo上に構築された新しい拡散ベースのフレームワークで、水中4次元LFイメージングを強化する。
拡散先行とLF幾何を統合することにより、GeoDiff-LFは水中のシーンにおける色歪みを効果的に緩和する。
論文 参考訳(メタデータ) (2026-01-29T02:27:22Z) - WaterClear-GS: Optical-Aware Gaussian Splatting for Underwater Reconstruction and Restoration [11.520966034974697]
水中光学特性をガウス原始体に統合する初の純3DGSベースのフレームワークであるWaterClear-GSを紹介する。
本手法では,水中での光度整合性を確保しつつ,自然に無水外観を回復させるために,二重ブランチ最適化手法を用いる。
標準ベンチマークと新たに収集したデータセットを用いて,新しいビュー合成(NVS)と水中画像復元の両タスクにおいて,WaterClear-GSが優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2026-01-27T16:14:34Z) - DACA-Net: A Degradation-Aware Conditional Diffusion Network for Underwater Image Enhancement [16.719513778795367]
水中画像は通常、散乱や吸収といった複雑な光学効果により、激しい色歪み、視界の低さ、構造的明瞭さの低下に悩まされる。
既存の拡張手法は、様々な劣化条件を適応的に扱うのに苦労し、水中固有の物理的前提を効果的に活用できないことが多い。
本研究では,水中画像の適応的・堅牢性を高めるための劣化認識条件拡散モデルを提案する。
論文 参考訳(メタデータ) (2025-07-30T09:16:07Z) - RUSplatting: Robust 3D Gaussian Splatting for Sparse-View Underwater Scene Reconstruction [9.070464075411472]
本稿では,水中深部レンダリングの視覚的品質と精度を両立させる,ガウススプラッティングに基づくフレームワークを提案する。
水中減衰の物理によって導かれるRGBチャネルの分離学習を提案し,より正確な色復元を実現する。
新たに収集されたデータセットであるSubmerged3Dは、特に深海環境においてキャプチャされる。
論文 参考訳(メタデータ) (2025-05-21T16:42:15Z) - An Adaptive Underwater Image Enhancement Framework via Multi-Domain Fusion and Color Compensation [0.6144680854063939]
水中光学イメージングは、光吸収、散乱、色歪みによって著しく劣化する。
本稿では,照明補償,マルチドメインフィルタリング,動的色補正を統合した適応型拡張フレームワークを提案する。
ベンチマークデータセットを用いた実験結果から,コントラスト強化,色補正,構造保存における最先端手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2025-03-05T16:19:56Z) - DORNet: A Degradation Oriented and Regularized Network for Blind Depth Super-Resolution [48.744290794713905]
現実のシナリオでは、キャプチャーされた深度データは、センサーの制限や複雑な撮像環境のために、従来と変わらない劣化に悩まされることが多い。
本稿では,現実のシーンにおける未知の劣化に適応的に対処する新しいフレームワークであるDORNetを提案する。
提案手法は,低解像度深度データの劣化表現をモデル化した自己教師付き劣化学習戦略の開発から始まる。
効率的なRGB-D融合を容易にするために,学習した劣化先行情報に基づいて,RGBコンテンツを奥行きデータに選択的に伝播する劣化指向の特徴変換モジュールを導入する。
論文 参考訳(メタデータ) (2024-10-15T14:53:07Z) - Dual High-Order Total Variation Model for Underwater Image Restoration [13.789310785350484]
水中画像の高画質化と復元(UIER)は,水中画像の画質向上のための重要な手段である。
拡張水中画像形成モデル(UIFM)に基づく効果的な変分フレームワークを提案する。
提案フレームワークでは,重み係数に基づく色補正とカラーバランスを組み合わせることで,減衰した色チャネルを補償し,色キャストを除去する。
論文 参考訳(メタデータ) (2024-07-20T13:06:37Z) - DGNet: Dynamic Gradient-Guided Network for Water-Related Optics Image
Enhancement [77.0360085530701]
水中画像強調(UIE)は、水中環境によって引き起こされる複雑な劣化のために難しい課題である。
従来の手法では、劣化過程を理想化し、中音や物体の動きが画像の特徴の分布に与える影響を無視することが多い。
提案手法では,予測画像を用いて疑似ラベルを動的に更新し,動的勾配を加えてネットワークの勾配空間を最適化する。
論文 参考訳(メタデータ) (2023-12-12T06:07:21Z) - PUGAN: Physical Model-Guided Underwater Image Enhancement Using GAN with
Dual-Discriminators [120.06891448820447]
鮮明で視覚的に快適な画像を得る方法は、人々の共通の関心事となっている。
水中画像強調(UIE)の課題も、時間とともに現れた。
本稿では,UIE のための物理モデル誘導型 GAN モデルを提案する。
我々のPUGANは質的および定量的な測定値において最先端の手法より優れています。
論文 参考訳(メタデータ) (2023-06-15T07:41:12Z) - Universal and Flexible Optical Aberration Correction Using Deep-Prior
Based Deconvolution [51.274657266928315]
そこで本研究では,収差画像とpsfマップを入力とし,レンズ固有深層プリエントを組み込んだ潜在高品質版を生成する,psf対応プラグイン・アンド・プレイ深層ネットワークを提案する。
具体的には、多彩なレンズの集合からベースモデルを事前訓練し、パラメータを迅速に精製して特定のレンズに適応させる。
論文 参考訳(メタデータ) (2021-04-07T12:00:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。