論文の概要: Single-Step Latent Diffusion for Underwater Image Restoration
- arxiv url: http://arxiv.org/abs/2507.07878v1
- Date: Thu, 10 Jul 2025 16:02:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-11 16:40:15.479213
- Title: Single-Step Latent Diffusion for Underwater Image Restoration
- Title(参考訳): 水中画像再生のための単段潜水拡散法
- Authors: Jiayi Wu, Tianfu Wang, Md Abu Bakr Siddique, Md Jahidul Islam, Cornelia Fermuller, Yiannis Aloimonos, Christopher A. Metzler,
- Abstract要約: 水中画像復元アルゴリズムは、水中で撮影されたシーンの色、コントラスト、外観を復元しようとする。
海洋生態学や養殖から水中建設や考古学まで、様々な応用において重要な道具である。
Slurppは既存の拡散法よりも200倍高速で、合成ベンチマークではPSNRが3dB改善されている。
- 参考スコア(独自算出の注目度): 25.229678050715496
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Underwater image restoration algorithms seek to restore the color, contrast, and appearance of a scene that is imaged underwater. They are a critical tool in applications ranging from marine ecology and aquaculture to underwater construction and archaeology. While existing pixel-domain diffusion-based image restoration approaches are effective at restoring simple scenes with limited depth variation, they are computationally intensive and often generate unrealistic artifacts when applied to scenes with complex geometry and significant depth variation. In this work we overcome these limitations by combining a novel network architecture (SLURPP) with an accurate synthetic data generation pipeline. SLURPP combines pretrained latent diffusion models -- which encode strong priors on the geometry and depth of scenes -- with an explicit scene decomposition -- which allows one to model and account for the effects of light attenuation and backscattering. To train SLURPP we design a physics-based underwater image synthesis pipeline that applies varied and realistic underwater degradation effects to existing terrestrial image datasets. This approach enables the generation of diverse training data with dense medium/degradation annotations. We evaluate our method extensively on both synthetic and real-world benchmarks and demonstrate state-of-the-art performance. Notably, SLURPP is over 200X faster than existing diffusion-based methods while offering ~ 3 dB improvement in PSNR on synthetic benchmarks. It also offers compelling qualitative improvements on real-world data. Project website https://tianfwang.github.io/slurpp/.
- Abstract(参考訳): 水中画像復元アルゴリズムは、水中で撮影されたシーンの色、コントラスト、外観を復元しようとする。
海洋生態学や養殖から水中建設や考古学まで、様々な応用において重要な道具である。
既存の画素領域拡散に基づく画像復元手法は、深度変化の制限のある単純なシーンの復元に有効であるが、複雑な幾何学と重要な深度変化のシーンに適用した場合、計算集約的に非現実的なアーティファクトを生成することが多い。
本研究では,新しいネットワークアーキテクチャ(SLURPP)と正確な合成データ生成パイプラインを組み合わせることで,これらの制約を克服する。
SLURPPは事前訓練された潜伏拡散モデル(シーンの幾何学と深さの強い先行を明示的なシーン分解にエンコードする)を組み合わせることで、光減衰と後方散乱の影響をモデル化し説明することができる。
SLURPPを訓練するために、既存の地上画像データセットに様々なリアルな水中劣化効果を適用する物理ベースの水中画像合成パイプラインを設計する。
このアプローチにより、高密度な中・劣化アノテーションを用いた多様なトレーニングデータの生成が可能になる。
提案手法は, 実世界のベンチマークと実世界のベンチマークで広く評価し, 最先端の性能を示す。
特に、SLURPPは既存の拡散法よりも200倍高速であり、合成ベンチマークではPSNRが約3dB改善されている。
また、現実世界のデータに対して、魅力的な質的な改善も提供する。
プロジェクトサイト https://tianfwang.github.io/slurpp/。
関連論文リスト
- Decompositional Neural Scene Reconstruction with Generative Diffusion Prior [64.71091831762214]
完全な形状と詳細なテクスチャを持つ3次元シーンの分解的再構成は、下流の応用に興味深い。
近年のアプローチでは、この問題に対処するために意味的あるいは幾何学的正則化が取り入れられているが、制約の少ない領域では著しく劣化している。
本稿では,SDS(Score Distillation Sampling)の形で拡散先行値を用いたDP-Reconを提案し,新しい視点下で個々の物体の神経表現を最適化する。
論文 参考訳(メタデータ) (2025-03-19T02:11:31Z) - Fast Underwater Scene Reconstruction using Multi-View Stereo and Physical Imaging [5.676974245780037]
本研究では,マルチビューステレオ吸収(MVS)と物理に基づく水中画像形成モデルを統合する新しい手法を提案する。
媒体を利用して媒体パラメータを推定し、レンダリング用の色と組み合わせることで、水中シーンの真の色を復元する。
実験結果から, 散乱媒体における新規ビューの高品質な合成, 媒体の除去によるビューの復元, レンダリング精度, トレーニング効率において, 既存の手法よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2025-01-21T04:35:27Z) - PHISWID: Physics-Inspired Underwater Image Dataset Synthesized from RGB-D Images [9.117162374919715]
本稿では,物理にヒントを得た水中画像データセット(PHISWID)を紹介する。
物理にインスパイアされた画像合成による水中画像処理の強化に適したデータセットである。
我々のデータセットは水中画像処理の発展に寄与する。
論文 参考訳(メタデータ) (2024-04-05T10:23:10Z) - DGNet: Dynamic Gradient-Guided Network for Water-Related Optics Image
Enhancement [77.0360085530701]
水中画像強調(UIE)は、水中環境によって引き起こされる複雑な劣化のために難しい課題である。
従来の手法では、劣化過程を理想化し、中音や物体の動きが画像の特徴の分布に与える影響を無視することが多い。
提案手法では,予測画像を用いて疑似ラベルを動的に更新し,動的勾配を加えてネットワークの勾配空間を最適化する。
論文 参考訳(メタデータ) (2023-12-12T06:07:21Z) - PUGAN: Physical Model-Guided Underwater Image Enhancement Using GAN with
Dual-Discriminators [120.06891448820447]
鮮明で視覚的に快適な画像を得る方法は、人々の共通の関心事となっている。
水中画像強調(UIE)の課題も、時間とともに現れた。
本稿では,UIE のための物理モデル誘導型 GAN モデルを提案する。
我々のPUGANは質的および定量的な測定値において最先端の手法より優れています。
論文 参考訳(メタデータ) (2023-06-15T07:41:12Z) - Beyond NeRF Underwater: Learning Neural Reflectance Fields for True
Color Correction of Marine Imagery [16.16700041031569]
水中画像は、光-水相互作用の結果、しばしば歪んだ着色を示す。
本研究では,水中画像における真色(アルベド)の復元アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-04-06T21:29:34Z) - MetaUE: Model-based Meta-learning for Underwater Image Enhancement [25.174894007563374]
本論文では,様々な水中シナリオ下でクリーンな画像を復元するためのモデルに基づくディープラーニング手法を提案する。
メタラーニング戦略は、合成水中データセット上で事前訓練されたモデルを得るために用いられる。
その後、モデルが実際の水中データセットに微調整され、MetaUEと呼ばれる信頼性の高い水中画像拡張モデルが得られる。
論文 参考訳(メタデータ) (2023-03-12T02:38:50Z) - Unsupervised Restoration of Weather-affected Images using Deep Gaussian
Process-based CycleGAN [92.15895515035795]
本稿では,CycleGANに基づくディープネットワークの監視手法について述べる。
我々は,より効果的なトレーニングにつながるCycleGANのトレーニングに新たな損失を導入し,高品質な再構築を実現した。
提案手法は, 脱落, 脱落, 脱落といった様々な修復作業に効果的に適用できることを実証する。
論文 参考訳(メタデータ) (2022-04-23T01:30:47Z) - Underwater Image Restoration via Contrastive Learning and a Real-world
Dataset [59.35766392100753]
本稿では,教師なし画像から画像への翻訳フレームワークに基づく水中画像復元手法を提案する。
提案手法は, 生画像と復元画像の相互情報を最大化するために, コントラスト学習と生成敵ネットワークを利用した。
論文 参考訳(メタデータ) (2021-06-20T16:06:26Z) - Deep CG2Real: Synthetic-to-Real Translation via Image Disentanglement [78.58603635621591]
画像空間における未ペアの合成-現実翻訳ネットワークの訓練は、厳しい制約下にある。
画像の非交叉シェーディング層とアルベド層に作用する半教師付きアプローチを提案する。
私たちの2段階のパイプラインはまず、物理ベースのレンダリングをターゲットとして、教師付き方法で正確なシェーディングを予測することを学習します。
論文 参考訳(メタデータ) (2020-03-27T21:45:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。