論文の概要: Osmosis: RGBD Diffusion Prior for Underwater Image Restoration
- arxiv url: http://arxiv.org/abs/2403.14837v1
- Date: Thu, 21 Mar 2024 21:13:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-25 19:06:46.538432
- Title: Osmosis: RGBD Diffusion Prior for Underwater Image Restoration
- Title(参考訳): 浸透症:水中画像復元に先立つRGBD拡散
- Authors: Opher Bar Nathan, Deborah Levy, Tali Treibitz, Dan Rosenbaum,
- Abstract要約: 水中修復のための拡散先行訓練に空中画像を利用する方法を示す。
また,色データのみが不十分であること,深度チャネルによる事前の増大も観察した。
本手法は,難易度の高いシーンにおいて,画像復元のための最先端のベースラインよりも優れる。
- 参考スコア(独自算出の注目度): 8.06874881862533
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Underwater image restoration is a challenging task because of strong water effects that increase dramatically with distance. This is worsened by lack of ground truth data of clean scenes without water. Diffusion priors have emerged as strong image restoration priors. However, they are often trained with a dataset of the desired restored output, which is not available in our case. To overcome this critical issue, we show how to leverage in-air images to train diffusion priors for underwater restoration. We also observe that only color data is insufficient, and augment the prior with a depth channel. We train an unconditional diffusion model prior on the joint space of color and depth, using standard RGBD datasets of natural outdoor scenes in air. Using this prior together with a novel guidance method based on the underwater image formation model, we generate posterior samples of clean images, removing the water effects. Even though our prior did not see any underwater images during training, our method outperforms state-of-the-art baselines for image restoration on very challenging scenes. Data, models and code are published in the project page.
- Abstract(参考訳): 水中画像の復元は、遠隔地で劇的に増加する強い水の影響のため、困難な作業である。
これは、水のないきれいな風景の真実データがないために悪化する。
拡散の前兆は、強いイメージ復元の前兆として現れている。
しかし、それらはしばしば、望まれる復元された出力のデータセットで訓練される。
この重要な課題を克服するために,水中修復のための拡散先行訓練に空中画像を活用する方法を示す。
また,色データのみが不十分であること,深度チャネルによる事前の増大も観察した。
大気中の自然の屋外シーンの標準RGBDデータセットを用いて、色と深さの結合空間に先立って無条件拡散モデルを訓練する。
水中画像形成モデルに基づく新しいガイダンス手法と組み合わせて, クリーン画像の後部サンプルを生成し, 水の影響を除去する。
トレーニング中に水中画像は見つからなかったが、我々の手法は、非常に困難な場面で画像復元のための最先端のベースラインを上回った。
データ、モデル、コードはプロジェクトページで公開されています。
関連論文リスト
- Physics Informed and Data Driven Simulation of Underwater Images via
Residual Learning [5.095097384893417]
一般的に水中の画像は、光が水中を伝播するにつれて減衰し後方散乱するため、色歪みと低コントラストに悩まされる。
既存の単純な劣化モデル(大気画像の「ヘイジング」効果に似ている)は水中画像の劣化を適切に表現するには不十分である。
水中効果を自動的にシミュレートする深層学習型アーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-02-07T21:53:28Z) - Atlantis: Enabling Underwater Depth Estimation with Stable Diffusion [30.122666238416716]
正確な地球深度データを用いて水中画像を生成する新しいパイプラインを提案する。
このアプローチは、水中深度推定のための教師付きモデルのトレーニングを容易にする。
我々は、特別に作成された水中、深度、テキストデータ三重項に基づいて訓練された独自のDepth2Underwater ControlNetを導入する。
論文 参考訳(メタデータ) (2023-12-19T08:56:33Z) - Unsupervised haze removal from underwater images [25.163783640750573]
本研究では,未ペアデータを用いた水中画像からのヘイズ除去手法を提案する。
我々のモデルでは, Haze Disentanglement Network (HDN) を用いて, 水中画像からヘイズとコンテンツ情報を分離する。
そして、この歪んだヘイズを水中画像再生のガイドとして使用し、サイクル整合損失に強い制約を与え、性能向上を図る。
論文 参考訳(メタデータ) (2023-06-05T14:15:46Z) - Nerfbusters: Removing Ghostly Artifacts from Casually Captured NeRFs [78.75872372856597]
カジュアルに捕獲されたニューラル・レージアンス・フィールド(NeRF)は、カメラの軌道の外側でレンダリングされたとき、フローターや欠陥のある幾何学などの人工物に悩まされる。
本稿では,2つのカメラトラジェクトリがシーンに記録される新しいデータセットと評価手法を提案する。
このデータ駆動型先行処理はフローターを除去し,カジュアルキャプチャのためのシーン形状を改善した。
論文 参考訳(メタデータ) (2023-04-20T17:59:05Z) - Unpaired Overwater Image Defogging Using Prior Map Guided CycleGAN [60.257791714663725]
オーバーウォーターシーンで画像をデフォグするための先行マップガイドサイクロン (PG-CycleGAN) を提案する。
提案手法は,最先端の教師付き,半教師付き,非教師付きデグジングアプローチより優れている。
論文 参考訳(メタデータ) (2022-12-23T03:00:28Z) - Towards Realistic Underwater Dataset Generation and Color Restoration [18.31448635476334]
画像翻訳ネットワークを用いて、合成ドメインと実ドメインのギャップを埋める。
さまざまな水中条件をキャプチャーできるデータセットを作成します。
次に、ドメイン適応データセットに基づいて、単純だが効果的なCNNベースのネットワークをトレーニングし、色復元を行います。
論文 参考訳(メタデータ) (2022-11-27T13:24:28Z) - See Blue Sky: Deep Image Dehaze Using Paired and Unpaired Training
Images [73.23687409870656]
本稿では,新しいエンドツーエンド画像デヘイズモデルを構築するために,サイクル生成対向ネットワークを提案する。
我々は、実世界の未ペア画像データセットとペア画像データセットのセットを含む、私たちのモデルをトレーニングするために、屋外画像データセットを採用しています。
本モデルでは, サイクル構造に基づいて, 対向損失, サイクル整合損失, フォトリアリズム損失, ペアL1損失を含む4種類の損失関数を付加した。
論文 参考訳(メタデータ) (2022-10-14T07:45:33Z) - Underwater Light Field Retention : Neural Rendering for Underwater
Imaging [6.22867695581195]
水中画像レンダリングは、指定されたクリーンな画像から本物の水中画像を生成することを目的としている。
本稿では,UWNR(Underwater Neural Rendering)と呼ばれる水中画像のニューラルネットワークレンダリング手法を提案する。
論文 参考訳(メタデータ) (2022-03-21T14:22:05Z) - Underwater Image Restoration via Contrastive Learning and a Real-world
Dataset [59.35766392100753]
本稿では,教師なし画像から画像への翻訳フレームワークに基づく水中画像復元手法を提案する。
提案手法は, 生画像と復元画像の相互情報を最大化するために, コントラスト学習と生成敵ネットワークを利用した。
論文 参考訳(メタデータ) (2021-06-20T16:06:26Z) - Non-Homogeneous Haze Removal via Artificial Scene Prior and
Bidimensional Graph Reasoning [52.07698484363237]
本研究では,人工シーンの前置と2次元グラフ推論による不均質なヘイズ除去ネットワーク(nhrn)を提案する。
本手法は,単一画像デハジングタスクとハイザイ画像理解タスクの両方において,最先端アルゴリズムよりも優れた性能を実現する。
論文 参考訳(メタデータ) (2021-04-05T13:04:44Z) - Memory-Augmented Reinforcement Learning for Image-Goal Navigation [67.3963444878746]
本論文では,クロスエピソードメモリを活用したナビゲーション学習法を提案する。
オーバーフィッティングを避けるため、トレーニング中にRGB入力にデータ拡張を適用することを提案する。
この競合性能はRGB入力のみから得られるが,位置や深度などのセンサは利用できない。
論文 参考訳(メタデータ) (2021-01-13T16:30:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。