論文の概要: U2NeRF: Unsupervised Underwater Image Restoration and Neural Radiance Fields
- arxiv url: http://arxiv.org/abs/2411.16172v1
- Date: Mon, 25 Nov 2024 08:02:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-26 14:20:31.211230
- Title: U2NeRF: Unsupervised Underwater Image Restoration and Neural Radiance Fields
- Title(参考訳): U2NeRF:教師なし水中画像復元とニューラル放射場
- Authors: Vinayak Gupta, Manoj S, Mukund Varma T, Kaushik Mitra,
- Abstract要約: マルチビュー幾何学に基づく新しいビューのレンダリングと復元を同時に行うトランスフォーマーベースのアーキテクチャであるUnsupervised Underwater Neural Radiance Field U2NeRFを提案する。
我々は,12の水中シーンからなる水中ビュー合成UVSデータセットを,合成生成データと実世界のデータの両方を含む形でリリースする。
- 参考スコア(独自算出の注目度): 20.30434798359958
- License:
- Abstract: Underwater images suffer from colour shifts, low contrast, and haziness due to light absorption, refraction, scattering and restoring these images has warranted much attention. In this work, we present Unsupervised Underwater Neural Radiance Field U2NeRF, a transformer-based architecture that learns to render and restore novel views conditioned on multi-view geometry simultaneously. Due to the absence of supervision, we attempt to implicitly bake restoring capabilities onto the NeRF pipeline and disentangle the predicted color into several components - scene radiance, direct transmission map, backscatter transmission map, and global background light, and when combined reconstruct the underwater image in a self-supervised manner. In addition, we release an Underwater View Synthesis UVS dataset consisting of 12 underwater scenes, containing both synthetically-generated and real-world data. Our experiments demonstrate that when optimized on a single scene, U2NeRF outperforms several baselines by as much LPIPS 11%, UIQM 5%, UCIQE 4% (on average) and showcases improved rendering and restoration capabilities. Code will be made available upon acceptance.
- Abstract(参考訳): 水中画像は、光吸収、屈折、散乱、そしてこれらの画像の復元により、色の変化、低コントラスト、ヘイズネスに悩まされている。
本研究では,マルチビュー幾何学に基づく新しいビューのレンダリングと復元を同時に行うトランスフォーマーベースアーキテクチャであるUnsupervised Underwater Neural Radiance Field U2NeRFを提案する。
監視の欠如により、暗黙的にNeRFパイプラインに復元機能を持ち込み、予測色をシーン放射率、ダイレクトトランスミッションマップ、バックスキャッタートランスミッションマップ、グローバル背景光に分解し、自己監督的な方法で水中画像の再構成を行う。
さらに,12の水中シーンからなる水中ビュー合成UVSデータセットを,合成生成データと実世界のデータの両方を含む形で公開する。
実験の結果,単一シーンに最適化された場合,U2NeRFはLPIPS 11%,UIQM 5%,UCIQE 4%(平均)でいくつかのベースラインを上回り,レンダリングと復元能力の向上を示すことがわかった。
コードは受理時に利用可能になる。
関連論文リスト
- NeuroPump: Simultaneous Geometric and Color Rectification for Underwater Images [52.863935209616635]
水中画像の復元は、水の屈折、吸収、散乱による幾何学的および色の歪みを取り除くことを目的としている。
本研究では,水中の形状と色を水が汲み出されているかのように同時に最適化し,修正する自己教師型方法であるNeuroPumpを提案する。
論文 参考訳(メタデータ) (2024-12-20T13:40:28Z) - Gaussian Splashing: Direct Volumetric Rendering Underwater [6.2122699483618]
本稿では,新しい水中シーンを140FPSでレンダリングし,再現に数分しかかからない新しい手法を提案する。
本手法は3DGSの強度と速度を画像形成モデルと統合し,散乱を捕捉する。
他の方法よりもはるかに明確で、再構成された画像や描画された画像が劇的に改善されている。
論文 参考訳(メタデータ) (2024-11-29T10:04:38Z) - NeRF-Casting: Improved View-Dependent Appearance with Consistent Reflections [57.63028964831785]
最近の研究は、遠方の環境照明の詳細な明細な外観を描画するNeRFの能力を改善しているが、近い内容の一貫した反射を合成することはできない。
我々はこれらの問題をレイトレーシングに基づくアプローチで解決する。
このモデルでは、それぞれのカメラ線に沿った点における視界依存放射率を求めるために高価なニューラルネットワークをクエリする代わりに、これらの点から光を流し、NeRF表現を通して特徴ベクトルを描画します。
論文 参考訳(メタデータ) (2024-05-23T17:59:57Z) - WaterHE-NeRF: Water-ray Tracing Neural Radiance Fields for Underwater
Scene Reconstruction [6.036702530679703]
本研究では,3次元空間における色,密度,照度減衰を正確にエンコードするRetinex理論による新しい水線トレーシング場を開発する。
WaterHE-NeRFは、その発光減衰機構を通じて、劣化画像と鮮明な多視点画像の両方を生成する。
論文 参考訳(メタデータ) (2023-12-12T02:55:14Z) - Dual Degradation Representation for Joint Deraining and Low-Light Enhancement in the Dark [57.85378202032541]
暗闇の中での雨は、自律運転や監視システム、夜間写真など、現実世界のアプリケーションをデプロイする上で大きな課題となる。
既存の低照度化や除染法は、低照度を明るくし、同時に雨を取り除くのに苦労する。
L$2$RIRNetと呼ばれるエンド・ツー・エンドのモデルを導入する。
論文 参考訳(メタデータ) (2023-05-06T10:17:42Z) - R2L: Distilling Neural Radiance Field to Neural Light Field for
Efficient Novel View Synthesis [76.07010495581535]
一つのピクセルをレンダリングするには、数百回もNeural Radiance Fieldネットワークに問い合わせる必要がある。
NeLFは、新しい視点において、NeRFに対してより直接的な表現を提示する。
ディープNeLFネットワークをうまく学習する鍵は、十分なデータを持つことである。
論文 参考訳(メタデータ) (2022-03-31T17:57:05Z) - Underwater Light Field Retention : Neural Rendering for Underwater
Imaging [6.22867695581195]
水中画像レンダリングは、指定されたクリーンな画像から本物の水中画像を生成することを目的としている。
本稿では,UWNR(Underwater Neural Rendering)と呼ばれる水中画像のニューラルネットワークレンダリング手法を提案する。
論文 参考訳(メタデータ) (2022-03-21T14:22:05Z) - NeRF-SR: High-Quality Neural Radiance Fields using Super-Sampling [82.99453001445478]
主に低分解能(LR)入力を用いた高分解能(HR)新規ビュー合成のソリューションであるNeRF-SRを提案する。
提案手法は,多層パーセプトロンを用いて各点密度と色を予測するニューラルレージアンス場(NeRF)上に構築されている。
論文 参考訳(メタデータ) (2021-12-03T07:33:47Z) - Underwater Image Restoration via Contrastive Learning and a Real-world
Dataset [59.35766392100753]
本稿では,教師なし画像から画像への翻訳フレームワークに基づく水中画像復元手法を提案する。
提案手法は, 生画像と復元画像の相互情報を最大化するために, コントラスト学習と生成敵ネットワークを利用した。
論文 参考訳(メタデータ) (2021-06-20T16:06:26Z) - Wavelength-based Attributed Deep Neural Network for Underwater Image
Restoration [9.378355457555319]
本稿では,色チャネルの移動範囲に基づいて,適切な受容場サイズ(コンテキスト)を付与することで,大幅な性能向上が期待できることを示す。
第2の新規性として、学習したマルチコンテキスト特徴を適応的に洗練するための注意的スキップ機構を組み込んだ。
提案するフレームワークはDeep WaveNetと呼ばれ、従来のピクセル単位で機能ベースのコスト関数を使って最適化されている。
論文 参考訳(メタデータ) (2021-06-15T06:47:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。