論文の概要: Underwater Light Field Retention : Neural Rendering for Underwater
Imaging
- arxiv url: http://arxiv.org/abs/2203.11006v1
- Date: Mon, 21 Mar 2022 14:22:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-22 17:26:25.726578
- Title: Underwater Light Field Retention : Neural Rendering for Underwater
Imaging
- Title(参考訳): 水中光フィールド保持 : 水中イメージングのためのニューラルレンダリング
- Authors: Tian Ye and Sixiang Chen and Yun Liu and Erkang Chen and Yi Ye and
Yuche Li
- Abstract要約: 水中画像レンダリングは、指定されたクリーンな画像から本物の水中画像を生成することを目的としている。
本稿では,UWNR(Underwater Neural Rendering)と呼ばれる水中画像のニューラルネットワークレンダリング手法を提案する。
- 参考スコア(独自算出の注目度): 6.22867695581195
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Underwater Image Rendering aims to generate a true-to-life underwater image
from a given clean one, which could be applied to various practical
applications such as underwater image enhancement, camera filter, and virtual
gaming. We explore two less-touched but challenging problems in underwater
image rendering, namely, i) how to render diverse underwater scenes by a single
neural network? ii) how to adaptively learn the underwater light fields from
natural exemplars, \textit{i,e.}, realistic underwater images? To this end, we
propose a neural rendering method for underwater imaging, dubbed UWNR
(Underwater Neural Rendering). Specifically, UWNR is a data-driven neural
network that implicitly learns the natural degenerated model from authentic
underwater images, avoiding introducing erroneous biases by hand-craft imaging
models.
Compared with existing underwater image generation methods, UWNR utilizes the
natural light field to simulate the main characteristics of the underwater
scene. Thus, it is able to synthesize a wide variety of underwater images from
one clean image with various realistic underwater images.
Extensive experiments demonstrate that our approach achieves better visual
effects and quantitative metrics over previous methods. Moreover, we adopt UWNR
to build an open Large Neural Rendering Underwater Dataset containing various
types of water quality, dubbed LNRUD.
- Abstract(参考訳): 水中画像レンダリングは、水中画像強調、カメラフィルター、バーチャルゲームなど、さまざまな実用用途に適用可能な、クリーンな水中画像から真に生き生きとした水中画像を生成することを目的としている。
水中画像のレンダリングにおける2つの難解な問題、すなわち課題について検討する。
一 一つのニューラルネットワークで 多様な水中シーンをレンダリングする方法?
ii) 自然の例から水中の光場を適応的に学習する方法, \textit{i,e。
水中のリアルなイメージ?
そこで本研究では,水中イメージングのためのニューラルレンダリング手法であるuwnr(underwater neural rendering)を提案する。
具体的には、uwnrはデータ駆動ニューラルネットワークであり、本物の水中画像から自然に生成されたモデルを暗黙的に学習する。
既存の水中画像生成法と比較して,UWNRは自然光場を利用して水中シーンの主特性をシミュレートする。
これにより、1つのクリーン画像から様々な水中画像と様々なリアルな水中画像とを合成することができる。
広範な実験により,従来の手法よりも優れた視覚効果と定量的指標が得られた。
さらに,UWNRを採用し,LNRUDと呼ばれる様々な水質を含む大規模ニューラルネットワーク水中データセットを構築する。
関連論文リスト
- Aquatic-GS: A Hybrid 3D Representation for Underwater Scenes [6.549998173302729]
本研究では,水中の物体と水媒体の両方を効果的に表現するハイブリッド3D表現手法であるAquatic-GSを提案する。
具体的には、暗黙的に水パラメータをモデル化するニューラルウォーターフィールド(NWF)を構築し、最新の3Dガウススプラッティング(3DGS)を拡張してオブジェクトを明示的にモデル化する。
両方のコンポーネントは、複雑な水中シーンを表現するために、物理学に基づく水中画像形成モデルを介して統合される。
論文 参考訳(メタデータ) (2024-10-31T22:24:56Z) - UW-SDF: Exploiting Hybrid Geometric Priors for Neural SDF Reconstruction from Underwater Multi-view Monocular Images [63.32490897641344]
ニューラルSDFに基づく多視点水中画像から対象物を再構成するフレームワークを提案する。
再建過程を最適化するためのハイブリッドな幾何学的先行手法を導入し、神経SDF再建の質と効率を著しく向上させる。
論文 参考訳(メタデータ) (2024-10-10T16:33:56Z) - Enhancing Underwater Imaging with 4-D Light Fields: Dataset and Method [77.80712860663886]
4次元光場(LF)は、光吸収、散乱、その他の課題に悩まされる水中イメージングを強化する。
水中4次元LF画像強調と深度推定のためのプログレッシブフレームワークを提案する。
学習手法の定量的評価と教師あり訓練のための,最初の4次元LFに基づく水中画像データセットを構築した。
論文 参考訳(メタデータ) (2024-08-30T15:06:45Z) - Diving into Underwater: Segment Anything Model Guided Underwater Salient Instance Segmentation and A Large-scale Dataset [60.14089302022989]
水中視覚タスクは複雑な水中状況のため、しばしばセグメンテーションの精度が低い。
第1次大規模水中塩分分節データセット(USIS10K)を構築した。
本研究では,水中ドメインに特化してセグメンツ・ア・シング・モデル(USIS-SAM)に基づく水中塩分・インスタンス・アーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-06-10T06:17:33Z) - Physics-Inspired Synthesized Underwater Image Dataset [9.959844922120528]
PHISWIDは、物理にインスパイアされた画像合成による水中画像処理の強化に適したデータセットである。
以上の結果から,PHISWIDでトレーニングを行う場合の基本的U-Netアーキテクチャでさえ,水中画像強調において既存の手法よりも大幅に優れていたことが判明した。
我々はPHISWIDを公開し、水中イメージング技術の進歩に重要なリソースを提供する。
論文 参考訳(メタデータ) (2024-04-05T10:23:10Z) - Physics Informed and Data Driven Simulation of Underwater Images via
Residual Learning [5.095097384893417]
一般的に水中の画像は、光が水中を伝播するにつれて減衰し後方散乱するため、色歪みと低コントラストに悩まされる。
既存の単純な劣化モデル(大気画像の「ヘイジング」効果に似ている)は水中画像の劣化を適切に表現するには不十分である。
水中効果を自動的にシミュレートする深層学習型アーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-02-07T21:53:28Z) - Atlantis: Enabling Underwater Depth Estimation with Stable Diffusion [30.122666238416716]
正確な地球深度データを用いて水中画像を生成する新しいパイプラインを提案する。
このアプローチは、水中深度推定のための教師付きモデルのトレーニングを容易にする。
我々は、特別に作成された水中、深度、テキストデータ三重項に基づいて訓練された独自のDepth2Underwater ControlNetを導入する。
論文 参考訳(メタデータ) (2023-12-19T08:56:33Z) - A deep learning approach for marine snow synthesis and removal [55.86191108738564]
本稿では,深層学習技術を用いた海洋雪の干渉低減手法を提案する。
まず,GAN(Generative Adversarial Network)モデルを用いて,現実的な積雪サンプルを合成する。
次に、画像から画像への変換タスクとして海洋性除雪を行うためにU-Netモデルを訓練する。
論文 参考訳(メタデータ) (2023-11-27T07:19:41Z) - Medium Transmission Map Matters for Learning to Restore Real-World
Underwater Images [3.0980025155565376]
画像強調を支援するためのガイダンスとしてメディア送信マップを導入する。
提案手法は,既存のモデルより30倍高速なテストR90において,22.6dBの高度な結果が得られる。
論文 参考訳(メタデータ) (2022-03-17T16:13:52Z) - Underwater Image Restoration via Contrastive Learning and a Real-world
Dataset [59.35766392100753]
本稿では,教師なし画像から画像への翻訳フレームワークに基づく水中画像復元手法を提案する。
提案手法は, 生画像と復元画像の相互情報を最大化するために, コントラスト学習と生成敵ネットワークを利用した。
論文 参考訳(メタデータ) (2021-06-20T16:06:26Z) - Generating Physically-Consistent Satellite Imagery for Climate Visualizations [53.61991820941501]
我々は,将来的な洪水や森林再生イベントの合成衛星画像を作成するために,生成的敵ネットワークを訓練する。
純粋なディープラーニングベースのモデルでは、洪水の可視化を生成することができるが、洪水の影響を受けない場所では幻覚的な洪水が発生する。
我々は,地球観測におけるセグメンテーションガイドによる画像と画像の変換のためのコードとデータセットを公開している。
論文 参考訳(メタデータ) (2021-04-10T15:00:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。