論文の概要: SeaThru-NeRF: Neural Radiance Fields in Scattering Media
- arxiv url: http://arxiv.org/abs/2304.07743v1
- Date: Sun, 16 Apr 2023 10:17:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-18 17:39:50.421873
- Title: SeaThru-NeRF: Neural Radiance Fields in Scattering Media
- Title(参考訳): SeaThru-NeRF:Scattering Mediaにおけるニューラル放射場
- Authors: Deborah Levy, Amit Peleg, Naama Pearl, Dan Rosenbaum, Derya Akkaynak,
Simon Korman, Tali Treibitz
- Abstract要約: そこで我々は,SeaThru画像形成モデルに基づく散乱媒質中のNeRFの新しいレンダリングモデルを開発した。
本手法の強みをシミュレーションおよび実世界のシーンで示し、水中で新しい写真リアリスティックなビューを正しくレンダリングする。
私たちのコードとユニークなデータセットはプロジェクトのWebサイトで公開されています。
- 参考スコア(独自算出の注目度): 13.021398621908578
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Research on neural radiance fields (NeRFs) for novel view generation is
exploding with new models and extensions. However, a question that remains
unanswered is what happens in underwater or foggy scenes where the medium
strongly influences the appearance of objects. Thus far, NeRF and its variants
have ignored these cases. However, since the NeRF framework is based on
volumetric rendering, it has inherent capability to account for the medium's
effects, once modeled appropriately. We develop a new rendering model for NeRFs
in scattering media, which is based on the SeaThru image formation model, and
suggest a suitable architecture for learning both scene information and medium
parameters. We demonstrate the strength of our method using simulated and
real-world scenes, correctly rendering novel photorealistic views underwater.
Even more excitingly, we can render clear views of these scenes, removing the
medium between the camera and the scene and reconstructing the appearance and
depth of far objects, which are severely occluded by the medium. Our code and
unique datasets are available on the project's website.
- Abstract(参考訳): 新規なビュー生成のためのニューラルラジアンスフィールド(NeRF)の研究は、新しいモデルと拡張によって爆発的に進んでいる。
しかし、未解決の疑問は、媒体が物体の外観に強く影響を及ぼす水中や霧のシーンで何が起こるかである。
これまでのところ、NeRFとその変種はこれらのケースを無視している。
しかし、NeRFフレームワークはボリュームレンダリングに基づいているため、一度適切にモデル化された場合、媒体の効果を考慮に入れておくことができる。
本研究では,SeaThru画像形成モデルに基づく散乱媒質中のNeRFの新たなレンダリングモデルを構築し,シーン情報と媒体パラメータの両方を学ぶのに適したアーキテクチャを提案する。
本手法の強みをシミュレーションおよび実世界のシーンで示し、水中で新しい写真リアリスティックなビューを正しくレンダリングする。
さらにエキサイティングなことに、これらのシーンの明確なビューをレンダリングし、カメラとシーンの間の媒体を取り除き、媒体によってひどく遮られる遠方の物体の外観と深さを再構築することができる。
私たちのコードとユニークなデータセットは、プロジェクトのwebサイトから入手できます。
関連論文リスト
- Taming Latent Diffusion Model for Neural Radiance Field Inpainting [63.297262813285265]
ニューラル・ラジアンス・フィールド(NeRF)は多視点画像からの3次元再構成の表現である。
本研究では,シーンごとのカスタマイズによる拡散モデルの傾向の緩和と,マスキングトレーニングによるテクスチャシフトの緩和を提案する。
我々のフレームワークは、様々な現実世界のシーンに最先端のNeRF塗装結果をもたらす。
論文 参考訳(メタデータ) (2024-04-15T17:59:57Z) - NeRF-DS: Neural Radiance Fields for Dynamic Specular Objects [63.04781030984006]
ダイナミック・ニューラル・ラジアンス・フィールド(英語版)(NeRF)は、動的シーンの単眼RGBビデオからフォトリアリスティック・ノベル・ビュー・イメージをレンダリングできる強力なアルゴリズムである。
観測空間の表面位置と配向に条件付される神経放射場関数を再構成することにより,その限界に対処する。
本研究では,現実的な環境下での異なる移動スペクトルオブジェクトの自己合成データセットを用いて,新しいビュー合成品質に基づくモデルの評価を行った。
論文 参考訳(メタデータ) (2023-03-25T11:03:53Z) - StegaNeRF: Embedding Invisible Information within Neural Radiance Fields [61.653702733061785]
我々は、NeRFレンダリングにステガノグラフィー情報を埋め込む方法であるStegaNeRFを提案する。
我々は、NeRFで描画された画像から正確な隠れ情報抽出を可能にする最適化フレームワークを設計する。
StegaNeRFは、NeRFレンダリングにカスタマイズ可能で、認識不能で、回復不能な情報を注入する新しい問題に対する最初の調査である。
論文 参考訳(メタデータ) (2022-12-03T12:14:19Z) - BAD-NeRF: Bundle Adjusted Deblur Neural Radiance Fields [9.744593647024253]
我々は、新しいバンドルを調整した deblur Neural Radiance Fields (BAD-NeRF) を提案する。
BAD-NeRFは、激しい動きのぼやけた画像や不正確なカメラのポーズに対して堅牢である。
提案手法は、運動ぼかし画像の物理画像形成過程をモデル化し、NeRFのパラメータを共同で学習する。
論文 参考訳(メタデータ) (2022-11-23T10:53:37Z) - NeRFReN: Neural Radiance Fields with Reflections [16.28256369376256]
我々は、NeRF上に構築されたNeRFReNを導入し、リフレクションのあるシーンをモデル化する。
本稿では,シーンを伝送・反射するコンポーネントに分割し,2つのコンポーネントを別個の神経放射場でモデル化することを提案する。
様々な自撮りシーンの実験により,本手法は高品質な新規ビュー合成と物理音響深度推定を達成できることが示されている。
論文 参考訳(メタデータ) (2021-11-30T09:36:00Z) - NeRS: Neural Reflectance Surfaces for Sparse-view 3D Reconstruction in
the Wild [80.09093712055682]
ニューラルリフレクタンスサーフェス(NeRS)と呼ばれる暗黙モデルの表面アナログを導入する。
NeRSは、球に微分される閉じた表面の神経形状の表現を学び、水密な再構成を保証する。
このようなデータから学習可能な表面ベースニューラル再構成は,体積的ニューラルレンダリングに基づく再構成よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-10-14T17:59:58Z) - Object-Centric Neural Scene Rendering [19.687759175741824]
本稿では,物体の撮影画像から写実的シーンを構成する手法を提案する。
私たちの研究は、暗黙的にシーンの体積密度と方向発光放射をモデル化するニューラル・ラジアンス・フィールド(NeRF)に基づいています。
我々は、オブジェクトごとの光輸送を暗黙的に、照明とビューに依存したニューラルネットワークを使ってモデル化する、オブジェクト指向神経散乱関数(OSFs)を学習する。
論文 参考訳(メタデータ) (2020-12-15T18:55:02Z) - iNeRF: Inverting Neural Radiance Fields for Pose Estimation [68.91325516370013]
Neural RadianceField(NeRF)を「反転」してメッシュフリーポーズ推定を行うフレームワークiNeRFを紹介します。
NeRFはビュー合成のタスクに極めて有効であることが示されている。
論文 参考訳(メタデータ) (2020-12-10T18:36:40Z) - D-NeRF: Neural Radiance Fields for Dynamic Scenes [72.75686949608624]
そこで我々は,D-NeRF(D-NeRF)を動的領域に拡張する手法を提案する。
D-NeRFは、周囲を動き回るカメラから、剛体で非剛体な動きの下で物体のイメージを再構成する。
我々は,剛体・調音・非剛体動作下での物体のシーンに対するアプローチの有効性を実証した。
論文 参考訳(メタデータ) (2020-11-27T19:06:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。