論文の概要: Removing Adverse Volumetric Effects From Trained Neural Radiance Fields
- arxiv url: http://arxiv.org/abs/2311.10523v1
- Date: Fri, 17 Nov 2023 13:44:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-20 14:29:55.889225
- Title: Removing Adverse Volumetric Effects From Trained Neural Radiance Fields
- Title(参考訳): 訓練されたニューラルラジアンス場からの逆体積効果の除去
- Authors: Andreas L. Teigen, Mauhing Yip, Victor P. Hamran, Vegard Skui, Annette
Stahl, Rudolf Mester
- Abstract要約: 従来のNeRFモデルは霧で満たされたシーンを再現することができ、新規なビューを合成する際に霧を取り除く方法を提案する。
これにより、霧に満ちた環境にある関心のあるオブジェクトの明確なビューをレンダリングする手段として、NeRFを使用することが可能になる。
- 参考スコア(独自算出の注目度): 4.9699077347287695
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While the use of neural radiance fields (NeRFs) in different challenging
settings has been explored, only very recently have there been any
contributions that focus on the use of NeRF in foggy environments. We argue
that the traditional NeRF models are able to replicate scenes filled with fog
and propose a method to remove the fog when synthesizing novel views. By
calculating the global contrast of a scene, we can estimate a density threshold
that, when applied, removes all visible fog. This makes it possible to use NeRF
as a way of rendering clear views of objects of interest located in fog-filled
environments. Additionally, to benchmark performance on such scenes, we
introduce a new dataset that expands some of the original synthetic NeRF scenes
through the addition of fog and natural environments. The code, dataset, and
video results can be found on our project page: https://vegardskui.com/fognerf/
- Abstract(参考訳): 異なる困難な環境でのニューラルラジアンス場(NeRF)の使用が検討されているが、霧の環境でのNeRFの使用に焦点を当てた貢献はごく最近まである。
従来のNeRFモデルは霧で満たされたシーンを再現することができ、新規なビューを合成する際に霧を取り除く方法を提案する。
シーンの全体的コントラストを計算することで、適用された場合、すべての可視霧を除去できる密度閾値を推定できる。
これにより、霧に満ちた環境にある関心のあるオブジェクトの明確なビューをレンダリングする手段としてNeRFを使用することが可能になる。
さらに,これらのシーンのパフォーマンスをベンチマークするために,霧や自然環境を付加することにより,元の合成NeRFシーンを拡張した新しいデータセットを導入する。
コード、データセット、ビデオの結果は、プロジェクトのページで確認できる。
関連論文リスト
- IE-NeRF: Inpainting Enhanced Neural Radiance Fields in the Wild [15.86621086993995]
本稿では,ニューラル・ラジアンス・フィールド(NeRF)と野生の無制御写真を用いて,リアルな新しいビューを合成するための新しいアプローチを提案する。
textitInpainting Enhanced NeRF, あるいは我々のフレームワークは, 画像インパインティング技術からインスピレーションを得て, 従来のNeRFを強化する。
論文 参考訳(メタデータ) (2024-07-15T13:10:23Z) - Taming Latent Diffusion Model for Neural Radiance Field Inpainting [63.297262813285265]
ニューラル・ラジアンス・フィールド(NeRF)は多視点画像からの3次元再構成の表現である。
本研究では,シーンごとのカスタマイズによる拡散モデルの傾向の緩和と,マスキングトレーニングによるテクスチャシフトの緩和を提案する。
我々のフレームワークは、様々な現実世界のシーンに最先端のNeRF塗装結果をもたらす。
論文 参考訳(メタデータ) (2024-04-15T17:59:57Z) - Gaussian in the Wild: 3D Gaussian Splatting for Unconstrained Image Collections [12.807052947367692]
制約のない画像における光度変化と過渡オクルーダは、元のシーンを正確に再構築することが困難である。
ニューラルレージアンスフィールド(NeRF)におけるグローバルな外観特徴の導入による課題への先行的アプローチ
この事実に触発されて,3次元ガウス点を用いてシーンを再構築する手法であるGaussian in the wild (GS-W)を提案する。
論文 参考訳(メタデータ) (2024-03-23T03:55:41Z) - NeRFuser: Large-Scale Scene Representation by NeRF Fusion [35.749208740102546]
Neural Radiance Fields (NeRF)のような暗黙的な視覚表現の実用的な利点は、そのメモリ効率である。
既製のNeRFへのアクセスのみを前提としたNeRF登録とブレンディングのための新しいアーキテクチャであるNeRFuserを提案する。
論文 参考訳(メタデータ) (2023-05-22T17:59:05Z) - Multi-Space Neural Radiance Fields [74.46513422075438]
既存のニューラルレージアンス場(NeRF)法は反射物体の存在に悩まされている。
並列部分空間における特徴場の群を用いてシーンを表現するマルチスペースニューラルレイディアンス場(MS-NeRF)を提案する。
提案手法は,高品質シーンのレンダリングにおいて,既存の単一空間NeRF法よりも優れていた。
論文 参考訳(メタデータ) (2023-05-07T13:11:07Z) - SeaThru-NeRF: Neural Radiance Fields in Scattering Media [13.021398621908578]
そこで我々は,SeaThru画像形成モデルに基づく散乱媒質中のNeRFの新しいレンダリングモデルを開発した。
本手法の強みをシミュレーションおよび実世界のシーンで示し、水中で新しい写真リアリスティックなビューを正しくレンダリングする。
私たちのコードとユニークなデータセットはプロジェクトのWebサイトで公開されています。
論文 参考訳(メタデータ) (2023-04-16T10:17:26Z) - NeRF-DS: Neural Radiance Fields for Dynamic Specular Objects [63.04781030984006]
ダイナミック・ニューラル・ラジアンス・フィールド(英語版)(NeRF)は、動的シーンの単眼RGBビデオからフォトリアリスティック・ノベル・ビュー・イメージをレンダリングできる強力なアルゴリズムである。
観測空間の表面位置と配向に条件付される神経放射場関数を再構成することにより,その限界に対処する。
本研究では,現実的な環境下での異なる移動スペクトルオブジェクトの自己合成データセットを用いて,新しいビュー合成品質に基づくモデルの評価を行った。
論文 参考訳(メタデータ) (2023-03-25T11:03:53Z) - Aleth-NeRF: Low-light Condition View Synthesis with Concealing Fields [65.96818069005145]
ビューアー中心のバニラNeRFは、表示方向の3D位置からの発光としてのみレンダリングプロセスを単純化する。
古代ギリシア人の排ガス理論に触発され、我々はバニラ・ネRFにわずかな修正を加え、低照度シーンの複数の視点で訓練した。
我々は、ボリュームレンダリングの段階で光の輸送を減らし、サロゲートの概念であるConcealing Fieldsを導入する。
論文 参考訳(メタデータ) (2023-03-10T09:28:09Z) - SinNeRF: Training Neural Radiance Fields on Complex Scenes from a Single
Image [85.43496313628943]
本稿では,一眼レフ(SinNeRF)フレームワークについて述べる。
SinNeRFは半教師付き学習プロセスを構築し,幾何学的擬似ラベルを導入・伝播する。
NeRF合成データセット、Local Light Field Fusionデータセット、DTUデータセットなど、複雑なシーンベンチマークで実験が行われる。
論文 参考訳(メタデータ) (2022-04-02T19:32:42Z) - Efficient Neural Radiance Fields with Learned Depth-Guided Sampling [43.79307270743013]
本稿では,暗示放射場と暗示深度マップを組み合わせたハイブリッドシーン表現を提案する。
実験の結果,提案手法はDTU, Real Forward- facing および NeRF Synthetic データセット上での最先端性能を示すことがわかった。
また,動的人間パフォーマーの視点自由映像をリアルタイムに合成する方法について述べる。
論文 参考訳(メタデータ) (2021-12-02T18:59:32Z) - iNeRF: Inverting Neural Radiance Fields for Pose Estimation [68.91325516370013]
Neural RadianceField(NeRF)を「反転」してメッシュフリーポーズ推定を行うフレームワークiNeRFを紹介します。
NeRFはビュー合成のタスクに極めて有効であることが示されている。
論文 参考訳(メタデータ) (2020-12-10T18:36:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。