論文の概要: HRF-Net: Holistic Radiance Fields from Sparse Inputs
- arxiv url: http://arxiv.org/abs/2208.04717v1
- Date: Tue, 9 Aug 2022 12:23:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-10 13:02:09.573837
- Title: HRF-Net: Holistic Radiance Fields from Sparse Inputs
- Title(参考訳): HRF-Net:スパース入力からのホロスティック放射場
- Authors: Phong Nguyen-Ha, Lam Huynh, Esa Rahtu, Jiri Matas, Janne Heikkila
- Abstract要約: 本稿では,一組のスパース入力を用いて新しいビューを描画する,全体的放射場に基づく新しいビュー合成手法であるHRF-Netを提案する。
まず、DTUデータセットの複数の3DシーンでHRF-Netをトレーニングし、そのネットワークは、目に見えない実データや合成データに関する、ありふれた新しいビューを生成することができる。
- 参考スコア(独自算出の注目度): 38.92495189498365
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present HRF-Net, a novel view synthesis method based on holistic radiance
fields that renders novel views using a set of sparse inputs. Recent
generalizing view synthesis methods also leverage the radiance fields but the
rendering speed is not real-time. There are existing methods that can train and
render novel views efficiently but they can not generalize to unseen scenes.
Our approach addresses the problem of real-time rendering for generalizing view
synthesis and consists of two main stages: a holistic radiance fields predictor
and a convolutional-based neural renderer. This architecture infers not only
consistent scene geometry based on the implicit neural fields but also renders
new views efficiently using a single GPU. We first train HRF-Net on multiple 3D
scenes of the DTU dataset and the network can produce plausible novel views on
unseen real and synthetics data using only photometric losses. Moreover, our
method can leverage a denser set of reference images of a single scene to
produce accurate novel views without relying on additional explicit
representations and still maintains the high-speed rendering of the pre-trained
model. Experimental results show that HRF-Net outperforms state-of-the-art
generalizable neural rendering methods on various synthetic and real datasets.
- Abstract(参考訳): 本稿では,一組のスパース入力を用いて新しいビューを描画する全体的放射場に基づく新しいビュー合成手法であるHRF-Netを提案する。
近年の一般化ビュー合成法も放射場を利用するが、レンダリング速度はリアルタイムではない。
新規なビューを効率的に訓練しレンダリングできる既存の方法もあるが、見当たらないシーンに一般化することはできない。
本稿では,視覚合成を一般化するためのリアルタイムレンダリングの問題に対処し,総合的放射場予測器と畳み込み型ニューラルレンダラーの2つの主要な段階からなる。
このアーキテクチャは、暗黙のニューラルフィールドに基づく一貫したシーンジオメトリだけでなく、単一のgpuを使用して新しいビューを効率的にレンダリングする。
まず、DTUデータセットの複数の3次元シーンでRF-Netをトレーニングし、このネットワークは、光メトリクス損失のみを使用して、目に見えない実データと合成データに関する、もっともらしい新しいビューを生成することができる。
さらに,単一のシーンのより密集した参照画像を用いて,事前学習したモデルの高速レンダリングを維持しつつ,明示的な表現に頼らずに正確なノベルビューを生成することができる。
実験結果から,HRF-Netは様々な合成および実データに対して,最先端の一般化可能なニューラルレンダリング手法より優れていた。
関連論文リスト
- NeRF-Casting: Improved View-Dependent Appearance with Consistent Reflections [57.63028964831785]
最近の研究は、遠方の環境照明の詳細な明細な外観を描画するNeRFの能力を改善しているが、近い内容の一貫した反射を合成することはできない。
我々はこれらの問題をレイトレーシングに基づくアプローチで解決する。
このモデルでは、それぞれのカメラ線に沿った点における視界依存放射率を求めるために高価なニューラルネットワークをクエリする代わりに、これらの点から光を流し、NeRF表現を通して特徴ベクトルを描画します。
論文 参考訳(メタデータ) (2024-05-23T17:59:57Z) - PNeRFLoc: Visual Localization with Point-based Neural Radiance Fields [54.8553158441296]
統一された点ベース表現に基づく新しい視覚的ローカライゼーションフレームワーク PNeRFLoc を提案する。
一方、PNeRFLocは2次元特徴点と3次元特徴点をマッチングして初期ポーズ推定をサポートする。
一方、レンダリングベースの最適化を用いた新しいビュー合成によるポーズ改善も実現している。
論文 参考訳(メタデータ) (2023-12-17T08:30:00Z) - HybridNeRF: Efficient Neural Rendering via Adaptive Volumetric Surfaces [71.1071688018433]
ニューラル放射場は、最先端のビュー合成品質を提供するが、レンダリングが遅くなる傾向がある。
本稿では,ほとんどの物体を表面としてレンダリングすることで,両表現の強みを生かしたHybridNeRFを提案する。
仮想現実分解能(2Kx2K)のリアルタイムフレームレート(少なくとも36FPS)を達成しながら、エラー率を15~30%改善する。
論文 参考訳(メタデータ) (2023-12-05T22:04:49Z) - Learning Neural Duplex Radiance Fields for Real-Time View Synthesis [33.54507228895688]
本研究では,NeRFを高効率メッシュベースニューラル表現に蒸留・焼成する手法を提案する。
提案手法の有効性と優位性を,各種標準データセットの広範な実験を通じて実証する。
論文 参考訳(メタデータ) (2023-04-20T17:59:52Z) - Generalizable Patch-Based Neural Rendering [46.41746536545268]
未知のシーンの新たなビューを合成できるモデル学習のための新しいパラダイムを提案する。
本手法は,シーンから採取したパッチの集合からのみ,新規シーンにおける対象光線の色を直接予測することができる。
本手法は,従来よりも少ないデータでトレーニングされた場合であっても,目立たないシーンの新たなビュー合成において,最先端のビュー合成よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-07-21T17:57:04Z) - ProbNVS: Fast Novel View Synthesis with Learned Probability-Guided
Sampling [42.37704606186928]
本稿では,MVSの事前学習に基づいて,新しいビュー合成フレームワークを構築することを提案する。
本手法は,最先端のベースラインに比べて15~40倍高速なレンダリングを実現する。
論文 参考訳(メタデータ) (2022-04-07T14:45:42Z) - InfoNeRF: Ray Entropy Minimization for Few-Shot Neural Volume Rendering [55.70938412352287]
ニューラルな暗黙表現に基づく数ショットの新規ビュー合成のための情報理論正規化手法を提案する。
提案手法は,不十分な視点で発生する潜在的な復元の不整合を最小化する。
複数の標準ベンチマークにおいて,既存のニューラルビュー合成手法と比較して一貫した性能向上を実現している。
論文 参考訳(メタデータ) (2021-12-31T11:56:01Z) - GeoNeRF: Generalizing NeRF with Geometry Priors [2.578242050187029]
ニューラルラジアンス場に基づく一般化可能なフォトリアリスティック・ノベルビュー手法GeoNeRFを提案する。
我々のアプローチは、幾何学的推論と合成という2つの主要な段階から構成される。
実験により、GeoNeRFは様々な合成および実際のデータセット上で、最先端の一般化可能なニューラルネットワークレンダリングモデルより優れていることが示された。
論文 参考訳(メタデータ) (2021-11-26T15:15:37Z) - NeRF in detail: Learning to sample for view synthesis [104.75126790300735]
ニューラルレイディアンス場(NeRF)法は目覚ましい新しいビュー合成を実証している。
この作業では、バニラ粗大なアプローチの明確な制限に対処します -- パフォーマンスに基づいており、手元にあるタスクのエンドツーエンドをトレーニングしていません。
我々は、サンプルの提案と、そのネットワークにおける重要性を学習し、そのニューラルネットワークアーキテクチャに対する複数の代替案を検討し比較する、微分可能なモジュールを導入する。
論文 参考訳(メタデータ) (2021-06-09T17:59:10Z) - MVSNeRF: Fast Generalizable Radiance Field Reconstruction from
Multi-View Stereo [52.329580781898116]
MVSNeRFは、ビュー合成のための神経放射場を効率的に再構築できる新しいニューラルレンダリング手法である。
高密度にキャプチャされた画像に対して,シーン毎の最適化を考慮に入れたニューラルネットワークの先行研究とは異なり,高速ネットワーク推論により,近傍の3つの入力ビューのみからラミアンスフィールドを再構成できる汎用ディープニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-03-29T13:15:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。