論文の概要: NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
- arxiv url: http://arxiv.org/abs/2003.08934v2
- Date: Mon, 3 Aug 2020 22:17:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 04:50:46.290141
- Title: NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
- Title(参考訳): NeRF:ビュー合成のためのニューラルラジアンス場としてのシーン表現
- Authors: Ben Mildenhall, Pratul P. Srinivasan, Matthew Tancik, Jonathan T.
Barron, Ravi Ramamoorthi, Ren Ng
- Abstract要約: 本稿では,複雑なシーンの新たなビューを合成する手法を提案する。
提案アルゴリズムは,完全接続型(非畳み込み型)深層ネットワークを用いたシーンを表現する。
ボリュームレンダリングは自然に微分可能であるため、表現を最適化するのに必要な唯一の入力は、既知のカメラポーズを持つ画像の集合である。
- 参考スコア(独自算出の注目度): 78.5281048849446
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a method that achieves state-of-the-art results for synthesizing
novel views of complex scenes by optimizing an underlying continuous volumetric
scene function using a sparse set of input views. Our algorithm represents a
scene using a fully-connected (non-convolutional) deep network, whose input is
a single continuous 5D coordinate (spatial location $(x,y,z)$ and viewing
direction $(\theta, \phi)$) and whose output is the volume density and
view-dependent emitted radiance at that spatial location. We synthesize views
by querying 5D coordinates along camera rays and use classic volume rendering
techniques to project the output colors and densities into an image. Because
volume rendering is naturally differentiable, the only input required to
optimize our representation is a set of images with known camera poses. We
describe how to effectively optimize neural radiance fields to render
photorealistic novel views of scenes with complicated geometry and appearance,
and demonstrate results that outperform prior work on neural rendering and view
synthesis. View synthesis results are best viewed as videos, so we urge readers
to view our supplementary video for convincing comparisons.
- Abstract(参考訳): 本稿では,入力ビューのスパースセットを用いて,基礎となる連続ボリュームシーン関数を最適化することにより,複雑なシーンの新しいビューを合成する最新の結果を得る手法を提案する。
本手法は,連続5次元座標(空間位置$(x,y,z)$,視方向$(\theta, \phi)$)を入力とし,その空間位置におけるボリューム密度とビュー依存放射放射輝度を出力とする,完全連結(非畳み込み)深層ネットワークを用いてシーンを表現する。
我々は5D座標をカメラ線に沿ってクエリすることでビューを合成し、古典的なボリュームレンダリング技術を用いて出力色と密度を画像に投影する。
ボリュームレンダリングは自然に微分可能であるため、表現を最適化するのに必要な唯一の入力は、既知のカメラポーズを持つ画像の集合である。
複雑な幾何学と外観を持つシーンのフォトリアリスティックな斬新なビューをレンダリングするために、ニューラルラディアンス場を効果的に最適化する方法を説明し、ニューラルレンダリングとビュー合成の先行研究よりも優れた結果を示す。
ビュー合成の結果はビデオとしてよく見られるので、読者に説得力のある比較のために補足的なビデオを見るように促します。
関連論文リスト
- Sampling for View Synthesis: From Local Light Field Fusion to Neural Radiance Fields and Beyond [27.339452004523082]
局所光電場融合は、サンプルビューの不規則なグリッドから現実的なビュー合成を行うアルゴリズムを提案する。
我々は、最大4000倍のビューを用いて、Nyquistレートビューサンプリングの知覚品質を実現する。
スパースおよび単一画像ビュー合成に関する最近の研究結果のいくつかを再現する。
論文 参考訳(メタデータ) (2024-08-08T16:56:03Z) - Multi-Plane Neural Radiance Fields for Novel View Synthesis [5.478764356647437]
新しいビュー合成は、新しいカメラの視点からシーンのフレームを描画する、長年にわたる問題である。
本研究では, 単面多面体ニューラル放射場の性能, 一般化, 効率について検討する。
合成結果の改善と視聴範囲の拡大のために,複数のビューを受理する新しい多面体NeRFアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-03-03T06:32:55Z) - Remote Sensing Novel View Synthesis with Implicit Multiplane
Representations [26.33490094119609]
暗黙的ニューラル表現の最近の進歩を活用して,新しいリモートセンシングビュー合成法を提案する。
リモートセンシング画像のオーバーヘッドと遠距離イメージングを考慮し,暗黙のマルチプレーン画像(MPI)表現とディープニューラルネットワークを組み合わせることで,3次元空間を表現する。
任意の新規ビューの画像は、再構成されたモデルに基づいて自由にレンダリングすることができる。
論文 参考訳(メタデータ) (2022-05-18T13:03:55Z) - NeLF: Practical Novel View Synthesis with Neural Light Field [93.41020940730915]
複雑なシーンの新規なビュー合成のための実用的で堅牢なディープラーニングソリューションを提案する。
我々のアプローチでは、連続的なシーンは光場、すなわち光線の集合として表現され、それぞれが対応する色を持つ。
インタラクティブなフレームレートを維持しながら、最新の新しいビュー合成結果を実現します。
論文 参考訳(メタデータ) (2021-05-15T01:20:30Z) - IBRNet: Learning Multi-View Image-Based Rendering [67.15887251196894]
本稿では,近接ビューの疎集合を補間することにより,複雑なシーンの新しいビューを合成する手法を提案する。
レンダリング時にソースビューを描画することで、画像ベースのレンダリングに関する古典的な作業に戻ります。
論文 参考訳(メタデータ) (2021-02-25T18:56:21Z) - Non-Rigid Neural Radiance Fields: Reconstruction and Novel View
Synthesis of a Dynamic Scene From Monocular Video [76.19076002661157]
Non-Rigid Neural Radiance Fields (NR-NeRF) は、一般的な非剛体動的シーンに対する再構成および新しいビュー合成手法である。
一つのコンシューマ級カメラでさえ、新しい仮想カメラビューからダイナミックシーンの洗練されたレンダリングを合成するのに十分であることを示す。
論文 参考訳(メタデータ) (2020-12-22T18:46:12Z) - Neural Radiance Flow for 4D View Synthesis and Video Processing [59.9116932930108]
本稿では,RGB画像から動的シーンの4次元空間時空間表現を学習する手法を提案する。
私たちのアプローチの鍵は、シーンの3D占有率、輝度、およびダイナミクスをキャプチャすることを学ぶ神経暗黙表現を使用することです。
論文 参考訳(メタデータ) (2020-12-17T17:54:32Z) - Free View Synthesis [100.86844680362196]
本稿では,シーンの周囲に自由に分布する入力画像から新規なビュー合成手法を提案する。
本手法は,入力ビューの規則的な配置に依存しず,シーンを通して自由なカメラ運動のための画像の合成が可能であり,制約のない幾何学的レイアウトの一般的な場面で機能する。
論文 参考訳(メタデータ) (2020-08-12T18:16:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。