論文の概要: Neural Point Light Fields
- arxiv url: http://arxiv.org/abs/2112.01473v1
- Date: Thu, 2 Dec 2021 18:20:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-03 18:39:16.038185
- Title: Neural Point Light Fields
- Title(参考訳): ニューラルポイント光電場
- Authors: Julian Ost, Issam Laradji, Alejandro Newell, Yuval Bahat, Felix Heide
- Abstract要約: 本稿では,スパース点雲上に存在する光の場を暗黙的に表現するニューラルポイント光場について紹介する。
これらの点光場は、光線方向と局所点特徴近傍の関数として機能し、光場条件付きトレーニング画像を高密度の被写体とパララックスを介さずに補間することができる。
- 参考スコア(独自算出の注目度): 80.98651520818785
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce Neural Point Light Fields that represent scenes implicitly with
a light field living on a sparse point cloud. Combining differentiable volume
rendering with learned implicit density representations has made it possible to
synthesize photo-realistic images for novel views of small scenes. As neural
volumetric rendering methods require dense sampling of the underlying
functional scene representation, at hundreds of samples along a ray cast
through the volume, they are fundamentally limited to small scenes with the
same objects projected to hundreds of training views. Promoting sparse point
clouds to neural implicit light fields allows us to represent large scenes
effectively with only a single implicit sampling operation per ray. These point
light fields are as a function of the ray direction, and local point feature
neighborhood, allowing us to interpolate the light field conditioned training
images without dense object coverage and parallax. We assess the proposed
method for novel view synthesis on large driving scenarios, where we synthesize
realistic unseen views that existing implicit approaches fail to represent. We
validate that Neural Point Light Fields make it possible to predict videos
along unseen trajectories previously only feasible to generate by explicitly
modeling the scene.
- Abstract(参考訳): 暗黙的にシーンを表現するニューラルポイントライトフィールドを導入し,スパースポイントクラウド上にライトフィールドを配置する。
異なるボリュームレンダリングと学習された暗黙の密度表現を組み合わせることで、小さなシーンの新たなビューのためのフォトリアリスティック画像の合成が可能になった。
ニューラルボリュームレンダリング法は、基礎となる機能的なシーンの詳細なサンプリングを必要とするため、数百のトレーニングビューに投影された同じオブジェクトを持つ小さなシーンに基本的に制限されている。
スパース点雲をニューラル暗示光場に促進することにより、1光あたり1つの暗示サンプリング操作で、大きなシーンを効果的に表現することができる。
これらの点光場は、光線方向と局所点特徴近傍の関数として機能し、光場条件付きトレーニングイメージを高密度物体のカバレッジやパララックスなしで補間することができる。
提案手法は,既存の暗黙的アプローチが表現できない現実的未認識の視点を合成する大規模運転シナリオにおいて,新たな視点合成手法である。
我々は、Neural Point Light Fieldsによって、これまでシーンを明示的にモデル化して生成可能な、未確認の軌跡に沿った映像を予測できることを検証する。
関連論文リスト
- Sampling for View Synthesis: From Local Light Field Fusion to Neural Radiance Fields and Beyond [27.339452004523082]
局所光電場融合は、サンプルビューの不規則なグリッドから現実的なビュー合成を行うアルゴリズムを提案する。
我々は、最大4000倍のビューを用いて、Nyquistレートビューサンプリングの知覚品質を実現する。
スパースおよび単一画像ビュー合成に関する最近の研究結果のいくつかを再現する。
論文 参考訳(メタデータ) (2024-08-08T16:56:03Z) - Adaptive Shells for Efficient Neural Radiance Field Rendering [92.18962730460842]
本稿では, 表面および表面のレンダリングを円滑に遷移させるニューラル放射率の定式化を提案する。
我々の手法は、非常に高い忠実度で効率的なレンダリングを可能にする。
また,抽出したエンベロープは,アニメーションやシミュレーションなどの下流アプリケーションを可能にすることを示す。
論文 参考訳(メタデータ) (2023-11-16T18:58:55Z) - PDF: Point Diffusion Implicit Function for Large-scale Scene Neural
Representation [24.751481680565803]
大規模シーンニューラル表現のためのポイント暗黙関数(PDF)を提案する。
本手法のコアは大規模クラウド超解像拡散モジュールである。
Mip-NeRF 360に基づく領域サンプリングを用いて背景表現をモデル化する。
論文 参考訳(メタデータ) (2023-11-03T08:19:47Z) - Pointersect: Neural Rendering with Cloud-Ray Intersection [30.485621062087585]
本研究では,点雲を表面のように描画する新しい手法を提案する。
提案手法は識別可能であり,シーン固有の最適化を必要としない。
論文 参考訳(メタデータ) (2023-04-24T18:36:49Z) - Unsupervised Discovery and Composition of Object Light Fields [57.198174741004095]
オブジェクト中心の合成シーン表現において、オブジェクトを光場として表現することを提案する。
オブジェクト中心の光場から大域的な光場を再構成できる新しい光場合成モジュールを提案する。
論文 参考訳(メタデータ) (2022-05-08T17:50:35Z) - Learning Neural Transmittance for Efficient Rendering of Reflectance
Fields [43.24427791156121]
本稿では,ニューラルリフレクタンスフィールドのレンダリングを高速化する事前計算型ニューラルトランスミッション関数に基づく新しい手法を提案する。
実シーンと合成シーンの結果は、最小の精度で環境マップ下でのレンダリングにおいて、ほぼ2桁のスピードアップを示す。
論文 参考訳(メタデータ) (2021-10-25T21:12:25Z) - Object-Centric Neural Scene Rendering [19.687759175741824]
本稿では,物体の撮影画像から写実的シーンを構成する手法を提案する。
私たちの研究は、暗黙的にシーンの体積密度と方向発光放射をモデル化するニューラル・ラジアンス・フィールド(NeRF)に基づいています。
我々は、オブジェクトごとの光輸送を暗黙的に、照明とビューに依存したニューラルネットワークを使ってモデル化する、オブジェクト指向神経散乱関数(OSFs)を学習する。
論文 参考訳(メタデータ) (2020-12-15T18:55:02Z) - Space-time Neural Irradiance Fields for Free-Viewpoint Video [54.436478702701244]
本稿では,1つのビデオから動的シーンのニューラル照度場を学習する手法を提案する。
私たちの学習した表現は、入力ビデオのフリービューレンダリングを可能にします。
論文 参考訳(メタデータ) (2020-11-25T18:59:28Z) - Neural Scene Graphs for Dynamic Scenes [57.65413768984925]
動的シーンをシーングラフに分解する最初のニューラルレンダリング手法を提案する。
我々は暗黙的に符号化されたシーンと、単一の暗黙の関数でオブジェクトを記述するために共同で学習された潜在表現を組み合わせる。
論文 参考訳(メタデータ) (2020-11-20T12:37:10Z) - Neural Reflectance Fields for Appearance Acquisition [61.542001266380375]
シーン内の任意の3次元点における体積密度, 正規および反射特性をエンコードする新しい深部シーン表現であるニューラルリフレクタンス場を提案する。
我々はこの表現を、任意の視点と光の下でニューラルリフレクタンスフィールドから画像を描画できる物理的にベースとした微分可能光線マーチングフレームワークと組み合わせる。
論文 参考訳(メタデータ) (2020-08-09T22:04:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。