論文の概要: Light Field Neural Rendering
- arxiv url: http://arxiv.org/abs/2112.09687v1
- Date: Fri, 17 Dec 2021 18:58:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-20 16:31:08.731884
- Title: Light Field Neural Rendering
- Title(参考訳): 光フィールドニューラルレンダリング
- Authors: Mohammed Suhail, Carlos Esteves, Leonid Sigal, Ameesh Makadia
- Abstract要約: 幾何再構成に基づく手法はスパースビューのみを必要とするが、非ランベルト効果を正確にモデル化することはできない。
強みを組み合わせたモデルを導入し、これらの2つの方向の制限を緩和する。
我々のモデルは、複数の前方向きデータセットと360degデータセットで最先端のモデルより優れています。
- 参考スコア(独自算出の注目度): 47.7586443731997
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Classical light field rendering for novel view synthesis can accurately
reproduce view-dependent effects such as reflection, refraction, and
translucency, but requires a dense view sampling of the scene. Methods based on
geometric reconstruction need only sparse views, but cannot accurately model
non-Lambertian effects. We introduce a model that combines the strengths and
mitigates the limitations of these two directions. By operating on a
four-dimensional representation of the light field, our model learns to
represent view-dependent effects accurately. By enforcing geometric constraints
during training and inference, the scene geometry is implicitly learned from a
sparse set of views. Concretely, we introduce a two-stage transformer-based
model that first aggregates features along epipolar lines, then aggregates
features along reference views to produce the color of a target ray. Our model
outperforms the state-of-the-art on multiple forward-facing and 360{\deg}
datasets, with larger margins on scenes with severe view-dependent variations.
- Abstract(参考訳): 新しいビュー合成のための古典的な光フィールドレンダリングは、反射、屈折、透過といったビュー依存の効果を正確に再現できるが、シーンの濃密なビューサンプリングを必要とする。
幾何再構成に基づく手法はスパースビューのみを必要とするが、非ランベルト効果を正確にモデル化することはできない。
強みを結合し,これら2つの方向の限界を緩和するモデルを提案する。
光場を4次元的に表現することで、我々のモデルはビュー依存効果を正確に表現することを学ぶ。
トレーニングと推論の間に幾何学的制約を課すことにより、シーン幾何学はスパースビューから暗黙的に学習される。
具体的には,まずエピポーラ線に沿って特徴を集約し,次に参照ビューに沿って特徴を集約し,対象光線の色を生成する2段階トランスフォーマーモデルを提案する。
我々のモデルは、複数の前方向きデータセットと360{\deg}データセットで最先端のパフォーマンスを達成し、ビュー依存の激しいシーンでは大きなマージンを持つ。
関連論文リスト
- View-consistent Object Removal in Radiance Fields [14.195400035176815]
レーダー場(RF)は3次元シーン表現にとって重要な技術である。
現在の方法はフレーム単位の2Dイメージの描画に依存しており、ビュー間の一貫性の維持に失敗することが多い。
単一参照画像のみの塗布を必要とすることで、一貫性を著しく向上する新しいRF編集パイプラインを提案する。
論文 参考訳(メタデータ) (2024-08-04T17:57:23Z) - HybridNeRF: Efficient Neural Rendering via Adaptive Volumetric Surfaces [71.1071688018433]
ニューラル放射場は、最先端のビュー合成品質を提供するが、レンダリングが遅くなる傾向がある。
本稿では,ほとんどの物体を表面としてレンダリングすることで,両表現の強みを生かしたHybridNeRFを提案する。
仮想現実分解能(2Kx2K)のリアルタイムフレームレート(少なくとも36FPS)を達成しながら、エラー率を15~30%改善する。
論文 参考訳(メタデータ) (2023-12-05T22:04:49Z) - Curved Diffusion: A Generative Model With Optical Geometry Control [56.24220665691974]
最終シーンの外観に対する異なる光学系の影響は、しばしば見過ごされる。
本研究では,画像レンダリングに使用される特定のレンズとテキスト画像拡散モデルを密接に統合するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-29T13:06:48Z) - Learning to Render Novel Views from Wide-Baseline Stereo Pairs [26.528667940013598]
本稿では,単一の広線ステレオ画像ペアのみを付与した新しいビュー合成手法を提案する。
スパース観測による新しいビュー合成への既存のアプローチは、誤った3次元形状の復元によって失敗する。
対象光線に対する画像特徴を組み立てるための,効率的な画像空間のエピポーラ線サンプリング手法を提案する。
論文 参考訳(メタデータ) (2023-04-17T17:40:52Z) - Generalizable Patch-Based Neural Rendering [46.41746536545268]
未知のシーンの新たなビューを合成できるモデル学習のための新しいパラダイムを提案する。
本手法は,シーンから採取したパッチの集合からのみ,新規シーンにおける対象光線の色を直接予測することができる。
本手法は,従来よりも少ないデータでトレーニングされた場合であっても,目立たないシーンの新たなビュー合成において,最先端のビュー合成よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-07-21T17:57:04Z) - Neural Point Light Fields [80.98651520818785]
本稿では,スパース点雲上に存在する光の場を暗黙的に表現するニューラルポイント光場について紹介する。
これらの点光場は、光線方向と局所点特徴近傍の関数として機能し、光場条件付きトレーニング画像を高密度の被写体とパララックスを介さずに補間することができる。
論文 参考訳(メタデータ) (2021-12-02T18:20:10Z) - RegNeRF: Regularizing Neural Radiance Fields for View Synthesis from
Sparse Inputs [79.00855490550367]
我々は,多くの入力ビューが利用可能である場合,NeRFは見えない視点のフォトリアリスティックレンダリングを生成することができることを示す。
我々は、未観測の視点からレンダリングされたパッチの幾何学と外観を規則化することで、この問題に対処する。
我々のモデルは、1つのシーンで最適化する他の方法よりも、大規模なマルチビューデータセットで広範囲に事前訓練された条件付きモデルよりも優れています。
論文 参考訳(メタデータ) (2021-12-01T18:59:46Z) - DIB-R++: Learning to Predict Lighting and Material with a Hybrid
Differentiable Renderer [78.91753256634453]
そこで本研究では,単体画像から固有物体特性を推定する難題について,微分可能量を用いて検討する。
そこで本研究では、スペクトル化とレイトレーシングを組み合わせることで、これらの効果をサポートするハイブリッド微分可能なDIBR++を提案する。
より高度な物理ベースの微分可能値と比較すると、DIBR++はコンパクトで表現力のあるモデルであるため、高い性能を持つ。
論文 参考訳(メタデータ) (2021-10-30T01:59:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。