論文の概要: Plenoxels: Radiance Fields without Neural Networks
- arxiv url: http://arxiv.org/abs/2112.05131v1
- Date: Thu, 9 Dec 2021 18:59:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-10 16:14:07.420572
- Title: Plenoxels: Radiance Fields without Neural Networks
- Title(参考訳): plenoxels: ニューラルネットワークのない放射場
- Authors: Alex Yu, Sara Fridovich-Keil, Matthew Tancik, Qinhong Chen, Benjamin
Recht, Angjoo Kanazawa
- Abstract要約: プレノキセルは球面調和を持つスパース3Dグリッドとしてシーンを表現している。
標準的なベンチマークタスクでは、Plenoxelsは、視覚的品質を損なうことなく、Neural Radiance Fieldsよりも2桁高速に最適化されている。
- 参考スコア(独自算出の注目度): 36.71329319673975
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce Plenoxels (plenoptic voxels), a system for photorealistic view
synthesis. Plenoxels represent a scene as a sparse 3D grid with spherical
harmonics. This representation can be optimized from calibrated images via
gradient methods and regularization without any neural components. On standard,
benchmark tasks, Plenoxels are optimized two orders of magnitude faster than
Neural Radiance Fields with no loss in visual quality.
- Abstract(参考訳): フォトリアリスティックなビュー合成システムであるPlenoxels (plenoptic voxels)を紹介する。
プレノキセルは球面調和を持つスパース3Dグリッドとしてシーンを表す。
この表現は、勾配法と正規化によって、神経コンポーネントを使わずに、調整された画像から最適化することができる。
標準的なベンチマークタスクでは、Plenoxelsは視覚的品質を失うことなく、Neural Radiance Fieldsよりも2桁高速に最適化されている。
関連論文リスト
- NeRF-Casting: Improved View-Dependent Appearance with Consistent Reflections [57.63028964831785]
最近の研究は、遠方の環境照明の詳細な明細な外観を描画するNeRFの能力を改善しているが、近い内容の一貫した反射を合成することはできない。
我々はこれらの問題をレイトレーシングに基づくアプローチで解決する。
このモデルでは、それぞれのカメラ線に沿った点における視界依存放射率を求めるために高価なニューラルネットワークをクエリする代わりに、これらの点から光を流し、NeRF表現を通して特徴ベクトルを描画します。
論文 参考訳(メタデータ) (2024-05-23T17:59:57Z) - Learning Robust Generalizable Radiance Field with Visibility and Feature
Augmented Point Representation [7.203073346844801]
本稿では、一般化可能なニューラル放射場(NeRF)のための新しいパラダイムを提案する。
本稿では、画像ベースレンダリングではなく、点ベースに基づく一般化可能なニューラルネットワークを構築するための第1のパラダイムを提案する。
我々のアプローチは、幾何的先行性によって鮮度を明示的にモデル化し、それらをニューラル特徴で拡張する。
論文 参考訳(メタデータ) (2024-01-25T17:58:51Z) - HybridNeRF: Efficient Neural Rendering via Adaptive Volumetric Surfaces [71.1071688018433]
ニューラル放射場は、最先端のビュー合成品質を提供するが、レンダリングが遅くなる傾向がある。
本稿では,ほとんどの物体を表面としてレンダリングすることで,両表現の強みを生かしたHybridNeRFを提案する。
仮想現実分解能(2Kx2K)のリアルタイムフレームレート(少なくとも36FPS)を達成しながら、エラー率を15~30%改善する。
論文 参考訳(メタデータ) (2023-12-05T22:04:49Z) - Adaptive Shells for Efficient Neural Radiance Field Rendering [92.18962730460842]
本稿では, 表面および表面のレンダリングを円滑に遷移させるニューラル放射率の定式化を提案する。
我々の手法は、非常に高い忠実度で効率的なレンダリングを可能にする。
また,抽出したエンベロープは,アニメーションやシミュレーションなどの下流アプリケーションを可能にすることを示す。
論文 参考訳(メタデータ) (2023-11-16T18:58:55Z) - 3D Gaussian Splatting for Real-Time Radiance Field Rendering [4.320393382724066]
競争力のあるトレーニング時間を維持しながら、最先端の視覚的品質を達成するための3つの重要な要素を紹介します。
いくつかの確立したデータセット上で、最先端の視覚的品質とリアルタイムレンダリングを実証する。
論文 参考訳(メタデータ) (2023-08-08T06:37:06Z) - Learning Neural Duplex Radiance Fields for Real-Time View Synthesis [33.54507228895688]
本研究では,NeRFを高効率メッシュベースニューラル表現に蒸留・焼成する手法を提案する。
提案手法の有効性と優位性を,各種標準データセットの広範な実験を通じて実証する。
論文 参考訳(メタデータ) (2023-04-20T17:59:52Z) - Balanced Spherical Grid for Egocentric View Synthesis [6.518792457424123]
EgoNeRFは、VR資産のための大規模な現実世界環境を再構築するための実用的なソリューションである。
カジュアルにキャプチャされた360度ビデオを数秒間与えると、EgoNeRFは効率的に神経放射場を作ることができる。
論文 参考訳(メタデータ) (2023-03-22T09:17:01Z) - Neural Deformable Voxel Grid for Fast Optimization of Dynamic View
Synthesis [63.25919018001152]
動的シーンを扱うための高速な変形可能な放射場法を提案する。
本手法は訓練に20分しかかからないD-NeRFに匹敵する性能を実現する。
論文 参考訳(メタデータ) (2022-06-15T17:49:08Z) - MVSNeRF: Fast Generalizable Radiance Field Reconstruction from
Multi-View Stereo [52.329580781898116]
MVSNeRFは、ビュー合成のための神経放射場を効率的に再構築できる新しいニューラルレンダリング手法である。
高密度にキャプチャされた画像に対して,シーン毎の最適化を考慮に入れたニューラルネットワークの先行研究とは異なり,高速ネットワーク推論により,近傍の3つの入力ビューのみからラミアンスフィールドを再構成できる汎用ディープニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-03-29T13:15:23Z) - Neural Lumigraph Rendering [33.676795978166375]
最先端の(SOTA)ニューラルボリュームレンダリングアプローチは、トレーニングが遅く、高い画像解像度のために数分の推論(レンダリング)時間を必要とします。
本研究では,2次元画像のみを監督するシーンの暗黙の面と放射界を協調的に最適化するために,周期的アクティベーションを伴う高容量なニューラルシーン表現を採用する。
我々のニューラルレンダリングパイプラインは、SOTAニューラルボリュームレンダリングを約2桁加速し、暗黙のサーフェス表現は、ビュー依存テクスチャ情報によるメッシュのエクスポートを可能にするユニークなものです。
論文 参考訳(メタデータ) (2021-03-22T03:46:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。