論文の概要: NerfAcc: Efficient Sampling Accelerates NeRFs
- arxiv url: http://arxiv.org/abs/2305.04966v1
- Date: Mon, 8 May 2023 18:02:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-10 14:53:44.152323
- Title: NerfAcc: Efficient Sampling Accelerates NeRFs
- Title(参考訳): NerfAcc: 効率的なサンプリングがNeRFを加速
- Authors: Ruilong Li, Hang Gao, Matthew Tancik, Angjoo Kanazawa
- Abstract要約: 改良されたサンプリングは、送信推定器の統一的な概念の下で、一般にNeRFの変種に適用可能であることを示す。
NerfAccは、NeRF関連のメソッドに高度なサンプリングメソッドを組み込むための柔軟なAPIを提供するPythonツールボックスである。
- 参考スコア(独自算出の注目度): 35.75274072381041
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Optimizing and rendering Neural Radiance Fields is computationally expensive
due to the vast number of samples required by volume rendering. Recent works
have included alternative sampling approaches to help accelerate their methods,
however, they are often not the focus of the work. In this paper, we
investigate and compare multiple sampling approaches and demonstrate that
improved sampling is generally applicable across NeRF variants under an unified
concept of transmittance estimator. To facilitate future experiments, we
develop NerfAcc, a Python toolbox that provides flexible APIs for incorporating
advanced sampling methods into NeRF related methods. We demonstrate its
flexibility by showing that it can reduce the training time of several recent
NeRF methods by 1.5x to 20x with minimal modifications to the existing
codebase. Additionally, highly customized NeRFs, such as Instant-NGP, can be
implemented in native PyTorch using NerfAcc.
- Abstract(参考訳): ボリュームレンダリングに必要な大量のサンプルのため、ニューラルレイディアンスフィールドの最適化とレンダリングは計算コストがかかる。
最近の研究には、彼らのメソッドを加速するための代替サンプリングアプローチが含まれているが、それらはしばしば作業の焦点ではない。
本稿では,複数のサンプリング手法を検討・比較し,改良されたサンプリングは送信推定器の統一的概念の下でNeRFの変種に適用可能であることを示す。
今後の実験を容易にするため,NeRF関連手法に高度なサンプリング手法を組み込むための柔軟なAPIを提供するPythonツールボックスであるNerfAccを開発した。
既存のコードベースに最小限の変更を加えることで、最近のNeRFメソッドのトレーニング時間を1.5倍から20倍に短縮できることを示し、その柔軟性を示す。
さらに、Instant-NGPのような高度にカスタマイズされたNeRFは、NerfAccを使用してネイティブのPyTorchで実装できる。
関連論文リスト
- Simple and Fast Distillation of Diffusion Models [39.79747569096888]
本稿では,拡散モデルの簡易・高速蒸留(SFD)を提案する。
SFD は CIFAR-10 上で 4.53 FID (NFE=2) を達成する。
論文 参考訳(メタデータ) (2024-09-29T12:13:06Z) - Efficient NeRF Optimization -- Not All Samples Remain Equally Hard [9.404889815088161]
ニューラルレイディアンスフィールド(NeRF)の効率的なトレーニングのためのオンラインハードサンプルマイニングの応用を提案する。
NeRFモデルは、多くの3D再構成およびレンダリングタスクに対して最先端の品質を生み出すが、かなりの計算資源を必要とする。
論文 参考訳(メタデータ) (2024-08-06T13:49:01Z) - ProNeRF: Learning Efficient Projection-Aware Ray Sampling for
Fine-Grained Implicit Neural Radiance Fields [27.008124938806944]
メモリフットプリント(NeRFに似ている)、スピード(HyperReelより速い)、品質(K-Planesより速い)の最適なトレードオフを提供するProNeRFを提案する。
我々のProNeRFは最先端の計測値であり、最も優れたサンプルベース手法であるHyperReelよりも15-23倍高速で、PSNRは0.65dB高く、PSNRは0.95dB高い。
論文 参考訳(メタデータ) (2023-12-13T13:37:32Z) - Analyzing the Internals of Neural Radiance Fields [4.681790910494339]
粗大なサンプリングに使用される大規模で訓練されたReLU-MLPを解析する。
中間活性化を重み推定に変換することで、これらの大きなミニマ活性化をいかに加速できるかを示す。
論文 参考訳(メタデータ) (2023-06-01T14:06:48Z) - NeuSample: Neural Sample Field for Efficient View Synthesis [129.10351459066501]
本稿では,ニューラルサンプル場を命名する軽量モジュールを提案する。
提案したサンプルフィールドは、線をサンプル分布にマッピングし、点座標に変換し、ボリュームレンダリングのために放射場に供給することができる。
我々はNeuSampleが高速な推論速度を保ちながら、NeRFよりも優れたレンダリング品質を実現することを示す。
論文 参考訳(メタデータ) (2021-11-30T16:43:49Z) - NeRF in detail: Learning to sample for view synthesis [104.75126790300735]
ニューラルレイディアンス場(NeRF)法は目覚ましい新しいビュー合成を実証している。
この作業では、バニラ粗大なアプローチの明確な制限に対処します -- パフォーマンスに基づいており、手元にあるタスクのエンドツーエンドをトレーニングしていません。
我々は、サンプルの提案と、そのネットワークにおける重要性を学習し、そのニューラルネットワークアーキテクチャに対する複数の代替案を検討し比較する、微分可能なモジュールを導入する。
論文 参考訳(メタデータ) (2021-06-09T17:59:10Z) - Deep Networks for Direction-of-Arrival Estimation in Low SNR [89.45026632977456]
我々は,真の配列多様体行列の変異チャネルデータから学習した畳み込みニューラルネットワーク(CNN)を導入する。
我々は低SNR体制でCNNを訓練し、すべてのSNRでDoAを予測する。
私たちの堅牢なソリューションは、ワイヤレスアレイセンサーから音響マイクロフォンやソナーまで、いくつかの分野に適用できます。
論文 参考訳(メタデータ) (2020-11-17T12:52:18Z) - Multi-Scale Positive Sample Refinement for Few-Shot Object Detection [61.60255654558682]
Few-shot Object Detection (FSOD) は、ディテクターがトレーニングインスタンスをほとんど持たない未確認のクラスに適応するのに役立つ。
FSODにおけるオブジェクトスケールを拡張化するためのMPSR(Multi-scale Positive Sample Refinement)アプローチを提案する。
MPSRは、オブジェクトピラミッドとして多スケールの正のサンプルを生成し、様々なスケールで予測を洗練させる。
論文 参考訳(メタデータ) (2020-07-18T09:48:29Z) - Top-k Training of GANs: Improving GAN Performance by Throwing Away Bad
Samples [67.11669996924671]
GAN(Generative Adversarial Network)トレーニングアルゴリズムに,簡単な修正(一行のコード)を導入する。
ジェネレータパラメータを更新するとき、批判者が最も現実的に評価するバッチの要素から勾配のコントリビューションをゼロにします。
このトップk更新の手順が一般的に適用可能な改善であることを示す。
論文 参考訳(メタデータ) (2020-02-14T19:27:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。