論文の概要: NerfAcc: A General NeRF Acceleration Toolbox
- arxiv url: http://arxiv.org/abs/2210.04847v3
- Date: Wed, 10 May 2023 05:31:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-11 17:27:37.340356
- Title: NerfAcc: A General NeRF Acceleration Toolbox
- Title(参考訳): NerfAcc: 一般的なNeRF加速ツールボックス
- Authors: Ruilong Li, Matthew Tancik and Angjoo Kanazawa
- Abstract要約: NerfAccは、放射場を効率的にレンダリングするためのツールボックスである。
ユーザフレンドリーなPython APIが付属しており、ほとんどのNeRFのプラグイン・アンド・プレイアクセラレーションの準備が整っている。
- 参考スコア(独自算出の注目度): 28.79741043066711
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose NerfAcc, a toolbox for efficient volumetric rendering of radiance
fields. We build on the techniques proposed in Instant-NGP, and extend these
techniques to not only support bounded static scenes, but also for dynamic
scenes and unbounded scenes. NerfAcc comes with a user-friendly Python API, and
is ready for plug-and-play acceleration of most NeRFs. Various examples are
provided to show how to use this toolbox. Code can be found here:
https://github.com/KAIR-BAIR/nerfacc. Note this write-up matches with NerfAcc
v0.3.5. For the latest features in NerfAcc, please check out our more recent
write-up at arXiv:2305.04966
- Abstract(参考訳): 放射場の効率的なボリュームレンダリングのためのツールボックスであるNerfAccを提案する。
我々は、Instant-NGPで提案された技術に基づいて、これらの技術を拡張して、境界付静的シーンだけでなく、動的シーンや非境界付シーンもサポートする。
NerfAccにはユーザフレンドリーなPython APIが付属しており、ほとんどのNeRFのプラグアンドプレイアクセラレーションの準備が整っている。
このツールボックスの使い方を示す様々な例が提供されている。
コードは、https://github.com/KAIR-BAIR/nerfacc.com/で参照できる。
この書き込みはNerfAcc v0.3.5と一致している。
NerfAccの最新機能については、arXiv:2305.04966の最近の記事を参照してほしい。
関連論文リスト
- How Far Can We Compress Instant-NGP-Based NeRF? [45.88543996963832]
我々は、記憶に優しいNeRF表現を提供するために、Context-based NeRF Compression (CNC)フレームワークを導入する。
我々は、より優れたコンテキストモデリングのための強力な事前知識として、ハッシュ衝突と占有グリッドを利用する。
86.7%,82.3%のストレージサイズ削減を実現した。
論文 参考訳(メタデータ) (2024-06-06T14:16:03Z) - Fast Sparse View Guided NeRF Update for Object Reconfigurations [42.947608325321475]
我々は,NeRFの物理的変化に対する最初の更新手法を開発した。
提案手法では,新たな画像のみを余分な入力として処理し,トレーニング済みのNeRFを約1~2分で更新する。
私たちの中核となる考え方は、局所的な幾何学や外観の変化を学ぶために、第2のヘルパーNeRFを使うことです。
論文 参考訳(メタデータ) (2024-03-16T22:00:16Z) - InsertNeRF: Instilling Generalizability into NeRF with HyperNet Modules [23.340064406356174]
ニューラル・ラジアンス・フィールド(NeRF)を新しいシーンに一般化することは大きな課題である。
InsertNeRF, INStilling gEneRalizabiliTy into NeRF。
論文 参考訳(メタデータ) (2023-08-26T14:50:24Z) - DReg-NeRF: Deep Registration for Neural Radiance Fields [66.69049158826677]
我々は,人間の介入なしにオブジェクト中心のアノテートシーンにおけるNeRF登録問題を解くためにDReg-NeRFを提案する。
提案手法は,SOTAポイントクラウド登録方式を大きなマージンで打ち負かす。
論文 参考訳(メタデータ) (2023-08-18T08:37:49Z) - NerfAcc: Efficient Sampling Accelerates NeRFs [44.372357157357875]
改良されたサンプリングは、送信推定器の統一的な概念の下で、一般にNeRFの変種に適用可能であることを示す。
NerfAccは、NeRF関連のメソッドに高度なサンプリングメソッドを組み込むための柔軟なAPIを提供するPythonツールボックスである。
論文 参考訳(メタデータ) (2023-05-08T18:02:11Z) - NeRF-RPN: A general framework for object detection in NeRFs [54.54613914831599]
NeRF-RPNは、シーン内のオブジェクトのすべてのバウンディングボックスを検出することを目的としている。
NeRF-RPNは一般的なフレームワークであり、クラスラベルなしでオブジェクトを検出できる。
論文 参考訳(メタデータ) (2022-11-21T17:02:01Z) - NeRF-Loc: Transformer-Based Object Localization Within Neural Radiance
Fields [62.89785701659139]
我々は,NeRFシーン内の物体の3次元境界ボックスを抽出するトランスフォーマーベースのフレームワークNeRF-Locを提案する。
NeRF-Locは、事前訓練されたNeRFモデルとカメラビューを入力として、オブジェクトのラベル付き3Dバウンディングボックスを出力として生成する。
論文 参考訳(メタデータ) (2022-09-24T18:34:22Z) - View Synthesis with Sculpted Neural Points [64.40344086212279]
暗黙の神経表現は印象的な視覚的品質を達成したが、計算効率に欠点がある。
本稿では,点雲を用いたビュー合成を行う新しい手法を提案する。
レンダリング速度を100倍以上速くしながら、NeRFよりも視覚的品質を向上する最初のポイントベース手法である。
論文 参考訳(メタデータ) (2022-05-12T03:54:35Z) - SinNeRF: Training Neural Radiance Fields on Complex Scenes from a Single
Image [85.43496313628943]
本稿では,一眼レフ(SinNeRF)フレームワークについて述べる。
SinNeRFは半教師付き学習プロセスを構築し,幾何学的擬似ラベルを導入・伝播する。
NeRF合成データセット、Local Light Field Fusionデータセット、DTUデータセットなど、複雑なシーンベンチマークで実験が行われる。
論文 参考訳(メタデータ) (2022-04-02T19:32:42Z) - VaxNeRF: Revisiting the Classic for Voxel-Accelerated Neural Radiance
Field [28.087183395793236]
本稿では,Voxel-Accelearated NeRF (VaxNeRF)を提案する。
VaxNeRFは、ハイパフォーマンスなJaxNeRF上での学習を約2~8倍高速化する。
VaxNeRFが新たなNeRF拡張とアプリケーションを強化し、加速できることを願っています。
論文 参考訳(メタデータ) (2021-11-25T14:56:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。