論文の概要: How Far Can We Compress Instant-NGP-Based NeRF?
- arxiv url: http://arxiv.org/abs/2406.04101v1
- Date: Thu, 6 Jun 2024 14:16:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-07 14:40:14.311160
- Title: How Far Can We Compress Instant-NGP-Based NeRF?
- Title(参考訳): Instant-NGP-based NeRFはどこまで圧縮できるのか?
- Authors: Yihang Chen, Qianyi Wu, Mehrtash Harandi, Jianfei Cai,
- Abstract要約: 我々は、記憶に優しいNeRF表現を提供するために、Context-based NeRF Compression (CNC)フレームワークを導入する。
我々は、より優れたコンテキストモデリングのための強力な事前知識として、ハッシュ衝突と占有グリッドを利用する。
86.7%,82.3%のストレージサイズ削減を実現した。
- 参考スコア(独自算出の注目度): 45.88543996963832
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, Neural Radiance Field (NeRF) has demonstrated remarkable capabilities in representing 3D scenes. To expedite the rendering process, learnable explicit representations have been introduced for combination with implicit NeRF representation, which however results in a large storage space requirement. In this paper, we introduce the Context-based NeRF Compression (CNC) framework, which leverages highly efficient context models to provide a storage-friendly NeRF representation. Specifically, we excavate both level-wise and dimension-wise context dependencies to enable probability prediction for information entropy reduction. Additionally, we exploit hash collision and occupancy grids as strong prior knowledge for better context modeling. To the best of our knowledge, we are the first to construct and exploit context models for NeRF compression. We achieve a size reduction of 100$\times$ and 70$\times$ with improved fidelity against the baseline Instant-NGP on Synthesic-NeRF and Tanks and Temples datasets, respectively. Additionally, we attain 86.7\% and 82.3\% storage size reduction against the SOTA NeRF compression method BiRF. Our code is available here: https://github.com/YihangChen-ee/CNC.
- Abstract(参考訳): 近年,Neural Radiance Field (NeRF) は3次元シーンを表現できることを実証している。
レンダリング処理を高速化するために、暗黙のNeRF表現と組み合わせて学習可能な明示表現が導入された。
本稿では、高効率なコンテキストモデルを利用して、ストレージフレンドリーなNeRF表現を提供するContext-based NeRF Compression (CNC)フレームワークを紹介する。
具体的には、情報エントロピー低減のための確率予測を可能にするために、レベルワイドと次元ワイドのコンテキスト依存を抽出する。
さらに, ハッシュ衝突と占有グリッドを, より優れたコンテキストモデリングのための強力な事前知識として活用する。
我々の知る限り、我々はNeRF圧縮のためのコンテキストモデルを構築し、活用した最初の人です。
我々は,Synthesic-NeRF のベースラインである Instant-NGP に対して,100$\times$ と 70$\times$ をそれぞれ改善した。
さらに,SOTA NeRF圧縮方式BiRFに対して86.7\%,82.3\%のストレージサイズ削減を実現した。
私たちのコードは、https://github.com/YihangChen-ee/CNC.comで利用可能です。
関連論文リスト
- Rate-aware Compression for NeRF-based Volumetric Video [21.372568857027748]
放射場(NeRF)は3次元ボリュームビデオ技術の開発を進展させてきた。
既存のソリューションは、トレーニング段階の後にNeRF表現を圧縮し、表現訓練と圧縮を分離する。
本稿では,提案するレートアウェア圧縮フレームワークに基づいて,トレーニング段階におけるボリュームビデオのコンパクトなNeRF表現を直接学習する。
論文 参考訳(メタデータ) (2024-11-08T04:29:14Z) - Explicit-NeRF-QA: A Quality Assessment Database for Explicit NeRF Model Compression [10.469092315640696]
我々は、NeRF圧縮研究の課題に対処するため、Explicit-NeRF-QAと呼ばれる新しいデータセットを構築した。
4つの典型的なNeRFモデルをトレーニングするために,22個の3Dオブジェクトを多様なジオメトリ,テクスチャ,材料複雑度で使用しています。
実験室環境における主観的な実験を行い、21人の視聴者から主観的なスコアを収集する。
論文 参考訳(メタデータ) (2024-07-11T04:02:05Z) - Neural NeRF Compression [19.853882143024]
最近のNeRFは、レンダリング品質とスピードを改善するために機能グリッドを利用している。
これらの表現は、大きなストレージオーバーヘッドをもたらす。
本稿では,グリッドベースNeRFモデルを効率よく圧縮する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-06-13T09:12:26Z) - HAC: Hash-grid Assisted Context for 3D Gaussian Splatting Compression [55.6351304553003]
3D Gaussian Splatting (3DGS) は、新しいビュー合成のための有望なフレームワークとして登場した。
高速な3DGS表現のためのHash-grid Assisted Context (HAC) フレームワークを提案する。
私たちの研究は、コンテキストベースの3DGS表現の圧縮を探求するパイオニアです。
論文 参考訳(メタデータ) (2024-03-21T16:28:58Z) - "Lossless" Compression of Deep Neural Networks: A High-dimensional
Neural Tangent Kernel Approach [49.744093838327615]
広帯域かつ完全接続型エンフディープニューラルネットに対する新しい圧縮手法を提案する。
提案手法の利点を支えるために, 合成データと実世界のデータの両方の実験を行った。
論文 参考訳(メタデータ) (2024-03-01T03:46:28Z) - CAwa-NeRF: Instant Learning of Compression-Aware NeRF Features [0.0]
本稿では,圧縮対応NeRF特徴量(CAwa-NeRF)の即時学習について紹介する。
提案したインスタントラーニングパイプラインは,様々な静的シーンにおいて印象的な結果が得られる。
特に、単一のオブジェクトをマスクした背景シーンでは、CAwa-NeRFはPSNR (33 dB) を損なうことなく、元のサイズの機能グリッドを6% (1.2 MB) まで圧縮し、わずかに仮想損失 (32.31 dB) の2.4% (0.53 MB) まで圧縮する。
論文 参考訳(メタデータ) (2023-10-23T08:40:44Z) - NAS-NeRF: Generative Neural Architecture Search for Neural Radiance
Fields [75.28756910744447]
ニューラルレイディアンス場(NeRF)は、高品質な新規ビュー合成を可能にするが、その高い計算複雑性はデプロイ可能性を制限する。
NAS-NeRFは,コンパクトでシーン特異的なNeRFアーキテクチャを生成する生成型ニューラルアーキテクチャ探索戦略である。
本手法では,各シーンに適したアーキテクチャを探索するために,対象の指標と予算に制約を組み込む。
論文 参考訳(メタデータ) (2023-09-25T17:04:30Z) - Efficient View Synthesis with Neural Radiance Distribution Field [61.22920276806721]
我々は,リアルタイムに効率的なビュー合成を目標とするニューラルレージアンス分布場(NeRDF)という新しい表現を提案する。
我々は、NeLFのように1ピクセル当たりの1つのネットワーク転送でレンダリング速度を保ちながら、NeRFに似た小さなネットワークを使用する。
実験の結果,提案手法は既存の手法よりも速度,品質,ネットワークサイズとのトレードオフが良好であることがわかった。
論文 参考訳(メタデータ) (2023-08-22T02:23:28Z) - DReg-NeRF: Deep Registration for Neural Radiance Fields [66.69049158826677]
我々は,人間の介入なしにオブジェクト中心のアノテートシーンにおけるNeRF登録問題を解くためにDReg-NeRFを提案する。
提案手法は,SOTAポイントクラウド登録方式を大きなマージンで打ち負かす。
論文 参考訳(メタデータ) (2023-08-18T08:37:49Z) - Compressible-composable NeRF via Rank-residual Decomposition [21.92736190195887]
ニューラル・ラジアンス・フィールド(NeRF)は、3Dオブジェクトやシーンをリアルにレンダリングするための魅力的な方法として登場した。
本稿では,モデルの効率的かつ便利な操作を可能にするニューラル表現を提案する。
提案手法は,圧縮と合成の余分な能力を実現しつつ,最先端の手法に匹敵するレンダリング品質を実現することができる。
論文 参考訳(メタデータ) (2022-05-30T06:18:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。