論文の概要: MixNeRF: Memory Efficient NeRF with Feature Mixed-up Hash Table
- arxiv url: http://arxiv.org/abs/2304.12587v2
- Date: Wed, 26 Apr 2023 03:27:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-27 10:42:25.420487
- Title: MixNeRF: Memory Efficient NeRF with Feature Mixed-up Hash Table
- Title(参考訳): MixNeRF: 特徴混在ハッシュテーブルを備えたメモリ効率の良いNeRF
- Authors: Yongjae Lee, Li Yang and Deliang Fan
- Abstract要約: ニューラル・ラディアンス・フィールド(NeRF)は、フォトリアリスティック・ノベルビューの生成において顕著な性能を示した。
メモリ効率を向上し,トレーニング時間を短縮するために,混合ハッシュテーブルを用いたメモリ効率の高いNeRFフレームワークであるMixNeRFを提案する。
われわれのMixNeRFは、同じGPUハードウェア上で、同じまたはそれ以上のリコンストラクション品質で最速のトレーニング時間を達成できる。
- 参考スコア(独自算出の注目度): 47.57081899743937
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Neural radiance field (NeRF) has shown remarkable performance in generating
photo-realistic novel views. Since the emergence of NeRF, many studies have
been conducted, among which managing features with explicit structures such as
grids has achieved exceptionally fast training by reducing the complexity of
multilayer perceptron (MLP) networks. However, storing features in dense grids
requires significantly large memory space, which leads to memory bottleneck in
computer systems and thus large training time. To address this issue, in this
work, we propose MixNeRF, a memory-efficient NeRF framework that employs a
mixed-up hash table to improve memory efficiency and reduce training time while
maintaining reconstruction quality. We first design a mixed-up hash table to
adaptively mix part of multi-level feature grids into one and map it to a
single hash table. Following that, in order to obtain the correct index of a
grid point, we further design an index transformation method that transforms
indices of an arbitrary level grid to those of a canonical grid. Extensive
experiments benchmarking with state-of-the-art Instant-NGP, TensoRF, and DVGO,
indicate our MixNeRF could achieve the fastest training time on the same GPU
hardware with similar or even higher reconstruction quality. Source code is
available at https://github.com/nfyfamr/MixNeRF.
- Abstract(参考訳): ニューラル・ラディアンス・フィールド(NeRF)はフォトリアリスティック・ノベルビューの生成において顕著な性能を示した。
NeRFの出現以来,多層パーセプトロン(MLP)ネットワークの複雑さを減らし,グリッドなどの明示的な構造を持つ特徴を管理することで,極めて高速なトレーニングを実現している研究が数多く行われている。
しかし、高密度グリッドに格納するには大きなメモリスペースが必要であり、それによってコンピュータシステムのメモリボトルネックが発生し、トレーニング時間も大きくなる。
そこで本研究では,メモリ効率を向上し,復元品質を維持しつつトレーニング時間を短縮するために混合ハッシュテーブルを用いたメモリ効率のよいnrfフレームワークであるmixnerfを提案する。
まず,マルチレベル機能グリッドの一部を1つに適応的に混合し,単一のハッシュテーブルにマップする混合ハッシュテーブルを設計した。
その後、グリッド点の正しいインデックスを得るために、任意のレベルグリッドのインデックスを標準グリッドのインデックスに変換するインデックス変換法をさらに設計する。
最先端のInstant-NGP、TensoRF、DVGOとベンチマークした大規模な実験によると、MixNeRFは、同じGPUハードウェア上で、同様のあるいはそれ以上のリコンストラクション品質で、最速のトレーニング時間を達成できる。
ソースコードはhttps://github.com/nfyfamr/MixNeRFで入手できる。
関連論文リスト
- LeRF: Learning Resampling Function for Adaptive and Efficient Image Interpolation [64.34935748707673]
最近のディープニューラルネットワーク(DNN)は、学習データ前処理を導入することで、パフォーマンスを著しく向上させた。
本稿では,DNNが学習した構造的前提と局所的連続仮定の両方を活かした学習再サンプリング(Learning Resampling, LeRF)を提案する。
LeRFは空間的に異なる再サンプリング関数を入力画像ピクセルに割り当て、ニューラルネットワークを用いてこれらの再サンプリング関数の形状を予測する。
論文 参考訳(メタデータ) (2024-07-13T16:09:45Z) - Neural NeRF Compression [19.853882143024]
最近のNeRFは、レンダリング品質とスピードを改善するために機能グリッドを利用している。
これらの表現は、大きなストレージオーバーヘッドをもたらす。
本稿では,グリッドベースNeRFモデルを効率よく圧縮する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-06-13T09:12:26Z) - Spatial Annealing Smoothing for Efficient Few-shot Neural Rendering [106.0057551634008]
我々は,Spatial Annealing smoothing regularized NeRF (SANeRF) という,正確で効率的な数発のニューラルレンダリング手法を導入する。
単に1行のコードを追加することで、SANeRFは現在の数ショットのNeRF法と比較して、より優れたレンダリング品質とはるかに高速な再構築速度を提供する。
論文 参考訳(メタデータ) (2024-06-12T02:48:52Z) - SGCNeRF: Few-Shot Neural Rendering via Sparse Geometric Consistency Guidance [106.0057551634008]
FreeNeRFは暗黙の幾何正規化を統合することでこの制限を克服しようとする。
新しい研究は、新しい特徴マッチングに基づくスパース幾何正規化モジュールを導入する。
モジュールは、高周波キーポイントをピンポイントすることで、詳細の完全性を保護する。
論文 参考訳(メタデータ) (2024-04-01T08:37:57Z) - SpikingNeRF: Making Bio-inspired Neural Networks See through the Real World [19.696976370895907]
本稿では、スパイキングニューラルネットワーク(SNN)の時間次元を放射光に合わせるスパイキングNeRFを提案する。
計算はスパイクベースで乗算のない方式に変わり、エネルギー消費を減らし、ニューロモルフィックなハードウェアで高品質な3Dレンダリングを可能にする。
論文 参考訳(メタデータ) (2023-09-20T01:04:57Z) - GLEAM: Greedy Learning for Large-Scale Accelerated MRI Reconstruction [50.248694764703714]
アンロールされたニューラルネットワークは、最近最先端の加速MRI再構成を達成した。
これらのネットワークは、物理ベースの一貫性とニューラルネットワークベースの正規化を交互に組み合わせることで、反復最適化アルゴリズムをアンロールする。
我々は,高次元画像設定のための効率的なトレーニング戦略である加速度MRI再構成のためのグレディ・ラーニングを提案する。
論文 参考訳(メタデータ) (2022-07-18T06:01:29Z) - Learning Frequency-aware Dynamic Network for Efficient Super-Resolution [56.98668484450857]
本稿では、離散コサイン変換(dct)領域の係数に応じて入力を複数の部分に分割する新しい周波数認識動的ネットワークについて検討する。
実際、高周波部は高価な操作で処理され、低周波部は計算負荷を軽減するために安価な操作が割り当てられる。
ベンチマークSISRモデルおよびデータセット上での実験は、周波数認識動的ネットワークが様々なSISRニューラルネットワークに使用できることを示している。
論文 参考訳(メタデータ) (2021-03-15T12:54:26Z) - Wide-band butterfly network: stable and efficient inversion via
multi-frequency neural networks [1.2891210250935143]
広帯域散乱データから逆散乱マップを近似するために,広帯域蝶ネットワーク(WideBNet)と呼ばれるエンドツーエンドのディープラーニングアーキテクチャを導入する。
このアーキテクチャでは、バタフライの分解のような計算調和解析や、クーリー・テューキーFFTアルゴリズムのような伝統的なマルチスケール手法のツールが組み込まれている。
論文 参考訳(メタデータ) (2020-11-24T21:48:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。