論文の概要: Instant Neural Graphics Primitives with a Multiresolution Hash Encoding
- arxiv url: http://arxiv.org/abs/2201.05989v1
- Date: Sun, 16 Jan 2022 07:22:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-19 15:09:19.876560
- Title: Instant Neural Graphics Primitives with a Multiresolution Hash Encoding
- Title(参考訳): マルチレゾリューションハッシュ符号化を用いたインスタントニューラルネットワークプリミティブ
- Authors: Thomas M\"uller, Alex Evans, Christoph Schied, Alexander Keller
- Abstract要約: 品質を犠牲にすることなく、より小さなネットワークを使用できる汎用的な新しい入力符号化を提案する。
小さなニューラルネットワークは、勾配降下によって値が最適化された訓練可能な特徴ベクトルの多分解能ハッシュテーブルによって拡張される。
数桁の高速化を実現し、高品質なニューラルネットワークプリミティブを数秒でトレーニングすることができる。
- 参考スコア(独自算出の注目度): 67.33850633281803
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural graphics primitives, parameterized by fully connected neural networks,
can be costly to train and evaluate. We reduce this cost with a versatile new
input encoding that permits the use of a smaller network without sacrificing
quality, thus significantly reducing the number of floating point and memory
access operations: a small neural network is augmented by a multiresolution
hash table of trainable feature vectors whose values are optimized through
stochastic gradient descent. The multiresolution structure allows the network
to disambiguate hash collisions, making for a simple architecture that is
trivial to parallelize on modern GPUs. We leverage this parallelism by
implementing the whole system using fully-fused CUDA kernels with a focus on
minimizing wasted bandwidth and compute operations. We achieve a combined
speedup of several orders of magnitude, enabling training of high-quality
neural graphics primitives in a matter of seconds, and rendering in tens of
milliseconds at a resolution of ${1920\!\times\!1080}$.
- Abstract(参考訳): 完全に接続されたニューラルネットワークによってパラメータ化されるニューラルネットワークプリミティブは、トレーニングと評価にコストがかかる。
我々は、このコストを、品質を犠牲にすることなく小さなネットワークを使用できる汎用的な新しい入力エンコーディングで削減し、それによって浮動小数点数とメモリアクセス操作を著しく削減する: 小さなニューラルネットワークは、確率勾配勾配により値が最適化される訓練可能な特徴ベクトルの多重分解能ハッシュテーブルによって拡張される。
マルチレゾリューション構造により、ネットワークはハッシュ衝突を曖昧にすることができ、現代的なGPU上での並列化が容易な単純なアーキテクチャを実現する。
完全に融合したCUDAカーネルを用いてシステム全体を実装することで,この並列性を活用する。
我々は、数桁のスピードアップを実現し、高品質のニューラルグラフィックスプリミティブを数秒でトレーニングし、数ミリ秒で解像度${1920\!
タイムズ!
1080}$.
関連論文リスト
- Tiled Bit Networks: Sub-Bit Neural Network Compression Through Reuse of Learnable Binary Vectors [4.95475852994362]
本稿では,バイナリ重み付きニューラルネットワークのサブビット圧縮を実現するために,ビット列を持つタイル型ニューラルネットワーク層に対する新しい量子化方式を提案する。
私たちは完全に接続された層と畳み込み層の両方にアプローチを採用しています。
論文 参考訳(メタデータ) (2024-07-16T15:55:38Z) - Kronecker-Factored Approximate Curvature for Modern Neural Network
Architectures [85.76673783330334]
線形重み付け層の2つの異なる設定がクロネッカー型近似曲率(K-FAC)の2つの風味を動機付けている
重み付けをそれぞれ設定したディープ・リニア・ネットワークに対して正確であることを示す。
グラフニューラルネットワークと視覚変換器の両方をトレーニングするために、これらの2つのK-FACの違いをほとんど観測しない。
論文 参考訳(メタデータ) (2023-11-01T16:37:00Z) - DiviML: A Module-based Heuristic for Mapping Neural Networks onto
Heterogeneous Platforms [5.970091958678456]
我々は、ディープニューラルネットワーク(DNN)を複数の相互接続ハードウェアデバイスに分割するコンパイラレベルのアプローチを開発する。
我々のスケジューラは、MILP(Mixed integer linear programming)の定式化とモジュラリティベースのランタイムを通じて、正確な解法と統合する。
複数の異種サーバにまたがる大規模な言語モデルをスケジュールするために、フレームワークをどのように拡張できるかを示します。
論文 参考訳(メタデータ) (2023-07-31T19:46:49Z) - Efficient Dataset Distillation Using Random Feature Approximation [109.07737733329019]
本稿では,ニューラルネットワークガウス過程(NNGP)カーネルのランダム特徴近似(RFA)を用いた新しいアルゴリズムを提案する。
我々のアルゴリズムは、KIP上で少なくとも100倍のスピードアップを提供し、1つのGPUで実行できる。
RFA蒸留 (RFAD) と呼ばれる本手法は, 大規模データセットの精度において, KIP や他のデータセット凝縮アルゴリズムと競合して動作する。
論文 参考訳(メタデータ) (2022-10-21T15:56:13Z) - Interactive Volume Visualization via Multi-Resolution Hash Encoding
based Neural Representation [29.797933404619606]
我々は、最新のGPUコアとよく設計されたレンダリングアルゴリズムを用いて、インタラクティブにトレースボリュームニューラル表現(10-60fps)を描画できることを示します。
我々の神経表現は、高忠実性テラセル (PSNR > 30dB) とコンパクト (10-1000倍小さい) でもある。
極端に大規模なボリュームデータをサポートするために、我々は、私たちの神経表現トレーニングをテラスケールにスケールアップできる効率的なコア外のトレーニング戦略も開発しています。
論文 参考訳(メタデータ) (2022-07-23T23:04:19Z) - Variable Bitrate Neural Fields [75.24672452527795]
本稿では,特徴格子を圧縮し,メモリ消費を最大100倍に削減する辞書手法を提案する。
辞書の最適化をベクトル量子化オートデコーダ問題として定式化し、直接監督できない空間において、エンドツーエンドの離散神経表現を学習する。
論文 参考訳(メタデータ) (2022-06-15T17:58:34Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - Efficient Integer-Arithmetic-Only Convolutional Neural Networks [87.01739569518513]
我々は従来のReLUを境界ReLUに置き換え、その減少は活性化量子化によるものであることを示す。
我々の整数ネットワークは、対応するFPNネットワークと同等の性能を発揮するが、メモリコストは1/4に過ぎず、最新のGPUでは2倍高速である。
論文 参考訳(メタデータ) (2020-06-21T08:23:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。