論文の概要: SHACIRA: Scalable HAsh-grid Compression for Implicit Neural
Representations
- arxiv url: http://arxiv.org/abs/2309.15848v1
- Date: Wed, 27 Sep 2023 17:59:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-28 12:25:32.577831
- Title: SHACIRA: Scalable HAsh-grid Compression for Implicit Neural
Representations
- Title(参考訳): SHACIRA: 命令型ニューラル表現のためのスケーラブルなハッシュグリッド圧縮
- Authors: Sharath Girish, Abhinav Shrivastava, Kamal Gupta
- Abstract要約: Inlicit Neural Representation (INR)やNeural Fieldは、マルチメディア信号をエンコードする一般的なフレームワークとして登場した。
本稿では,これらの特徴グリッドを,追加のホット後のプルーニング/量子化段階を伴わずに圧縮するフレームワークであるSHACIRAを提案する。
我々のアプローチは、大規模なデータセットやドメイン固有のものを必要としない既存のINRアプローチよりも優れています。
- 参考スコア(独自算出の注目度): 46.01969382873856
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Implicit Neural Representations (INR) or neural fields have emerged as a
popular framework to encode multimedia signals such as images and radiance
fields while retaining high-quality. Recently, learnable feature grids proposed
by Instant-NGP have allowed significant speed-up in the training as well as the
sampling of INRs by replacing a large neural network with a multi-resolution
look-up table of feature vectors and a much smaller neural network. However,
these feature grids come at the expense of large memory consumption which can
be a bottleneck for storage and streaming applications. In this work, we
propose SHACIRA, a simple yet effective task-agnostic framework for compressing
such feature grids with no additional post-hoc pruning/quantization stages. We
reparameterize feature grids with quantized latent weights and apply entropy
regularization in the latent space to achieve high levels of compression across
various domains. Quantitative and qualitative results on diverse datasets
consisting of images, videos, and radiance fields, show that our approach
outperforms existing INR approaches without the need for any large datasets or
domain-specific heuristics. Our project page is available at
http://shacira.github.io .
- Abstract(参考訳): Inlicit Neural Representations (INR)やNeural Fieldは、高品質を維持しながら画像や放射場などのマルチメディア信号をエンコードする一般的なフレームワークとして登場した。
最近、Instant-NGPによって提案された学習可能な機能グリッドは、大きなニューラルネットワークを特徴ベクトルのマルチレゾリューションルックアップテーブルとはるかに小さなニューラルネットワークに置き換えることで、トレーニングの大幅なスピードアップとINRのサンプリングを可能にしている。
しかし、これらの機能グリッドは、ストレージやストリーミングアプリケーションのボトルネックとなる大きなメモリ消費を犠牲にしている。
そこで本研究では,ポストホックなpruning/quantizationステージを必要とせず,そのような機能グリッドを圧縮するための単純かつ効果的なタスク非依存フレームワークであるshaciraを提案する。
我々は、量子化潜在重み付き特徴格子を再パラメータ化し、潜在空間におけるエントロピー正規化を適用して、様々な領域にわたる高い圧縮を実現する。
画像,ビデオ,放射能場からなる多様なデータセットの定量的・定性的な結果から,大規模データセットやドメイン固有ヒューリスティックスを必要とせず,既存のinrアプローチに勝ることを示す。
プロジェクトページはhttp://shacira.github.io.com/で閲覧できます。
関連論文リスト
- Neural NeRF Compression [19.853882143024]
最近のNeRFは、レンダリング品質とスピードを改善するために機能グリッドを利用している。
これらの表現は、大きなストレージオーバーヘッドをもたらす。
本稿では,グリッドベースNeRFモデルを効率よく圧縮する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-06-13T09:12:26Z) - Heterogenous Memory Augmented Neural Networks [84.29338268789684]
ニューラルネットワークのための新しいヘテロジニアスメモリ拡張手法を提案する。
学習可能なメモリトークンをアテンション機構付きで導入することにより、膨大な計算オーバーヘッドを伴わずに性能を効果的に向上させることができる。
In-distriion (ID) と Out-of-distriion (OOD) の両方の条件下での様々な画像およびグラフベースのタスクに対するアプローチを示す。
論文 参考訳(メタデータ) (2023-10-17T01:05:28Z) - FPGA Resource-aware Structured Pruning for Real-Time Neural Networks [3.294652922898631]
プルーニングはニューラルネットワークをスパースし、乗算とメモリの数を減らします。
資源対応テンソル構造を持つクナップサック問題として定式化することで,ハードウェア中心のプルーニングの定式化を提案する。
提案手法は, DSP使用率の55%から92%, BRAM使用率の81%の削減を実現する。
論文 参考訳(メタデータ) (2023-08-09T18:14:54Z) - Adaptively Placed Multi-Grid Scene Representation Networks for Large-Scale Data Visualization [16.961769402078264]
科学データの圧縮と可視化のためにSRN(Scene representation network)が最近提案されている。
適応配置多重グリッドSRN(APMGSRN)でこの問題に対処する。
また、PyTorchベースのSRNでプラグインとプレイのレンダリングを可能にする、オープンソースのニューラルボリュームレンダリングアプリケーションもリリースしています。
論文 参考訳(メタデータ) (2023-07-16T19:36:19Z) - Modality-Agnostic Variational Compression of Implicit Neural
Representations [96.35492043867104]
Inlicit Neural Representation (INR) としてパラメータ化されたデータの関数的ビューに基づくモーダリティ非依存型ニューラル圧縮アルゴリズムを提案する。
潜時符号化と疎性の間のギャップを埋めて、ソフトゲーティング機構に非直線的にマッピングされたコンパクト潜時表現を得る。
このような潜在表現のデータセットを得た後、ニューラル圧縮を用いてモーダリティ非依存空間におけるレート/歪みトレードオフを直接最適化する。
論文 参考訳(メタデータ) (2023-01-23T15:22:42Z) - Masked Wavelet Representation for Compact Neural Radiance Fields [5.279919461008267]
3Dシーンやオブジェクトを表現するために多層パーセプトロンを使用するには、膨大な計算資源と時間が必要である。
本稿では,データ構造を付加することの利点を損なうことなく,サイズを小さくする方法を提案する。
提案したマスクと圧縮パイプラインにより,2MBのメモリ予算で最先端の性能を実現した。
論文 参考訳(メタデータ) (2022-12-18T11:43:32Z) - Variable Bitrate Neural Fields [75.24672452527795]
本稿では,特徴格子を圧縮し,メモリ消費を最大100倍に削減する辞書手法を提案する。
辞書の最適化をベクトル量子化オートデコーダ問題として定式化し、直接監督できない空間において、エンドツーエンドの離散神経表現を学習する。
論文 参考訳(メタデータ) (2022-06-15T17:58:34Z) - Learning Frequency-aware Dynamic Network for Efficient Super-Resolution [56.98668484450857]
本稿では、離散コサイン変換(dct)領域の係数に応じて入力を複数の部分に分割する新しい周波数認識動的ネットワークについて検討する。
実際、高周波部は高価な操作で処理され、低周波部は計算負荷を軽減するために安価な操作が割り当てられる。
ベンチマークSISRモデルおよびデータセット上での実験は、周波数認識動的ネットワークが様々なSISRニューラルネットワークに使用できることを示している。
論文 参考訳(メタデータ) (2021-03-15T12:54:26Z) - Learning Enriched Features for Real Image Restoration and Enhancement [166.17296369600774]
畳み込みニューラルネットワーク(CNN)は、画像復元作業における従来のアプローチよりも劇的に改善されている。
ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とした,新しいアーキテクチャを提案する。
提案手法は,高解像度の空間的詳細を同時に保存しながら,複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
論文 参考訳(メタデータ) (2020-03-15T11:04:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。