論文の概要: Compressive Neural Representations of Volumetric Scalar Fields
- arxiv url: http://arxiv.org/abs/2104.04523v1
- Date: Sun, 11 Apr 2021 15:24:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-14 08:44:35.607663
- Title: Compressive Neural Representations of Volumetric Scalar Fields
- Title(参考訳): 体積スカラー場の圧縮的神経表現
- Authors: Yuzhe Lu, Kairong Jiang, Joshua A. Levine, and Matthew Berger
- Abstract要約: 本稿では,暗黙的ニューラル表現を用いた体積スカラー場圧縮手法を提案する。
ニューラルネットワークの重み数を入力サイズより小さく設定することにより、スカラーフィールドの圧縮表現を実現する。
このアプローチは,最先端のボリューム圧縮アプローチに勝る,非常にコンパクトな表現をもたらすことを示す。
- 参考スコア(独自算出の注目度): 5.368801183541973
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present an approach for compressing volumetric scalar fields using
implicit neural representations. Our approach represents a scalar field as a
learned function, wherein a neural network maps a point in the domain to an
output scalar value. By setting the number of weights of the neural network to
be smaller than the input size, we achieve compressed representations of scalar
fields, thus framing compression as a type of function approximation. Combined
with carefully quantizing network weights, we show that this approach yields
highly compact representations that outperform state-of-the-art volume
compression approaches. The conceptual simplicity of our approach enables a
number of benefits, such as support for time-varying scalar fields, optimizing
to preserve spatial gradients, and random-access field evaluation. We study the
impact of network design choices on compression performance, highlighting how
simple network architectures are effective for a broad range of volumes.
- Abstract(参考訳): 本稿では,暗黙的ニューラル表現を用いた体積スカラー場圧縮手法を提案する。
我々のアプローチはスカラー場を学習関数として表現し、ニューラルネットワークはドメイン内の点を出力スカラー値にマッピングする。
ニューラルネットワークの重み数を入力サイズより小さくすることで、スカラー場の圧縮表現を実現し、関数近似の一種としてのフレーミング圧縮を実現する。
ネットワークの重みを慎重に定量化することで、このアプローチは最先端のボリューム圧縮アプローチを上回る非常にコンパクトな表現が得られることを示す。
提案手法の概念的単純さにより,時変スカラー場のサポート,空間勾配の保存の最適化,ランダムアクセス場評価など,多くのメリットが期待できる。
本研究では,ネットワーク設計選択が圧縮性能に与える影響について検討し,ネットワークアーキテクチャが広範に有効であることを示す。
関連論文リスト
- SHACIRA: Scalable HAsh-grid Compression for Implicit Neural
Representations [46.01969382873856]
Inlicit Neural Representation (INR)やNeural Fieldは、マルチメディア信号をエンコードする一般的なフレームワークとして登場した。
本稿では,これらの特徴グリッドを,追加のホット後のプルーニング/量子化段階を伴わずに圧縮するフレームワークであるSHACIRAを提案する。
我々のアプローチは、大規模なデータセットやドメイン固有のものを必要としない既存のINRアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-09-27T17:59:48Z) - Dynamic Kernel-Based Adaptive Spatial Aggregation for Learned Image
Compression [63.56922682378755]
本稿では,空間アグリゲーション機能の拡張に焦点をあて,動的カーネルベースの変換符号化を提案する。
提案したアダプティブアグリゲーションはカーネルオフセットを生成し、コンテント条件付き範囲の有効な情報をキャプチャして変換を支援する。
実験により,本手法は,最先端の学習手法と比較して,3つのベンチマークにおいて高い速度歪み性能が得られることを示した。
論文 参考訳(メタデータ) (2023-08-17T01:34:51Z) - Compression with Bayesian Implicit Neural Representations [16.593537431810237]
本稿では,データに変分ニューラルネットワークをオーバーフィッティングし,相対エントロピー符号化を用いて近似後重みサンプルを圧縮し,量子化やエントロピー符号化を行う。
実験により,本手法は単純さを維持しつつ,画像および音声の圧縮に強い性能を発揮することが示された。
論文 参考訳(メタデータ) (2023-05-30T16:29:52Z) - Variable Bitrate Neural Fields [75.24672452527795]
本稿では,特徴格子を圧縮し,メモリ消費を最大100倍に削減する辞書手法を提案する。
辞書の最適化をベクトル量子化オートデコーダ問題として定式化し、直接監督できない空間において、エンドツーエンドの離散神経表現を学習する。
論文 参考訳(メタデータ) (2022-06-15T17:58:34Z) - Wavelet Feature Maps Compression for Image-to-Image CNNs [3.1542695050861544]
本稿では,高分解能なアクティベーションマップ圧縮をポイントワイド畳み込みと統合した新しい手法を提案する。
比較的小さく、より優雅な性能劣化を伴う1-4ビットのアクティベーション量子化に匹敵する圧縮率を達成する。
論文 参考訳(メタデータ) (2022-05-24T20:29:19Z) - Meta-Learning Sparse Implicit Neural Representations [69.15490627853629]
入射神経表現は、一般的な信号を表す新しい道である。
現在のアプローチは、多数の信号やデータセットに対してスケールすることが難しい。
メタ学習型スパースニューラル表現は,高密度メタ学習モデルよりもはるかに少ない損失が得られることを示す。
論文 参考訳(メタデータ) (2021-10-27T18:02:53Z) - Compact representations of convolutional neural networks via weight
pruning and quantization [63.417651529192014]
本稿では、音源符号化に基づく畳み込みニューラルネットワーク(CNN)の新しいストレージフォーマットを提案し、重み付けと量子化の両方を活用する。
我々は、全接続層で0.6%、ネットワーク全体で5.44%のスペース占有率を削減し、最低でもベースラインと同じくらいの競争力を発揮する。
論文 参考訳(メタデータ) (2021-08-28T20:39:54Z) - Towards Efficient Scene Understanding via Squeeze Reasoning [71.1139549949694]
我々はSqueeze Reasoningと呼ばれる新しいフレームワークを提案する。
空間地図上の情報を伝播するのではなく、まず入力特徴をチャネルワイドなグローバルベクトルに絞ることを学ぶ。
提案手法はエンドツーエンドのトレーニングブロックとしてモジュール化可能であり,既存のネットワークに簡単に接続可能であることを示す。
論文 参考訳(メタデータ) (2020-11-06T12:17:01Z) - Permute, Quantize, and Fine-tune: Efficient Compression of Neural
Networks [70.0243910593064]
ベクトル量子化の成功の鍵は、どのパラメータ群を一緒に圧縮するかを決定することである。
本稿では,隣り合う2つの層の重みを同じ関数を表現しながら不変にすることができることを観察する。
次に、レート歪み理論への接続を確立し、圧縮し易いネットワークとなる置換を探索する。
論文 参考訳(メタデータ) (2020-10-29T15:47:26Z) - Mixed-Precision Quantized Neural Network with Progressively Decreasing
Bitwidth For Image Classification and Object Detection [21.48875255723581]
ビット幅が徐々に増大する混合精度量子化ニューラルネットワークを提案し,精度と圧縮のトレードオフを改善する。
典型的なネットワークアーキテクチャとベンチマークデータセットの実験は、提案手法がより良い結果または同等の結果が得られることを示した。
論文 参考訳(メタデータ) (2019-12-29T14:11:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。