論文の概要: NeuralVDB: High-resolution Sparse Volume Representation using
Hierarchical Neural Networks
- arxiv url: http://arxiv.org/abs/2208.04448v2
- Date: Sun, 11 Feb 2024 22:37:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-14 01:42:16.776057
- Title: NeuralVDB: High-resolution Sparse Volume Representation using
Hierarchical Neural Networks
- Title(参考訳): NeuralVDB:階層型ニューラルネットワークを用いた高分解能スパースボリューム表現
- Authors: Doyub Kim, Minjae Lee, Ken Museth
- Abstract要約: 本稿では,近年の機械学習の進歩を活用して,スパースデータの効率的な保存のための既存の業界標準であるNeuralVDBについて紹介する。
我々の新しいハイブリッドデータ構造は、VDBボリュームのメモリフットプリントを桁違いに削減し、その柔軟性を維持しながら、小さな(ユーザ制御された)圧縮エラーしか発生しない。
- 参考スコア(独自算出の注目度): 1.4824891788575418
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce NeuralVDB, which improves on an existing industry standard for
efficient storage of sparse volumetric data, denoted VDB [Museth 2013], by
leveraging recent advancements in machine learning. Our novel hybrid data
structure can reduce the memory footprints of VDB volumes by orders of
magnitude, while maintaining its flexibility and only incurring small
(user-controlled) compression errors. Specifically, NeuralVDB replaces the
lower nodes of a shallow and wide VDB tree structure with multiple hierarchical
neural networks that separately encode topology and value information by means
of neural classifiers and regressors respectively. This approach is proven to
maximize the compression ratio while maintaining the spatial adaptivity offered
by the higher-level VDB data structure. For sparse signed distance fields and
density volumes, we have observed compression ratios on the order of 10x to
more than 100x from already compressed VDB inputs, with little to no visual
artifacts. Furthermore, NeuralVDB is shown to offer more effective compression
performance compared to other neural representations such as Neural Geometric
Level of Detail [Takikawa et al. 2021], Variable Bitrate Neural Fields
[Takikawa et al. 2022a], and Instant Neural Graphics Primitives [M\"uller et
al. 2022]. Finally, we demonstrate how warm-starting from previous frames can
accelerate training, i.e., compression, of animated volumes as well as improve
temporal coherency of model inference, i.e., decompression.
- Abstract(参考訳): 本稿では,近年の機械学習の進歩を活用して,スパースボリュームデータの効率的な保存のための既存の業界標準であるNeuralVDBについて紹介する。
この新しいハイブリッドデータ構造は,vdbボリュームのメモリフットプリントを桁違いに削減すると同時に,その柔軟性を保ちながら,小さな(ユーザ制御の)圧縮エラーのみを発生させる。
具体的には、NeuralVDBは、浅いVDBツリー構造と広いVDBツリー構造の下位ノードを、それぞれ神経分類器と回帰器を用いてトポロジーと値情報を個別にエンコードする複数の階層型ニューラルネットワークに置き換える。
この手法は、高レベルなVDBデータ構造によって提供される空間適応性を維持しながら圧縮比を最大化する。
疎符号距離場と密度体積については、すでに圧縮されたVDB入力から10倍から100倍以上の圧縮比を観測し、視覚的アーティファクトはほとんど見つからない。
さらに、NeuralVDBは、DetailのNeural Geometric Level (Takikawa et al. 2021)、可変ビットレートニューラルネットワーク (Takikawa et al. 2022a)、Instant Neural Graphics Primitives [M\"uller et al. 2022]などの他の神経表現と比較して、より効果的な圧縮性能を提供する。
最後に,従来のフレームからのウォームスタートがアニメーションボリュームのトレーニング,すなわち圧縮をいかに加速するかを実証し,モデル推論の時間的一貫性,すなわち減圧縮を改善する。
関連論文リスト
- fVDB: A Deep-Learning Framework for Sparse, Large-Scale, and High-Performance Spatial Intelligence [50.417261057533786]
fVDBは、大規模な3Dデータのディープラーニングのための新しいフレームワークである。
私たちのフレームワークは、既存のパイプラインとの相互運用性を可能にするPyTorchと完全に統合されています。
論文 参考訳(メタデータ) (2024-07-01T20:20:33Z) - N-BVH: Neural ray queries with bounding volume hierarchies [51.430495562430565]
3Dコンピュータグラフィックスでは、シーンのメモリ使用量の大部分がポリゴンとテクスチャによるものである。
N-BVHは3次元の任意の光線クエリに応答するように設計されたニューラル圧縮アーキテクチャである。
本手法は, 視認性, 深度, 外観特性を忠実に近似する。
論文 参考訳(メタデータ) (2024-05-25T13:54:34Z) - "Lossless" Compression of Deep Neural Networks: A High-dimensional
Neural Tangent Kernel Approach [49.744093838327615]
広帯域かつ完全接続型エンフディープニューラルネットに対する新しい圧縮手法を提案する。
提案手法の利点を支えるために, 合成データと実世界のデータの両方の実験を行った。
論文 参考訳(メタデータ) (2024-03-01T03:46:28Z) - NERV++: An Enhanced Implicit Neural Video Representation [11.25130799452367]
強調された暗黙的ニューラルビデオ表現であるNeRV++のニューラル表現を導入する。
NeRV++は、オリジナルのNeRVデコーダアーキテクチャよりも単純だが効果的な拡張である。
提案手法をUVG,MCL JVC,Bunnyのデータセット上で評価し,INRによる映像圧縮の競合性を実現する。
論文 参考訳(メタデータ) (2024-02-28T13:00:32Z) - Fast Sparse 3D Convolution Network with VDB [2.834312349049142]
スパース3次元データ推論に最適化された新しい畳み込みニューラルネットワークの実装を提案する。
この実装では、データ構造としてNanoVDBを使用してスパーステンソルを格納する。
このアーキテクチャは,高解像度3次元オブジェクト分類ネットワーク上での最先端の高密度CNNモデルよりも約20倍高速であることを示す。
論文 参考訳(メタデータ) (2023-11-05T20:43:46Z) - Variable Bitrate Neural Fields [75.24672452527795]
本稿では,特徴格子を圧縮し,メモリ消費を最大100倍に削減する辞書手法を提案する。
辞書の最適化をベクトル量子化オートデコーダ問題として定式化し、直接監督できない空間において、エンドツーエンドの離散神経表現を学習する。
論文 参考訳(メタデータ) (2022-06-15T17:58:34Z) - COIN++: Data Agnostic Neural Compression [55.27113889737545]
COIN++は、幅広いデータモダリティをシームレスに扱うニューラルネットワーク圧縮フレームワークである。
様々なデータモダリティを圧縮することで,本手法の有効性を示す。
論文 参考訳(メタデータ) (2022-01-30T20:12:04Z) - Spatial Dependency Networks: Neural Layers for Improved Generative Image
Modeling [79.15521784128102]
画像生成装置(デコーダ)を構築するための新しいニューラルネットワークを導入し、可変オートエンコーダ(VAE)に適用する。
空間依存ネットワーク(sdns)では、ディープニューラルネットの各レベルにおける特徴マップを空間的にコヒーレントな方法で計算する。
空間依存層による階層型vaeのデコーダの強化は密度推定を大幅に改善することを示す。
論文 参考訳(メタデータ) (2021-03-16T07:01:08Z) - A Variational Information Bottleneck Based Method to Compress Sequential
Networks for Human Action Recognition [9.414818018857316]
本稿では,人間行動認識(HAR)に用いるリカレントニューラルネットワーク(RNN)を効果的に圧縮する手法を提案する。
変分情報ボトルネック(VIB)理論に基づくプルーニング手法を用いて,RNNの逐次セルを流れる情報の流れを小さなサブセットに制限する。
我々は、圧縮を大幅に改善する特定のグループ・ラッソ正規化手法とプルーニング手法を組み合わせる。
提案手法は,UCF11上での動作認識の精度に比較して,最も近い競合に比べて70倍以上の圧縮を実現する。
論文 参考訳(メタデータ) (2020-10-03T12:41:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。