論文の概要: SINR: Sparsity Driven Compressed Implicit Neural Representations
- arxiv url: http://arxiv.org/abs/2503.19576v1
- Date: Tue, 25 Mar 2025 11:53:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-26 16:51:10.955837
- Title: SINR: Sparsity Driven Compressed Implicit Neural Representations
- Title(参考訳): SINR: 空間駆動圧縮インプシットニューラル表現
- Authors: Dhananjaya Jayasundara, Sudarshan Rajagopalan, Yasiru Ranasinghe, Trac D. Tran, Vishal M. Patel,
- Abstract要約: Inlicit Neural Representation (INR) は、識別された信号を表現するための汎用データモダリティとして、ますます認識されている。
INRの既存の信号圧縮アプローチは、2つの戦略の1つである。
InRの重みによって形成されるベクトル空間のパターンを利用する,革新的な圧縮アルゴリズムであるSINRを導入する。
- 参考スコア(独自算出の注目度): 25.489983863030556
- License:
- Abstract: Implicit Neural Representations (INRs) are increasingly recognized as a versatile data modality for representing discretized signals, offering benefits such as infinite query resolution and reduced storage requirements. Existing signal compression approaches for INRs typically employ one of two strategies: 1. direct quantization with entropy coding of the trained INR; 2. deriving a latent code on top of the INR through a learnable transformation. Thus, their performance is heavily dependent on the quantization and entropy coding schemes employed. In this paper, we introduce SINR, an innovative compression algorithm that leverages the patterns in the vector spaces formed by weights of INRs. We compress these vector spaces using a high-dimensional sparse code within a dictionary. Further analysis reveals that the atoms of the dictionary used to generate the sparse code do not need to be learned or transmitted to successfully recover the INR weights. We demonstrate that the proposed approach can be integrated with any existing INR-based signal compression technique. Our results indicate that SINR achieves substantial reductions in storage requirements for INRs across various configurations, outperforming conventional INR-based compression baselines. Furthermore, SINR maintains high-quality decoding across diverse data modalities, including images, occupancy fields, and Neural Radiance Fields.
- Abstract(参考訳): Inlicit Neural Representations (INR)は、離散化された信号を表現するための汎用的なデータモダリティとして認識され、無限のクエリの解決やストレージ要求の削減といった利点を提供する。
INRの既存の信号圧縮アプローチは、一般的に2つの戦略の1つである。
1. 訓練されたINRのエントロピー符号化による直接量子化
2. 学習可能な変換を通じて、INRの上に潜り込むコードを導出する。
したがって、それらの性能は、使用される量子化およびエントロピー符号化方式に大きく依存する。
本稿では,INRの重みによって形成されるベクトル空間のパターンを利用する,革新的な圧縮アルゴリズムであるSINRを紹介する。
辞書内の高次元スパース符号を用いてこれらのベクトル空間を圧縮する。
さらに分析した結果、InR重みを回復するためにスパース符号を生成するために使われる辞書の原子を学習したり送信したりする必要がなくなることが明らかになった。
提案手法は既存のINRベースの信号圧縮技術と統合可能であることを示す。
以上の結果から,SINR は従来のINR ベースの圧縮ベースラインよりも高い精度で,INR のストレージ要求を大幅に削減できることがわかった。
さらに、SINRは、画像、占有フィールド、ニューラルラジアンスフィールドなど、さまざまなデータモダリティにわたる高品質なデコーディングを維持している。
関連論文リスト
- Quantum Implicit Neural Compression [11.028123436097616]
データ圧縮に量子ニューラルネットワークの指数的にリッチな表現性を利用する量子INRを導入する。
いくつかのベンチマークデータセットを用いて評価したところ、提案したquINRベースの圧縮により、画像圧縮の速度歪み性能が向上することが示された。
論文 参考訳(メタデータ) (2024-12-19T13:41:29Z) - Streaming Neural Images [56.41827271721955]
Inlicit Neural Representations (INR) は信号表現の新しいパラダイムであり、画像圧縮にかなりの関心を集めている。
本研究では,INRの計算コスト,不安定な性能,堅牢性などの限界要因について検討する。
論文 参考訳(メタデータ) (2024-09-25T17:51:20Z) - Towards a Sampling Theory for Implicit Neural Representations [0.3222802562733786]
Inlicit Neural representations (INRs) は、コンピュータおよび計算画像における逆問題を解決する強力なツールとして登場した。
一般化された重み減衰正規化方式を用いて, 隠蔽層INRから画像の復元方法を示す。
低幅単層INRにより実現された正確な回復画像を得る確率を実証的に評価し、より現実的な連続領域ファントム画像の超解像回復におけるINRの性能を示す。
論文 参考訳(メタデータ) (2024-05-28T17:53:47Z) - UniCompress: Enhancing Multi-Data Medical Image Compression with Knowledge Distillation [59.3877309501938]
Inlicit Neural Representation (INR) ネットワークは、その柔軟な圧縮比のため、顕著な汎用性を示している。
周波数領域情報を含むコードブックをINRネットワークへの事前入力として導入する。
これにより、INRの表現力が向上し、異なる画像ブロックに対して特異な条件付けが提供される。
論文 参考訳(メタデータ) (2024-05-27T05:52:13Z) - Modality-Agnostic Variational Compression of Implicit Neural
Representations [96.35492043867104]
Inlicit Neural Representation (INR) としてパラメータ化されたデータの関数的ビューに基づくモーダリティ非依存型ニューラル圧縮アルゴリズムを提案する。
潜時符号化と疎性の間のギャップを埋めて、ソフトゲーティング機構に非直線的にマッピングされたコンパクト潜時表現を得る。
このような潜在表現のデータセットを得た後、ニューラル圧縮を用いてモーダリティ非依存空間におけるレート/歪みトレードオフを直接最適化する。
論文 参考訳(メタデータ) (2023-01-23T15:22:42Z) - DINER: Disorder-Invariant Implicit Neural Representation [33.10256713209207]
入射神経表現(INR)は、信号の属性を対応する座標の関数として特徴づける。
本稿では、従来のINRバックボーンにハッシュテーブルを付加することにより、障害不変な暗黙的神経表現(DINER)を提案する。
論文 参考訳(メタデータ) (2022-11-15T03:34:24Z) - Signal Processing for Implicit Neural Representations [80.38097216996164]
Inlicit Neural Representation (INR)は、マルチ層パーセプトロンを介して連続したマルチメディアデータを符号化する。
既存の作業は、その離散化されたインスタンスの処理を通じて、そのような連続的な表現を操作する。
本稿では,INSP-Netと呼ばれる暗黙的ニューラル信号処理ネットワークを提案する。
論文 参考訳(メタデータ) (2022-10-17T06:29:07Z) - Implicit Neural Representations for Image Compression [103.78615661013623]
Inlicit Neural Representations (INRs) は、様々なデータ型の新規かつ効果的な表現として注目されている。
量子化、量子化を考慮した再学習、エントロピー符号化を含むINRに基づく最初の包括的圧縮パイプラインを提案する。
我々は、INRによるソース圧縮に対する我々のアプローチが、同様の以前の作業よりも大幅に優れていることに気付きました。
論文 参考訳(メタデータ) (2021-12-08T13:02:53Z) - Deep Networks for Direction-of-Arrival Estimation in Low SNR [89.45026632977456]
我々は,真の配列多様体行列の変異チャネルデータから学習した畳み込みニューラルネットワーク(CNN)を導入する。
我々は低SNR体制でCNNを訓練し、すべてのSNRでDoAを予測する。
私たちの堅牢なソリューションは、ワイヤレスアレイセンサーから音響マイクロフォンやソナーまで、いくつかの分野に適用できます。
論文 参考訳(メタデータ) (2020-11-17T12:52:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。