論文の概要: Ares: Approximate Representations via Efficient Sparsification -- A Stateless Approach through Polynomial Homomorphism
- arxiv url: http://arxiv.org/abs/2412.10623v1
- Date: Sat, 14 Dec 2024 00:05:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 13:56:05.571902
- Title: Ares: Approximate Representations via Efficient Sparsification -- A Stateless Approach through Polynomial Homomorphism
- Title(参考訳): Ares: 効率的なスカラー化による近似表現 -- 多項式同型によるステートレスアプローチ
- Authors: Dongfang Zhao,
- Abstract要約: 我々は,制約表現を利用して,コンパクトで解釈可能なスケーラブルなデータ圧縮を実現するステートレス圧縮フレームワークを導入する。
提案手法は, 簡易性とスケーラビリティを保ちながら, 再構成精度を損なうことなく高い圧縮比を実現する。
- 参考スコア(独自算出の注目度): 1.3824176915623292
- License:
- Abstract: The increasing prevalence of high-dimensional data demands efficient and scalable compression methods to support modern applications. However, existing techniques like PCA and Autoencoders often rely on auxiliary metadata or intricate architectures, limiting their practicality for streaming or infinite datasets. In this paper, we introduce a stateless compression framework that leverages polynomial representations to achieve compact, interpretable, and scalable data reduction. By eliminating the need for auxiliary data, our method supports direct algebraic operations in the compressed domain while minimizing error growth during computations. Through extensive experiments on synthetic and real-world datasets, we show that our approach achieves high compression ratios without compromising reconstruction accuracy, all while maintaining simplicity and scalability.
- Abstract(参考訳): 高次元データの普及は、現代的なアプリケーションをサポートするために効率的でスケーラブルな圧縮方法を必要とする。
しかし、PCAやAutoencoderのような既存の技術は補助的なメタデータや複雑なアーキテクチャに依存しており、ストリーミングや無限のデータセットに対する実用性を制限している。
本稿では、多項式表現を利用して、コンパクトで解釈可能でスケーラブルなデータ圧縮を実現するステートレス圧縮フレームワークを提案する。
補助データの必要性をなくすことで,計算中の誤差の増大を最小限に抑えながら,圧縮領域での直接代数演算を支援する。
合成および実世界のデータセットに関する広範な実験を通して,本手法は,簡易性とスケーラビリティを維持しつつ,再構成精度を損なうことなく高い圧縮比を達成することを示す。
関連論文リスト
- A framework for compressing unstructured scientific data via serialization [2.5768995309704104]
本稿では,非構造化科学データを局所接続で圧縮するための一般的な枠組みを提案する。
一般的な応用は任意の有限要素メッシュ上で定義されたシミュレーションデータである。
このフレームワークは、既存のデータ処理パイプラインへのシームレスな統合を可能にする、オリジナルのノードの順序変更を保存する、欲張りなトポロジを採用している。
論文 参考訳(メタデータ) (2024-10-10T15:53:35Z) - Convex Distillation: Efficient Compression of Deep Networks via Convex Optimization [46.18363767705346]
リソース制約のあるデバイスに大規模で複雑な凸ネットワークを配置することは、その要求のために大きな課題となった。
本稿では,本モデルを用いてモデルを効率よく圧縮する新しい蒸留技術を紹介する。
当社のアプローチでは,後処理を必要とせずに,オリジナルモデルに匹敵するパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-10-09T06:04:52Z) - Language Models as Zero-shot Lossless Gradient Compressors: Towards
General Neural Parameter Prior Models [66.1595537904019]
大型言語モデル(LLM)はゼロショット設定でグラデーション先行として振る舞うことができる。
本稿では,LSMと算術符号を統合する新しい手法であるLM-GCを紹介する。
論文 参考訳(メタデータ) (2024-09-26T13:38:33Z) - A Practical Solver for Scalar Data Topological Simplification [7.079737824450954]
本稿では,トポロジカル単純化の最適化のための実践的アプローチを提案する。
フィラメントループを除去する標準的なトポロジカル手法よりも,本手法が優れていることを示す。
また,本手法は表面処理における遺伝子欠陥の修復にも有効であることを示す。
論文 参考訳(メタデータ) (2024-07-17T08:25:32Z) - Hierarchical Features Matter: A Deep Exploration of GAN Priors for Improved Dataset Distillation [51.44054828384487]
階層的生成潜在蒸留(H-GLaD)と呼ばれる新しいパラメータ化法を提案する。
本手法はGAN内の階層層を系統的に探索する。
さらに,合成データセット評価に伴う計算負担を軽減するために,新しいクラス関連特徴距離尺度を導入する。
論文 参考訳(メタデータ) (2024-06-09T09:15:54Z) - Sparse $L^1$-Autoencoders for Scientific Data Compression [0.0]
L1$-regularizedの高次元ラテント空間を用いたオートエンコーダの開発により,効率的なデータ圧縮手法を提案する。
本稿では,これらの情報に富む潜伏空間を用いて,ぼやけなどのアーティファクトを緩和し,科学的データに対する高効率なデータ圧縮手法を実現する方法について述べる。
論文 参考訳(メタデータ) (2024-05-23T07:48:00Z) - Compression of Structured Data with Autoencoders: Provable Benefit of
Nonlinearities and Depth [83.15263499262824]
勾配勾配勾配は入力のスパース構造を完全に無視する解に収束することを示す。
浅層構造にデノナイジング関数を付加することにより,スパースデータの圧縮におけるガウス性能の改善方法を示す。
CIFAR-10 や MNIST などの画像データセットに対して,本研究の成果を検証した。
論文 参考訳(メタデータ) (2024-02-07T16:32:29Z) - Rethinking Compression: Reduced Order Modelling of Latent Features in
Large Language Models [9.91972450276408]
本稿では,Large Language Models (LLMs) のパラメトリックおよび実用的な圧縮に対して,低次モデリングに基づく革新的なアプローチを提案する。
本手法は, 行列分解を利用したモデル圧縮の顕著な進歩を示し, 最先端の構造化プルーニング法よりも優れた有効性を示した。
論文 参考訳(メタデータ) (2023-12-12T07:56:57Z) - Linear Self-Attention Approximation via Trainable Feedforward Kernel [77.34726150561087]
高速な計算を追求する中で、効率的なトランスフォーマーは印象的な様々なアプローチを実証している。
我々は,トランスフォーマーアーキテクチャの自己保持機構を近似するために,トレーニング可能なカーネルメソッドのアイデアを拡張することを目指している。
論文 参考訳(メタデータ) (2022-11-08T08:14:11Z) - Efficient Micro-Structured Weight Unification and Pruning for Neural
Network Compression [56.83861738731913]
ディープニューラルネットワーク(DNN)モデルは、特にリソース制限されたデバイスにおいて、実用的なアプリケーションに不可欠である。
既往の非構造的あるいは構造化された重量刈り法は、推論を真に加速することはほとんど不可能である。
ハードウェア互換のマイクロ構造レベルでの一般化された重み統一フレームワークを提案し,高い圧縮と加速度を実現する。
論文 参考訳(メタデータ) (2021-06-15T17:22:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。