論文の概要: CAMEO: Autocorrelation-Preserving Line Simplification for Lossy Time Series Compression
- arxiv url: http://arxiv.org/abs/2501.14432v1
- Date: Fri, 24 Jan 2025 11:59:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-27 14:55:34.256063
- Title: CAMEO: Autocorrelation-Preserving Line Simplification for Lossy Time Series Compression
- Title(参考訳): CAMEO: ロスシー時系列圧縮のための自動相関保存ラインの簡易化
- Authors: Carlos Enrique Muñiz-Cuza, Matthias Boehm, Torben Bach Pedersen,
- Abstract要約: 本稿では,時系列の自己相関関数と部分自己相関関数の保証を提供する新しい損失圧縮法を提案する。
提案手法では, 圧縮比を平均で2倍, 選択したデータセットで最大54倍向上する。
- 参考スコア(独自算出の注目度): 7.938342455750219
- License:
- Abstract: Time series data from a variety of sensors and IoT devices need effective compression to reduce storage and I/O bandwidth requirements. While most time series databases and systems rely on lossless compression, lossy techniques offer even greater space-saving with a small loss in precision. However, the unknown impact on downstream analytics applications requires a semi-manual trial-and-error exploration. We initiate work on lossy compression that provides guarantees on complex statistical features (which are strongly correlated with the accuracy of the downstream analytics). Specifically, we propose a new lossy compression method that provides guarantees on the autocorrelation and partial-autocorrelation functions (ACF/PACF) of a time series. Our method leverages line simplification techniques as well as incremental maintenance of aggregates, blocking, and parallelization strategies for effective and efficient compression. The results show that our method improves compression ratios by 2x on average and up to 54x on selected datasets, compared to previous lossy and lossless compression methods. Moreover, we maintain -- and sometimes even improve -- the forecasting accuracy by preserving the autocorrelation properties of the time series. Our framework is extensible to multivariate time series and other statistical features of the time series.
- Abstract(参考訳): さまざまなセンサやIoTデバイスからの時系列データは、ストレージとI/O帯域幅の要求を減らすために効果的な圧縮を必要とする。
ほとんどの時系列データベースやシステムはロスレス圧縮に頼っているが、損失のある手法はより大きな空間節約と精度の低下をもたらす。
しかし、下流分析アプリケーションに対する未知の影響は、半手動による試行錯誤探索を必要とする。
我々は、複雑な統計的特徴(下流分析の精度と強く相関している)の保証を提供する損失圧縮の研究を開始する。
具体的には、時系列の自己相関と部分自己相関関数(ACF/PACF)の保証を提供する新しい損失圧縮法を提案する。
本手法は, 効率よく効率的な圧縮を行うために, ライン単純化手法と, 集約, ブロッキング, 並列化戦略の漸増的メンテナンスを利用する。
その結果, 従来のロスレス圧縮法と比較して, 圧縮率を平均2倍, 選択したデータセットで最大54倍向上することがわかった。
さらに、時系列の自己相関特性を保存することにより、予測精度を(時には改善も)維持する。
我々のフレームワークは、時系列の多変量およびその他の統計的特徴に拡張可能である。
関連論文リスト
- Learned Compression of Nonlinear Time Series With Random Access [2.564905016909138]
時系列は金融、医療、産業、環境モニタリングなど多くの分野で重要な役割を果たしている。
我々は、時系列を非線形関数列に近似するランダムアクセス可能な圧縮スキームNeaTSを紹介する。
実験の結果,NeaTSは最先端の損失圧縮機の圧縮比を最大14%向上することがわかった。
論文 参考訳(メタデータ) (2024-12-20T10:30:06Z) - LoRC: Low-Rank Compression for LLMs KV Cache with a Progressive Compression Strategy [59.1298692559785]
キーバリュー(KV)キャッシュは、トランスフォーマーベースの自己回帰型大言語モデル(LLM)を提供する上で重要なコンポーネントである。
この問題を緩和するためのアプローチとしては、(1) アップサイクルステージに統合された効率的な注意変動、(2) テスト時のKVキャッシュ圧縮、(3) テスト時のKVキャッシュ圧縮がある。
そこで我々は,KV重み行列の低ランク近似を提案し,モデル再学習なしに既存のトランスフォーマーベースLCMとのプラグイン統合を実現する。
本手法は,テスト段階におけるアップサイクリング段階のモデルチューニングやタスク固有のプロファイリングを伴わずに機能するように設計されている。
論文 参考訳(メタデータ) (2024-10-04T03:10:53Z) - In-Context Former: Lightning-fast Compressing Context for Large Language Model [48.831304302467004]
本稿では,Transformer-based large language model (LLM) の長期入力コンテキストを圧縮する手法を提案する。
我々は,単語の埋め込みから情報を集めるために,クロスアテンション機構と少数の学習可能なダイジェストトークンを使用する。
実験の結果, 圧縮時のベースライン浮動小数点演算の1/32しか必要とせず, 処理速度を68倍から112倍に向上することがわかった。
論文 参考訳(メタデータ) (2024-06-19T15:14:55Z) - Compression of Structured Data with Autoencoders: Provable Benefit of
Nonlinearities and Depth [83.15263499262824]
勾配勾配勾配は入力のスパース構造を完全に無視する解に収束することを示す。
浅層構造にデノナイジング関数を付加することにより,スパースデータの圧縮におけるガウス性能の改善方法を示す。
CIFAR-10 や MNIST などの画像データセットに対して,本研究の成果を検証した。
論文 参考訳(メタデータ) (2024-02-07T16:32:29Z) - Deep Dict: Deep Learning-based Lossy Time Series Compressor for IoT Data [15.97162100346596]
ディープディクト(Deep Dict)は、予め定義された範囲内で圧縮誤差を保ちながら高い圧縮比を達成するように設計された、損失の少ない時系列圧縮機である。
BTAEは時系列データからベルヌーイ表現を抽出し、従来のオートエンコーダと比較して表現のサイズを小さくする。
L1/L2のような共通回帰損失の限界に対処するために、量子エントロピー損失(QEL)と呼ばれる新しい損失関数を導入する。
論文 参考訳(メタデータ) (2024-01-18T22:10:21Z) - Lossy and Lossless (L$^2$) Post-training Model Size Compression [12.926354646945397]
本稿では,無損失圧縮と無損失圧縮を統一的に組み合わせた後学習モデルサイズ圧縮法を提案する。
精度を犠牲にすることなく安定な10times$圧縮比を達成でき、短時間で20times$圧縮比を小さくすることができる。
論文 参考訳(メタデータ) (2023-08-08T14:10:16Z) - Learning Accurate Performance Predictors for Ultrafast Automated Model
Compression [86.22294249097203]
フレキシブルネットワーク展開のための超高速自動モデル圧縮フレームワークSeerNetを提案する。
本手法は,探索コストを大幅に削減した競合精度・複雑度トレードオフを実現する。
論文 参考訳(メタデータ) (2023-04-13T10:52:49Z) - Unrolled Compressed Blind-Deconvolution [77.88847247301682]
sparse multi channel blind deconvolution (S-MBD) はレーダー/ソナー/超音波イメージングなどの多くの工学的応用で頻繁に発生する。
そこで本研究では,受信した全信号に対して,はるかに少ない測定値からブラインドリカバリを可能にする圧縮手法を提案する。
論文 参考訳(メタデータ) (2022-09-28T15:16:58Z) - Practical Network Acceleration with Tiny Sets [38.742142493108744]
ネットワーク圧縮は、ディープニューラルネットワークの推論を加速するのに有効である。
しかし、精度の低下から回復するためには、トレーニングデータをすべて微調整する必要があることが多い。
そこで本研究では, PRACTISEという手法を用いて, トレーニング画像の小さなセットでネットワークを高速化する手法を提案する。
論文 参考訳(メタデータ) (2022-02-16T05:04:38Z) - Compressing gradients by exploiting temporal correlation in momentum-SGD [17.995905582226463]
エラーフィードバックのないシステムにおける時間相関を利用した圧縮手法を解析する。
ImageNetデータセットを用いた実験により,提案手法は通信速度を著しく低減することを示した。
我々は、最小勾配ノルムの有界性を確立することにより、予測誤差仮定の下でSGDの収束を証明した。
論文 参考訳(メタデータ) (2021-08-17T18:04:06Z) - Towards Compact CNNs via Collaborative Compression [166.86915086497433]
チャネルプルーニングとテンソル分解を結合してCNNモデルを圧縮する協調圧縮方式を提案する。
52.9%のFLOPを削減し、ResNet-50で48.4%のパラメータを削除しました。
論文 参考訳(メタデータ) (2021-05-24T12:07:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。