論文の概要: Deep Dict: Deep Learning-based Lossy Time Series Compressor for IoT Data
- arxiv url: http://arxiv.org/abs/2401.10396v1
- Date: Thu, 18 Jan 2024 22:10:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-22 17:17:45.933491
- Title: Deep Dict: Deep Learning-based Lossy Time Series Compressor for IoT Data
- Title(参考訳): deep dict: ディープラーニングベースのiotデータ用時系列圧縮機
- Authors: Jinxin Liu, Petar Djukic, Michel Kulhandjian, Burak Kantarci
- Abstract要約: ディープディクト(Deep Dict)は、予め定義された範囲内で圧縮誤差を保ちながら高い圧縮比を達成するように設計された、損失の少ない時系列圧縮機である。
BTAEは時系列データからベルヌーイ表現を抽出し、従来のオートエンコーダと比較して表現のサイズを小さくする。
L1/L2のような共通回帰損失の限界に対処するために、量子エントロピー損失(QEL)と呼ばれる新しい損失関数を導入する。
- 参考スコア(独自算出の注目度): 15.97162100346596
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We propose Deep Dict, a deep learning-based lossy time series compressor
designed to achieve a high compression ratio while maintaining decompression
error within a predefined range. Deep Dict incorporates two essential
components: the Bernoulli transformer autoencoder (BTAE) and a distortion
constraint. BTAE extracts Bernoulli representations from time series data,
reducing the size of the representations compared to conventional autoencoders.
The distortion constraint limits the prediction error of BTAE to the desired
range. Moreover, in order to address the limitations of common regression
losses such as L1/L2, we introduce a novel loss function called quantized
entropy loss (QEL). QEL takes into account the specific characteristics of the
problem, enhancing robustness to outliers and alleviating optimization
challenges. Our evaluation of Deep Dict across ten diverse time series datasets
from various domains reveals that Deep Dict outperforms state-of-the-art lossy
compressors in terms of compression ratio by a significant margin by up to
53.66%.
- Abstract(参考訳): 本研究では,事前定義された範囲内で圧縮誤差を維持しつつ,高い圧縮率を達成するために設計された,ディープラーニングベースのロスリー時系列圧縮機であるdeep dictを提案する。
Deep DictにはBernolli Transformer Autoencoder(BTAE)と歪み制約という2つの重要なコンポーネントが含まれている。
btaeは時系列データからベルヌーイ表現を抽出し、従来のオートエンコーダに比べて表現のサイズを小さくする。
歪み制約は、BTAEの予測誤差を所望の範囲に制限する。
さらに,L1/L2のような共通回帰損失の限界に対処するために,量子エントロピー損失(QEL)と呼ばれる新しい損失関数を導入する。
QELは問題の特徴を考慮し、アウトレーヤへの堅牢性を強化し、最適化の課題を軽減する。
各種ドメインの10種類の時系列データセットを対象としたDeep Dictの評価では、Deep Dictは圧縮比で最先端の損失圧縮機よりも53.66%の差があることがわかった。
関連論文リスト
- CAMEO: Autocorrelation-Preserving Line Simplification for Lossy Time Series Compression [7.938342455750219]
本稿では,時系列の自己相関関数と部分自己相関関数の保証を提供する新しい損失圧縮法を提案する。
提案手法では, 圧縮比を平均で2倍, 選択したデータセットで最大54倍向上する。
論文 参考訳(メタデータ) (2025-01-24T11:59:51Z) - CALLIC: Content Adaptive Learning for Lossless Image Compression [64.47244912937204]
CALLICは、学習したロスレス画像圧縮のための新しい最先端(SOTA)を設定する。
本稿では,畳み込みゲーティング操作を利用したコンテンツ認識型自己回帰自己保持機構を提案する。
エンコーディング中、低ランク行列を用いて深度の畳み込みを含む事前学習層を分解し、レート誘導プログレッシブファインタニング(RPFT)による画像検査にインクリメンタルウェイトを適応させる。
推定エントロピーにより下位順にソートされたパッチを徐々に増加させたRPFTファインチューン,学習過程の最適化,適応時間の短縮を実現した。
論文 参考訳(メタデータ) (2024-12-23T10:41:18Z) - Learned Compression of Nonlinear Time Series With Random Access [2.564905016909138]
時系列は金融、医療、産業、環境モニタリングなど多くの分野で重要な役割を果たしている。
我々は、時系列を非線形関数列に近似するランダムアクセス可能な圧縮スキームNeaTSを紹介する。
実験の結果,NeaTSは最先端の損失圧縮機の圧縮比を最大14%向上することがわかった。
論文 参考訳(メタデータ) (2024-12-20T10:30:06Z) - Variable Rate Neural Compression for Sparse Detector Data [9.331686712558144]
本稿では,スパース畳み込みによるキーポイント識別によるTPCデータ圧縮手法を提案する。
BCAE-VSは、以前の最先端モデルよりも圧縮率を10%高め、再構築精度を75%高めている。
論文 参考訳(メタデータ) (2024-11-18T17:15:35Z) - Unlocking Data-free Low-bit Quantization with Matrix Decomposition for KV Cache Compression [87.5604418100301]
キー値(KV)キャッシングは,大規模言語モデルの推論を高速化する重要な手法である。
既存の手法はしばしば精度を損なうか、キャリブレーションのために余分なデータを必要とする。
テンソル分解法に基づく新しいデータフリー低ビット量子化手法である textbfDecoQuant を導入する。
論文 参考訳(メタデータ) (2024-05-21T08:35:10Z) - Convolutional variational autoencoders for secure lossy image compression in remote sensing [47.75904906342974]
本研究では,畳み込み変分オートエンコーダ(CVAE)に基づく画像圧縮について検討する。
CVAEは、JPEG2000のような従来の圧縮手法を圧縮ベンチマークデータセットのかなりのマージンで上回ることが示されている。
論文 参考訳(メタデータ) (2024-04-03T15:17:29Z) - Compression of Structured Data with Autoencoders: Provable Benefit of
Nonlinearities and Depth [83.15263499262824]
勾配勾配勾配は入力のスパース構造を完全に無視する解に収束することを示す。
浅層構造にデノナイジング関数を付加することにより,スパースデータの圧縮におけるガウス性能の改善方法を示す。
CIFAR-10 や MNIST などの画像データセットに対して,本研究の成果を検証した。
論文 参考訳(メタデータ) (2024-02-07T16:32:29Z) - Inshrinkerator: Compressing Deep Learning Training Checkpoints via Dynamic Quantization [5.648270790530862]
最先端のアプローチには、結果のモデル品質(精度)と圧縮比とのトレードオフを引き起こす、損失のあるモデル圧縮機構が含まれる。
モデル重みの圧縮に対する感度がトレーニング中に変化し、異なる重みが異なる量子化レベルから恩恵を受けることを重要視する。
本稿では,この変動を利用した非一様量子化手法,最適な量子化構成を動的に見つける効率的な探索機構,重みを再構成してチェックポイント差を最小限に抑える量子化対応デルタ圧縮機構を提案する。
論文 参考訳(メタデータ) (2023-06-20T18:00:31Z) - Unrolled Compressed Blind-Deconvolution [77.88847247301682]
sparse multi channel blind deconvolution (S-MBD) はレーダー/ソナー/超音波イメージングなどの多くの工学的応用で頻繁に発生する。
そこで本研究では,受信した全信号に対して,はるかに少ない測定値からブラインドリカバリを可能にする圧縮手法を提案する。
論文 参考訳(メタデータ) (2022-09-28T15:16:58Z) - Reducing Redundancy in the Bottleneck Representation of the Autoencoders [98.78384185493624]
オートエンコーダは教師なしニューラルネットワークの一種であり、様々なタスクを解くのに使用できる。
本稿では,ボトルネック表現における特徴冗長性を明示的に罰する手法を提案する。
我々は,3つの異なるデータセットを用いた次元削減,MNISTデータセットを用いた画像圧縮,ファッションMNISTを用いた画像デノナイズという,さまざまなタスクにまたがってアプローチを検証した。
論文 参考訳(メタデータ) (2022-02-09T18:48:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。