論文の概要: Lossless Compression: A New Benchmark for Time Series Model Evaluation
- arxiv url: http://arxiv.org/abs/2509.21002v1
- Date: Thu, 25 Sep 2025 10:52:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:12.852721
- Title: Lossless Compression: A New Benchmark for Time Series Model Evaluation
- Title(参考訳): Lossless Compression: 時系列モデル評価のための新しいベンチマーク
- Authors: Meng Wan, Benxi Tian, Jue Wang, Cui Hui, Ningming Nie, Tiantian Liu, Zongguo Wang, Cao Rongqiang, Peng Shi, Yangang Wang,
- Abstract要約: 時系列モデルを評価するための新しいパラダイムとしてロスレス圧縮を導入する。
この観点は、最適圧縮長と負の対数類似度との直接同値性を確立する。
我々は,包括的評価フレームワークTSCom-Benchを提案し,オープンソース化する。
- 参考スコア(独自算出の注目度): 20.540426615530556
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The evaluation of time series models has traditionally focused on four canonical tasks: forecasting, imputation, anomaly detection, and classification. While these tasks have driven significant progress, they primarily assess task-specific performance and do not rigorously measure whether a model captures the full generative distribution of the data. We introduce lossless compression as a new paradigm for evaluating time series models, grounded in Shannon's source coding theorem. This perspective establishes a direct equivalence between optimal compression length and the negative log-likelihood, providing a strict and unified information-theoretic criterion for modeling capacity. Then We define a standardized evaluation protocol and metrics. We further propose and open-source a comprehensive evaluation framework TSCom-Bench, which enables the rapid adaptation of time series models as backbones for lossless compression. Experiments across diverse datasets on state-of-the-art models, including TimeXer, iTransformer, and PatchTST, demonstrate that compression reveals distributional weaknesses overlooked by classic benchmarks. These findings position lossless compression as a principled task that complements and extends existing evaluation for time series modeling.
- Abstract(参考訳): 時系列モデルの評価は伝統的に4つの標準的タスク(予測、計算、異常検出、分類)に焦点を当ててきた。
これらのタスクは大きな進歩を遂げているが、主にタスク固有のパフォーマンスを評価し、モデルがデータの完全な生成的分布を捉えるかどうかを厳密に測定することはない。
シャノンの情報源符号化定理に基づく時系列モデル評価のための新しいパラダイムとしてロスレス圧縮を導入する。
この観点は、最適圧縮長と負の対数類似度との直接的な等価性を確立し、モデリング能力のための厳密で統一された情報理論的基準を提供する。
次に、標準化された評価プロトコルとメトリクスを定義します。
さらに、ロスレス圧縮のためのバックボーンとして時系列モデルの迅速な適応を可能にする包括的評価フレームワークTSCom-Benchを提案し、オープンソース化する。
TimeXer、iTransformer、PatchTSTなど、最先端モデルのさまざまなデータセットに対する実験は、圧縮が古典的なベンチマークで見落とされた分散の弱点を明らかにすることを実証している。
これらの知見は、時系列モデリングにおける既存の評価を補完し拡張する原則的タスクとして、ロスレス圧縮を位置づけている。
関連論文リスト
- Enhancing Transformer-Based Foundation Models for Time Series Forecasting via Bagging, Boosting and Statistical Ensembles [7.787518725874443]
時系列基礎モデル(TSFM)は、時系列予測、異常検出、分類、計算のための強力な一般化とゼロショット能力を示している。
本稿では, 統計的およびアンサンブルに基づくエンハンスメント技術を用いて, 頑健さと精度を向上させる手法について検討する。
論文 参考訳(メタデータ) (2025-08-18T04:06:26Z) - Sundial: A Family of Highly Capable Time Series Foundation Models [64.6322079384575]
Sundialはネイティブでフレキシブルでスケーラブルな時系列基盤モデルのファミリーです。
我々のモデルは、事前の分布を指定せずに事前訓練されており、複数の確率予測を生成することができる。
Sundialは、ジャスト・イン・タイムの推論速度で、ポイントと確率予測ベンチマークの両方で最先端の結果を達成する。
論文 参考訳(メタデータ) (2025-02-02T14:52:50Z) - Recurrent Neural Goodness-of-Fit Test for Time Series [8.22915954499148]
時系列データは、金融や医療など、さまざまな分野において重要である。
従来の評価基準は、時間的依存関係と潜在的な特徴の高次元性のために不足している。
Recurrent Neural (RENAL) Goodness-of-Fit testは,生成時系列モデルを評価するための新しい,統計的に厳密なフレームワークである。
論文 参考訳(メタデータ) (2024-10-17T19:32:25Z) - OrionBench: Benchmarking Time Series Generative Models in the Service of the End-User [8.05635934199494]
OrionBenchは、教師なし時系列異常検出モデルのための継続的ベンチマークフレームワークである。
OrionBenchの使用方法と,4年間で公開された17リリースにわたるパイプラインのパフォーマンスについて紹介する。
論文 参考訳(メタデータ) (2023-10-26T19:43:16Z) - SynBench: Task-Agnostic Benchmarking of Pretrained Representations using
Synthetic Data [78.21197488065177]
近年、下流のタスクで大規模なデータで事前訓練された微調整大型モデルが成功し、ディープラーニングにおける重要なパラダイムシフトにつながった。
本稿では,合成データを用いて事前学習した表現の質を測定するためのタスク非依存フレームワークであるtextitSynBenchを提案する。
論文 参考訳(メタデータ) (2022-10-06T15:25:00Z) - What do Compressed Large Language Models Forget? Robustness Challenges
in Model Compression [68.82486784654817]
本稿では,知識蒸留とプルーニングを含む2つの一般的なモデル圧縮手法について検討する。
本研究では, 圧縮モデルが, 対向テストセット上のPLMモデルよりもはるかに頑健であることを示す。
サンプル不確実性に基づくモデル圧縮の正規化戦略を開発する。
論文 参考訳(メタデータ) (2021-10-16T00:20:04Z) - Model Compression for Dynamic Forecast Combination [9.281199058905017]
動的予測アンサンブルを個々のモデルに圧縮すると、同様の予測性能が得られることを示す。
また,平均ランクが最も高い圧縮個々モデルは規則に基づく回帰モデルであることを示した。
論文 参考訳(メタデータ) (2021-04-05T09:55:35Z) - Anomaly Detection of Time Series with Smoothness-Inducing Sequential
Variational Auto-Encoder [59.69303945834122]
Smoothness-Inducing Sequential Variational Auto-Encoder (SISVAE) モデルを提案する。
我々のモデルは、フレキシブルニューラルネットワークを用いて各タイムスタンプの平均と分散をパラメータ化する。
合成データセットと公開実世界のベンチマークの両方において,本モデルの有効性を示す。
論文 参考訳(メタデータ) (2021-02-02T06:15:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。