論文の概要: Quantized symbolic time series approximation
- arxiv url: http://arxiv.org/abs/2411.15209v1
- Date: Wed, 20 Nov 2024 10:32:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-26 14:22:52.812442
- Title: Quantized symbolic time series approximation
- Title(参考訳): 量子化記号時系列近似
- Authors: Erin Carson, Xinye Chen, Cheng Kang,
- Abstract要約: 本稿では,新しい量子化に基づくABBA記号近似手法,QABBAを提案する。
QABBAは、元の速度とシンボル再構成の精度を維持しながら、ストレージ効率を向上させる。
時系列回帰のための大規模言語モデル(LLM)を用いたQABBAの応用についても述べる。
- 参考スコア(独自算出の注目度): 0.28675177318965045
- License:
- Abstract: Time series are ubiquitous in numerous science and engineering domains, e.g., signal processing, bioinformatics, and astronomy. Previous work has verified the efficacy of symbolic time series representation in a variety of engineering applications due to its storage efficiency and numerosity reduction. The most recent symbolic aggregate approximation technique, ABBA, has been shown to preserve essential shape information of time series and improve downstream applications, e.g., neural network inference regarding prediction and anomaly detection in time series. Motivated by the emergence of high-performance hardware which enables efficient computation for low bit-width representations, we present a new quantization-based ABBA symbolic approximation technique, QABBA, which exhibits improved storage efficiency while retaining the original speed and accuracy of symbolic reconstruction. We prove an upper bound for the error arising from quantization and discuss how the number of bits should be chosen to balance this with other errors. An application of QABBA with large language models (LLMs) for time series regression is also presented, and its utility is investigated. By representing the symbolic chain of patterns on time series, QABBA not only avoids the training of embedding from scratch, but also achieves a new state-of-the-art on Monash regression dataset. The symbolic approximation to the time series offers a more efficient way to fine-tune LLMs on the time series regression task which contains various application domains. We further present a set of extensive experiments performed across various well-established datasets to demonstrate the advantages of the QABBA method for symbolic approximation.
- Abstract(参考訳): 時系列は、例えば信号処理、バイオインフォマティクス、天文学など、多くの科学や工学の分野においてユビキタスである。
従来の研究は、その保存効率と数量削減のために、様々な工学的応用における記号的時系列表現の有効性を検証してきた。
直近の記号集合近似手法であるABBAは、時系列の基本形状情報を保持し、時系列における予測と異常検出に関するニューラルネットワーク推論などの下流アプリケーションを改善することが示されている。
低ビット幅表現の効率的な計算を可能にする高性能ハードウェアの出現により、新しい量子化ベースのABBAシンボル近似技術であるQABBAを提案する。
量子化による誤差の上限を証明し、この誤差と他の誤差とのバランスをとるために、ビット数をどのように選択すべきかについて議論する。
時系列回帰に対する大規模言語モデル(LLM)を用いたQABBAの適用について検討し,その有用性について検討した。
時系列上のパターンのシンボリックチェーンを表現することで、QABBAはスクラッチから埋め込みのトレーニングを避けるだけでなく、新しい最先端のMonash回帰データセットも実現している。
時系列のシンボリック近似は、様々なアプリケーションドメインを含む時系列回帰タスクにおいて、LLMを微調整するより効率的な方法を提供する。
さらに, 記号近似におけるQABBA法の利点を実証するために, 様々な確立されたデータセットに対して広範な実験を行った。
関連論文リスト
- Unified Training of Universal Time Series Forecasting Transformers [104.56318980466742]
マスク型ユニバーサル時系列予測変換器(モイライ)について述べる。
Moiraiは、新たに導入された大規模オープンタイムシリーズアーカイブ(LOTSA)で訓練されており、9つのドメインで27億以上の観測が行われた。
Moiraiは、フルショットモデルと比較してゼロショットの予測器として、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-04T20:00:45Z) - TimeSiam: A Pre-Training Framework for Siamese Time-Series Modeling [67.02157180089573]
時系列事前トレーニングは、最近、ラベルのコストを削減し、下流の様々なタスクに利益をもたらす可能性があるとして、広く注目を集めている。
本稿では,シームズネットワークに基づく時系列の簡易かつ効果的な自己教師型事前学習フレームワークとしてTimeSiamを提案する。
論文 参考訳(メタデータ) (2024-02-04T13:10:51Z) - Graph Spatiotemporal Process for Multivariate Time Series Anomaly
Detection with Missing Values [67.76168547245237]
本稿では,グラフ時間過程と異常スコアラを用いて異常を検出するGST-Proという新しいフレームワークを提案する。
実験結果から,GST-Pro法は時系列データ中の異常を効果的に検出し,最先端の手法より優れていることがわかった。
論文 参考訳(メタデータ) (2024-01-11T10:10:16Z) - State Sequences Prediction via Fourier Transform for Representation
Learning [111.82376793413746]
本研究では,表現表現を効率よく学習する新しい方法である,フーリエ変換(SPF)による状態列予測を提案する。
本研究では,状態系列における構造情報の存在を理論的に解析する。
実験により,提案手法はサンプル効率と性能の両面で,最先端のアルゴリズムよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-10-24T14:47:02Z) - HyperTime: Implicit Neural Representation for Time Series [131.57172578210256]
暗黙の神経表現(INR)は、データの正確で解像度に依存しないエンコーディングを提供する強力なツールとして最近登場した。
本稿では、INRを用いて時系列の表現を分析し、再構成精度とトレーニング収束速度の点で異なるアクティベーション関数を比較した。
本稿では,INRを利用して時系列データセット全体の圧縮潜在表現を学習するハイパーネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-08-11T14:05:51Z) - An efficient aggregation method for the symbolic representation of
temporal data [0.0]
本稿では,適応的ブラウン橋型アグリゲーション法 (ABBA) の新たな変種であるfABBAを提案する。
この変種は、時系列の断片表現に合わせた新しい集約アプローチを利用する。
従来の手法とは対照的に、新しいアプローチでは事前に指定する時系列シンボルの数を必要としない。
論文 参考訳(メタデータ) (2022-01-14T22:51:24Z) - Novel Features for Time Series Analysis: A Complex Networks Approach [62.997667081978825]
時系列データは、気候、経済、医療などいくつかの領域で広く使われている。
最近の概念的アプローチは、複雑なネットワークへの時系列マッピングに依存している。
ネットワーク分析は、異なるタイプの時系列を特徴付けるのに使うことができる。
論文 参考訳(メタデータ) (2021-10-11T13:46:28Z) - MrSQM: Fast Time Series Classification with Symbolic Representations [11.853438514668207]
MrSQMは複数のシンボル表現と効率的なシーケンスマイニングを使用して重要な時系列特徴を抽出する。
本研究は, 完全教師付きから非教師付き, ハイブリッドまで, 記号列の4つの特徴選択手法について検討する。
UEA/UCRベンチマークの112のデータセットに対する実験では、MrSQMがすぐに有用な特徴を抽出できることが示されている。
論文 参考訳(メタデータ) (2021-09-02T15:54:46Z) - ABBA: Adaptive Brownian bridge-based symbolic aggregation of time series [0.0]
ABBAと呼ばれる新しい時間の記号表現が導入される。
これは級数列への時系列の適応多角形連鎖近似に基づいている。
この表現の再構成誤差は、始点と終点をピン留めしたランダムウォークとしてモデル化できることを示す。
論文 参考訳(メタデータ) (2020-03-27T15:30:32Z) - Time Series Forecasting Using LSTM Networks: A Symbolic Approach [0.0]
時系列予測のために、リカレントニューラルネットワークと次元還元型シンボル表現の組み合わせを提案し、適用した。
記号表現は上記の問題のいくつかを緩和し、さらに予測性能を犠牲にすることなく、より高速なトレーニングを可能にすることが示されている。
論文 参考訳(メタデータ) (2020-03-12T09:18:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。