論文の概要: Abstracted Shapes as Tokens -- A Generalizable and Interpretable Model for Time-series Classification
- arxiv url: http://arxiv.org/abs/2411.01006v1
- Date: Fri, 01 Nov 2024 20:04:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:44:10.921233
- Title: Abstracted Shapes as Tokens -- A Generalizable and Interpretable Model for Time-series Classification
- Title(参考訳): Tokensとしての抽象形状 -- 時系列分類のための一般化可能かつ解釈可能なモデル
- Authors: Yunshi Wen, Tengfei Ma, Tsui-Wei Weng, Lam M. Nguyen, Anak Agung Julius,
- Abstract要約: 時系列表現学習と分類のための事前学習,一般化,解釈可能なモデルであるVQShapeを提案する。
時系列データに新しい表現を導入することで、VQShapeの潜在空間と形状レベルの特徴との接続を構築できる。
分類タスクでは、VQShapeの表現を使って解釈可能な分類器を構築することができる。
- 参考スコア(独自算出の注目度): 24.172764622493045
- License:
- Abstract: In time-series analysis, many recent works seek to provide a unified view and representation for time-series across multiple domains, leading to the development of foundation models for time-series data. Despite diverse modeling techniques, existing models are black boxes and fail to provide insights and explanations about their representations. In this paper, we present VQShape, a pre-trained, generalizable, and interpretable model for time-series representation learning and classification. By introducing a novel representation for time-series data, we forge a connection between the latent space of VQShape and shape-level features. Using vector quantization, we show that time-series from different domains can be described using a unified set of low-dimensional codes, where each code can be represented as an abstracted shape in the time domain. On classification tasks, we show that the representations of VQShape can be utilized to build interpretable classifiers, achieving comparable performance to specialist models. Additionally, in zero-shot learning, VQShape and its codebook can generalize to previously unseen datasets and domains that are not included in the pre-training process. The code and pre-trained weights are available at https://github.com/YunshiWen/VQShape.
- Abstract(参考訳): 時系列分析において、近年の多くの研究は、複数のドメインにまたがる時系列の統一的なビューと表現を提供しようとしており、時系列データの基礎モデルの開発につながっている。
多様なモデリング技術にもかかわらず、既存のモデルはブラックボックスであり、それらの表現に関する洞察や説明を提供することができない。
本稿では,時系列表現学習と分類のための事前学習,一般化,解釈可能なモデルであるVQShapeを提案する。
時系列データに新しい表現を導入することで、VQShapeの潜在空間と形状レベルの特徴との接続を構築できる。
ベクトル量子化を用いて、異なる領域からの時系列を低次元符号の統一集合を用いて記述できることを示す。
分類タスクでは、VQShapeの表現を解釈可能な分類器の構築に利用し、専門モデルに匹敵する性能を実現する。
さらに、ゼロショット学習では、VQShapeとそのコードブックは、事前トレーニングプロセスに含まれていない、これまで見つからなかったデータセットやドメインに一般化することができる。
コードとトレーニング済みのウェイトはhttps://github.com/YunshiWen/VQShape.comで公開されている。
関連論文リスト
- Graph Neural Alchemist: An innovative fully modular architecture for time series-to-graph classification [0.0]
本稿では時系列分類のための新しいグラフニューラルネットワーク(GNN)アーキテクチャを提案する。
時系列を可視グラフとして表現することにより、時系列データ固有の時間的依存関係の両方を符号化することができる。
私たちのアーキテクチャは完全にモジュール化されており、異なるモデルで柔軟な実験を可能にします。
論文 参考訳(メタデータ) (2024-10-12T00:03:40Z) - Premonition: Using Generative Models to Preempt Future Data Changes in
Continual Learning [63.850451635362425]
継続的な学習には、データ分散の継続的な変化に対応するためのモデルが必要である。
本稿では,大規模言語モデルと画像生成モデルの組み合わせが有用であることを示す。
トレーニング済みネットワークのバックボーンは、下流の連続学習問題に有用な表現を学習できることがわかった。
論文 参考訳(メタデータ) (2024-03-12T06:29:54Z) - TimeSiam: A Pre-Training Framework for Siamese Time-Series Modeling [67.02157180089573]
時系列事前トレーニングは、最近、ラベルのコストを削減し、下流の様々なタスクに利益をもたらす可能性があるとして、広く注目を集めている。
本稿では,シームズネットワークに基づく時系列の簡易かつ効果的な自己教師型事前学習フレームワークとしてTimeSiamを提案する。
論文 参考訳(メタデータ) (2024-02-04T13:10:51Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - NuTime: Numerically Multi-Scaled Embedding for Large-Scale Time-Series Pretraining [28.595342663018627]
時系列データの数値特性に合わせた重要な技術的貢献を行う。
入力をオーバーラップしないウィンドウに分割することでTransformerアーキテクチャを採用する。
任意の数値振幅を持つスカラー値を高次元空間に埋め込むために,数値的に多スケールな埋め込みモジュールを提案する。
論文 参考訳(メタデータ) (2023-10-11T11:38:18Z) - TimeMAE: Self-Supervised Representations of Time Series with Decoupled
Masked Autoencoders [55.00904795497786]
トランスフォーマネットワークに基づく転送可能な時系列表現を学習するための,新しい自己教師型パラダイムであるTimeMAEを提案する。
TimeMAEは双方向符号化方式を用いて時系列の豊富な文脈表現を学習する。
新たに挿入されたマスク埋め込みによって生じる不一致を解消するため、分離されたオートエンコーダアーキテクチャを設計する。
論文 参考訳(メタデータ) (2023-03-01T08:33:16Z) - VQ-AR: Vector Quantized Autoregressive Probabilistic Time Series
Forecasting [10.605719154114354]
時系列モデルは過去の予測を正確に予測することを目的としており、そこではビジネス上の意思決定のような重要な下流のタスクに予測が使用される。
本稿では,新しい自己回帰型アーキテクチャであるVQ-ARを提案する。
論文 参考訳(メタデータ) (2022-05-31T15:43:46Z) - Visualising Deep Network's Time-Series Representations [93.73198973454944]
機械学習モデルの普及にもかかわらず、多くの場合、モデルの内部で起きていることに関する洞察のないブラックボックスとして運用される。
本稿では,多次元時系列データの可視化に着目し,この問題に対処する手法を提案する。
高周波在庫市場データセットの実験は、この方法が迅速かつ識別可能な可視化を提供することを示しています。
論文 参考訳(メタデータ) (2021-03-12T09:53:34Z) - From Static to Dynamic Node Embeddings [61.58641072424504]
本稿では,時間的予測に基づくアプリケーションにグラフストリームデータを活用するための汎用フレームワークを提案する。
提案フレームワークは,適切なグラフ時系列表現を学習するための新しい手法を含む。
トップ3の時間モデルは常に新しい$epsilon$-graphの時系列表現を利用するモデルであることが分かりました。
論文 参考訳(メタデータ) (2020-09-21T16:48:29Z) - Interpretable Time-series Classification on Few-shot Samples [27.05851877375113]
本稿では,少数の時系列分類のための解釈可能なニューラルネットワーク,すなわちtextitDual Prototypeal Shapelet Networks (DPSN)を提案する。
DPSNは, 二つの粒度からモデルを解釈する: 1) 代表時系列サンプルを用いた大域的概要, 2) 識別型シェープレットを用いた局所的ハイライト。
我々は、公開ベンチマークデータセットから18個のショットTSCデータセットを抽出し、ベースラインとの比較により提案手法の評価を行った。
論文 参考訳(メタデータ) (2020-06-03T03:47:14Z) - Time Series Data Augmentation for Neural Networks by Time Warping with a
Discriminative Teacher [17.20906062729132]
本稿では,ガイド付きワープと呼ばれる新しい時系列データ拡張を提案する。
ガイド付きワープは動的時間ワープ(DTW)と形状DTWの要素アライメント特性を利用する。
我々は、深部畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)を用いて、2015 UCR Time Series Archiveにある85のデータセットすべてに対する手法の評価を行った。
論文 参考訳(メタデータ) (2020-04-19T06:33:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。