論文の概要: Multi-Granularity Framework for Unsupervised Representation Learning of
Time Series
- arxiv url: http://arxiv.org/abs/2312.07248v1
- Date: Tue, 12 Dec 2023 13:25:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-13 16:01:56.696289
- Title: Multi-Granularity Framework for Unsupervised Representation Learning of
Time Series
- Title(参考訳): 時系列の教師なし表現学習のためのマルチグラニュラリティフレームワーク
- Authors: Chengyang Ye and Qiang Ma
- Abstract要約: 本稿では,時系列の多粒度表現学習を実現するための教師なしフレームワークを提案する。
具体的には、粒度と粒度の粗さを関連付けるために、粒度変換器を用いた。
さらに,時系列の多粒度表現を学習するための教師なし学習タスクとして検索タスクを導入した。
- 参考スコア(独自算出の注目度): 1.003058966910087
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Representation learning plays a critical role in the analysis of time series
data and has high practical value across a wide range of applications.
including trend analysis, time series data retrieval and forecasting. In
practice, data confusion is a significant issue as it can considerably impact
the effectiveness and accuracy of data analysis, machine learning models and
decision-making processes. In general, previous studies did not consider the
variability at various levels of granularity, thus resulting in inadequate
information utilization, which further exacerbated the issue of data confusion.
This paper proposes an unsupervised framework to realize multi-granularity
representation learning for time series. Specifically, we employed a
cross-granularity transformer to develop an association between fine- and
coarse-grained representations. In addition, we introduced a retrieval task as
an unsupervised training task to learn the multi-granularity representation of
time series. Moreover, a novel loss function was designed to obtain the
comprehensive multi-granularity representation of the time series via
unsupervised learning. The experimental results revealed that the proposed
framework demonstrates significant advantages over alternative representation
learning models.
- Abstract(参考訳): 時系列データの解析において表現学習は重要な役割を担い、幅広い応用において高い実用価値を持つ。
トレンド分析、時系列データ検索、予測を含む。
実際には、データ分析、機械学習モデル、意思決定プロセスの有効性と正確性に大きな影響を与える可能性があるため、データの混乱は重大な問題である。
一般に、これまでの研究では様々な粒度での変動性を考慮せず、結果として情報の利用が不十分になり、さらにデータ混乱の問題が悪化した。
本稿では,時系列の多粒度表現学習を実現するための教師なしフレームワークを提案する。
具体的には,細粒度と粗粒度を関連付けるために粒度変換器を用いた。
さらに,時系列の多粒度表現を学習するための教師なし学習タスクとして検索タスクを導入した。
さらに,教師なし学習による時系列の包括的多次元表現を得るために,新しい損失関数を考案した。
実験結果から,提案フレームワークは代替表現学習モデルに対して大きな優位性を示した。
関連論文リスト
- Graph Spatiotemporal Process for Multivariate Time Series Anomaly
Detection with Missing Values [67.76168547245237]
本稿では,グラフ時間過程と異常スコアラを用いて異常を検出するGST-Proという新しいフレームワークを提案する。
実験結果から,GST-Pro法は時系列データ中の異常を効果的に検出し,最先端の手法より優れていることがわかった。
論文 参考訳(メタデータ) (2024-01-11T10:10:16Z) - Unsupervised Representation Learning for Time Series: A Review [20.00853543048447]
教師なし表現学習アプローチは、すべてのサンプルに注釈をつけることなく、ラベルのないデータから識別的特徴表現を学習することを目的としている。
本稿では,現在急速に進化している時系列の非教師なし表現学習手法の文献レビューを行う。
我々は9つの異なる実世界のデータセットに基づいて、最先端のアプローチ、特に急速に進化するコントラスト学習手法を実証的に評価した。
論文 参考訳(メタデータ) (2023-08-03T07:28:06Z) - Continual Vision-Language Representation Learning with Off-Diagonal
Information [112.39419069447902]
CLIPのようなマルチモーダルなコントラスト学習フレームワークは通常、トレーニングに大量の画像テキストサンプルを必要とする。
本稿では,ストリーミングデータを用いた連続CLIPトレーニングの実現可能性について論じる。
論文 参考訳(メタデータ) (2023-05-11T08:04:46Z) - Time Series Contrastive Learning with Information-Aware Augmentations [57.45139904366001]
コントラスト学習の鍵となる要素は、いくつかの先行を示唆する適切な拡張を選択して、実現可能な正のサンプルを構築することである。
対照的な学習タスクやデータセットに意味のある時系列データの増大をどうやって見つけるかは、未解決の問題である。
本稿では,時系列表現学習のための最適な拡張を適応的に選択する情報認識拡張を用いた新しいコントラスト学習手法であるInfoTSを提案する。
論文 参考訳(メタデータ) (2023-03-21T15:02:50Z) - Multi-scale Attention Flow for Probabilistic Time Series Forecasting [68.20798558048678]
マルチスケールアテンション正規化フロー(MANF)と呼ばれる非自己回帰型ディープラーニングモデルを提案する。
我々のモデルは累積誤差の影響を回避し、時間の複雑さを増大させない。
本モデルは,多くの多変量データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-05-16T07:53:42Z) - Mixing Up Contrastive Learning: Self-Supervised Representation Learning
for Time Series [22.376529167056376]
ラベルスムーシングの観点から,教師なしのコントラスト学習フレームワークを提案する。
提案手法は、データ拡張スキームを自然に活用する、新しい対照的な損失を用いる。
実験は、他の表現学習アプローチと比較して、フレームワークのパフォーマンスが優れていることを示す。
論文 参考訳(メタデータ) (2022-03-17T11:49:21Z) - Interpretable Time-series Representation Learning With Multi-Level
Disentanglement [56.38489708031278]
Disentangle Time Series (DTS)は、シーケンシャルデータのための新しいDisentanglement Enhanceingフレームワークである。
DTSは時系列の解釈可能な表現として階層的意味概念を生成する。
DTSは、セマンティック概念の解釈性が高く、下流アプリケーションで優れたパフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-05-17T22:02:24Z) - Multi-Time Attention Networks for Irregularly Sampled Time Series [18.224344440110862]
不規則サンプリングは多くの時系列モデリングアプリケーションで発生する。
我々は,この設定のための新しいディープラーニングフレームワークを提案し,これをマルチ時間注意ネットワークと呼ぶ。
その結果,我々のアプローチは,ベースラインや最近提案されたモデルと同等かそれ以上の性能を示すことができた。
論文 参考訳(メタデータ) (2021-01-25T18:57:42Z) - Deep Partial Multi-View Learning [94.39367390062831]
クロスパーシャル・マルチビュー・ネットワーク(CPM-Nets)と呼ばれる新しいフレームワークを提案する。
我々はまず、多視点表現に対する完全性と汎用性の形式的な定義を提供する。
そして、理論的に学習された潜在表現の多元性を証明する。
論文 参考訳(メタデータ) (2020-11-12T02:29:29Z) - A Transformer-based Framework for Multivariate Time Series
Representation Learning [12.12960851087613]
事前訓練されたモデルは、回帰や分類、予測、値計算の欠如といった下流タスクに使用することができる。
提案手法は,これまでに提示された多変量時系列の教師なし学習を用いた最も成功した手法であることを示す。
我々は、教師なしのトランスフォーマーモデルの事前学習が、完全に教師付き学習よりも大きなパフォーマンス上のメリットをもたらすことを実証した。
論文 参考訳(メタデータ) (2020-10-06T15:14:46Z) - Multivariate Time-series Anomaly Detection via Graph Attention Network [27.12694738711663]
多変量時系列の異常検出は、データマイニング研究と産業応用の両方において非常に重要である。
1つの大きな制限は、異なる時系列間の関係を明示的に捉えないことである。
この問題に対処するために,多変量時系列異常検出のための新しい自己教師型フレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-04T07:46:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。