論文の概要: Self-Supervised Time Series Representation Learning by Inter-Intra
Relational Reasoning
- arxiv url: http://arxiv.org/abs/2011.13548v1
- Date: Fri, 27 Nov 2020 04:04:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 02:29:43.695827
- Title: Self-Supervised Time Series Representation Learning by Inter-Intra
Relational Reasoning
- Title(参考訳): 相互関係推論による自己教師付き時系列表現学習
- Authors: Haoyi Fan, Fengbin Zhang, Yue Gao
- Abstract要約: 本稿では,汎用的な自己教師型時系列表現学習フレームワークであるSelfTimeを紹介する。
本研究では,時系列のサンプル間関係と時間内関係を探索し,ラベルなし時系列の基盤となる構造特徴を学習する。
時系列の有用な表現は、関係推論ヘッドの監督の下、バックボーンから抽出される。
- 参考スコア(独自算出の注目度): 18.72937677485634
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Self-supervised learning achieves superior performance in many domains by
extracting useful representations from the unlabeled data. However, most of
traditional self-supervised methods mainly focus on exploring the inter-sample
structure while less efforts have been concentrated on the underlying
intra-temporal structure, which is important for time series data. In this
paper, we present SelfTime: a general self-supervised time series
representation learning framework, by exploring the inter-sample relation and
intra-temporal relation of time series to learn the underlying structure
feature on the unlabeled time series. Specifically, we first generate the
inter-sample relation by sampling positive and negative samples of a given
anchor sample, and intra-temporal relation by sampling time pieces from this
anchor. Then, based on the sampled relation, a shared feature extraction
backbone combined with two separate relation reasoning heads are employed to
quantify the relationships of the sample pairs for inter-sample relation
reasoning, and the relationships of the time piece pairs for intra-temporal
relation reasoning, respectively. Finally, the useful representations of time
series are extracted from the backbone under the supervision of relation
reasoning heads. Experimental results on multiple real-world time series
datasets for time series classification task demonstrate the effectiveness of
the proposed method. Code and data are publicly available at
https://haoyfan.github.io/.
- Abstract(参考訳): 自己教師付き学習は、ラベルのないデータから有用な表現を抽出することで、多くの領域において優れたパフォーマンスを達成する。
しかし,従来の自己教師あり手法の多くはサンプル間構造の探索に主眼を置いているが,時系列データにとって重要な時間内構造への取り組みは少ない。
本稿では,自己監督型時系列表現学習フレームワークであるSelfTimeについて,時系列のサンプル間関係と時間内関係を探索し,ラベルなし時系列の基盤となる構造特徴を学習する。
具体的には,まず所定のアンカー試料の正および負のサンプルをサンプリングし,このアンカーから時間片をサンプリングすることで時間内関係を生成する。
そして、サンプル関係に基づいて、2つの別々の関係推論ヘッドを組み合わせた共有特徴抽出バックボーンを用いて、サンプル対のサンプル間関係推論の関係を定量化し、時間内関係推論のためのタイムピースペアの関係を定量化する。
最後に、関係推論ヘッドの監督の下で、時系列の有用な表現をバックボーンから抽出する。
時系列分類タスクのための実世界の時系列データセットの実験結果から,提案手法の有効性が示された。
コードとデータはhttps://haoyfan.github.io/で公開されている。
関連論文リスト
- Capturing Temporal Components for Time Series Classification [5.70772577110828]
本研究では,逐次データから抽出した統計的コヒーレントな成分に基づいて学習したテキスト合成表現学習手法を提案する。
マルチスケールな変更空間に基づいて、シーケンシャルデータを類似の統計特性を持つチャンクに分割する教師なしの手法を提案する。
シーケンスベースのエンコーダモデルをマルチタスク設定でトレーニングし、時系列分類のための時間成分から合成表現を学習する。
論文 参考訳(メタデータ) (2024-06-20T16:15:21Z) - TimeSiam: A Pre-Training Framework for Siamese Time-Series Modeling [67.02157180089573]
時系列事前トレーニングは、最近、ラベルのコストを削減し、下流の様々なタスクに利益をもたらす可能性があるとして、広く注目を集めている。
本稿では,シームズネットワークに基づく時系列の簡易かつ効果的な自己教師型事前学習フレームワークとしてTimeSiamを提案する。
論文 参考訳(メタデータ) (2024-02-04T13:10:51Z) - Robust Detection of Lead-Lag Relationships in Lagged Multi-Factor Models [61.10851158749843]
データ固有のリード-ラグ関係を発見することで、重要な洞察を得ることができる。
階層化多要素モデルにおけるリードラグ関係のロバスト検出のためのクラスタリング駆動手法を開発した。
論文 参考訳(メタデータ) (2023-05-11T10:30:35Z) - Multi-Task Self-Supervised Time-Series Representation Learning [3.31490164885582]
時系列表現学習は、時間的ダイナミクスとスパースラベルを持つデータから表現を抽出することができる。
自己教師型タスクの利点を組み合わせた時系列表現学習手法を提案する。
本稿では,時系列分類,予測,異常検出という3つのダウンストリームタスクの枠組みについて検討する。
論文 参考訳(メタデータ) (2023-03-02T07:44:06Z) - Self-Attention Neural Bag-of-Features [103.70855797025689]
我々は最近導入された2D-Attentionの上に構築し、注意学習方法論を再構築する。
本稿では,関連情報を強調した2次元目視マスクを学習する機能・時間的アテンション機構を提案する。
論文 参考訳(メタデータ) (2022-01-26T17:54:14Z) - Cluster-and-Conquer: A Framework For Time-Series Forecasting [94.63501563413725]
本稿では,高次元時系列データを予測するための3段階フレームワークを提案する。
当社のフレームワークは非常に汎用的で,各ステップで時系列予測やクラスタリングが利用可能です。
単純な線形自己回帰モデルでインスタンス化されると、いくつかのベンチマークデータセットで最先端の結果が得られる。
論文 参考訳(メタデータ) (2021-10-26T20:41:19Z) - One-shot Learning for Temporal Knowledge Graphs [49.41854171118697]
時間的知識グラフにおけるリンク予測のためのワンショット学習フレームワークを提案する。
提案手法は,実体間の時間的相互作用を効果的に符号化する自己認識機構を用いる。
実験の結果,提案アルゴリズムは2つのよく研究されたベンチマークにおいて,アートベースラインの状態よりも優れていた。
論文 参考訳(メタデータ) (2020-10-23T03:24:44Z) - Pay Attention to Evolution: Time Series Forecasting with Deep
Graph-Evolution Learning [33.79957892029931]
本研究は時系列予測のためのニューラルネットワークアーキテクチャを提案する。
Recurrent Graph Evolution Neural Network (ReGENN) と名付けた。
多数のアンサンブル法と古典統計法との比較を行った。
論文 参考訳(メタデータ) (2020-08-28T20:10:07Z) - Connecting the Dots: Multivariate Time Series Forecasting with Graph
Neural Networks [91.65637773358347]
多変量時系列データに特化して設計された汎用グラフニューラルネットワークフレームワークを提案する。
グラフ学習モジュールを用いて,変数間の一方向関係を自動的に抽出する。
提案手法は,4つのベンチマークデータセットのうち3つにおいて,最先端のベースライン手法よりも優れている。
論文 参考訳(メタデータ) (2020-05-24T04:02:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。