論文の概要: Warpformer: A Multi-scale Modeling Approach for Irregular Clinical Time
Series
- arxiv url: http://arxiv.org/abs/2306.09368v1
- Date: Wed, 14 Jun 2023 13:23:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-19 16:47:19.431054
- Title: Warpformer: A Multi-scale Modeling Approach for Irregular Clinical Time
Series
- Title(参考訳): Warpformer:不規則な臨床時系列のマルチスケールモデリング手法
- Authors: Jiawen Zhang, Shun Zheng, Wei Cao, Jiang Bian, Jia Li
- Abstract要約: シリーズ内不規則性とシリーズ間不一致は、不規則時系列の重要な特徴である。
この2つの特徴を完全に考慮した新しいアプローチであるWarpformerを紹介します。
我々は、広く使われているデータセットに関する広範な実験と、臨床データベースから構築された新しい大規模ベンチマークを行う。
- 参考スコア(独自算出の注目度): 29.838484652943976
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Irregularly sampled multivariate time series are ubiquitous in various
fields, particularly in healthcare, and exhibit two key characteristics:
intra-series irregularity and inter-series discrepancy. Intra-series
irregularity refers to the fact that time-series signals are often recorded at
irregular intervals, while inter-series discrepancy refers to the significant
variability in sampling rates among diverse series. However, recent advances in
irregular time series have primarily focused on addressing intra-series
irregularity, overlooking the issue of inter-series discrepancy. To bridge this
gap, we present Warpformer, a novel approach that fully considers these two
characteristics. In a nutshell, Warpformer has several crucial designs,
including a specific input representation that explicitly characterizes both
intra-series irregularity and inter-series discrepancy, a warping module that
adaptively unifies irregular time series in a given scale, and a customized
attention module for representation learning. Additionally, we stack multiple
warping and attention modules to learn at different scales, producing
multi-scale representations that balance coarse-grained and fine-grained
signals for downstream tasks. We conduct extensive experiments on widely used
datasets and a new large-scale benchmark built from clinical databases. The
results demonstrate the superiority of Warpformer over existing
state-of-the-art approaches.
- Abstract(参考訳): 不規則にサンプリングされた多変量時系列は、様々な分野、特に医療分野においてユビキタスであり、シリーズ内不規則性とシリーズ間不一致の2つの重要な特徴を示す。
シリーズ内不規則性は、時系列信号が不規則な間隔でしばしば記録されるという事実であり、シリーズ間不一致はシリーズ間のサンプリングレートの顕著な変動を指す。
しかし、不規則時系列の最近の進歩は、シリーズ間の不規則性の問題を見越して、シリーズ内不規則性に対処することに集中している。
このギャップを埋めるために、これらの2つの特徴を完全に考慮した新しいアプローチであるWarpformerを提案する。
簡単に言えば、warpformerには、シリーズ内不規則性とシリーズ間不一致の両方を明示的に特徴付ける特定の入力表現、所定のスケールで不規則な時系列を適応的に統一するワーピングモジュール、表現学習のためのカスタマイズされたアテンションモジュールなど、いくつかの重要な設計がある。
さらに、複数のワープモジュールとアテンションモジュールを積み重ねて異なるスケールで学習し、下流のタスクに対して粗くきめ細かな信号のバランスをとるマルチスケール表現を生成する。
広範に使用されるデータセットと臨床データベースから構築した新しい大規模ベンチマークについて広範な実験を行った。
この結果は、warpformerが既存の最先端のアプローチよりも優れていることを示している。
関連論文リスト
- TimeSiam: A Pre-Training Framework for Siamese Time-Series Modeling [67.02157180089573]
時系列事前トレーニングは、最近、ラベルのコストを削減し、下流の様々なタスクに利益をもたらす可能性があるとして、広く注目を集めている。
本稿では,シームズネットワークに基づく時系列の簡易かつ効果的な自己教師型事前学習フレームワークとしてTimeSiamを提案する。
論文 参考訳(メタデータ) (2024-02-04T13:10:51Z) - Graph Spatiotemporal Process for Multivariate Time Series Anomaly
Detection with Missing Values [67.76168547245237]
本稿では,グラフ時間過程と異常スコアラを用いて異常を検出するGST-Proという新しいフレームワークを提案する。
実験結果から,GST-Pro法は時系列データ中の異常を効果的に検出し,最先端の手法より優れていることがわかった。
論文 参考訳(メタデータ) (2024-01-11T10:10:16Z) - MSGNet: Learning Multi-Scale Inter-Series Correlations for Multivariate
Time Series Forecasting [18.192600104502628]
時系列データはしばしば、シリーズ内およびシリーズ間相関を示す。
MSGNetの有効性を示すために、複数の実世界のデータセットで大規模な実験が行われた。
論文 参考訳(メタデータ) (2023-12-31T08:23:24Z) - Entropy Causal Graphs for Multivariate Time Series Anomaly Detection [7.402342914903391]
本研究では,多変量時系列異常検出のためのエントロピー因果グラフであるCGADを提案する。
CGADは転送エントロピーを利用して時系列データ間の因果関係を明らかにするグラフ構造を構築する。
CGADは、15%の平均的な改善で、実世界のデータセット上で最先端の手法より優れています。
論文 参考訳(メタデータ) (2023-12-15T01:35:00Z) - Compatible Transformer for Irregularly Sampled Multivariate Time Series [75.79309862085303]
本研究では,各サンプルに対して総合的な時間的相互作用特徴学習を実現するためのトランスフォーマーベースのエンコーダを提案する。
実世界の3つのデータセットについて広範な実験を行い、提案したCoFormerが既存の手法を大幅に上回っていることを検証した。
論文 参考訳(メタデータ) (2023-10-17T06:29:09Z) - CARLA: Self-supervised Contrastive Representation Learning for Time Series Anomaly Detection [53.83593870825628]
時系列異常検出(TSAD)の主な課題は、多くの実生活シナリオにおいてラベル付きデータの欠如である。
既存の異常検出手法の多くは、教師なしの方法で非ラベル時系列の正常な振る舞いを学習することに焦点を当てている。
本稿では,時系列異常検出のためのエンドツーエンドの自己教師型コントラアスティブ表現学習手法を提案する。
論文 参考訳(メタデータ) (2023-08-18T04:45:56Z) - Robust Detection of Lead-Lag Relationships in Lagged Multi-Factor Models [61.10851158749843]
データ固有のリード-ラグ関係を発見することで、重要な洞察を得ることができる。
階層化多要素モデルにおけるリードラグ関係のロバスト検出のためのクラスタリング駆動手法を開発した。
論文 参考訳(メタデータ) (2023-05-11T10:30:35Z) - DRAformer: Differentially Reconstructed Attention Transformer for
Time-Series Forecasting [7.805077630467324]
時系列予測は、機器ライフサイクル予測、天気予報、交通フロー予測など、多くの現実シナリオにおいて重要な役割を果たす。
最近の研究から、様々なトランスフォーマーモデルが時系列予測において顕著な結果を示したことが観察できる。
しかし、時系列予測タスクにおけるトランスフォーマーモデルの性能を制限する問題がまだ残っている。
論文 参考訳(メタデータ) (2022-06-11T10:34:29Z) - Multi-scale Attention Flow for Probabilistic Time Series Forecasting [68.20798558048678]
マルチスケールアテンション正規化フロー(MANF)と呼ばれる非自己回帰型ディープラーニングモデルを提案する。
我々のモデルは累積誤差の影響を回避し、時間の複雑さを増大させない。
本モデルは,多くの多変量データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-05-16T07:53:42Z) - Multi-Time Attention Networks for Irregularly Sampled Time Series [18.224344440110862]
不規則サンプリングは多くの時系列モデリングアプリケーションで発生する。
我々は,この設定のための新しいディープラーニングフレームワークを提案し,これをマルチ時間注意ネットワークと呼ぶ。
その結果,我々のアプローチは,ベースラインや最近提案されたモデルと同等かそれ以上の性能を示すことができた。
論文 参考訳(メタデータ) (2021-01-25T18:57:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。