論文の概要: EMIT- Event-Based Masked Auto Encoding for Irregular Time Series
- arxiv url: http://arxiv.org/abs/2409.16554v1
- Date: Wed, 25 Sep 2024 02:05:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-27 05:55:22.589352
- Title: EMIT- Event-Based Masked Auto Encoding for Irregular Time Series
- Title(参考訳): イベントベースの不規則時系列自動符号化
- Authors: Hrishikesh Patel, Ruihong Qiu, Adam Irwin, Shazia Sadiq, Sen Wang,
- Abstract要約: データポイントが不均一な間隔で記録される不規則な時系列は、医療設定で一般的である。
この変動は、患者の健康の重大な変動を反映し、情報的臨床的意思決定に不可欠である。
本稿では,不規則な時系列に対するイベントベースのマスキングである,新しい事前学習フレームワーク EMIT を提案する。
- 参考スコア(独自算出の注目度): 9.903108445512576
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Irregular time series, where data points are recorded at uneven intervals, are prevalent in healthcare settings, such as emergency wards where vital signs and laboratory results are captured at varying times. This variability, which reflects critical fluctuations in patient health, is essential for informed clinical decision-making. Existing self-supervised learning research on irregular time series often relies on generic pretext tasks like forecasting, which may not fully utilise the signal provided by irregular time series. There is a significant need for specialised pretext tasks designed for the characteristics of irregular time series to enhance model performance and robustness, especially in scenarios with limited data availability. This paper proposes a novel pretraining framework, EMIT, an event-based masking for irregular time series. EMIT focuses on masking-based reconstruction in the latent space, selecting masking points based on the rate of change in the data. This method preserves the natural variability and timing of measurements while enhancing the model's ability to process irregular intervals without losing essential information. Extensive experiments on the MIMIC-III and PhysioNet Challenge datasets demonstrate the superior performance of our event-based masking strategy. The code has been released at https://github.com/hrishi-ds/EMIT .
- Abstract(参考訳): データポイントが不均一な間隔で記録される不規則な時系列は、救急病棟など、様々な時間でバイタルサインや検査結果が取得される医療現場で一般的である。
この変動は、患者の健康の重大な変動を反映し、情報的臨床的意思決定に不可欠である。
既存の不規則時系列に関する自己教師付き学習研究は、しばしば予測のような一般的な前提課題に依存し、不規則時系列によって提供される信号を完全に活用しない。
特にデータ可用性に制限のあるシナリオにおいて、モデル性能とロバスト性を高めるために不規則な時系列の特徴のために設計された特別なプレテキストタスクが必要である。
本稿では,不規則な時系列に対するイベントベースのマスキングである,新しい事前学習フレームワーク EMIT を提案する。
EMITは、潜在空間におけるマスキングに基づく再構築に焦点を当て、データの変化率に基づいてマスキングポイントを選択する。
本手法は,本質的な情報を失うことなく不規則区間の処理能力を高めながら,自然変動と測定のタイミングを保存する。
MIMIC-IIIとPhystoNet Challengeデータセットの大規模な実験は、私たちのイベントベースのマスキング戦略の優れたパフォーマンスを示している。
コードはhttps://github.com/hrishi-ds/EMIT でリリースされた。
関連論文リスト
- Unveiling the Secrets: How Masking Strategies Shape Time Series Imputation [7.650009336768971]
時系列計算はデータマイニングにおいて重要な課題であり、特に医療や環境モニタリングのような分野では、欠落したデータが分析結果を損なう可能性がある。
本研究では, 多様なマスキング戦略, 正規化タイミング, 欠落パターンが3つの多様なデータセットにおける11種類の最先端計算モデルの性能に及ぼす影響について検討した。
論文 参考訳(メタデータ) (2024-05-26T18:05:12Z) - Unified Training of Universal Time Series Forecasting Transformers [104.56318980466742]
マスク型ユニバーサル時系列予測変換器(モイライ)について述べる。
Moiraiは、新たに導入された大規模オープンタイムシリーズアーカイブ(LOTSA)で訓練されており、9つのドメインで27億以上の観測が行われた。
Moiraiは、フルショットモデルと比較してゼロショットの予測器として、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-04T20:00:45Z) - TimeSiam: A Pre-Training Framework for Siamese Time-Series Modeling [67.02157180089573]
時系列事前トレーニングは、最近、ラベルのコストを削減し、下流の様々なタスクに利益をもたらす可能性があるとして、広く注目を集めている。
本稿では,シームズネットワークに基づく時系列の簡易かつ効果的な自己教師型事前学習フレームワークとしてTimeSiamを提案する。
論文 参考訳(メタデータ) (2024-02-04T13:10:51Z) - XTSFormer: Cross-Temporal-Scale Transformer for Irregular Time Event
Prediction [9.240950990926796]
イベント予測は、過去のイベントシーケンスに基づいて、将来のイベントの時間とタイプを予測することを目的としている。
その重要性にもかかわらず、連続するイベント間の時間間隔の不規則性、サイクルの存在、周期性、マルチスケールのイベント相互作用など、いくつかの課題が存在する。
論文 参考訳(メタデータ) (2024-02-03T20:33:39Z) - Graph Spatiotemporal Process for Multivariate Time Series Anomaly
Detection with Missing Values [67.76168547245237]
本稿では,グラフ時間過程と異常スコアラを用いて異常を検出するGST-Proという新しいフレームワークを提案する。
実験結果から,GST-Pro法は時系列データ中の異常を効果的に検出し,最先端の手法より優れていることがわかった。
論文 参考訳(メタデータ) (2024-01-11T10:10:16Z) - Time Series as Images: Vision Transformer for Irregularly Sampled Time
Series [32.99466250557855]
本稿では,不規則なサンプル時系列を線グラフ画像に変換することによって,新しい視点を提案する。
次に、画像分類と同様に、時系列分類に強力な事前学習型視覚変換器を利用する。
注目すべきは、その単純さにもかかわらず、私たちのアプローチは、いくつかの一般的な医療および人間の活動データセットに関する最先端の特殊アルゴリズムよりも優れていることです。
論文 参考訳(メタデータ) (2023-03-01T22:42:44Z) - SimMTM: A Simple Pre-Training Framework for Masked Time-Series Modeling [82.69579113377192]
SimMTM は Masked Time-Series Modeling のための単純な事前トレーニングフレームワークである。
SimMTMは、多様体の外にある複数の隣人の重み付けによるマスク付き時間点の復元を行う。
SimMTMは、最も先進的な時系列事前学習法と比較して、最先端の微調整性能を実現する。
論文 参考訳(メタデータ) (2023-02-02T04:12:29Z) - Ti-MAE: Self-Supervised Masked Time Series Autoencoders [16.98069693152999]
本稿では,Ti-MAEという新しいフレームワークを提案する。
Ti-MAEは、埋め込み時系列データをランダムにマスクアウトし、オートエンコーダを学び、ポイントレベルでそれらを再構築する。
いくつかの公開実世界のデータセットの実験では、マスク付きオートエンコーディングのフレームワークが生データから直接強力な表現を学習できることが示されている。
論文 参考訳(メタデータ) (2023-01-21T03:20:23Z) - Self-supervised Transformer for Multivariate Clinical Time-Series with
Missing Values [7.9405251142099464]
本稿ではSTraTS(Self-supervised Transformer for TimeSeries)モデルを提案する。
伝統的な密度行列表現を使う代わりに、時系列を観測三重項の集合として扱う。
これは、特にラベル付きデータが制限された場合、死亡予測の最先端手法よりも優れた予測性能を示す。
論文 参考訳(メタデータ) (2021-07-29T19:39:39Z) - Explaining Time Series Predictions with Dynamic Masks [91.3755431537592]
機械学習モデルの予測を説明するために動的マスク(Dynamask)を提案する。
人工的および実世界のデータを用いて、Dynamaskのダイナミックな基盤は、そのパーシモニーとともに、時間とともに重要な特徴を識別する優れた改善をもたらすことを実証する。
Dynamaskのモジュラリティは、医療や金融といった分野における幅広い機械学習モデルの透明性を高めるためのプラグインとして理想的だ。
論文 参考訳(メタデータ) (2021-06-09T18:01:09Z) - Model-Attentive Ensemble Learning for Sequence Modeling [86.4785354333566]
シーケンスモデリング(MAES)のためのモデル・アテンティブ・アンサンブル・ラーニングを提案する。
MAESは、異なるシーケンスダイナミクスの専門家を専門とし、予測を適応的に重み付けるために、注目ベースのゲーティングメカニズムを利用する時系列の専門家の混合物です。
MAESが時系列シフトを受けるデータセットの人気シーケンスモデルを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2021-02-23T05:23:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。