論文の概要: SDE-Attention: Latent Attention in SDE-RNNs for Irregularly Sampled Time Series with Missing Data
- arxiv url: http://arxiv.org/abs/2511.23238v1
- Date: Fri, 28 Nov 2025 14:47:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.939919
- Title: SDE-Attention: Latent Attention in SDE-RNNs for Irregularly Sampled Time Series with Missing Data
- Title(参考訳): SDE-Attention:不規則サンプリング時系列データに対するSDE-RNNの潜時注意
- Authors: Yuting Fang, Qouc Le Gia, Flora Salim,
- Abstract要約: 我々はSDE-RNNのファミリーであるSDE-Attentionを紹介した。
遅延空間の注意は、バニラSDE-RNNよりも一貫して改善される。
- 参考スコア(独自算出の注目度): 3.178484099266614
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Irregularly sampled time series with substantial missing observations are common in healthcare and sensor networks. We introduce SDE-Attention, a family of SDE-RNNs equipped with channel-level attention on the latent pre-RNN state, including channel recalibration, time-varying feature attention, and pyramidal multi-scale self-attention. We therefore conduct a comparison on a synthetic periodic dataset and real-world benchmarks, under varying missing rate. Latent-space attention consistently improves over a vanilla SDE-RNN. On the univariate UCR datasets, the LSTM-based time-varying feature model SDE-TVF-L achieves the highest average accuracy, raising mean performance by approximately 4, 6, and 10 percentage points over the baseline at 30%, 60% and 90% missingness, respectively (averaged across datasets). On multivariate UEA benchmarks, attention-augmented models again outperform the backbone, with SDE-TVF-L yielding up to a 7% gain in mean accuracy under high missingness. Among the proposed mechanisms, time-varying feature attention is the most robust on univariate datasets. On multivariate datasets, different attention types excel on different tasks, showing that SDE-Attention can be flexibly adapted to the structure of each problem.
- Abstract(参考訳): 不規則にサンプリングされた時系列は、医療やセンサーネットワークでよく見られる。
本稿では,SDE-RNNのファミリーであるSDE-Attentionについて紹介する。
そこで我々は, 周期的データセットと実世界のベンチマークを, 異なる欠落率で比較した。
遅延空間の注意は、バニラSDE-RNNよりも一貫して改善される。
LSTMベースの時間変化特徴モデルであるSDE-TVF-Lは,一変量UCRデータセット上で,平均性能を約4,6,10パーセント向上し,それぞれ30%,60%,90%の欠落率(データセットの平均値)を達成した。
多変量UEAベンチマークでは、注意増強モデルがバックボーンを再び上回り、SDE-TVF-Lは平均精度で7%上昇した。
提案するメカニズムの中で、時間差のある特徴注意は、単変量データセット上で最も堅牢である。
多変量データセットでは、異なる注意型が異なるタスクに優れており、SDE-Attentionが各問題の構造に柔軟に適応できることが示されている。
関連論文リスト
- Distributed Stochastic Gradient Descent with Staleness: A Stochastic Delay Differential Equation Based Framework [56.82432591933544]
分散勾配降下(SGD)は、計算リソースのスケーリング、トレーニング時間の短縮、マシンラーニングにおけるユーザのプライバシ保護の支援などにより、近年注目されている。
本稿では,遅延微分方程式(SDDE)と勾配到着の近似に基づく分散SGDの実行時間と安定化について述べる。
活性化作業員の増加は, 安定度による分散SGDを必ずしも加速させるものではないことが興味深い。
論文 参考訳(メタデータ) (2024-06-17T02:56:55Z) - PDETime: Rethinking Long-Term Multivariate Time Series Forecasting from
the perspective of partial differential equations [49.80959046861793]
本稿では,ニューラルPDEソルバの原理に着想を得た新しいLMTFモデルであるPDETimeを提案する。
7つの異なる時間的実世界のLMTFデータセットを用いた実験により、PDETimeがデータ固有の性質に効果的に適応できることが判明した。
論文 参考訳(メタデータ) (2024-02-25T17:39:44Z) - Stable Neural Stochastic Differential Equations in Analyzing Irregular Time Series Data [3.686808512438363]
実世界の時系列データにおける不規則サンプリング間隔と欠落値は,従来の手法の課題である。
本稿では,Langevin-type SDE,Linear Noise SDE,Geometric SDEの3つの安定クラスを提案する。
本研究は,実世界の不規則時系列データを扱う上で,提案手法の有効性を示すものである。
論文 参考訳(メタデータ) (2024-02-22T22:00:03Z) - Elucidating the solution space of extended reverse-time SDE for diffusion models [23.637881476921596]
サンプリングプロセスを拡張逆時間SDE(ER SDE)として定式化する。
SDE と VE SDE に対してそれぞれ正確な解と近似解を提供する。
我々は,ER-SDE-rsという効率的な高品質なサンプリング装置を考案した。
論文 参考訳(メタデータ) (2023-09-12T12:27:17Z) - Fully-Connected Spatial-Temporal Graph for Multivariate Time-Series Data [50.84488941336865]
完全時空間グラフニューラルネットワーク(FC-STGNN)という新しい手法を提案する。
グラフ構築のために、時間的距離に基づいて、すべてのタイムスタンプにセンサーを接続する減衰グラフを設計する。
グラフ畳み込みのために,移動プールGNN層を用いたFCグラフ畳み込みを考案し,ST依存性を効果的に把握し,効率的な表現を学習する。
論文 参考訳(メタデータ) (2023-09-11T08:44:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。