論文の概要: Structure-Aware Set Transformers: Temporal and Variable-Type Attention Biases for Asynchronous Clinical Time Series
- arxiv url: http://arxiv.org/abs/2603.06605v2
- Date: Thu, 12 Mar 2026 05:39:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-15 16:38:22.422594
- Title: Structure-Aware Set Transformers: Temporal and Variable-Type Attention Biases for Asynchronous Clinical Time Series
- Title(参考訳): 構造対応セット変換器:非同期臨床時系列における時間・可変型注意バイアス
- Authors: Joohyung Lee, Kwanhyung Lee, Changhun Kim, Eunho Yang,
- Abstract要約: STructure-AwaRe (STAR) Set Transformer における事前の復元方法を示す。
3つのICU予測タスクにおいて、STAR-SetはAUC/APRが0.7158/0.0026(CPR)、0.9164/0.2033(死)、0.8373/0.1258(血管圧使用)を達成する。
- 参考スコア(独自算出の注目度): 38.229225431387015
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Electronic health records (EHR) are irregular, asynchronous multivariate time series. As time-series foundation models increasingly tokenize events rather than discretizing time, the input layout becomes a key design choice. Grids expose time$\times$variable structure but require imputation or missingness masks, risking error or sampling-policy shortcuts. Point-set tokenization avoids discretization but loses within-variable trajectories and time-local cross-variable context (Fig.1). We restore these priors in STructure-AwaRe (STAR) Set Transformer by adding parameter-efficient soft attention biases: a temporal locality penalty $-|Δt|/τ$ with learnable timescales and a variable-type affinity $B_{s_i,s_j}$ from a learned feature-compatibility matrix. We benchmark 10 depth-wise fusion schedules (Fig.2). On three ICU prediction tasks, STAR-Set achieves AUC/APR of 0.7158/0.0026 (CPR), 0.9164/0.2033 (mortality), and 0.8373/0.1258 (vasopressor use), outperforming regular-grid, event-time grid, and prior set baselines. Learned $τ$ and $B$ provide interpretable summaries of temporal context and variable interactions, offering a practical plug-in for context-informed time-series models.
- Abstract(参考訳): 電子健康記録(EHR)は、不規則で非同期な多変量時系列である。
時系列ファウンデーションモデルは、時間を識別するよりもイベントをトークン化する傾向にあるため、入力レイアウトは重要な設計選択となる。
グリッドは時間$\times$variable構造を公開しますが、計算や欠落のマスク、エラーのリスク、サンプリングポリシのショートカットが必要です。
点集合のトークン化は離散化を避けるが、変数内軌跡と時間-局所的相互変数のコンテキストを失う(図1)。
STructure-AwaRe (STAR) Set Transformer において、時間的局所性ペナルティ $-|Δt|/τ$ と可変型親和性 $B_{s_i,s_j}$ を学習可能な特徴適合行列から追加することにより、これらの先行値を復元する。
深度ワイドフュージョンスケジュールを10個ベンチマークする(第2図)。
3つのICU予測タスクにおいて、STAR-SetはAUC/APRが0.7158/0.0026(CPR)、0.9164/0.2033(道徳性)、0.8373/0.1258(血管圧使用)、通常のグリッド、イベントタイムグリッド、および事前設定ベースラインを上回っている。
学習された$τ$と$B$は、時間的コンテキストと変数の相互作用の解釈可能な要約を提供し、コンテキストインフォームド時系列モデルのための実用的なプラグインを提供する。
関連論文リスト
- T1: One-to-One Channel-Head Binding for Multivariate Time-Series Imputation [6.002503434201551]
さまざまな欠落パターンと重い欠落の下で、時系列で欠落する価値を示唆することは困難である。
本稿では,頑健な計算を実現するCNN-TransformerハイブリッドアーキテクチャであるT1(Time series imputation with 1-to-1 channel-head binding)を紹介する。
T1は最先端の性能を達成し、MSEを2番目に高いベースラインに比べて平均46%削減する。
論文 参考訳(メタデータ) (2026-02-24T16:03:46Z) - PiXTime: A Model for Federated Time Series Forecasting with Heterogeneous Data Structures Across Nodes [52.821072802825654]
時系列は非常に価値が高く、ノード間で共有することは滅多にない。
サンプリング基準の相違により、ノード間の時間粒度や変数セットが多様になる。
フェデレーション学習用に設計された新しい時系列予測モデルであるPiXTimeを提案する。
論文 参考訳(メタデータ) (2026-01-09T08:11:45Z) - Kairos: Towards Adaptive and Generalizable Time Series Foundation Models [27.076542021368056]
時系列基礎モデル (TSFM) は時系列解析の強力なパラダイムとして登場してきた。
動的パッチトークンとインスタンス適応型位置埋め込みを統合した,柔軟なTSFMフレームワークであるKairosを提案する。
Kairosは2つの共通ゼロショットベンチマークのパラメータをはるかに少なくして、優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2025-09-30T06:02:26Z) - Timer-XL: Long-Context Transformers for Unified Time Series Forecasting [67.83502953961505]
我々は時系列の統一予測のための因果変換器Timer-XLを提案する。
大規模な事前トレーニングに基づいて、Timer-XLは最先端のゼロショット性能を達成する。
論文 参考訳(メタデータ) (2024-10-07T07:27:39Z) - Leveraging 2D Information for Long-term Time Series Forecasting with Vanilla Transformers [55.475142494272724]
時系列予測は、様々な領域における複雑な力学の理解と予測に不可欠である。
GridTSTは、革新的な多方向性の注意を用いた2つのアプローチの利点を組み合わせたモデルである。
このモデルは、さまざまな現実世界のデータセットに対して、常に最先端のパフォーマンスを提供する。
論文 参考訳(メタデータ) (2024-05-22T16:41:21Z) - Long-Range Transformers for Dynamic Spatiotemporal Forecasting [16.37467119526305]
グラフニューラルネットワークに基づく手法は、変数関係を明示的にモデル化する。
ロングランジ変換器は、この拡張シーケンスに沿って時間、値、情報の相互作用を一緒に学習することができる。
論文 参考訳(メタデータ) (2021-09-24T22:11:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。