論文の概要: TransformerLSR: Attentive Joint Model of Longitudinal Data, Survival, and Recurrent Events with Concurrent Latent Structure
- arxiv url: http://arxiv.org/abs/2404.03804v1
- Date: Thu, 4 Apr 2024 20:51:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-08 17:25:49.814643
- Title: TransformerLSR: Attentive Joint Model of Longitudinal Data, Survival, and Recurrent Events with Concurrent Latent Structure
- Title(参考訳): TransformerLSR:連続潜時構造を伴う経時的・生存的・反復的事象の注意関節モデル
- Authors: Zhiyue Zhang, Yao Zhao, Yanxun Xu,
- Abstract要約: フレキシブルトランスフォーマーに基づく深層モデリングおよび推論フレームワークであるTransformerLSRを開発し,これら3つのコンポーネントを同時にモデル化する。
腎移植後の患者に対する実世界の医療データセットをシミュレーションし分析することでTransformerLSRの有効性と必要性を実証する。
- 参考スコア(独自算出の注目度): 35.54001561725239
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In applications such as biomedical studies, epidemiology, and social sciences, recurrent events often co-occur with longitudinal measurements and a terminal event, such as death. Therefore, jointly modeling longitudinal measurements, recurrent events, and survival data while accounting for their dependencies is critical. While joint models for the three components exist in statistical literature, many of these approaches are limited by heavy parametric assumptions and scalability issues. Recently, incorporating deep learning techniques into joint modeling has shown promising results. However, current methods only address joint modeling of longitudinal measurements at regularly-spaced observation times and survival events, neglecting recurrent events. In this paper, we develop TransformerLSR, a flexible transformer-based deep modeling and inference framework to jointly model all three components simultaneously. TransformerLSR integrates deep temporal point processes into the joint modeling framework, treating recurrent and terminal events as two competing processes dependent on past longitudinal measurements and recurrent event times. Additionally, TransformerLSR introduces a novel trajectory representation and model architecture to potentially incorporate a priori knowledge of known latent structures among concurrent longitudinal variables. We demonstrate the effectiveness and necessity of TransformerLSR through simulation studies and analyzing a real-world medical dataset on patients after kidney transplantation.
- Abstract(参考訳): 生医学研究、疫学、社会科学などの応用において、反復的な出来事はしばしば縦断的な測定や死のような終末的な出来事と共起する。
したがって, 依存関係を考慮に入れながら, 時系列計測, 繰り返しイベント, 生存データを共同でモデル化することが重要である。
3つの成分の合同モデルは統計学において存在するが、これらのアプローチの多くは重いパラメトリック仮定と拡張性の問題によって制限されている。
近年,共同モデリングに深層学習手法を取り入れることで,有望な結果が得られている。
しかし、現在の手法は、周期的に間隔付けられた観測時間と生存イベントにおける経時測定の連成モデリングにのみ対応し、繰り返し発生する事象を無視する。
本稿では,トランスフォーマーLSR(TransformerLSR)を開発し,これら3つのコンポーネントを同時にモデル化する。
TransformerLSRは、深い時間点過程を結合モデリングフレームワークに統合し、過去の経時的測定と繰り返しイベント時間に依存する2つの競合プロセスとして、繰り返しおよび終端イベントを扱います。
さらにTransformerLSRは、並列長周期変数間で既知の潜在構造に関する事前知識を組み込むために、新しい軌跡表現とモデルアーキテクチャを導入している。
腎移植後の患者に対する実世界の医療データセットをシミュレーションし分析することでTransformerLSRの有効性と必要性を実証する。
関連論文リスト
- UniTST: Effectively Modeling Inter-Series and Intra-Series Dependencies for Multivariate Time Series Forecasting [98.12558945781693]
フラット化されたパッチトークンに統一された注意機構を含む変圧器ベースモデルUniTSTを提案する。
提案モデルでは単純なアーキテクチャを採用しているが,時系列予測のためのいくつかのデータセットの実験で示されたような,魅力的な性能を提供する。
論文 参考訳(メタデータ) (2024-06-07T14:39:28Z) - Rough Transformers for Continuous and Efficient Time-Series Modelling [46.58170057001437]
実世界の医療環境における時系列データは、典型的には長距離依存を示し、一様でない間隔で観察される。
本稿では,入力シーケンスの連続時間表現で動作するトランスフォーマーモデルのバリエーションであるRough Transformerを紹介する。
Rough Transformersは、Neural ODEベースのモデルの利点を得ながら、バニラアテンションを一貫して上回ります。
論文 参考訳(メタデータ) (2024-03-15T13:29:45Z) - Rail Crack Propagation Forecasting Using Multi-horizons RNNs [0.46040036610482665]
レールひび割れ進展の予測は, 材料・構造物の維持・安全性評価において重要な役割を担っている。
伝統的な手法は、パリ法のような物理モデルや経験方程式に依存している。
近年,機械学習技術,特にリカレントニューラルネットワーク(RNN)が時系列予測の有望な手法として登場している。
論文 参考訳(メタデータ) (2023-09-04T12:44:21Z) - Global-to-Local Modeling for Video-based 3D Human Pose and Shape
Estimation [53.04781510348416]
フレーム内精度とフレーム間スムーズさにより,映像に基づく3次元人間のポーズと形状推定を評価する。
エンドツーエンドフレームワークGLoT(Global-to-Local Transformer)における長期的・短期的相関のモデル化を構造的に分離することを提案する。
我々のGLoTは、一般的なベンチマーク(3DPW、MPI-INF-3DHP、Human3.6M)において、最も低いモデルパラメータを持つ従来の最先端の手法を上回る。
論文 参考訳(メタデータ) (2023-03-26T14:57:49Z) - Causal Transformer for Estimating Counterfactual Outcomes [18.640006398066188]
多くのアプリケーションでは、観測データから時間とともに反現実的な結果を予測することが重要となる。
我々は、時間とともに反現実的な結果を予測するための新しい因果変換器を開発した。
私たちのモデルは、時間によって異なる共同設立者間の複雑な長距離依存関係をキャプチャするために特別に設計されています。
論文 参考訳(メタデータ) (2022-04-14T22:40:09Z) - Deep Switching Auto-Regressive Factorization:Application to Time Series
Forecasting [16.934920617960085]
DSARFは、時間依存重みと空間依存因子の間の積変数による高次元データを近似する。
DSARFは、深い切替ベクトル自己回帰因子化の観点から重みをパラメータ化するという最先端技術とは異なる。
本実験は, 最先端手法と比較して, DSARFの長期的, 短期的予測誤差において優れた性能を示すものである。
論文 参考訳(メタデータ) (2020-09-10T20:15:59Z) - Supporting Optimal Phase Space Reconstructions Using Neural Network
Architecture for Time Series Modeling [68.8204255655161]
位相空間特性を暗黙的に学習する機構を持つ人工ニューラルネットワークを提案する。
私たちのアプローチは、ほとんどの最先端戦略と同じくらいの競争力があるか、あるいは優れているかのどちらかです。
論文 参考訳(メタデータ) (2020-06-19T21:04:47Z) - Time-Resolved fMRI Shared Response Model using Gaussian Process Factor
Analysis [19.237759421319957]
そこで我々は,S-GPFA(Shared Gaussian Process Factor Analysis)と呼ばれる新しいモデルを導入する。
シミュレーションデータを用いて地中真理潜伏構造を明らかにする上で,本モデルの有効性を実証し,公開可能なRaiderおよびSherlockデータセット上での時間分割マッチングとオブジェクト間類似性の実験的性能を再現した。
論文 参考訳(メタデータ) (2020-06-10T00:15:01Z) - Transformer Hawkes Process [79.16290557505211]
本稿では,長期的依存関係を捕捉する自己認識機構を利用したTransformer Hawkes Process (THP) モデルを提案する。
THPは、有意なマージンによる可能性と事象予測の精度の両方の観点から、既存のモデルより優れている。
本稿では、THPが関係情報を組み込む際に、複数の点過程を学習する際の予測性能の改善を実現する具体例を示す。
論文 参考訳(メタデータ) (2020-02-21T13:48:13Z) - Convolutional Tensor-Train LSTM for Spatio-temporal Learning [116.24172387469994]
本稿では,ビデオシーケンスの長期相関を効率的に学習できる高次LSTMモデルを提案する。
これは、時間をかけて畳み込み特徴を組み合わせることによって予測を行う、新しいテンソルトレインモジュールによって達成される。
この結果は,幅広いアプリケーションやデータセットにおいて,最先端のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-02-21T05:00:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。