論文の概要: Deep Representation Learning for Prediction of Temporal Event Sets in
the Continuous Time Domain
- arxiv url: http://arxiv.org/abs/2309.17009v1
- Date: Fri, 29 Sep 2023 06:46:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-02 15:17:29.129608
- Title: Deep Representation Learning for Prediction of Temporal Event Sets in
the Continuous Time Domain
- Title(参考訳): 連続時間領域における時間事象集合の予測のための深部表現学習
- Authors: Parag Dutta, Kawin Mayilvaghanan, Pratyaksha Sinha, Ambedkar Dukkipati
- Abstract要約: 時間的ポイントプロセスは、イベントの予測や予測において重要な役割を果たす。
この問題を解決するために,TPPをベースとしたスケーラブルで効率的な手法を提案する。
- 参考スコア(独自算出の注目度): 9.71405768795797
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Temporal Point Processes (TPP) play an important role in predicting or
forecasting events. Although these problems have been studied extensively,
predicting multiple simultaneously occurring events can be challenging. For
instance, more often than not, a patient gets admitted to a hospital with
multiple conditions at a time. Similarly people buy more than one stock and
multiple news breaks out at the same time. Moreover, these events do not occur
at discrete time intervals, and forecasting event sets in the continuous time
domain remains an open problem. Naive approaches for extending the existing TPP
models for solving this problem lead to dealing with an exponentially large
number of events or ignoring set dependencies among events. In this work, we
propose a scalable and efficient approach based on TPPs to solve this problem.
Our proposed approach incorporates contextual event embeddings, temporal
information, and domain features to model the temporal event sets. We
demonstrate the effectiveness of our approach through extensive experiments on
multiple datasets, showing that our model outperforms existing methods in terms
of prediction metrics and computational efficiency. To the best of our
knowledge, this is the first work that solves the problem of predicting event
set intensities in the continuous time domain by using TPPs.
- Abstract(参考訳): 時間的ポイントプロセス(tpp)は事象の予測や予測において重要な役割を果たす。
これらの問題は広く研究されているが、同時に発生する複数の事象を予測することは困難である。
例えば、多くの場合、患者は一度に複数の状態の病院に入院する。
同様に、人々は複数の株を買い、同時に複数のニュースが生まれます。
さらに、これらのイベントは離散時間間隔で発生せず、連続時間領域におけるイベントセットの予測は未解決の問題である。
この問題を解決するために既存のTPPモデルを拡張するためのナイーブなアプローチは、指数関数的に多くのイベントを扱うか、イベント間のセット依存を無視します。
本研究では,この問題を解決するため,TPPに基づくスケーラブルで効率的な手法を提案する。
提案手法では,文脈的イベント埋め込み,時間的情報,ドメイン機能を統合し,時間的イベント集合をモデル化する。
提案手法の有効性を,複数のデータセットに対する広範な実験により実証し,予測指標や計算効率の観点から既存手法より優れていることを示す。
我々の知る限りでは、TPPを用いて連続時間領域におけるイベントセット強度を予測するという問題を解決する最初の研究である。
関連論文リスト
- XTSFormer: Cross-Temporal-Scale Transformer for Irregular Time Event
Prediction [9.240950990926796]
イベント予測は、過去のイベントシーケンスに基づいて、将来のイベントの時間とタイプを予測することを目的としている。
その重要性にもかかわらず、連続するイベント間の時間間隔の不規則性、サイクルの存在、周期性、マルチスケールのイベント相互作用など、いくつかの課題が存在する。
論文 参考訳(メタデータ) (2024-02-03T20:33:39Z) - Cumulative Distribution Function based General Temporal Point Processes [49.758080415846884]
CuFunモデルは、累積分布関数(CDF)を中心に回転するTPPに対する新しいアプローチを表す
提案手法は従来のTPPモデリングに固有のいくつかの重要な問題に対処する。
コントリビューションには、先駆的なCDFベースのTPPモデルの導入、過去の事象情報を将来の事象予測に組み込む方法論の開発が含まれている。
論文 参考訳(メタデータ) (2024-02-01T07:21:30Z) - HyperHawkes: Hypernetwork based Neural Temporal Point Process [5.607676459156789]
時間的ポイントプロセスは、連続した時間空間における時間間データのモデリングに不可欠なツールとして機能する。
動的環境における見えないシーケンスから事象を予測することは一般化できない。
ハイパーネットワークベースの時間的ポイントプロセスフレームワークである textitHyperHawkes を提案する。
論文 参考訳(メタデータ) (2022-10-01T07:14:19Z) - Modeling Continuous Time Sequences with Intermittent Observations using
Marked Temporal Point Processes [25.074394338483575]
人間の活動を通じて生成された大量のデータは、連続した時間のイベントのシーケンスとして表現することができる。
これらの連続的なイベントシーケンスに対するディープラーニングモデルは、非自明なタスクである。
本研究では,イベントシーケンスが欠落している場合にMTPPを学習するための新しい教師なしモデルと推論手法を提案する。
論文 参考訳(メタデータ) (2022-06-23T18:23:20Z) - Multi-scale Attention Flow for Probabilistic Time Series Forecasting [68.20798558048678]
マルチスケールアテンション正規化フロー(MANF)と呼ばれる非自己回帰型ディープラーニングモデルを提案する。
我々のモデルは累積誤差の影響を回避し、時間の複雑さを増大させない。
本モデルは,多くの多変量データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-05-16T07:53:42Z) - Variational Neural Temporal Point Process [22.396329275957996]
時間的ポイントプロセスは、どのイベントが発生するか、いつ発生するかを予測するプロセスである。
推論と生成ネットワークを導入し、潜伏変数の分布をトレーニングし、ディープニューラルネットワーク上の特性に対処する。
我々は,これらのモデルが様々なイベントの表現を一般化できることを実証的に実証した。
論文 参考訳(メタデータ) (2022-02-17T13:34:30Z) - Learning Neural Models for Continuous-Time Sequences [0.0]
連続時間イベントシーケンス(CTES)の特性について検討し、上記の問題を克服するために、堅牢でスケーラブルなニューラルネットワークベースモデルを設計する。
本研究では,MTPPを用いた事象の生成過程をモデル化し,現実世界の幅広い問題に対処する。
論文 参考訳(メタデータ) (2021-11-13T20:39:15Z) - Interval-censored Hawkes processes [82.87738318505582]
本研究では,Hawkesプロセスのパラメータを間隔制限設定で推定するモデルを提案する。
我々は、ホークス族に対する非均質近似が、間隔検閲された設定において牽引可能な可能性を認めている方法を示す。
論文 参考訳(メタデータ) (2021-04-16T07:29:04Z) - Predicting Temporal Sets with Deep Neural Networks [50.53727580527024]
本稿では,時間集合予測のためのディープニューラルネットワークに基づく統合解を提案する。
ユニークな視点は、セットレベルの共起グラフを構築することで要素関係を学ぶことである。
我々は,要素や集合の時間依存性を適応的に学習するアテンションベースのモジュールを設計する。
論文 参考訳(メタデータ) (2020-06-20T03:29:02Z) - Ambiguity in Sequential Data: Predicting Uncertain Futures with
Recurrent Models [110.82452096672182]
逐次データによる曖昧な予測を扱うために,Multiple hypothesis Prediction(MHP)モデルの拡張を提案する。
また、不確実性を考慮するのに適した曖昧な問題に対する新しい尺度も導入する。
論文 参考訳(メタデータ) (2020-03-10T09:15:42Z) - Transformer Hawkes Process [79.16290557505211]
本稿では,長期的依存関係を捕捉する自己認識機構を利用したTransformer Hawkes Process (THP) モデルを提案する。
THPは、有意なマージンによる可能性と事象予測の精度の両方の観点から、既存のモデルより優れている。
本稿では、THPが関係情報を組み込む際に、複数の点過程を学習する際の予測性能の改善を実現する具体例を示す。
論文 参考訳(メタデータ) (2020-02-21T13:48:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。