論文の概要: Flexible Triggering Kernels for Hawkes Process Modeling
- arxiv url: http://arxiv.org/abs/2202.01869v1
- Date: Thu, 3 Feb 2022 22:02:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-08 02:22:48.321990
- Title: Flexible Triggering Kernels for Hawkes Process Modeling
- Title(参考訳): hawkesプロセスモデリングのためのフレキシブルトリガーカーネル
- Authors: Yamac Alican Isik, Connor Davis, Paidamoyo Chapfuwa, Ricardo Henao
- Abstract要約: 近年、ホークスプロセスのモデリングのためのエンコーダ・デコーダ構造は、トランスフォーマーにインスパイアされたアーキテクチャを用いている。
複雑な(多層化)アテンション構造をトリガーカーネルに置き換えることで、歴史的イベントシーケンスの効率的で汎用的なエンコーディングを導入する。
- 参考スコア(独自算出の注目度): 11.90725359131405
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently proposed encoder-decoder structures for modeling Hawkes processes
use transformer-inspired architectures, which encode the history of events via
embeddings and self-attention mechanisms. These models deliver better
prediction and goodness-of-fit than their RNN-based counterparts. However, they
often require high computational and memory complexity requirements and
sometimes fail to adequately capture the triggering function of the underlying
process. So motivated, we introduce an efficient and general encoding of the
historical event sequence by replacing the complex (multilayered) attention
structures with triggering kernels of the observed data. Noting the similarity
between the triggering kernels of a point process and the attention scores, we
use a triggering kernel to replace the weights used to build history
representations. Our estimate for the triggering function is equipped with a
sigmoid gating mechanism that captures local-in-time triggering effects that
are otherwise challenging with standard decaying-over-time kernels. Further,
taking both event type representations and temporal embeddings as inputs, the
model learns the underlying triggering type-time kernel parameters given pairs
of event types. We present experiments on synthetic and real data sets widely
used by competing models, while further including a COVID-19 dataset to
illustrate a scenario where longitudinal covariates are available. Results show
the proposed model outperforms existing approaches while being more efficient
in terms of computational complexity and yielding interpretable results via
direct application of the newly introduced kernel.
- Abstract(参考訳): 最近提案されたホークスプロセスのモデリングのためのエンコーダ・デコーダ構造はトランスフォーマティブ・インスパイアされたアーキテクチャを使用しており、埋め込みと自己アテンション機構を通じてイベントの履歴をエンコードしている。
これらのモデルは、RNNベースのモデルよりも優れた予測と適合性を提供します。
しかし、それらはしばしば高い計算量とメモリの複雑さの要求を必要とし、時々基礎となるプロセスのトリガー関数を適切に捉えることができない。
そこで我々は,複合的(多層)アテンション構造を観測データのカーネルのトリガに置き換えることで,歴史的イベントシーケンスの効率的かつ汎用的なエンコーディングを提案する。
ポイントプロセスのトリガーカーネルとアテンションスコアの類似性に注目して、トリガーカーネルを使用して履歴表現の構築に使用される重みを置き換えます。
トリガー関数の見積もりは、通常の崩壊オーバータイムカーネルでは困難な局所的インタイムトリガー効果をキャプチャするシグモイドゲーティング機構を備える。
さらに、イベントタイプ表現と時間的埋め込みの両方を入力として、モデルは、イベントタイプのペアが与えられた時型カーネルパラメータをトリガーする基礎を学習する。
筆者らは,競合モデルで広く使用されている合成および実データセットについて実験を行い,さらにcovid-19データセットを用いて,縦方向共変量が存在するシナリオを示す。
提案手法は,計算複雑性の点で効率が良く,新たに導入されたカーネルを直接適用することで解釈可能な結果が得られる。
関連論文リスト
- Continuous-time convolutions model of event sequences [46.3471121117337]
イベントシーケンスは不均一でスパースであり、従来のモデルは不適当である。
我々は、時間とともに一様でない事象の発生を処理するために設計された効率的な畳み込みニューラルネットワークに基づくCOTICを提案する。
COTICは、次のイベント時間とタイプを予測する際に既存のモデルよりも優れており、最も近いライバルの3.714と比較して平均1.5のランクに達している。
論文 参考訳(メタデータ) (2023-02-13T10:34:51Z) - FaDIn: Fast Discretized Inference for Hawkes Processes with General
Parametric Kernels [82.53569355337586]
この研究は、有限なサポートを持つ一般パラメトリックカーネルを用いた時間点プロセス推論の効率的な解を提供する。
脳磁図(MEG)により記録された脳信号からの刺激誘発パターンの発生をモデル化し,その有効性を評価する。
その結果,提案手法により,最先端技術よりもパターン遅延の推定精度が向上することが示唆された。
論文 参考訳(メタデータ) (2022-10-10T12:35:02Z) - Temporal Attention Augmented Transformer Hawkes Process [4.624987488467739]
新しいタイプのトランスフォーマーベースホークスプロセスモデル、テンポラルアテンション強化トランスフォーマーホークスプロセス(TAA-THP)を考案した。
従来の点積アテンション構造を修正し、テンポラルエンコーディングをアテンション構造に導入する。
提案したTAA-THPモデルの性能を評価するために, 広範囲の合成および実生活データセットについて多数の実験を行った。
論文 参考訳(メタデータ) (2021-12-29T09:45:23Z) - Neural Spectral Marked Point Processes [18.507050473968985]
本稿では、複雑な離散イベントを扱うための、ニューラルネットワークに基づく新規で汎用的な非定常影響カーネルを提案する。
提案手法は, 合成および実データにおける最先端技術と比較して, 優れた性能を示す。
論文 参考訳(メタデータ) (2021-06-20T23:00:37Z) - Synergetic Learning of Heterogeneous Temporal Sequences for
Multi-Horizon Probabilistic Forecasting [48.8617204809538]
本稿では,新しい条件生成モデルである変分相乗型マルチホライゾンネットワーク(VSMHN)を提案する。
不均一なシーケンス間で複雑な相関関係を学習するために、深部プロセスモデルと変動的リカレントニューラルネットワークの進歩を組み合わせるために、調整されたエンコーダが考案された。
我々のモデルは変動予測を用いて効果的に訓練でき、モンテカルロシミュレーションを用いて予測を生成することができる。
論文 参考訳(メタデータ) (2021-01-31T11:00:55Z) - Deep Neural Dynamic Bayesian Networks applied to EEG sleep spindles
modeling [0.0]
本稿では,視覚的スコアリングにおいて専門家が積極的に実施する制約を組み込んだ単一チャネル脳波生成モデルを提案する。
我々は、一般化期待最大化の特別な場合として、正確に、抽出可能な推論のためのアルゴリズムを導出する。
我々は、このモデルを3つの公開データセット上で検証し、より複雑なモデルが最先端の検出器を越えられるように支援する。
論文 参考訳(メタデータ) (2020-10-16T21:48:29Z) - A Multi-Channel Neural Graphical Event Model with Negative Evidence [76.51278722190607]
イベントデータセットは、タイムライン上で不規則に発生するさまざまなタイプのイベントのシーケンスである。
基礎となる強度関数を推定するために,非パラメトリックディープニューラルネットワーク手法を提案する。
論文 参考訳(メタデータ) (2020-02-21T23:10:50Z) - Transformer Hawkes Process [79.16290557505211]
本稿では,長期的依存関係を捕捉する自己認識機構を利用したTransformer Hawkes Process (THP) モデルを提案する。
THPは、有意なマージンによる可能性と事象予測の精度の両方の観点から、既存のモデルより優れている。
本稿では、THPが関係情報を組み込む際に、複数の点過程を学習する際の予測性能の改善を実現する具体例を示す。
論文 参考訳(メタデータ) (2020-02-21T13:48:13Z) - Convolutional Tensor-Train LSTM for Spatio-temporal Learning [116.24172387469994]
本稿では,ビデオシーケンスの長期相関を効率的に学習できる高次LSTMモデルを提案する。
これは、時間をかけて畳み込み特徴を組み合わせることによって予測を行う、新しいテンソルトレインモジュールによって達成される。
この結果は,幅広いアプリケーションやデータセットにおいて,最先端のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-02-21T05:00:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。