論文の概要: From Hawkes Processes to Attention: Time-Modulated Mechanisms for Event Sequences
- arxiv url: http://arxiv.org/abs/2601.09220v1
- Date: Wed, 14 Jan 2026 06:47:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-15 18:59:20.299102
- Title: From Hawkes Processes to Attention: Time-Modulated Mechanisms for Event Sequences
- Title(参考訳): ホークスプロセスから注意:イベントシーケンスの時間変調メカニズム
- Authors: Xinzi Tan, Kejian Zhang, Junhan Yu, Doudou Zhou,
- Abstract要約: MTPP (Marked Temporal Point Processs) は、医療、社会、商業、金融の分野で自然に発生する。
我々は,クエリ,キー,値のプロジェクションを学習可能な型ごとのニューラルカーネルを用いて,Hawks Attentionと呼ばれる新しいアテンション演算子を提案する。
一般的なMTPPに加えて、時系列予測などの特定の時間構造にも容易に注意機構が適用できる。
- 参考スコア(独自算出の注目度): 2.909892241405689
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Marked Temporal Point Processes (MTPPs) arise naturally in medical, social, commercial, and financial domains. However, existing Transformer-based methods mostly inject temporal information only via positional encodings, relying on shared or parametric decay structures, which limits their ability to capture heterogeneous and type-specific temporal effects. Inspired by this observation, we derive a novel attention operator called Hawkes Attention from the multivariate Hawkes process theory for MTPP, using learnable per-type neural kernels to modulate query, key and value projections, thereby replacing the corresponding parts in the traditional attention. Benefited from the design, Hawkes Attention unifies event timing and content interaction, learning both the time-relevant behavior and type-specific excitation patterns from the data. The experimental results show that our method achieves better performance compared to the baselines. In addition to the general MTPP, our attention mechanism can also be easily applied to specific temporal structures, such as time series forecasting.
- Abstract(参考訳): MTPP (Marked Temporal Point Processs) は、医療、社会、商業、金融の分野で自然に発生する。
しかし、トランスフォーマーベースの既存の手法は、主に位置エンコーディングによってのみ時間情報を注入し、共有あるいはパラメトリックの減衰構造に依存し、不均一な時間効果やタイプ固有の時間効果を捉える能力を制限する。
この観測に触発されて,MTPPの多変量ホークスプロセス理論から,Hawes Attentionと呼ばれる新しい注意演算子を導出する。
設計の恩恵を受け、Hawkeys Attentionはイベントタイミングとコンテンツインタラクションを統一し、データから時間関連の振る舞いとタイプ固有の励起パターンの両方を学ぶ。
実験結果から,本手法はベースラインよりも性能がよいことがわかった。
一般的なMTPPに加えて、時系列予測などの特定の時間構造にも容易に注意機構が適用できる。
関連論文リスト
- Hyper Hawkes Processes: Interpretable Models of Marked Temporal Point Processes [12.72697616342555]
我々は、新しいファミリーMTPPモデル、Hyper Hawkes Process (HHP)を提案する。
HHPは、解釈可能な側面を維持しながら、ニューラルMTPPと同じくらい柔軟でパフォーマンスの高いことを目指している。
これらの拡張は高性能MTPPファミリーを定義し、最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-11-02T22:10:08Z) - TimeFormer: Transformer with Attention Modulation Empowered by Temporal Characteristics for Time Series Forecasting [18.890651211582256]
本研究では,その表現能力の最大化を目的として,時系列データ用に設計された新しいトランスフォーマーアーキテクチャを開発する。
時系列の特徴は,(1)過去から未来への一方向的影響,(2)時間の経過とともに崩壊する現象である。
2つの変調項(MoSA)を持つ自己保持機構が中心となるTimeFormerを提案する。
論文 参考訳(メタデータ) (2025-10-08T06:07:30Z) - Multivariate Long-term Time Series Forecasting with Fourier Neural Filter [42.60778405812048]
我々はFNFをバックボーンとして、DBDをアーキテクチャとして導入し、空間時間モデルのための優れた学習能力と最適な学習経路を提供する。
FNFは、局所時間領域とグローバル周波数領域の情報処理を単一のバックボーン内で統合し、空間的モデリングに自然に拡張することを示す。
論文 参考訳(メタデータ) (2025-06-10T18:40:20Z) - RoTHP: Rotary Position Embedding-based Transformer Hawkes Process [0.0]
テンポラルポイントプロセス(TPP)は、非同期イベントシーケンスデータのモデリングに一般的に使用される。
本稿では,新しいロータリー位置埋め込み型THPアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-05-11T10:59:09Z) - Spatio-Temporal Branching for Motion Prediction using Motion Increments [55.68088298632865]
HMP(Human Motion Prediction)はその多種多様な応用により、人気のある研究トピックとして浮上している。
従来の手法は手作りの機能と機械学習技術に依存している。
HMPのためのインクリメンタル情報を用いた時空間分岐ネットワークを提案する。
論文 参考訳(メタデータ) (2023-08-02T12:04:28Z) - Temporal Attention Augmented Transformer Hawkes Process [4.624987488467739]
新しいタイプのトランスフォーマーベースホークスプロセスモデル、テンポラルアテンション強化トランスフォーマーホークスプロセス(TAA-THP)を考案した。
従来の点積アテンション構造を修正し、テンポラルエンコーディングをアテンション構造に導入する。
提案したTAA-THPモデルの性能を評価するために, 広範囲の合成および実生活データセットについて多数の実験を行った。
論文 参考訳(メタデータ) (2021-12-29T09:45:23Z) - Transformer Hawkes Process [79.16290557505211]
本稿では,長期的依存関係を捕捉する自己認識機構を利用したTransformer Hawkes Process (THP) モデルを提案する。
THPは、有意なマージンによる可能性と事象予測の精度の両方の観点から、既存のモデルより優れている。
本稿では、THPが関係情報を組み込む際に、複数の点過程を学習する際の予測性能の改善を実現する具体例を示す。
論文 参考訳(メタデータ) (2020-02-21T13:48:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。