論文の概要: Temporal Attention Augmented Transformer Hawkes Process
- arxiv url: http://arxiv.org/abs/2112.14472v1
- Date: Wed, 29 Dec 2021 09:45:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-30 20:06:35.355579
- Title: Temporal Attention Augmented Transformer Hawkes Process
- Title(参考訳): テンポラルアテンション強化変圧器ホークスプロセス
- Authors: Lu-ning Zhang, Jian-wei Liu, Zhi-yan Song, Xin Zuo
- Abstract要約: 新しいタイプのトランスフォーマーベースホークスプロセスモデル、テンポラルアテンション強化トランスフォーマーホークスプロセス(TAA-THP)を考案した。
従来の点積アテンション構造を修正し、テンポラルエンコーディングをアテンション構造に導入する。
提案したTAA-THPモデルの性能を評価するために, 広範囲の合成および実生活データセットについて多数の実験を行った。
- 参考スコア(独自算出の注目度): 4.624987488467739
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, mining the knowledge from asynchronous sequences by Hawkes
process is a subject worthy of continued attention, and Hawkes processes based
on the neural network have gradually become the most hotly researched fields,
especially based on the recurrence neural network (RNN). However, these models
still contain some inherent shortcomings of RNN, such as vanishing and
exploding gradient and long-term dependency problems. Meanwhile, Transformer
based on self-attention has achieved great success in sequential modeling like
text processing and speech recognition. Although the Transformer Hawkes process
(THP) has gained huge performance improvement, THPs do not effectively utilize
the temporal information in the asynchronous events, for these asynchronous
sequences, the event occurrence instants are as important as the types of
events, while conventional THPs simply convert temporal information into
position encoding and add them as the input of transformer. With this in mind,
we come up with a new kind of Transformer-based Hawkes process model, Temporal
Attention Augmented Transformer Hawkes Process (TAA-THP), we modify the
traditional dot-product attention structure, and introduce the temporal
encoding into attention structure. We conduct numerous experiments on a wide
range of synthetic and real-life datasets to validate the performance of our
proposed TAA-THP model, significantly improvement compared with existing
baseline models on the different measurements is achieved, including
log-likelihood on the test dataset, and prediction accuracies of event types
and occurrence times. In addition, through the ablation studies, we vividly
demonstrate the merit of introducing additional temporal attention by comparing
the performance of the model with and without temporal attention.
- Abstract(参考訳): 近年、ホークスプロセスによる非同期シーケンスからの知識のマイニングは、引き続き注目に値するテーマであり、ニューラルネットワークに基づくホークスプロセスは、特にrecurrent neural network(rnn)に基づいて、徐々に最もホットな研究分野となっている。
しかしながら、これらのモデルには、勾配の消滅や爆発、長期依存性の問題など、RNNの固有の欠点がある。
一方,自己注意に基づくトランスフォーマーは,テキスト処理や音声認識といった逐次モデリングにおいて大きな成功を収めている。
トランスフォーマーホークスプロセス(THP)は大幅な性能向上を図っているが、THPは非同期イベントの時間情報を効果的に利用していないが、これらの非同期シーケンスではイベント発生の瞬間はイベントの種類と同じくらい重要であり、従来のTHPは時間情報を位置符号化に変換して変換器の入力として追加する。
これを念頭に置いて,新しい種類のトランスフォーマティブ・ホークス・プロセスモデルであるtemporal attention augmented transformer hawkes process (taa-thp)を考案し,従来のドット製品アテンション構造を変更し,テンポラリエンコーディングをアテンション構造に導入した。
提案するtaa-thpモデルの性能を検証するために,多種多様な合成データと実時間データセットについて実験を行い,テストデータセット上でのログライク性,イベントタイプと発生時刻の予測精度など,既存のベースラインモデルと比較して大幅に改善した。
さらに, アブレーション研究を通じて, 時間的注意を伴わないモデルの性能を時間的注意と比べることで, 時間的注意を加えるメリットを鮮明に示す。
関連論文リスト
- PRformer: Pyramidal Recurrent Transformer for Multivariate Time Series Forecasting [82.03373838627606]
Transformerアーキテクチャにおける自己保持機構は、時系列予測において時間順序を符号化するために位置埋め込みを必要とする。
この位置埋め込みへの依存は、トランスフォーマーの時間的シーケンスを効果的に表現する能力を制限している、と我々は主張する。
本稿では,Prepreを標準的なTransformerエンコーダと統合し,様々な実世界のデータセット上での最先端性能を示す。
論文 参考訳(メタデータ) (2024-08-20T01:56:07Z) - RoTHP: Rotary Position Embedding-based Transformer Hawkes Process [0.0]
テンポラルポイントプロセス(TPP)は、非同期イベントシーケンスデータのモデリングに一般的に使用される。
本稿では,新しいロータリー位置埋め込み型THPアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-05-11T10:59:09Z) - Attention as Robust Representation for Time Series Forecasting [23.292260325891032]
多くの実用化には時系列予測が不可欠である。
トランスフォーマーの重要な特徴、注意機構、データ表現を強化するために動的に埋め込みを融合させ、しばしば注意重みを副産物の役割に還元する。
提案手法は,時系列の主表現として注目重みを高くし,データポイント間の時間的関係を利用して予測精度を向上させる。
論文 参考訳(メタデータ) (2024-02-08T03:00:50Z) - CARD: Channel Aligned Robust Blend Transformer for Time Series
Forecasting [50.23240107430597]
本稿では,CARD(Channel Aligned Robust Blend Transformer)という特殊なトランスを設計する。
まず、CARDはチャネルに沿ったアテンション構造を導入し、信号間の時間的相関をキャプチャする。
第二に、マルチスケール知識を効率的に活用するために、異なる解像度のトークンを生成するトークンブレンドモジュールを設計する。
第3に,潜在的な過度な問題を軽減するため,時系列予測のためのロバストな損失関数を導入する。
論文 参考訳(メタデータ) (2023-05-20T05:16:31Z) - FormerTime: Hierarchical Multi-Scale Representations for Multivariate
Time Series Classification [53.55504611255664]
formerTimeは、多変量時系列分類タスクの分類能力を改善する階層的表現モデルである。
1)時系列データから階層的なマルチスケール表現を学習し、(2)トランスフォーマーと畳み込みネットワークの強さを継承し、(3)自己維持メカニズムによって引き起こされる効率の課題に取り組む。
論文 参考訳(メタデータ) (2023-02-20T07:46:14Z) - ViTs for SITS: Vision Transformers for Satellite Image Time Series [52.012084080257544]
ビジョン変換器(ViT)に基づく一般衛星画像時系列(SITS)処理のための完全アテンショナルモデルを提案する。
TSViTはSITSレコードを空間と時間で重複しないパッチに分割し、トークン化し、分解されたテンポロ空間エンコーダで処理する。
論文 参考訳(メタデータ) (2023-01-12T11:33:07Z) - Towards Long-Term Time-Series Forecasting: Feature, Pattern, and
Distribution [57.71199089609161]
長期的時系列予測(LTTF)は、風力発電計画など、多くのアプリケーションで需要が高まっている。
トランスフォーマーモデルは、高い計算自己認識機構のため、高い予測能力を提供するために採用されている。
LTTFの既存の手法を3つの面で区別する,Conformer という,効率的なTransformer ベースモデルを提案する。
論文 参考訳(メタデータ) (2023-01-05T13:59:29Z) - Universal Transformer Hawkes Process with Adaptive Recursive Iteration [4.624987488467739]
非同期イベントシーケンスは、自然界に広く分布し、地震記録、ソーシャルメディアでのユーザ活動など人間の活動も行われている。
これらの不規則なデータから情報を抽出する方法は、研究者が注目する永続的なトピックである。
最も有用なモデルの1つは点過程モデルであり、それに基づいて、研究者は多くの顕著な結果を得る。
近年、ニューラルネットワークの基礎となるポイントプロセスモデル、特にリカレントニューラルネットワーク(RNN)が提案され、従来のモデルと比較され、その性能が大幅に向上している。
論文 参考訳(メタデータ) (2021-12-29T09:55:12Z) - Transformers predicting the future. Applying attention in next-frame and
time series forecasting [0.0]
繰り返しニューラルネットワークは、最近まで、シーケンス内のタイムリーな依存関係をキャプチャする最良の方法の1つでした。
トランスフォーマーの導入により、RNNのない注意機構しか持たないアーキテクチャが、様々なシーケンス処理タスクの結果を改善することが証明された。
論文 参考訳(メタデータ) (2021-08-18T16:17:29Z) - Transformer Hawkes Process [79.16290557505211]
本稿では,長期的依存関係を捕捉する自己認識機構を利用したTransformer Hawkes Process (THP) モデルを提案する。
THPは、有意なマージンによる可能性と事象予測の精度の両方の観点から、既存のモデルより優れている。
本稿では、THPが関係情報を組み込む際に、複数の点過程を学習する際の予測性能の改善を実現する具体例を示す。
論文 参考訳(メタデータ) (2020-02-21T13:48:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。