論文の概要: Learning Point Processes using Recurrent Graph Network
- arxiv url: http://arxiv.org/abs/2208.05736v1
- Date: Thu, 11 Aug 2022 10:08:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-12 12:55:44.380458
- Title: Learning Point Processes using Recurrent Graph Network
- Title(参考訳): リカレントグラフネットワークを用いた学習点プロセス
- Authors: Saurabh Dash, Xueyuan She and Saibal Mukhopadhyay
- Abstract要約: 本稿では,RGN(Recurrent Graph Network)アプローチを提案する。
Graph NetworkのノードはLSTMを使用して過去の情報を取り込み、Graph Attention Network(GAT Network)はこれらの異なるタイプのイベント間のインタラクションをキャプチャするために強力な誘導バイアスを導入している。
実験により,提案手法は,最先端の Transformer ベースのアーキテクチャと比較して,時間と空間の複雑さを低減し,ログライクなタスク,予測,適度なタスクのパフォーマンスを向上させることが示された。
- 参考スコア(独自算出の注目度): 11.445441489156027
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a novel Recurrent Graph Network (RGN) approach for predicting
discrete marked event sequences by learning the underlying complex stochastic
process. Using the framework of Point Processes, we interpret a marked discrete
event sequence as the superposition of different sequences each of a unique
type. The nodes of the Graph Network use LSTM to incorporate past information
whereas a Graph Attention Network (GAT Network) introduces strong inductive
biases to capture the interaction between these different types of events. By
changing the self-attention mechanism from attending over past events to
attending over event types, we obtain a reduction in time and space complexity
from $\mathcal{O}(N^2)$ (total number of events) to
$\mathcal{O}(|\mathcal{Y}|^2)$ (number of event types). Experiments show that
the proposed approach improves performance in log-likelihood, prediction and
goodness-of-fit tasks with lower time and space complexity compared to
state-of-the art Transformer based architectures.
- Abstract(参考訳): 本稿では,その基礎となる複雑な確率過程を学習し,離散的な事象列を予測するための新しいリカレントグラフネットワーク(RGN)を提案する。
ポイントプロセスの枠組みを用いて、特徴のある離散的なイベントシーケンスを、それぞれユニークなタイプの異なるシーケンスの重ね合わせとして解釈する。
Graph NetworkのノードはLSTMを使用して過去の情報を取り込み、Graph Attention Network(GAT Network)はこれらの異なるタイプのイベント間のインタラクションをキャプチャするために強力な誘導バイアスを導入する。
自己注意機構を過去のイベントへの参加からイベントタイプへの参加に変更することにより、時間と空間の複雑さを$\mathcal{O}(N^2)$(イベントの総数)から$\mathcal{O}(|\mathcal{Y}|^2)$(イベントの種類)に短縮する。
提案手法は,最先端のトランスフォーマーアーキテクチャと比較して,時間と空間の複雑さを低減し,ログライクさ,予測性,適合性のよいタスクの性能を向上させることを示す。
関連論文リスト
- Instance-Aware Graph Prompt Learning [71.26108600288308]
本稿では,インスタンス対応グラフプロンプト学習(IA-GPL)について紹介する。
このプロセスでは、軽量アーキテクチャを使用して各インスタンスの中間プロンプトを生成する。
複数のデータセットと設定で実施された実験は、最先端のベースラインと比較して、IA-GPLの優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-11-26T18:38:38Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Seq-HGNN: Learning Sequential Node Representation on Heterogeneous Graph [57.2953563124339]
本稿では,シーケンシャルノード表現,すなわちSeq-HGNNを用いた新しい異種グラフニューラルネットワークを提案する。
Heterogeneous Graph Benchmark (HGB) と Open Graph Benchmark (OGB) の4つの広く使われているデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2023-05-18T07:27:18Z) - Temporal Aggregation and Propagation Graph Neural Networks for Dynamic
Representation [67.26422477327179]
時間グラフは連続時間を通してノード間の動的相互作用を示す。
本研究では,周辺地域全体と時間的グラフ畳み込みの新たな手法を提案する。
提案するTAP-GNNは,予測性能とオンライン推論遅延の両面で,既存の時間グラフ手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-15T08:17:18Z) - Continuous-time convolutions model of event sequences [46.3471121117337]
イベントシーケンスは不均一でスパースであり、従来のモデルは不適当である。
我々は、時間とともに一様でない事象の発生を処理するために設計された効率的な畳み込みニューラルネットワークに基づくCOTICを提案する。
COTICは、次のイベント時間とタイプを予測する際に既存のモデルよりも優れており、最も近いライバルの3.714と比較して平均1.5のランクに達している。
論文 参考訳(メタデータ) (2023-02-13T10:34:51Z) - A Graph Regularized Point Process Model For Event Propagation Sequence [2.9093633827040724]
ポイントプロセスは、不規則な間隔で発生するイベントシーケンスをモデル化するための支配的なパラダイムである。
本稿では,隣接ノード間のイベントインタラクションを特徴付けるグラフ正規化ポイントプロセスを提案する。
グラフ正規化法を適用することにより、GRPPはノード間の影響強度を明らかにすることによってモデル解釈可能性を提供する。
論文 参考訳(メタデータ) (2022-11-21T04:49:59Z) - AEGNN: Asynchronous Event-based Graph Neural Networks [54.528926463775946]
イベントベースのグラフニューラルネットワークは、標準のGNNを一般化して、イベントを"進化的"時間グラフとして処理する。
AEGNNは同期入力で容易に訓練でき、テスト時に効率的な「非同期」ネットワークに変換できる。
論文 参考訳(メタデータ) (2022-03-31T16:21:12Z) - Mitigating Performance Saturation in Neural Marked Point Processes:
Architectures and Loss Functions [50.674773358075015]
本稿では,グラフ畳み込み層のみを利用するGCHPという単純なグラフベースのネットワーク構造を提案する。
我々は,GCHPがトレーニング時間を大幅に短縮し,時間間確率仮定による確率比損失がモデル性能を大幅に改善できることを示した。
論文 参考訳(メタデータ) (2021-07-07T16:59:14Z) - Time-varying Graph Representation Learning via Higher-Order Skip-Gram
with Negative Sampling [0.456877715768796]
我々は,スキップグラム埋め込み手法が行列分解を暗黙的に行うという事実に基づいて構築する。
負のサンプリングを持つ高次スキップグラムは、ノードと時間の役割を乱すことができることを示す。
提案手法を時間分解型対面近接データを用いて実証的に評価し,学習した時間変化グラフ表現が最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-06-25T12:04:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。