論文の概要: Marked Neural Spatio-Temporal Point Process Involving a Dynamic Graph Neural Network
- arxiv url: http://arxiv.org/abs/2206.03469v2
- Date: Wed, 28 Aug 2024 13:34:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-29 21:50:55.878487
- Title: Marked Neural Spatio-Temporal Point Process Involving a Dynamic Graph Neural Network
- Title(参考訳): 動的グラフニューラルネットワークを含むマーク付きニューラル時空間過程
- Authors: Alice Moallemy-Oureh, Silvia Beddar-Wiesing, Yannick Nagel, Rüdiger Nather, Josephine M. Thomas,
- Abstract要約: 時間的ポイントプロセス(TPP)は近年,グラフデータの動的学習においてますます興味深いものになりつつある。
TPPは、イベントストリームの有意義な特徴と、将来のイベントの予測メカニズムを提供する。
我々は,属性や空間データを処理し,グラフストリーム内の任意の事象をモデル化・予測するTPPを学習するために,マーク付きニューラルネットワーク時空間点過程(MNSTPP)を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Temporal Point Processes (TPPs) have recently become increasingly interesting for learning dynamics in graph data. A reason for this is that learning on dynamic graph data is becoming more relevant, since data from many scientific fields, ranging from mathematics, biology, social sciences, and physics to computer science, is naturally related and inherently dynamic. In addition, TPPs provide a meaningful characterization of event streams and a prediction mechanism for future events. Therefore, (semi-)parameterized Neural TPPs have been introduced whose characterization can be (partially) learned and, thus, enable the representation of more complex phenomena. However, the research on modeling dynamic graphs with TPPs is relatively young, and only a few models for node attribute changes or evolving edges have been proposed yet. To allow for learning on fully dynamic graph streams, i.e., graphs that can change in their structure (addition/deletion of nodes/edge) and in their node/edge attributes, we propose a Marked Neural Spatio-Temporal Point Process (MNSTPP). It leverages a Dynamic Graph Neural Network to learn a Marked TPP that handles attributes and spatial data to model and predict any event in a graph stream.
- Abstract(参考訳): 時間的ポイントプロセス(TPP)は近年,グラフデータの動的学習においてますます興味深いものになりつつある。
その理由は、数学、生物学、社会科学、物理学からコンピュータ科学まで、多くの科学分野からのデータが自然に関連付けられ、本質的に動的であるからである。
さらに、TPPはイベントストリームの有意義な特徴付けと、将来のイベントの予測メカニズムを提供する。
したがって、(半)パラメータ化されたニューラルTPPは(部分的に)学習可能なので、より複雑な現象の表現を可能にする。
しかし、TPPを用いた動的グラフのモデリングに関する研究は比較的若く、ノード属性の変化やエッジの進化に関するモデルはまだいくつか提案されていない。
完全動的グラフストリーム(すなわちノード/エッジの付加・削除)とノード/エッジ属性で変化するグラフを学習できるようにするため,マーク付きニューラル時空間点プロセス(MNSTPP)を提案する。
動的グラフニューラルネットワークを活用して、属性と空間データを処理するマーク付きTPPを学び、グラフストリーム内の任意のイベントをモデル化して予測する。
関連論文リスト
- Gradient Transformation: Towards Efficient and Model-Agnostic Unlearning for Dynamic Graph Neural Networks [66.70786325911124]
グラフアンラーニングは、ユーザのプライバシ保護と、望ましくないデータによるネガティブな影響軽減に不可欠なツールとして登場した。
DGNNの普及に伴い、動的グラフアンラーニングの実装を検討することが不可欠となる。
DGNNアンラーニングを実装するために,効率的,効率的,モデルに依存しない,事後処理手法を提案する。
論文 参考訳(メタデータ) (2024-05-23T10:26:18Z) - DyGPrompt: Learning Feature and Time Prompts on Dynamic Graphs [14.62182210205324]
動的グラフモデリングのための新しいフレームワークであるDyGPromptを提案する。
まず,タスクの目的と,事前学習タスクと下流タスクの動的変動のギャップに対処する2つのプロンプトを設計する。
第2に,ノードと時間の特徴が相互に特徴付けされていることを認識し,下流タスクにおけるノード時間パターンの進化をモデル化するための2つの条件ネットを提案する。
論文 参考訳(メタデータ) (2024-05-22T19:10:24Z) - Dynamic Graph Node Classification via Time Augmentation [15.580277876084873]
動的グラフ上のノード分類のための時間拡張グラフ動的ニューラルネットワーク(TADGNN)フレームワークを提案する。
TADGNNは, 時間的時間的変化を時間的に捉え, 時間的時間的グラフを生成する時間拡張モジュールと, 構築した時間的時間的グラフを用いて時間的時間的表現を学習する情報伝達モジュールの2つのモジュールから構成される。
実験により,TADGNNフレームワークは,高いスケーラビリティを示しながら,静的かつ動的なSOTAGNNモデルよりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-12-07T04:13:23Z) - Time-aware Dynamic Graph Embedding for Asynchronous Structural Evolution [60.695162101159134]
既存の作業は、動的グラフを変更のシーケンスとして見るだけである。
動的グラフを接合時間に付随する時間的エッジシーケンスとして定式化する。
頂点とエッジのタイムパン
組み込みにはタイムアウェアなTransformerが提案されている。
vertexの動的接続と学習へのToEs。
頂点表現
論文 参考訳(メタデータ) (2022-07-01T15:32:56Z) - Instant Graph Neural Networks for Dynamic Graphs [18.916632816065935]
Instant Graph Neural Network (InstantGNN) を提案する。
提案手法は,時間を要する反復計算を回避し,表現の即時更新と即時予測を可能にする。
本モデルでは,既存手法よりも高精度かつ高次精度で最先端の精度を実現する。
論文 参考訳(メタデータ) (2022-06-03T03:27:42Z) - Discovering the Representation Bottleneck of Graph Neural Networks from
Multi-order Interactions [51.597480162777074]
グラフニューラルネットワーク(GNN)は、ノード機能を伝搬し、インタラクションを構築するためにメッセージパッシングパラダイムに依存している。
最近の研究は、異なるグラフ学習タスクはノード間の異なる範囲の相互作用を必要とすることを指摘している。
科学領域における2つの共通グラフ構築法、すなわち、emphK-nearest neighbor(KNN)グラフとemphfully-connected(FC)グラフについて検討する。
論文 参考訳(メタデータ) (2022-05-15T11:38:14Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Efficient Dynamic Graph Representation Learning at Scale [66.62859857734104]
本稿では,学習損失による時間依存性を選択的に表現し,計算の並列性を改善するための効率的な動的グラフ lEarning (EDGE) を提案する。
EDGEは、数百万のノードと数億の時間的イベントを持つ動的グラフにスケールでき、新しい最先端(SOTA)パフォーマンスを実現することができる。
論文 参考訳(メタデータ) (2021-12-14T22:24:53Z) - DyGCN: Dynamic Graph Embedding with Graph Convolutional Network [25.02329024926518]
動的グラフ畳み込みネットワーク(DyGCN)の効率的な動的グラフ埋め込み手法を提案する。
私たちのモデルは、ノードの埋め込みを時間節約とパフォーマンス保存の方法で更新できます。
論文 参考訳(メタデータ) (2021-04-07T07:28:44Z) - Temporal Graph Networks for Deep Learning on Dynamic Graphs [4.5158585619109495]
時系列グラフネットワーク(TGN)は,時系列イベントのシーケンスとして表される動的グラフの深層学習のための汎用的で効率的なフレームワークである。
メモリモジュールとグラフベースの演算子を組み合わせた新しい組み合わせにより、TGNは、計算効率が向上した以前のアプローチを大幅に上回ることができる。
論文 参考訳(メタデータ) (2020-06-18T16:06:18Z) - Structural Temporal Graph Neural Networks for Anomaly Detection in
Dynamic Graphs [54.13919050090926]
本稿では,動的グラフの異常エッジを検出するために,エンドツーエンドの時間構造グラフニューラルネットワークモデルを提案する。
特に,まずターゲットエッジを中心にした$h$ホップ囲むサブグラフを抽出し,各ノードの役割を識別するノードラベル機能を提案する。
抽出した特徴に基づき,GRU(Gated Recurrent Unit)を用いて,異常検出のための時間的情報を取得する。
論文 参考訳(メタデータ) (2020-05-15T09:17:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。