論文の概要: Marked Neural Spatio-Temporal Point Process Involving a Dynamic Graph Neural Network
- arxiv url: http://arxiv.org/abs/2206.03469v2
- Date: Wed, 28 Aug 2024 13:34:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-29 21:50:55.878487
- Title: Marked Neural Spatio-Temporal Point Process Involving a Dynamic Graph Neural Network
- Title(参考訳): 動的グラフニューラルネットワークを含むマーク付きニューラル時空間過程
- Authors: Alice Moallemy-Oureh, Silvia Beddar-Wiesing, Yannick Nagel, Rüdiger Nather, Josephine M. Thomas,
- Abstract要約: 時間的ポイントプロセス(TPP)は近年,グラフデータの動的学習においてますます興味深いものになりつつある。
TPPは、イベントストリームの有意義な特徴と、将来のイベントの予測メカニズムを提供する。
我々は,属性や空間データを処理し,グラフストリーム内の任意の事象をモデル化・予測するTPPを学習するために,マーク付きニューラルネットワーク時空間点過程(MNSTPP)を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Temporal Point Processes (TPPs) have recently become increasingly interesting for learning dynamics in graph data. A reason for this is that learning on dynamic graph data is becoming more relevant, since data from many scientific fields, ranging from mathematics, biology, social sciences, and physics to computer science, is naturally related and inherently dynamic. In addition, TPPs provide a meaningful characterization of event streams and a prediction mechanism for future events. Therefore, (semi-)parameterized Neural TPPs have been introduced whose characterization can be (partially) learned and, thus, enable the representation of more complex phenomena. However, the research on modeling dynamic graphs with TPPs is relatively young, and only a few models for node attribute changes or evolving edges have been proposed yet. To allow for learning on fully dynamic graph streams, i.e., graphs that can change in their structure (addition/deletion of nodes/edge) and in their node/edge attributes, we propose a Marked Neural Spatio-Temporal Point Process (MNSTPP). It leverages a Dynamic Graph Neural Network to learn a Marked TPP that handles attributes and spatial data to model and predict any event in a graph stream.
- Abstract(参考訳): 時間的ポイントプロセス(TPP)は近年,グラフデータの動的学習においてますます興味深いものになりつつある。
その理由は、数学、生物学、社会科学、物理学からコンピュータ科学まで、多くの科学分野からのデータが自然に関連付けられ、本質的に動的であるからである。
さらに、TPPはイベントストリームの有意義な特徴付けと、将来のイベントの予測メカニズムを提供する。
したがって、(半)パラメータ化されたニューラルTPPは(部分的に)学習可能なので、より複雑な現象の表現を可能にする。
しかし、TPPを用いた動的グラフのモデリングに関する研究は比較的若く、ノード属性の変化やエッジの進化に関するモデルはまだいくつか提案されていない。
完全動的グラフストリーム(すなわちノード/エッジの付加・削除)とノード/エッジ属性で変化するグラフを学習できるようにするため,マーク付きニューラル時空間点プロセス(MNSTPP)を提案する。
動的グラフニューラルネットワークを活用して、属性と空間データを処理するマーク付きTPPを学び、グラフストリーム内の任意のイベントをモデル化して予測する。
関連論文リスト
- Gradient Transformation: Towards Efficient and Model-Agnostic Unlearning for Dynamic Graph Neural Networks [66.70786325911124]
グラフアンラーニングは、ユーザのプライバシ保護と、望ましくないデータによるネガティブな影響軽減に不可欠なツールとして登場した。
DGNNの普及に伴い、動的グラフアンラーニングの実装を検討することが不可欠となる。
DGNNアンラーニングを実装するために,効率的,効率的,モデルに依存しない,事後処理手法を提案する。
論文 参考訳(メタデータ) (2024-05-23T10:26:18Z) - Node-Time Conditional Prompt Learning In Dynamic Graphs [14.62182210205324]
DYGPROMPTは動的グラフモデリングのための新しい事前学習および迅速な学習フレームワークである。
我々はノードと時間の特徴が相互に特徴付けることを認識し、下流タスクにおけるノード時間パターンの進化をモデル化するための2つの条件ネットを提案する。
論文 参考訳(メタデータ) (2024-05-22T19:10:24Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - Discovering the Representation Bottleneck of Graph Neural Networks from
Multi-order Interactions [51.597480162777074]
グラフニューラルネットワーク(GNN)は、ノード機能を伝搬し、インタラクションを構築するためにメッセージパッシングパラダイムに依存している。
最近の研究は、異なるグラフ学習タスクはノード間の異なる範囲の相互作用を必要とすることを指摘している。
科学領域における2つの共通グラフ構築法、すなわち、emphK-nearest neighbor(KNN)グラフとemphfully-connected(FC)グラフについて検討する。
論文 参考訳(メタデータ) (2022-05-15T11:38:14Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Learning to Evolve on Dynamic Graphs [5.1521870302904125]
Learning to Evolve on Dynamic Graphs (LEDG)は、グラフ情報と時間情報を共同で学習する新しいアルゴリズムである。
LEDGはモデルに依存しないため、動的グラフ上でメッセージパッシングベースのグラフニューラルネットワーク(GNN)をトレーニングすることができる。
論文 参考訳(メタデータ) (2021-11-13T04:09:30Z) - Graph Neural Networks with Learnable Structural and Positional
Representations [83.24058411666483]
任意のグラフの大きな問題は、ノードの標準位置情報の欠如である。
ノードの位置ノード(PE)を導入し、Transformerのように入力層に注入する。
両方のGNNクラスで学習可能なPEを考えると、分子データセットのパフォーマンスは2.87%から64.14%に向上する。
論文 参考訳(メタデータ) (2021-10-15T05:59:15Z) - TCL: Transformer-based Dynamic Graph Modelling via Contrastive Learning [87.38675639186405]
我々は,動的に進化するグラフを連続的に扱う,TCLと呼ばれる新しいグラフニューラルネットワークアプローチを提案する。
我々の知る限りでは、これは動的グラフ上の表現学習にコントラスト学習を適用する最初の試みである。
論文 参考訳(メタデータ) (2021-05-17T15:33:25Z) - Learning Attribute-Structure Co-Evolutions in Dynamic Graphs [28.848851822725933]
本稿では動的属性グラフシーケンスをモデル化するCoEvoGNNという新しいフレームワークを提案する。
これは、シーケンスを通じて生成を埋め込むことで、現在のグラフに対する以前のグラフの影響を保っている。
進化における長距離依存をモデル化するための時間的自己認識機構を持つ。
論文 参考訳(メタデータ) (2020-07-25T20:07:28Z) - Temporal Graph Networks for Deep Learning on Dynamic Graphs [4.5158585619109495]
時系列グラフネットワーク(TGN)は,時系列イベントのシーケンスとして表される動的グラフの深層学習のための汎用的で効率的なフレームワークである。
メモリモジュールとグラフベースの演算子を組み合わせた新しい組み合わせにより、TGNは、計算効率が向上した以前のアプローチを大幅に上回ることができる。
論文 参考訳(メタデータ) (2020-06-18T16:06:18Z) - EvoNet: A Neural Network for Predicting the Evolution of Dynamic Graphs [26.77596449192451]
動的グラフの進化を予測するモデルを提案する。
具体的には、動的グラフの時間的進化パターンを捉えるために、グラフニューラルネットワークと繰り返しアーキテクチャを使用します。
提案手法は,ネットワークの進化にともなう複数の人工データセットと実世界のデータセットを用いて評価する。
論文 参考訳(メタデータ) (2020-03-02T12:59:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。