論文の概要: FDGNN: Fully Dynamic Graph Neural Network
- arxiv url: http://arxiv.org/abs/2206.03469v1
- Date: Tue, 7 Jun 2022 17:40:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-08 15:34:32.250251
- Title: FDGNN: Fully Dynamic Graph Neural Network
- Title(参考訳): fdgnn:完全動的グラフニューラルネットワーク
- Authors: Alice Moallemy-Oureh, Silvia Beddar-Wiesing, R\"udiger Nather,
Josephine M. Thomas
- Abstract要約: 本稿ではフルダイナミックグラフを連続的に処理できる新しいフルダイナミックグラフニューラルネットワーク(FDGNN)を提案する。
提案手法は,ノードとエッジを埋め込み,追加および削除されたノードやエッジに対処するアクティビティと,可能な属性を含む。
我々のモデルは、局所的な再訓練のための単一のイベントを考慮し、効率的に更新することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dynamic Graph Neural Networks recently became more and more important as
graphs from many scientific fields, ranging from mathematics, biology, social
sciences, and physics to computer science, are dynamic by nature. While
temporal changes (dynamics) play an essential role in many real-world
applications, most of the models in the literature on Graph Neural Networks
(GNN) process static graphs. The few GNN models on dynamic graphs only consider
exceptional cases of dynamics, e.g., node attribute-dynamic graphs or
structure-dynamic graphs limited to additions or changes to the graph's edges,
etc. Therefore, we present a novel Fully Dynamic Graph Neural Network (FDGNN)
that can handle fully-dynamic graphs in continuous time. The proposed method
provides a node and an edge embedding that includes their activity to address
added and deleted nodes or edges, and possible attributes. Furthermore, the
embeddings specify Temporal Point Processes for each event to encode the
distributions of the structure- and attribute-related incoming graph events. In
addition, our model can be updated efficiently by considering single events for
local retraining.
- Abstract(参考訳): 動的グラフニューラルネットワークは、数学、生物学、社会科学、物理学、コンピュータ科学など、多くの科学分野のグラフが自然界で動的であるため、最近ますます重要になっている。
時間変化(力学)は多くの実世界のアプリケーションで不可欠な役割を果たすが、グラフニューラルネットワーク(gnn)のモデルの多くは静的グラフを処理する。
動的グラフ上の少数のgnnモデルは、ノード属性動的グラフやグラフのエッジの追加や変更に制限された構造動的グラフなど、ダイナミクスの例外的なケースのみを考慮に入れている。
そこで本研究では,フルダイナミックグラフを連続的に処理できる新しいフルダイナミックグラフニューラルネットワーク(FDGNN)を提案する。
提案手法は,ノードとエッジを埋め込み,追加および削除されたノードやエッジに対処するアクティビティと,可能な属性を含む。
さらに、埋め込みは、構造および属性に関連した入射グラフイベントの分布をエンコードする各イベントの時間的ポイントプロセスを指定する。
さらに,局所的な再トレーニングのための単一イベントを考慮し,効率的に更新できる。
関連論文リスト
- Gradient Transformation: Towards Efficient and Model-Agnostic Unlearning for Dynamic Graph Neural Networks [66.70786325911124]
グラフアンラーニングは、ユーザのプライバシ保護と、望ましくないデータによるネガティブな影響軽減に不可欠なツールとして登場した。
DGNNの普及に伴い、動的グラフアンラーニングの実装を検討することが不可欠となる。
DGNNアンラーニングを実装するために,効率的,効率的,モデルに依存しない,事後処理手法を提案する。
論文 参考訳(メタデータ) (2024-05-23T10:26:18Z) - Node-Time Conditional Prompt Learning In Dynamic Graphs [14.62182210205324]
DYGPROMPTは動的グラフモデリングのための新しい事前学習および迅速な学習フレームワークである。
我々はノードと時間の特徴が相互に特徴付けることを認識し、下流タスクにおけるノード時間パターンの進化をモデル化するための2つの条件ネットを提案する。
論文 参考訳(メタデータ) (2024-05-22T19:10:24Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - Discovering the Representation Bottleneck of Graph Neural Networks from
Multi-order Interactions [51.597480162777074]
グラフニューラルネットワーク(GNN)は、ノード機能を伝搬し、インタラクションを構築するためにメッセージパッシングパラダイムに依存している。
最近の研究は、異なるグラフ学習タスクはノード間の異なる範囲の相互作用を必要とすることを指摘している。
科学領域における2つの共通グラフ構築法、すなわち、emphK-nearest neighbor(KNN)グラフとemphfully-connected(FC)グラフについて検討する。
論文 参考訳(メタデータ) (2022-05-15T11:38:14Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Learning to Evolve on Dynamic Graphs [5.1521870302904125]
Learning to Evolve on Dynamic Graphs (LEDG)は、グラフ情報と時間情報を共同で学習する新しいアルゴリズムである。
LEDGはモデルに依存しないため、動的グラフ上でメッセージパッシングベースのグラフニューラルネットワーク(GNN)をトレーニングすることができる。
論文 参考訳(メタデータ) (2021-11-13T04:09:30Z) - Graph Neural Networks with Learnable Structural and Positional
Representations [83.24058411666483]
任意のグラフの大きな問題は、ノードの標準位置情報の欠如である。
ノードの位置ノード(PE)を導入し、Transformerのように入力層に注入する。
両方のGNNクラスで学習可能なPEを考えると、分子データセットのパフォーマンスは2.87%から64.14%に向上する。
論文 参考訳(メタデータ) (2021-10-15T05:59:15Z) - TCL: Transformer-based Dynamic Graph Modelling via Contrastive Learning [87.38675639186405]
我々は,動的に進化するグラフを連続的に扱う,TCLと呼ばれる新しいグラフニューラルネットワークアプローチを提案する。
我々の知る限りでは、これは動的グラフ上の表現学習にコントラスト学習を適用する最初の試みである。
論文 参考訳(メタデータ) (2021-05-17T15:33:25Z) - Learning Attribute-Structure Co-Evolutions in Dynamic Graphs [28.848851822725933]
本稿では動的属性グラフシーケンスをモデル化するCoEvoGNNという新しいフレームワークを提案する。
これは、シーケンスを通じて生成を埋め込むことで、現在のグラフに対する以前のグラフの影響を保っている。
進化における長距離依存をモデル化するための時間的自己認識機構を持つ。
論文 参考訳(メタデータ) (2020-07-25T20:07:28Z) - Temporal Graph Networks for Deep Learning on Dynamic Graphs [4.5158585619109495]
時系列グラフネットワーク(TGN)は,時系列イベントのシーケンスとして表される動的グラフの深層学習のための汎用的で効率的なフレームワークである。
メモリモジュールとグラフベースの演算子を組み合わせた新しい組み合わせにより、TGNは、計算効率が向上した以前のアプローチを大幅に上回ることができる。
論文 参考訳(メタデータ) (2020-06-18T16:06:18Z) - EvoNet: A Neural Network for Predicting the Evolution of Dynamic Graphs [26.77596449192451]
動的グラフの進化を予測するモデルを提案する。
具体的には、動的グラフの時間的進化パターンを捉えるために、グラフニューラルネットワークと繰り返しアーキテクチャを使用します。
提案手法は,ネットワークの進化にともなう複数の人工データセットと実世界のデータセットを用いて評価する。
論文 参考訳(メタデータ) (2020-03-02T12:59:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。