論文の概要: Instant Graph Neural Networks for Dynamic Graphs
- arxiv url: http://arxiv.org/abs/2206.01379v1
- Date: Fri, 3 Jun 2022 03:27:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-06 14:40:32.410540
- Title: Instant Graph Neural Networks for Dynamic Graphs
- Title(参考訳): 動的グラフのためのインスタントグラフニューラルネットワーク
- Authors: Yanping Zheng, Hanzhi Wang, Zhewei Wei, Jiajun Liu, Sibo Wang
- Abstract要約: Instant Graph Neural Network (InstantGNN) を提案する。
提案手法は,時間を要する反復計算を回避し,表現の即時更新と即時予測を可能にする。
本モデルでは,既存手法よりも高精度かつ高次精度で最先端の精度を実現する。
- 参考スコア(独自算出の注目度): 18.916632816065935
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have been widely used for modeling
graph-structured data. With the development of numerous GNN variants, recent
years have witnessed groundbreaking results in improving the scalability of
GNNs to work on static graphs with millions of nodes. However, how to instantly
represent continuous changes of large-scale dynamic graphs with GNNs is still
an open problem. Existing dynamic GNNs focus on modeling the periodic evolution
of graphs, often on a snapshot basis. Such methods suffer from two drawbacks:
first, there is a substantial delay for the changes in the graph to be
reflected in the graph representations, resulting in losses on the model's
accuracy; second, repeatedly calculating the representation matrix on the
entire graph in each snapshot is predominantly time-consuming and severely
limits the scalability. In this paper, we propose Instant Graph Neural Network
(InstantGNN), an incremental computation approach for the graph representation
matrix of dynamic graphs. Set to work with dynamic graphs with the edge-arrival
model, our method avoids time-consuming, repetitive computations and allows
instant updates on the representation and instant predictions. Graphs with
dynamic structures and dynamic attributes are both supported. The upper bounds
of time complexity of those updates are also provided. Furthermore, our method
provides an adaptive training strategy, which guides the model to retrain at
moments when it can make the greatest performance gains. We conduct extensive
experiments on several real-world and synthetic datasets. Empirical results
demonstrate that our model achieves state-of-the-art accuracy while having
orders-of-magnitude higher efficiency than existing methods.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングに広く利用されている。
多数のGNN変異体の開発に伴い、近年、数百万ノードの静的グラフを扱うためのGNNのスケーラビリティを改善するという、画期的な成果が見られた。
しかし、GNNによる大規模動的グラフの連続的な変化を即座に表現する方法は、まだ未解決の問題である。
既存の動的gnnは、しばしばスナップショットベースで、グラフの周期的進化のモデル化に焦点を当てている。
このような手法には2つの欠点がある: まず、グラフ表現に反映されるグラフの変更が大幅に遅延し、結果としてモデルの精度が低下する; 次に、各スナップショットにおけるグラフ全体の表現行列を繰り返し計算することは、主に時間を要するものであり、スケーラビリティを著しく制限する。
本稿では,動的グラフのグラフ表現行列に対するインクリメンタルな計算手法であるInstant Graph Neural Network (InstantGNN)を提案する。
エッジ領域モデルで動的グラフを扱うように設定することで,時間を要する反復計算を回避し,表現の即時更新と瞬時予測を可能にする。
動的構造と動的属性を持つグラフもサポートされている。
これらの更新の時間的複雑さの上限も提供される。
さらに,本手法は適応的学習戦略を提供し,最高の性能向上を達成できる瞬間にモデルの再訓練を誘導する。
いくつかの実世界および合成データセットについて広範な実験を行う。
実験結果から,既存手法よりも高次精度で精度を向上できることを示す。
関連論文リスト
- Gradient Transformation: Towards Efficient and Model-Agnostic Unlearning for Dynamic Graph Neural Networks [66.70786325911124]
グラフアンラーニングは、ユーザのプライバシ保護と、望ましくないデータによるネガティブな影響軽減に不可欠なツールとして登場した。
DGNNの普及に伴い、動的グラフアンラーニングの実装を検討することが不可欠となる。
DGNNアンラーニングを実装するために,効率的,効率的,モデルに依存しない,事後処理手法を提案する。
論文 参考訳(メタデータ) (2024-05-23T10:26:18Z) - DGC: Training Dynamic Graphs with Spatio-Temporal Non-Uniformity using
Graph Partitioning by Chunks [13.279145021338534]
動的グラフニューラルネットワーク(DGNN)は、空間的特徴と時間的特徴の両方を利用して動的グラフを学習する強力な能力を示している。
DGCは分散DGNNトレーニングシステムであり,テストベッドにおける最先端技術よりも1.25倍から7.52倍の高速化を実現する。
論文 参考訳(メタデータ) (2023-09-07T07:12:59Z) - Dynamic Causal Explanation Based Diffusion-Variational Graph Neural
Network for Spatio-temporal Forecasting [60.03169701753824]
時間予測のための動的拡散型グラフニューラルネットワーク(DVGNN)を提案する。
提案したDVGNNモデルは最先端のアプローチよりも優れ,Root Mean Squared Errorの結果が優れている。
論文 参考訳(メタデータ) (2023-05-16T11:38:19Z) - Decoupled Graph Neural Networks for Large Dynamic Graphs [14.635923016087503]
大規模動的グラフのための疎結合グラフニューラルネットワークを提案する。
このアルゴリズムは,両種類の動的グラフにおいて,最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-05-14T23:00:10Z) - Dynamic Graph Node Classification via Time Augmentation [15.580277876084873]
動的グラフ上のノード分類のための時間拡張グラフ動的ニューラルネットワーク(TADGNN)フレームワークを提案する。
TADGNNは, 時間的時間的変化を時間的に捉え, 時間的時間的グラフを生成する時間拡張モジュールと, 構築した時間的時間的グラフを用いて時間的時間的表現を学習する情報伝達モジュールの2つのモジュールから構成される。
実験により,TADGNNフレームワークは,高いスケーラビリティを示しながら,静的かつ動的なSOTAGNNモデルよりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-12-07T04:13:23Z) - Scaling Up Dynamic Graph Representation Learning via Spiking Neural
Networks [23.01100055999135]
時間グラフの時間的および構造的パターンを効率的に捉えるために,スケーラブルなフレームワークであるSpikeNetを提案する。
RNNの代替として、SNNは明らかにグラフ力学をニューロンのスパイクトレインとしてモデル化している。
SpikeNetは、パラメータや計算オーバーヘッドが大幅に少ない大きな時間グラフに一般化する。
論文 参考訳(メタデータ) (2022-08-15T09:22:15Z) - Time-aware Dynamic Graph Embedding for Asynchronous Structural Evolution [60.695162101159134]
既存の作業は、動的グラフを変更のシーケンスとして見るだけである。
動的グラフを接合時間に付随する時間的エッジシーケンスとして定式化する。
頂点とエッジのタイムパン
組み込みにはタイムアウェアなTransformerが提案されている。
vertexの動的接続と学習へのToEs。
頂点表現
論文 参考訳(メタデータ) (2022-07-01T15:32:56Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Efficient Dynamic Graph Representation Learning at Scale [66.62859857734104]
本稿では,学習損失による時間依存性を選択的に表現し,計算の並列性を改善するための効率的な動的グラフ lEarning (EDGE) を提案する。
EDGEは、数百万のノードと数億の時間的イベントを持つ動的グラフにスケールでき、新しい最先端(SOTA)パフォーマンスを実現することができる。
論文 参考訳(メタデータ) (2021-12-14T22:24:53Z) - Learning to Evolve on Dynamic Graphs [5.1521870302904125]
Learning to Evolve on Dynamic Graphs (LEDG)は、グラフ情報と時間情報を共同で学習する新しいアルゴリズムである。
LEDGはモデルに依存しないため、動的グラフ上でメッセージパッシングベースのグラフニューラルネットワーク(GNN)をトレーニングすることができる。
論文 参考訳(メタデータ) (2021-11-13T04:09:30Z) - Structural Temporal Graph Neural Networks for Anomaly Detection in
Dynamic Graphs [54.13919050090926]
本稿では,動的グラフの異常エッジを検出するために,エンドツーエンドの時間構造グラフニューラルネットワークモデルを提案する。
特に,まずターゲットエッジを中心にした$h$ホップ囲むサブグラフを抽出し,各ノードの役割を識別するノードラベル機能を提案する。
抽出した特徴に基づき,GRU(Gated Recurrent Unit)を用いて,異常検出のための時間的情報を取得する。
論文 参考訳(メタデータ) (2020-05-15T09:17:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。