論文の概要: Recurrent Transformer for Dynamic Graph Representation Learning with
Edge Temporal States
- arxiv url: http://arxiv.org/abs/2304.10079v1
- Date: Thu, 20 Apr 2023 04:12:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-21 14:28:31.759566
- Title: Recurrent Transformer for Dynamic Graph Representation Learning with
Edge Temporal States
- Title(参考訳): エッジ時間状態を用いた動的グラフ表現学習のためのリカレントトランス
- Authors: Shengxiang Hu, Guobing Zou, Shiyi Lin, Liangrui Wu, Chenyang Zhou,
Bofeng Zhang, Yixin Chen
- Abstract要約: 本稿では,各スナップショットのエッジに様々なタイプと重みを割り当て,特定の時間状態を明確に記述するRDGT(Recurrent difference graph transformer)フレームワークを提案する。
4つの実世界のデータセットに対する実験結果は、離散動的グラフ表現学習におけるRDGTの優位性を示している。
- 参考スコア(独自算出の注目度): 19.898902023743467
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dynamic graph representation learning is growing as a trending yet
challenging research task owing to the widespread demand for graph data
analysis in real world applications. Despite the encouraging performance of
many recent works that build upon recurrent neural networks (RNNs) and graph
neural networks (GNNs), they fail to explicitly model the impact of edge
temporal states on node features over time slices. Additionally, they are
challenging to extract global structural features because of the inherent
over-smoothing disadvantage of GNNs, which further restricts the performance.
In this paper, we propose a recurrent difference graph transformer (RDGT)
framework, which firstly assigns the edges in each snapshot with various types
and weights to illustrate their specific temporal states explicitly, then a
structure-reinforced graph transformer is employed to capture the temporal node
representations by a recurrent learning paradigm. Experimental results on four
real-world datasets demonstrate the superiority of RDGT for discrete dynamic
graph representation learning, as it consistently outperforms competing methods
in dynamic link prediction tasks.
- Abstract(参考訳): 動的グラフ表現学習は、現実のアプリケーションでグラフデータ分析が広く求められているため、研究課題のトレンドとして成長している。
再帰的ニューラルネットワーク(rnn)とグラフニューラルネットワーク(gnn)を基盤とする最近の多くの作品の奨励的なパフォーマンスにもかかわらず、時間的スライスによるノード機能に対するエッジ時間状態の影響を明示的にモデル化できていない。
さらに、GNNの過度な過度な不利のため、グローバルな構造的特徴を抽出することは困難であり、パフォーマンスをさらに制限している。
本稿では,まず,各スナップショットのエッジに異なる型と重みを割り当てて,それぞれの時間的状態を明確に表現し,その時間的ノード表現をリカレント学習パラダイムでキャプチャするリカレント差分グラフトランスフォーマ(rdgt)フレームワークを提案する。
4つの実世界のデータセットに対する実験結果は、動的リンク予測タスクにおいて競合する手法を一貫して上回り、離散動的グラフ表現学習におけるRDGTの優位性を示す。
関連論文リスト
- DyExplainer: Explainable Dynamic Graph Neural Networks [37.16783248212211]
我々は,動的グラフニューラルネットワーク(GNN)を高速に説明するための新しいアプローチであるDyExplainerを提案する。
DyExplainerは動的なGNNバックボーンをトレーニングし、各スナップショットでグラフの表現を抽出する。
また,事前指導型正規化を実現するために,コントラスト学習技術によるアプローチも強化する。
論文 参考訳(メタデータ) (2023-10-25T05:26:33Z) - Dynamic Causal Explanation Based Diffusion-Variational Graph Neural
Network for Spatio-temporal Forecasting [60.03169701753824]
時間予測のための動的拡散型グラフニューラルネットワーク(DVGNN)を提案する。
提案したDVGNNモデルは最先端のアプローチよりも優れ,Root Mean Squared Errorの結果が優れている。
論文 参考訳(メタデータ) (2023-05-16T11:38:19Z) - Temporal Aggregation and Propagation Graph Neural Networks for Dynamic
Representation [67.26422477327179]
時間グラフは連続時間を通してノード間の動的相互作用を示す。
本研究では,周辺地域全体と時間的グラフ畳み込みの新たな手法を提案する。
提案するTAP-GNNは,予測性能とオンライン推論遅延の両面で,既存の時間グラフ手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-15T08:17:18Z) - EasyDGL: Encode, Train and Interpret for Continuous-time Dynamic Graph
Learning [114.72818205974285]
本稿では,3つのモジュールから構成される使い勝手の良いパイプライン(EasyDGL)を設計することを目的とする。
EasyDGLは、進化するグラフデータからモデルが学習する周波数コンテンツの予測力を効果的に定量化することができる。
論文 参考訳(メタデータ) (2023-03-22T06:35:08Z) - Instant Graph Neural Networks for Dynamic Graphs [18.916632816065935]
Instant Graph Neural Network (InstantGNN) を提案する。
提案手法は,時間を要する反復計算を回避し,表現の即時更新と即時予測を可能にする。
本モデルでは,既存手法よりも高精度かつ高次精度で最先端の精度を実現する。
論文 参考訳(メタデータ) (2022-06-03T03:27:42Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - Efficient-Dyn: Dynamic Graph Representation Learning via Event-based
Temporal Sparse Attention Network [2.0047096160313456]
動的グラフニューラルネットワークは、研究者からますます注目を集めている。
本稿では,新しい動的グラフニューラルネットワークであるEfficient-Dynを提案する。
時間的情報を同じ量の時間的トポロジ的構造を持つパッチのシーケンスに適応的に符号化する。
論文 参考訳(メタデータ) (2022-01-04T23:52:24Z) - Efficient Dynamic Graph Representation Learning at Scale [66.62859857734104]
本稿では,学習損失による時間依存性を選択的に表現し,計算の並列性を改善するための効率的な動的グラフ lEarning (EDGE) を提案する。
EDGEは、数百万のノードと数億の時間的イベントを持つ動的グラフにスケールでき、新しい最先端(SOTA)パフォーマンスを実現することができる。
論文 参考訳(メタデータ) (2021-12-14T22:24:53Z) - Dynamic Graph Representation Learning via Graph Transformer Networks [41.570839291138114]
動的グラフ変換器 (DGT) を用いた動的グラフ学習手法を提案する。
DGTは、グラフトポロジを効果的に学習し、暗黙のリンクをキャプチャするための時空間符号化を持つ。
DGTはいくつかの最先端のベースラインと比較して優れた性能を示す。
論文 参考訳(メタデータ) (2021-11-19T21:44:23Z) - Anomaly Detection in Dynamic Graphs via Transformer [30.926884264054042]
DYnamic graph(TADDY)のためのトランスフォーマーを用いた新しい異常検出フレームワークを提案する。
本フレームワークは,進化するグラフストリームにおいて,各ノードの構造的役割と時間的役割をよりよく表現するための包括的ノード符号化戦略を構築する。
提案するTADDYフレームワークは,4つの実世界のデータセットに対して,最先端の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2021-06-18T02:27:19Z) - Learning to Drop: Robust Graph Neural Network via Topological Denoising [50.81722989898142]
グラフニューラルネットワーク(GNN)のロバスト性および一般化性能を向上させるために,パラメータ化トポロジカルデノイングネットワークであるPTDNetを提案する。
PTDNetは、パラメータ化されたネットワークでスパーシファイドグラフ内のエッジ数をペナル化することで、タスク非関連エッジを創出する。
PTDNetはGNNの性能を著しく向上させ,さらにノイズの多いデータセットでは性能が向上することを示す。
論文 参考訳(メタデータ) (2020-11-13T18:53:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。