論文の概要: TPGNN: Learning High-order Information in Dynamic Graphs via Temporal
Propagation
- arxiv url: http://arxiv.org/abs/2210.01171v1
- Date: Mon, 3 Oct 2022 18:39:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 15:26:23.718654
- Title: TPGNN: Learning High-order Information in Dynamic Graphs via Temporal
Propagation
- Title(参考訳): TPGNN:時間伝搬による動的グラフの高次情報学習
- Authors: Zehong Wang, Qi Li, Donghua Yu
- Abstract要約: 本稿では,時間的伝搬に基づくグラフニューラルネットワーク,すなわちTPGNNを提案する。
Propagatorは、$k$-hop内のアンカーノードから一時的な隣人へのメッセージを伝搬し、同時に近隣の状態を更新する。
オーバースムーシングを防ぐため、モデルは$n$-hopの隣人からのメッセージを補完し、アンカーに保存された$n$-hopのメモリベクトルを更新する。
- 参考スコア(独自算出の注目度): 7.616789069832552
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Temporal graph is an abstraction for modeling dynamic systems that consist of
evolving interaction elements. In this paper, we aim to solve an important yet
neglected problem -- how to learn information from high-order neighbors in
temporal graphs? -- to enhance the informativeness and discriminativeness for
the learned node representations. We argue that when learning high-order
information from temporal graphs, we encounter two challenges, i.e.,
computational inefficiency and over-smoothing, that cannot be solved by
conventional techniques applied on static graphs. To remedy these deficiencies,
we propose a temporal propagation-based graph neural network, namely TPGNN. To
be specific, the model consists of two distinct components, i.e., propagator
and node-wise encoder. The propagator is leveraged to propagate messages from
the anchor node to its temporal neighbors within $k$-hop, and then
simultaneously update the state of neighborhoods, which enables efficient
computation, especially for a deep model. In addition, to prevent
over-smoothing, the model compels the messages from $n$-hop neighbors to update
the $n$-hop memory vector preserved on the anchor. The node-wise encoder adopts
transformer architecture to learn node representations by explicitly learning
the importance of memory vectors preserved on the node itself, that is,
implicitly modeling the importance of messages from neighbors at different
layers, thus mitigating the over-smoothing. Since the encoding process will not
query temporal neighbors, we can dramatically save time consumption in
inference. Extensive experiments on temporal link prediction and node
classification demonstrate the superiority of TPGNN over state-of-the-art
baselines in efficiency and robustness.
- Abstract(参考訳): 時間グラフは、進化する相互作用要素からなる動的システムのモデリングのための抽象化である。
本稿では,時間グラフの高次隣人から情報を学ぶために,重要なが無視される問題を解くことを目的としている。
学習したノード表現に対する情報性と識別性を高める。
我々は,時間グラフから高次情報を学ぶ場合,従来の静的グラフに適用した手法では解決できない2つの課題,すなわち計算効率の非効率と過剰スムーシングに遭遇する。
これらの欠陥を解消するために,時間伝播に基づくグラフニューラルネットワーク,tpgnnを提案する。
具体的に言うと、モデルは2つの異なるコンポーネント、すなわちプロパゲータとノードワイドエンコーダから構成される。
プロパゲータは、アンカーノードからその時間的隣人へのメッセージを$k$-hop内で伝搬し、近隣の状態を同時に更新することで、特に深いモデルで効率的な計算を可能にする。
さらに、オーバースムーシングを防ぐため、モデルは$n$-hopの隣人からのメッセージを補完し、アンカーに保存された$n$-hopのメモリベクトルを更新する。
node-wiseエンコーダは、ノード自体に保存されているメモリベクトルの重要性を明示的に学習することで、ノード表現を学ぶためにtransformerアーキテクチャを採用している。
エンコーディングプロセスは時間的隣接をクエリしないので、推論の時間消費を劇的に削減できる。
時間的リンク予測とノード分類に関する広範囲な実験は、TPGNNが最先端のベースラインよりも効率と堅牢性に優れていることを示した。
関連論文リスト
- Learning adjacency matrix for dynamic graph neural network [3.8561286070836798]
欠落したリンクを学習するために特別に設計されたエンコーダを導入する。
エンコーダは、Adjacency Matrix (BA) を処理し、接続されていないノード間の接続を予測する。
このマトリックスはその後、複雑なサブテンポラルネットワークをキャプチャするために、Neural Block Adjacency Matrix (STBAM)に供給される。
論文 参考訳(メタデータ) (2023-10-04T06:42:33Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Temporal Aggregation and Propagation Graph Neural Networks for Dynamic
Representation [67.26422477327179]
時間グラフは連続時間を通してノード間の動的相互作用を示す。
本研究では,周辺地域全体と時間的グラフ畳み込みの新たな手法を提案する。
提案するTAP-GNNは,予測性能とオンライン推論遅延の両面で,既存の時間グラフ手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-15T08:17:18Z) - Self-Supervised Temporal Graph learning with Temporal and Structural
Intensity Alignment [58.440828569153915]
時間グラフ学習は、動的情報とともに、グラフベースのタスクのための高品質な表現を生成することを目的としている。
時間グラフ学習のための自己教師型S2Tを提案する。
S2Tは、いくつかのデータセットにおける最先端の競合と比較して、少なくとも10.13%のパフォーマンス改善を実現している。
論文 参考訳(メタデータ) (2023-02-15T06:36:04Z) - Dynamic Graph Message Passing Networks for Visual Recognition [112.49513303433606]
長距離依存のモデリングは、コンピュータビジョンにおけるシーン理解タスクに不可欠である。
完全連結グラフはそのようなモデリングには有益であるが、計算オーバーヘッドは禁じられている。
本稿では,計算複雑性を大幅に低減する動的グラフメッセージパッシングネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-20T14:41:37Z) - Spatial-Temporal Adaptive Graph Convolution with Attention Network for
Traffic Forecasting [4.1700160312787125]
交通予測のための新しいネットワークである空間時間適応グラフ畳み込み(STAAN)を提案する。
まず,GCN処理中に事前に定義された行列を使わずに適応的依存行列を採用し,ノード間の依存性を推定する。
第2に,グローバルな依存のために設計されたグラフアテンションネットワークに基づくPWアテンションと,空間ブロックとしてのGCNを統合した。
論文 参考訳(メタデータ) (2022-06-07T09:08:35Z) - Efficient-Dyn: Dynamic Graph Representation Learning via Event-based
Temporal Sparse Attention Network [2.0047096160313456]
動的グラフニューラルネットワークは、研究者からますます注目を集めている。
本稿では,新しい動的グラフニューラルネットワークであるEfficient-Dynを提案する。
時間的情報を同じ量の時間的トポロジ的構造を持つパッチのシーケンスに適応的に符号化する。
論文 参考訳(メタデータ) (2022-01-04T23:52:24Z) - Uniting Heterogeneity, Inductiveness, and Efficiency for Graph
Representation Learning [68.97378785686723]
グラフニューラルネットワーク(GNN)は,グラフ上のノード表現学習の性能を大幅に向上させた。
GNNの過半数クラスは均質グラフのためにのみ設計されており、より有益な異種グラフに劣る適応性をもたらす。
本稿では,低次ノードと高次ノードの両方のエッジに付随するヘテロジニアスなノード特徴をパッケージ化する,新しい帰納的メタパスフリーメッセージパッシング方式を提案する。
論文 参考訳(メタデータ) (2021-04-04T23:31:39Z) - Spatio-Temporal Inception Graph Convolutional Networks for
Skeleton-Based Action Recognition [126.51241919472356]
我々はスケルトンに基づく行動認識のためのシンプルで高度にモジュール化されたグラフ畳み込みネットワークアーキテクチャを設計する。
ネットワークは,空間的および時間的経路から多粒度情報を集約するビルディングブロックを繰り返すことで構築される。
論文 参考訳(メタデータ) (2020-11-26T14:43:04Z) - Inductive Representation Learning on Temporal Graphs [33.44276155380476]
時間的動的グラフは、新しいノードの処理と時間的パターンのキャプチャを必要とする。
本研究では,時間-トポロジ的特徴を効率的に集約する時間グラフアテンション層を提案する。
TGAT層を積み重ねることで、ネットワークはノードの埋め込みを時間の関数として認識し、新しいノードと観測されたノードの両方の埋め込みを誘導的に推論することができる。
論文 参考訳(メタデータ) (2020-02-19T02:05:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。