論文の概要: TPGNN: Learning High-order Information in Dynamic Graphs via Temporal
Propagation
- arxiv url: http://arxiv.org/abs/2210.01171v2
- Date: Thu, 13 Apr 2023 23:41:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-17 16:53:56.543302
- Title: TPGNN: Learning High-order Information in Dynamic Graphs via Temporal
Propagation
- Title(参考訳): TPGNN:時間伝搬による動的グラフの高次情報学習
- Authors: Zehong Wang, Qi Li, Donghua Yu
- Abstract要約: 本稿では,時間的伝搬に基づくグラフニューラルネットワーク,すなわちTPGNNを提案する。
Propagatorは、$k$-hop内のアンカーノードから一時的な隣人へのメッセージを伝搬し、同時に近隣の状態を更新する。
オーバースムーシングを防ぐため、モデルは$n$-hopの隣人からのメッセージを補完し、アンカーに保存された$n$-hopのメモリベクトルを更新する。
- 参考スコア(独自算出の注目度): 7.616789069832552
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Temporal graph is an abstraction for modeling dynamic systems that consist of
evolving interaction elements. In this paper, we aim to solve an important yet
neglected problem -- how to learn information from high-order neighbors in
temporal graphs? -- to enhance the informativeness and discriminativeness for
the learned node representations. We argue that when learning high-order
information from temporal graphs, we encounter two challenges, i.e.,
computational inefficiency and over-smoothing, that cannot be solved by
conventional techniques applied on static graphs. To remedy these deficiencies,
we propose a temporal propagation-based graph neural network, namely TPGNN. To
be specific, the model consists of two distinct components, i.e., propagator
and node-wise encoder. The propagator is leveraged to propagate messages from
the anchor node to its temporal neighbors within $k$-hop, and then
simultaneously update the state of neighborhoods, which enables efficient
computation, especially for a deep model. In addition, to prevent
over-smoothing, the model compels the messages from $n$-hop neighbors to update
the $n$-hop memory vector preserved on the anchor. The node-wise encoder adopts
transformer architecture to learn node representations by explicitly learning
the importance of memory vectors preserved on the node itself, that is,
implicitly modeling the importance of messages from neighbors at different
layers, thus mitigating the over-smoothing. Since the encoding process will not
query temporal neighbors, we can dramatically save time consumption in
inference. Extensive experiments on temporal link prediction and node
classification demonstrate the superiority of TPGNN over state-of-the-art
baselines in efficiency and robustness.
- Abstract(参考訳): 時間グラフは、進化する相互作用要素からなる動的システムのモデリングのための抽象化である。
本稿では,時間グラフの高次隣人から情報を学ぶために,重要なが無視される問題を解くことを目的としている。
学習したノード表現に対する情報性と識別性を高める。
我々は,時間グラフから高次情報を学ぶ場合,従来の静的グラフに適用した手法では解決できない2つの課題,すなわち計算効率の非効率と過剰スムーシングに遭遇する。
これらの欠陥を解消するために,時間伝播に基づくグラフニューラルネットワーク,tpgnnを提案する。
具体的に言うと、モデルは2つの異なるコンポーネント、すなわちプロパゲータとノードワイドエンコーダから構成される。
プロパゲータは、アンカーノードからその時間的隣人へのメッセージを$k$-hop内で伝搬し、近隣の状態を同時に更新することで、特に深いモデルで効率的な計算を可能にする。
さらに、オーバースムーシングを防ぐため、モデルは$n$-hopの隣人からのメッセージを補完し、アンカーに保存された$n$-hopのメモリベクトルを更新する。
node-wiseエンコーダは、ノード自体に保存されているメモリベクトルの重要性を明示的に学習することで、ノード表現を学ぶためにtransformerアーキテクチャを採用している。
エンコーディングプロセスは時間的隣接をクエリしないので、推論の時間消費を劇的に削減できる。
時間的リンク予測とノード分類に関する広範囲な実験は、TPGNNが最先端のベースラインよりも効率と堅牢性に優れていることを示した。
関連論文リスト
- Higher-order Spatio-temporal Physics-incorporated Graph Neural Network for Multivariate Time Series Imputation [9.450743095412896]
欠落値は、複雑な潜時相関と時系列の動的性質のために必須だが難しい問題である。
この問題に対処するために,高次時空間物理を組み込んだグラフニューラルネットワーク(HSPGNN)を提案する。
HSPGNNは従来のデータ駆動型モデルよりも優れた動的解析と説明を提供する。
論文 参考訳(メタデータ) (2024-05-16T16:35:43Z) - CTRL: Continuous-Time Representation Learning on Temporal Heterogeneous Information Network [32.42051167404171]
時間HINを用いた連続時間表現学習モデルを提案する。
我々は、高次ネットワーク構造の進化を捉えるために、将来の事象(サブグラフ)予測タスクでモデルを訓練する。
その結果,本モデルは性能を著しく向上し,様々な最先端手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-05-11T03:39:22Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Temporal Aggregation and Propagation Graph Neural Networks for Dynamic
Representation [67.26422477327179]
時間グラフは連続時間を通してノード間の動的相互作用を示す。
本研究では,周辺地域全体と時間的グラフ畳み込みの新たな手法を提案する。
提案するTAP-GNNは,予測性能とオンライン推論遅延の両面で,既存の時間グラフ手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-15T08:17:18Z) - Self-Supervised Temporal Graph learning with Temporal and Structural Intensity Alignment [53.72873672076391]
時間グラフ学習は、動的情報を用いたグラフベースのタスクのための高品質な表現を生成することを目的としている。
本稿では,時間的および構造的情報の両方を抽出する時間的グラフ学習のためのS2Tという自己教師型手法を提案する。
S2Tは、いくつかのデータセットにおける最先端の競合と比較して、少なくとも10.13%のパフォーマンス改善を実現している。
論文 参考訳(メタデータ) (2023-02-15T06:36:04Z) - Dynamic Graph Message Passing Networks for Visual Recognition [112.49513303433606]
長距離依存のモデリングは、コンピュータビジョンにおけるシーン理解タスクに不可欠である。
完全連結グラフはそのようなモデリングには有益であるが、計算オーバーヘッドは禁じられている。
本稿では,計算複雑性を大幅に低減する動的グラフメッセージパッシングネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-20T14:41:37Z) - Efficient-Dyn: Dynamic Graph Representation Learning via Event-based
Temporal Sparse Attention Network [2.0047096160313456]
動的グラフニューラルネットワークは、研究者からますます注目を集めている。
本稿では,新しい動的グラフニューラルネットワークであるEfficient-Dynを提案する。
時間的情報を同じ量の時間的トポロジ的構造を持つパッチのシーケンスに適応的に符号化する。
論文 参考訳(メタデータ) (2022-01-04T23:52:24Z) - Uniting Heterogeneity, Inductiveness, and Efficiency for Graph
Representation Learning [68.97378785686723]
グラフニューラルネットワーク(GNN)は,グラフ上のノード表現学習の性能を大幅に向上させた。
GNNの過半数クラスは均質グラフのためにのみ設計されており、より有益な異種グラフに劣る適応性をもたらす。
本稿では,低次ノードと高次ノードの両方のエッジに付随するヘテロジニアスなノード特徴をパッケージ化する,新しい帰納的メタパスフリーメッセージパッシング方式を提案する。
論文 参考訳(メタデータ) (2021-04-04T23:31:39Z) - Spatio-Temporal Inception Graph Convolutional Networks for
Skeleton-Based Action Recognition [126.51241919472356]
我々はスケルトンに基づく行動認識のためのシンプルで高度にモジュール化されたグラフ畳み込みネットワークアーキテクチャを設計する。
ネットワークは,空間的および時間的経路から多粒度情報を集約するビルディングブロックを繰り返すことで構築される。
論文 参考訳(メタデータ) (2020-11-26T14:43:04Z) - Inductive Representation Learning on Temporal Graphs [33.44276155380476]
時間的動的グラフは、新しいノードの処理と時間的パターンのキャプチャを必要とする。
本研究では,時間-トポロジ的特徴を効率的に集約する時間グラフアテンション層を提案する。
TGAT層を積み重ねることで、ネットワークはノードの埋め込みを時間の関数として認識し、新しいノードと観測されたノードの両方の埋め込みを誘導的に推論することができる。
論文 参考訳(メタデータ) (2020-02-19T02:05:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。