論文の概要: Efficient-Dyn: Dynamic Graph Representation Learning via Event-based
Temporal Sparse Attention Network
- arxiv url: http://arxiv.org/abs/2201.01384v1
- Date: Tue, 4 Jan 2022 23:52:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-06 18:58:40.843227
- Title: Efficient-Dyn: Dynamic Graph Representation Learning via Event-based
Temporal Sparse Attention Network
- Title(参考訳): Efficient-Dyn: イベントベース時空間注意ネットワークによる動的グラフ表現学習
- Authors: Yan Pang, Chao Liu
- Abstract要約: 動的グラフニューラルネットワークは、研究者からますます注目を集めている。
本稿では,新しい動的グラフニューラルネットワークであるEfficient-Dynを提案する。
時間的情報を同じ量の時間的トポロジ的構造を持つパッチのシーケンスに適応的に符号化する。
- 参考スコア(独自算出の注目度): 2.0047096160313456
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Static graph neural networks have been widely used in modeling and
representation learning of graph structure data. However, many real-world
problems, such as social networks, financial transactions, recommendation
systems, etc., are dynamic, that is, nodes and edges are added or deleted over
time. Therefore, in recent years, dynamic graph neural networks have received
more and more attention from researchers. In this work, we propose a novel
dynamic graph neural network, Efficient-Dyn. It adaptively encodes temporal
information into a sequence of patches with an equal amount of
temporal-topological structure. Therefore, while avoiding the use of snapshots
to cause information loss, it also achieves a finer time granularity, which is
close to what continuous networks could provide. In addition, we also designed
a lightweight module, Sparse Temporal Transformer, to compute node
representations through both structural neighborhoods and temporal dynamics.
Since the fully-connected attention conjunction is simplified, the computation
cost is far lower than the current state-of-the-arts. Link prediction
experiments are conducted on both continuous and discrete graph datasets.
Through comparing with several state-of-the-art graph embedding baselines, the
experimental results demonstrate that Efficient-Dyn has a faster inference
speed while having competitive performance.
- Abstract(参考訳): 静的グラフニューラルネットワークは、グラフ構造データのモデリングと表現学習に広く利用されている。
しかし,ソーシャルネットワークや金融取引,レコメンデーションシステムなど,現実的な問題の多くは動的であり,ノードやエッジの追加や削除は時間とともに行われる。
そのため、近年、動的グラフニューラルネットワークは研究者からますます注目を集めている。
本研究では,新しい動的グラフニューラルネットワーク, efficient-dynを提案する。
時間的情報を同じ量の時間的トポロジー構造を持つパッチのシーケンスに適応的に符号化する。
したがって、情報損失の原因となるスナップショットの使用を避ける一方で、連続ネットワークが提供するものに近い、より微細な時間粒度を実現している。
さらに,構造近傍と時間ダイナミクスの両方を通してノード表現を計算するための軽量モジュールsparse temporal transformerを設計した。
完全接続された注意結合は単純化されているので、計算コストは現在の技術よりはるかに低い。
連続グラフデータセットと離散グラフデータセットの両方でリンク予測実験を行う。
いくつかの最先端グラフ埋め込みベースラインと比較することにより,実験結果から,効率的な推論速度が向上し,競争性能が向上した。
関連論文リスト
- TimeGraphs: Graph-based Temporal Reasoning [64.18083371645956]
TimeGraphsは階層的時間グラフとして動的相互作用を特徴付ける新しいアプローチである。
提案手法は,コンパクトなグラフベース表現を用いて相互作用をモデル化し,多種多様な時間スケールでの適応推論を可能にする。
我々は,サッカーシミュレータ,抵抗ゲーム,MOMA人間活動データセットなど,複雑でダイナミックなエージェントインタラクションを持つ複数のデータセット上でTimeGraphsを評価する。
論文 参考訳(メタデータ) (2024-01-06T06:26:49Z) - Dynamic Causal Explanation Based Diffusion-Variational Graph Neural
Network for Spatio-temporal Forecasting [60.03169701753824]
時間予測のための動的拡散型グラフニューラルネットワーク(DVGNN)を提案する。
提案したDVGNNモデルは最先端のアプローチよりも優れ,Root Mean Squared Errorの結果が優れている。
論文 参考訳(メタデータ) (2023-05-16T11:38:19Z) - Temporal Aggregation and Propagation Graph Neural Networks for Dynamic
Representation [67.26422477327179]
時間グラフは連続時間を通してノード間の動的相互作用を示す。
本研究では,周辺地域全体と時間的グラフ畳み込みの新たな手法を提案する。
提案するTAP-GNNは,予測性能とオンライン推論遅延の両面で,既存の時間グラフ手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-15T08:17:18Z) - Dynamic Graph Message Passing Networks for Visual Recognition [112.49513303433606]
長距離依存のモデリングは、コンピュータビジョンにおけるシーン理解タスクに不可欠である。
完全連結グラフはそのようなモデリングには有益であるが、計算オーバーヘッドは禁じられている。
本稿では,計算複雑性を大幅に低減する動的グラフメッセージパッシングネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-20T14:41:37Z) - Scalable Spatiotemporal Graph Neural Networks [14.415967477487692]
グラフニューラルネットワーク(GNN)は、しばしば予測アーキテクチャのコアコンポーネントである。
ほとんどの時間前GNNでは、計算複雑性はグラフ内のリンクの回数のシーケンスの長さの2乗係数までスケールする。
本稿では,時間的・空間的両方のダイナミックスを効率的に符号化するスケーラブルなアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-09-14T09:47:38Z) - Scaling Up Dynamic Graph Representation Learning via Spiking Neural
Networks [23.01100055999135]
時間グラフの時間的および構造的パターンを効率的に捉えるために,スケーラブルなフレームワークであるSpikeNetを提案する。
RNNの代替として、SNNは明らかにグラフ力学をニューロンのスパイクトレインとしてモデル化している。
SpikeNetは、パラメータや計算オーバーヘッドが大幅に少ない大きな時間グラフに一般化する。
論文 参考訳(メタデータ) (2022-08-15T09:22:15Z) - Continuous Temporal Graph Networks for Event-Based Graph Data [41.786721257905555]
本研究では、時間グラフデータの連続的ダイナミクスを捉えるために、CTGN(Continuous Temporal Graph Networks)を提案する。
鍵となる考え方は、ニューラルネットワークの常微分方程式(ODE)を用いて、動的グラフ上のノード表現の連続的ダイナミクスを特徴づけることである。
帰納的タスクと帰納的タスクの両方の実験結果から,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2022-05-31T16:17:02Z) - Deep Dynamic Effective Connectivity Estimation from Multivariate Time
Series [0.0]
我々はニューラルネットワークトレーニング(DECENNT)による動的有効接続推定を開発する。
DECENNTは5つの異なるタスクに対して最先端(SOTA)メソッドを上回り、解釈可能なタスク固有の動的グラフを推論する。
論文 参考訳(メタデータ) (2022-02-04T21:14:21Z) - Temporal Graph Network Embedding with Causal Anonymous Walks
Representations [54.05212871508062]
本稿では,時間グラフネットワークに基づく動的ネットワーク表現学習のための新しいアプローチを提案する。
評価のために、時間的ネットワーク埋め込みの評価のためのベンチマークパイプラインを提供する。
欧州の大手銀行が提供した実世界のダウンストリームグラフ機械学習タスクにおいて、我々のモデルの適用性と優れた性能を示す。
論文 参考訳(メタデータ) (2021-08-19T15:39:52Z) - Graph Structure of Neural Networks [104.33754950606298]
ニューラルネットワークのグラフ構造が予測性能にどのように影響するかを示す。
リレーショナルグラフの"スイートスポット"は、予測性能を大幅に改善したニューラルネットワークにつながる。
トップパフォーマンスニューラルネットワークは、実際の生物学的ニューラルネットワークと驚くほどよく似たグラフ構造を持つ。
論文 参考訳(メタデータ) (2020-07-13T17:59:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。