論文の概要: TIDFormer: Exploiting Temporal and Interactive Dynamics Makes A Great Dynamic Graph Transformer
- arxiv url: http://arxiv.org/abs/2506.00431v1
- Date: Sat, 31 May 2025 07:23:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:32.992249
- Title: TIDFormer: Exploiting Temporal and Interactive Dynamics Makes A Great Dynamic Graph Transformer
- Title(参考訳): TIDFormer: 時間的・インタラクティブなダイナミクスを爆発させると、グラフ変換が高速になる
- Authors: Jie Peng, Zhewei Wei, Yuhang Ye,
- Abstract要約: 本稿では,時間的・インタラクティブなダイナミクスをフル活用した動的グラフトランスフォーマーTIDFormerを提案する。
時間的およびインタラクティブなダイナミクスをモデル化するために、カレンダーベースの時間分割情報を利用する。
さらに、歴史的相互作用パターンの潜在的な変化を捉え、時間的・インタラクティブな特徴を共同でモデル化する。
- 参考スコア(独自算出の注目度): 27.798471160707436
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Due to the proficiency of self-attention mechanisms (SAMs) in capturing dependencies in sequence modeling, several existing dynamic graph neural networks (DGNNs) utilize Transformer architectures with various encoding designs to capture sequential evolutions of dynamic graphs. However, the effectiveness and efficiency of these Transformer-based DGNNs vary significantly, highlighting the importance of properly defining the SAM on dynamic graphs and comprehensively encoding temporal and interactive dynamics without extra complex modules. In this work, we propose TIDFormer, a dynamic graph TransFormer that fully exploits Temporal and Interactive Dynamics in an efficient manner. We clarify and verify the interpretability of our proposed SAM, addressing the open problem of its uninterpretable definitions on dynamic graphs in previous works. To model the temporal and interactive dynamics, respectively, we utilize the calendar-based time partitioning information and extract informative interaction embeddings for both bipartite and non-bipartite graphs using merely the sampled first-order neighbors. In addition, we jointly model temporal and interactive features by capturing potential changes in historical interaction patterns through a simple decomposition. We conduct extensive experiments on several dynamic graph datasets to verify the effectiveness and efficiency of TIDFormer. The experimental results demonstrate that TIDFormer excels, outperforming state-of-the-art models across most datasets and experimental settings. Furthermore, TIDFormer exhibits significant efficiency advantages compared to previous Transformer-based methods.
- Abstract(参考訳): シーケンスモデリングの依存関係をキャプチャする自己注意機構(SAM)の能力のため、いくつかの既存の動的グラフニューラルネットワーク(DGNN)はトランスフォーマーアーキテクチャを様々なエンコーディング設計で利用し、動的グラフのシーケンシャルな進化を捉える。
しかし、これらのトランスフォーマーベースのDGNNの有効性と効率は、動的グラフ上でSAMを適切に定義し、余分な複雑なモジュールなしで時間的・インタラクティブなダイナミクスを包括的に符号化することの重要性を強調している。
本研究では,TIDFormerを提案する。TIDFormerは動的グラフトランスフォーマーで,時間的・インタラクティブなダイナミクスを効率的に活用する。
提案したSAMの解釈可能性を明らかにし検証し、従来の研究における動的グラフ上の非解釈可能定義のオープンな問題に対処する。
時間的およびインタラクティブなダイナミクスをモデル化するために、カレンダーベースの時間分割情報を使用し、サンプル化された一階隣人のみを用いて、二部グラフと非二部グラフの両方に対する情報的相互作用埋め込みを抽出する。
さらに,従来のインタラクションパターンの潜在的な変化を単純な分解によって捉えることで,時間的・インタラクティブな特徴を共同でモデル化する。
我々は、TIDFormerの有効性と効率を検証するために、いくつかの動的グラフデータセットに関する広範な実験を行った。
実験の結果、TIDFormerは、ほとんどのデータセットと実験的な設定で最先端のモデルより優れています。
さらに、TIDFormerは、従来のTransformerベースの方法と比較して、大きな効率上の利点を示している。
関連論文リスト
- ScaDyG:A New Paradigm for Large-scale Dynamic Graph Learning [31.629956388962814]
ScaDyGは動的グラフネットワークのためのタイムアウェアなスケーラブルな学習パラダイムである。
12のデータセットの実験では、ScaDyGは、ノードレベルとリンクレベルの両方の下流タスクにおいて、互換性のあるパフォーマンス、あるいは他のSOTAメソッドよりも優れています。
論文 参考訳(メタデータ) (2025-01-27T12:39:16Z) - A Comparative Study on Dynamic Graph Embedding based on Mamba and Transformers [0.29687381456164]
本研究では,変圧器と最近提案されたMambaアーキテクチャを用いた動的グラフ埋め込み手法の比較解析を行った。
グラフ畳み込みネットワークを用いたTransformerG2G Augment、グラフ同型ネットワークエッジ畳み込みを用いたmathcalDG-Mamba、mathcalGDG-Mambaの3つの新しいモデルを紹介した。
複数のベンチマークデータセットに対する実験により,Mambaベースのモデルが,リンク予測タスクにおけるトランスフォーマーベースのアプローチに匹敵する,あるいは優れた性能を達成できることが示されている。
論文 参考訳(メタデータ) (2024-12-15T19:56:56Z) - TimeGraphs: Graph-based Temporal Reasoning [64.18083371645956]
TimeGraphsは階層的時間グラフとして動的相互作用を特徴付ける新しいアプローチである。
提案手法は,コンパクトなグラフベース表現を用いて相互作用をモデル化し,多種多様な時間スケールでの適応推論を可能にする。
我々は,サッカーシミュレータ,抵抗ゲーム,MOMA人間活動データセットなど,複雑でダイナミックなエージェントインタラクションを持つ複数のデータセット上でTimeGraphsを評価する。
論文 参考訳(メタデータ) (2024-01-06T06:26:49Z) - EasyDGL: Encode, Train and Interpret for Continuous-time Dynamic Graph Learning [92.71579608528907]
本稿では,3つのモジュールから構成される使い勝手の良いパイプライン(EasyDGL)を設計することを目的とする。
EasyDGLは、進化するグラフデータからモデルが学習する周波数コンテンツの予測力を効果的に定量化することができる。
論文 参考訳(メタデータ) (2023-03-22T06:35:08Z) - Time-aware Dynamic Graph Embedding for Asynchronous Structural Evolution [60.695162101159134]
既存の作業は、動的グラフを変更のシーケンスとして見るだけである。
動的グラフを接合時間に付随する時間的エッジシーケンスとして定式化する。
頂点とエッジのタイムパン
組み込みにはタイムアウェアなTransformerが提案されている。
vertexの動的接続と学習へのToEs。
頂点表現
論文 参考訳(メタデータ) (2022-07-01T15:32:56Z) - Analogous to Evolutionary Algorithm: Designing a Unified Sequence Model [58.17021225930069]
実演的進化アルゴリズム(EA)と類似した視覚変換器の合理性について説明する。
我々は、より効率的なEATモデルを提案し、様々なタスクに柔軟に対処するタスク関連ヘッドを設計する。
近年のビジョントランスに比べて,イメージネット分類作業における最先端の成果が得られている。
論文 参考訳(メタデータ) (2021-05-31T16:20:03Z) - TCL: Transformer-based Dynamic Graph Modelling via Contrastive Learning [87.38675639186405]
我々は,動的に進化するグラフを連続的に扱う,TCLと呼ばれる新しいグラフニューラルネットワークアプローチを提案する。
我々の知る限りでは、これは動的グラフ上の表現学習にコントラスト学習を適用する最初の試みである。
論文 参考訳(メタデータ) (2021-05-17T15:33:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。