論文の概要: Global-Lens Transformers: Adaptive Token Mixing for Dynamic Link Prediction
- arxiv url: http://arxiv.org/abs/2511.12442v1
- Date: Sun, 16 Nov 2025 04:05:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:24.098351
- Title: Global-Lens Transformers: Adaptive Token Mixing for Dynamic Link Prediction
- Title(参考訳): Global-Lens Transformers:動的リンク予測のための適応的なトークン混合
- Authors: Tao Zou, Chengfeng Wu, Tianxi Liao, Junchen Ye, Bowen Du,
- Abstract要約: 動的グラフのための新しいアテンションフリートランスフォーマースタイルフレームワークであるGLFormerを提案する。
広く使用されている6つの動的グラフベンチマークの実験では、GLFormerがSOTAのパフォーマンスを達成した。
- 参考スコア(独自算出の注目度): 9.234363752442915
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dynamic graph learning plays a pivotal role in modeling evolving relationships over time, especially for temporal link prediction tasks in domains such as traffic systems, social networks, and recommendation platforms. While Transformer-based models have demonstrated strong performance by capturing long-range temporal dependencies, their reliance on self-attention results in quadratic complexity with respect to sequence length, limiting scalability on high-frequency or large-scale graphs. In this work, we revisit the necessity of self-attention in dynamic graph modeling. Inspired by recent findings that attribute the success of Transformers more to their architectural design than attention itself, we propose GLFormer, a novel attention-free Transformer-style framework for dynamic graphs. GLFormer introduces an adaptive token mixer that performs context-aware local aggregation based on interaction order and time intervals. To capture long-term dependencies, we further design a hierarchical aggregation module that expands the temporal receptive field by stacking local token mixers across layers. Experiments on six widely-used dynamic graph benchmarks show that GLFormer achieves SOTA performance, which reveals that attention-free architectures can match or surpass Transformer baselines in dynamic graph settings with significantly improved efficiency.
- Abstract(参考訳): 動的グラフ学習は、特に交通システム、ソーシャルネットワーク、レコメンデーションプラットフォームなどのドメインにおける時間的リンク予測タスクにおいて、時間とともに進化する関係をモデル化する上で重要な役割を果たす。
トランスフォーマーベースのモデルでは、長期の時間的依存関係をキャプチャすることで、高いパフォーマンスを示す一方で、自己注意への依存は、シーケンス長に関して2次的な複雑さをもたらし、高周波グラフや大規模グラフのスケーラビリティを制限している。
本研究では,動的グラフモデリングにおける自己注意の必要性を再考する。
近年,トランスフォーマーの成功が注目されるよりもアーキテクチャ設計に起因しているという知見に触発されて,動的グラフのための新しいアテンションフリートランスフォーマースタイルフレームワークであるGLFormerを提案する。
GLFormerは、インタラクションの順序と時間間隔に基づいてコンテキスト対応のローカルアグリゲーションを実行するアダプティブトークンミキサーを導入している。
長期的依存関係を捉えるため,階層的なアグリゲーションモジュールを設計し,階層に局所トークンミキサーを積み重ねることで時間的受容場を拡張する。
広く使用されている6つの動的グラフベンチマークの実験では、GLFormerがSOTAのパフォーマンスを達成している。
関連論文リスト
- TIDFormer: Exploiting Temporal and Interactive Dynamics Makes A Great Dynamic Graph Transformer [27.798471160707436]
本稿では,時間的・インタラクティブなダイナミクスをフル活用した動的グラフトランスフォーマーTIDFormerを提案する。
時間的およびインタラクティブなダイナミクスをモデル化するために、カレンダーベースの時間分割情報を利用する。
さらに、歴史的相互作用パターンの潜在的な変化を捉え、時間的・インタラクティブな特徴を共同でモデル化する。
論文 参考訳(メタデータ) (2025-05-31T07:23:05Z) - A Comparative Study on Dynamic Graph Embedding based on Mamba and Transformers [0.29687381456164]
本研究では,変圧器と最近提案されたMambaアーキテクチャを用いた動的グラフ埋め込み手法の比較解析を行った。
グラフ畳み込みネットワークを用いたTransformerG2G Augment、グラフ同型ネットワークエッジ畳み込みを用いたmathcalDG-Mamba、mathcalGDG-Mambaの3つの新しいモデルを紹介した。
複数のベンチマークデータセットに対する実験により,Mambaベースのモデルが,リンク予測タスクにおけるトランスフォーマーベースのアプローチに匹敵する,あるいは優れた性能を達成できることが示されている。
論文 参考訳(メタデータ) (2024-12-15T19:56:56Z) - Supra-Laplacian Encoding for Transformer on Dynamic Graphs [14.293220696079919]
本稿では,時間情報を保持しつつ,GTアーキテクチャの新しいテンポラルエンコーディングを提案する。
具体的には、Time Dynamic Graphplas を多層グラフに変換し、関連する超ラテン行列のスペクトル特性を利用する。
第2のコントリビューションは、動的リンク予測のための正確なエッジ表現を提供するクロスアテンション機構と相互にノードをモデル化する。
論文 参考訳(メタデータ) (2024-09-26T15:56:40Z) - Todyformer: Towards Holistic Dynamic Graph Transformers with
Structure-Aware Tokenization [6.799413002613627]
Todyformerは、動的グラフに適したトランスフォーマーベースのニューラルネットワークである。
メッセージパッシングニューラルネットワーク(MPNN)のローカルエンコーディング能力とトランスフォーマーのグローバルエンコーディング能力を統合する。
Todyformerは、ダウンストリームタスクの最先端メソッドよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2024-02-02T23:05:30Z) - TimeGraphs: Graph-based Temporal Reasoning [64.18083371645956]
TimeGraphsは階層的時間グラフとして動的相互作用を特徴付ける新しいアプローチである。
提案手法は,コンパクトなグラフベース表現を用いて相互作用をモデル化し,多種多様な時間スケールでの適応推論を可能にする。
我々は,サッカーシミュレータ,抵抗ゲーム,MOMA人間活動データセットなど,複雑でダイナミックなエージェントインタラクションを持つ複数のデータセット上でTimeGraphsを評価する。
論文 参考訳(メタデータ) (2024-01-06T06:26:49Z) - EasyDGL: Encode, Train and Interpret for Continuous-time Dynamic Graph Learning [92.71579608528907]
本稿では,3つのモジュールから構成される使い勝手の良いパイプライン(EasyDGL)を設計することを目的とする。
EasyDGLは、進化するグラフデータからモデルが学習する周波数コンテンツの予測力を効果的に定量化することができる。
論文 参考訳(メタデータ) (2023-03-22T06:35:08Z) - Dynamic Graph Message Passing Networks for Visual Recognition [112.49513303433606]
長距離依存のモデリングは、コンピュータビジョンにおけるシーン理解タスクに不可欠である。
完全連結グラフはそのようなモデリングには有益であるが、計算オーバーヘッドは禁じられている。
本稿では,計算複雑性を大幅に低減する動的グラフメッセージパッシングネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-20T14:41:37Z) - Time-aware Dynamic Graph Embedding for Asynchronous Structural Evolution [60.695162101159134]
既存の作業は、動的グラフを変更のシーケンスとして見るだけである。
動的グラフを接合時間に付随する時間的エッジシーケンスとして定式化する。
頂点とエッジのタイムパン
組み込みにはタイムアウェアなTransformerが提案されている。
vertexの動的接続と学習へのToEs。
頂点表現
論文 参考訳(メタデータ) (2022-07-01T15:32:56Z) - TCL: Transformer-based Dynamic Graph Modelling via Contrastive Learning [87.38675639186405]
我々は,動的に進化するグラフを連続的に扱う,TCLと呼ばれる新しいグラフニューラルネットワークアプローチを提案する。
我々の知る限りでは、これは動的グラフ上の表現学習にコントラスト学習を適用する最初の試みである。
論文 参考訳(メタデータ) (2021-05-17T15:33:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。