論文の概要: Kernelized Edge Attention: Addressing Semantic Attention Blurring in Temporal Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2602.00596v1
- Date: Sat, 31 Jan 2026 08:22:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.279521
- Title: Kernelized Edge Attention: Addressing Semantic Attention Blurring in Temporal Graph Neural Networks
- Title(参考訳): カーネル化されたエッジアテンション:時間グラフニューラルネットワークのセマンティックアテンションブラリングに対処する
- Authors: Govind Waghmare, Srini Rohan Gujulla Leel, Nikhil Tumbde, Sumedh B G, Sonia Gupta, Srikanta Bedathur,
- Abstract要約: 本稿では、連続時間カーネル群を用いてエッジ特徴を変調する新しいアテンション形式であるKEATを紹介する。
最近のDyGFormerよりも最大18%改善され、リンク予測タスクではTGNより7%向上した。
- 参考スコア(独自算出の注目度): 7.383288419236205
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Temporal Graph Neural Networks (TGNNs) aim to capture the evolving structure and timing of interactions in dynamic graphs. Although many models incorporate time through encodings or architectural design, they often compute attention over entangled node and edge representations, failing to reflect their distinct temporal behaviors. Node embeddings evolve slowly as they aggregate long-term structural context, while edge features reflect transient, timestamped interactions (e.g. messages, trades, or transactions). This mismatch results in semantic attention blurring, where attention weights cannot distinguish between slowly drifting node states and rapidly changing, information-rich edge interactions. As a result, models struggle to capture fine-grained temporal dependencies and provide limited transparency into how temporal relevance is computed. This paper introduces KEAT (Kernelized Edge Attention for Temporal Graphs), a novel attention formulation that modulates edge features using a family of continuous-time kernels, including Laplacian, RBF, and learnable MLP variant. KEAT preserves the distinct roles of nodes and edges, and integrates seamlessly with both Transformer-style (e.g., DyGFormer) and message-passing (e.g., TGN) architectures. It achieves up to 18% MRR improvement over the recent DyGFormer and 7% over TGN on link prediction tasks, enabling more accurate, interpretable and temporally aware message passing in TGNNs.
- Abstract(参考訳): 時間グラフニューラルネットワーク(TGNN)は、動的グラフにおける相互作用の構造とタイミングの進化を捉えることを目的としている。
多くのモデルはエンコーディングやアーキテクチャ設計を通じて時間を含むが、しばしば絡み合ったノードやエッジ表現に注意を向ける。
ノードの埋め込みは長期の構造的コンテキストを集約するにつれてゆっくりと進化し、エッジ機能は過渡的でタイムスタンプのあるインタラクション(メッセージ、取引、トランザクションなど)を反映する。
このミスマッチは意味的注意のぼかしをもたらし、注意重みはゆっくりと漂うノード状態と、急速に変化する情報豊富なエッジ相互作用を区別できない。
結果として、モデルは微細な時間的依存を捉え、時間的関係の計算方法に関して限られた透明性を提供するのに苦労する。
本稿では,KEAT(Kernelized Edge Attention for Temporal Graphs)を紹介する。これは,ラプラシアン,RBF,学習可能なMPP変種など,連続的なカーネル群を用いてエッジ特徴を変調する新しいアテンション形式である。
KEATはノードとエッジの異なる役割を保持し、Transformerスタイル(例:DyGFormer)とメッセージパッシング(例:TGN)の両方のアーキテクチャとシームレスに統合する。
最近のDyGFormerよりも最大18%改善され、リンク予測タスクでTGNよりも7%向上し、TGNNにおけるより正確で、解釈可能で、時間的に認識されたメッセージパッシングを可能にした。
関連論文リスト
- Full-History Graphs with Edge-Type Decoupled Networks for Temporal Reasoning [16.53173953073833]
我々は、各時間ステップ毎に各エンティティの1つのノードをインスタンス化するフルヒストリーグラフを導入する。
運転注意予測(Waymo)とBitcoin不正検出(Elliptic++)で評価する。
これらの利得は、1つのグラフにおいて異なるエッジとして構造的および時間的関係を表す利点を示す。
論文 参考訳(メタデータ) (2025-08-05T09:29:07Z) - Beyond Message Passing: Neural Graph Pattern Machine [50.78679002846741]
本稿では,グラフサブストラクチャから直接学習することで,メッセージパッシングをバイパスする新しいフレームワークであるNeural Graph Pattern Machine(GPM)を紹介する。
GPMはタスク関連グラフパターンを効率的に抽出し、エンコードし、優先順位付けする。
論文 参考訳(メタデータ) (2025-01-30T20:37:47Z) - Temporal Aggregation and Propagation Graph Neural Networks for Dynamic
Representation [67.26422477327179]
時間グラフは連続時間を通してノード間の動的相互作用を示す。
本研究では,周辺地域全体と時間的グラフ畳み込みの新たな手法を提案する。
提案するTAP-GNNは,予測性能とオンライン推論遅延の両面で,既存の時間グラフ手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-15T08:17:18Z) - TPGNN: Learning High-order Information in Dynamic Graphs via Temporal
Propagation [7.616789069832552]
本稿では,時間的伝搬に基づくグラフニューラルネットワーク,すなわちTPGNNを提案する。
Propagatorは、$k$-hop内のアンカーノードから一時的な隣人へのメッセージを伝搬し、同時に近隣の状態を更新する。
オーバースムーシングを防ぐため、モデルは$n$-hopの隣人からのメッセージを補完し、アンカーに保存された$n$-hopのメモリベクトルを更新する。
論文 参考訳(メタデータ) (2022-10-03T18:39:07Z) - Dynamic Graph Message Passing Networks for Visual Recognition [112.49513303433606]
長距離依存のモデリングは、コンピュータビジョンにおけるシーン理解タスクに不可欠である。
完全連結グラフはそのようなモデリングには有益であるが、計算オーバーヘッドは禁じられている。
本稿では,計算複雑性を大幅に低減する動的グラフメッセージパッシングネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-20T14:41:37Z) - Spatio-Temporal Joint Graph Convolutional Networks for Traffic
Forecasting [75.10017445699532]
近年、時間グラフモデリング問題として交通予測の定式化に焦点が移っている。
本稿では,道路網における交通予測の精度向上のための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-11-25T08:45:14Z) - Gated Graph Recurrent Neural Networks [176.3960927323358]
グラフ処理の一般的な学習フレームワークとしてグラフリカレントニューラルネットワーク(GRNN)を導入する。
勾配の消失問題に対処するため,時間,ノード,エッジゲートの3つの異なるゲーティング機構でGRNNを前進させた。
数値的な結果は、GRNNがGNNやRNNよりも優れており、グラフプロセスの時間構造とグラフ構造の両方を考慮することが重要であることを示している。
論文 参考訳(メタデータ) (2020-02-03T22:35:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。