論文の概要: EvoFormer: Learning Dynamic Graph-Level Representations with Structural and Temporal Bias Correction
- arxiv url: http://arxiv.org/abs/2508.15378v1
- Date: Thu, 21 Aug 2025 09:19:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 16:26:46.25624
- Title: EvoFormer: Learning Dynamic Graph-Level Representations with Structural and Temporal Bias Correction
- Title(参考訳): EvoFormer: 構造的・時間的バイアス補正による動的グラフレベル表現の学習
- Authors: Haodi Zhong, Liuxin Zou, Di Wang, Bo Wang, Zhenxing Niu, Quan Wang,
- Abstract要約: 動的グラフレベルの埋め込みは、ネットワークの構造的進化を捉えることを目的としている。
既存の手法は、構造的訪問バイアスと急激な進化盲点という、2つの重要かつ未調査の課題に直面している。
動的グラフレベルの表現学習に適した進化対応トランスフォーマーフレームワークであるEvoFormerを提案する。
- 参考スコア(独自算出の注目度): 16.798673711008906
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dynamic graph-level embedding aims to capture structural evolution in networks, which is essential for modeling real-world scenarios. However, existing methods face two critical yet under-explored issues: Structural Visit Bias, where random walk sampling disproportionately emphasizes high-degree nodes, leading to redundant and noisy structural representations; and Abrupt Evolution Blindness, the failure to effectively detect sudden structural changes due to rigid or overly simplistic temporal modeling strategies, resulting in inconsistent temporal embeddings. To overcome these challenges, we propose EvoFormer, an evolution-aware Transformer framework tailored for dynamic graph-level representation learning. To mitigate Structural Visit Bias, EvoFormer introduces a Structure-Aware Transformer Module that incorporates positional encoding based on node structural roles, allowing the model to globally differentiate and accurately represent node structures. To overcome Abrupt Evolution Blindness, EvoFormer employs an Evolution-Sensitive Temporal Module, which explicitly models temporal evolution through a sequential three-step strategy: (I) Random Walk Timestamp Classification, generating initial timestamp-aware graph-level embeddings; (II) Graph-Level Temporal Segmentation, partitioning the graph stream into segments reflecting structurally coherent periods; and (III) Segment-Aware Temporal Self-Attention combined with an Edge Evolution Prediction task, enabling the model to precisely capture segment boundaries and perceive structural evolution trends, effectively adapting to rapid temporal shifts. Extensive evaluations on five benchmark datasets confirm that EvoFormer achieves state-of-the-art performance in graph similarity ranking, temporal anomaly detection, and temporal segmentation tasks, validating its effectiveness in correcting structural and temporal biases.
- Abstract(参考訳): 動的グラフレベルの埋め込みは、現実世界のシナリオをモデル化するのに不可欠なネットワークの構造的進化を捉えることを目的としている。
しかし、既存の手法では、ランダムウォークサンプリングが高次ノードを不均等に強調し、冗長でノイズの多い構造表現に繋がる構造的ビヤス(Structure Visit Bias)と、急激な進化的ブラインドネス(Abrupt Evolution Blindness)、厳密または過度に単純化された時間的モデリング戦略による急激な構造的変化を効果的に検出できないこと、一貫性のない時間的埋め込みをもたらす。
これらの課題を克服するために,動的グラフレベルの表現学習に適した進化対応トランスフォーマーフレームワークであるEvoFormerを提案する。
構造訪問バイアスを軽減するため、EvoFormerは、ノード構造ロールに基づいた位置符号化を組み込んだStructure-Aware Transformerモジュールを導入した。
I) ランダムウォーク タイムスタンプ分類、初期タイムスタンプ対応グラフレベルの埋め込みの生成、(II) グラフレベル 時間分割、グラフストリームを構造的に整合性のある期間を反映したセグメントに分割、(III) セグメント認識 時間的自己アテンションとエッジ進化予測タスクを組み合わせることで、セグメント境界を正確に捉え、構造的進化の傾向を知覚し、迅速な時間的シフトに効果的に適応できる。
5つのベンチマークデータセットの大規模な評価により、EvoFormerはグラフ類似度ランキング、時間的異常検出、時間的セグメンテーションタスクにおいて最先端のパフォーマンスを達成し、構造的バイアスと時間的バイアスの補正の有効性を検証する。
関連論文リスト
- Learning Time-Aware Causal Representation for Model Generalization in Evolving Domains [50.66049136093248]
動的因果要因と因果機構のドリフトを組み込んだ時間認識型構造因果モデル(SCM)を開発した。
本研究では,時間領域毎に最適な因果予測値が得られることを示す。
合成と実世界の両方のデータセットの結果から,SynCは時間的一般化性能に優れることが示された。
論文 参考訳(メタデータ) (2025-06-21T14:05:37Z) - STRAP: Spatio-Temporal Pattern Retrieval for Out-of-Distribution Generalization [34.53308463024231]
本稿では,時空間探索型パターン学習フレームワークSTRAPを提案する。
推論中、STRAPは現在の入力と類似性に基づいてライブラリから関連するパターンを検索し、プラグイン・アンド・プレイ・プロンプト機構を介してモデルに注入する。
複数の実世界のストリーミンググラフデータセットに対する実験によると、STRAPはSTOODタスクの最先端STGNNベースラインを一貫して上回っている。
論文 参考訳(メタデータ) (2025-05-26T06:11:05Z) - Structural-Temporal Coupling Anomaly Detection with Dynamic Graph Transformer [41.16574023720132]
動的グラフトランスモデルを用いた構造・時間結合異常検出アーキテクチャを提案する。
具体的には、2つの統合レベルから構造的特徴と時間的特徴を導入し、異常を意識したグラフの進化パターンを提供する。
論文 参考訳(メタデータ) (2025-05-13T08:10:41Z) - Dynamic Graph Representation Learning via Edge Temporal States Modeling and Structure-reinforced Transformer [5.093187534912688]
本稿では,動的グラフ表現学習のための新しいフレームワークであるRecurrent Structure-Reinforced Graph Transformer (RSGT)を紹介する。
RSGTは、繰り返し学習パラダイムを通じて、グラフトポロジと進化力学の両方をコードする時間ノード表現をキャプチャする。
離散動的グラフ表現学習におけるRSGTの優れた性能を示し、動的リンク予測タスクにおける既存の手法よりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-04-20T04:12:50Z) - Self-Supervised Temporal Graph learning with Temporal and Structural Intensity Alignment [53.72873672076391]
時間グラフ学習は、動的情報を用いたグラフベースのタスクのための高品質な表現を生成することを目的としている。
本稿では,時間的および構造的情報の両方を抽出する時間的グラフ学習のためのS2Tという自己教師型手法を提案する。
S2Tは、いくつかのデータセットにおける最先端の競合と比較して、少なくとも10.13%のパフォーマンス改善を実現している。
論文 参考訳(メタデータ) (2023-02-15T06:36:04Z) - Time-aware Dynamic Graph Embedding for Asynchronous Structural Evolution [60.695162101159134]
既存の作業は、動的グラフを変更のシーケンスとして見るだけである。
動的グラフを接合時間に付随する時間的エッジシーケンスとして定式化する。
頂点とエッジのタイムパン
組み込みにはタイムアウェアなTransformerが提案されている。
vertexの動的接続と学習へのToEs。
頂点表現
論文 参考訳(メタデータ) (2022-07-01T15:32:56Z) - Towards Robust and Adaptive Motion Forecasting: A Causal Representation
Perspective [72.55093886515824]
本稿では,3つの潜伏変数群からなる動的過程として,運動予測の因果的形式化を導入する。
我々は、因果グラフを近似するために、不変なメカニズムやスタイルの共創者の表現を分解するモジュラーアーキテクチャを考案する。
合成および実データを用いた実験結果から,提案した3つの成分は,学習した動き表現の頑健性と再利用性を大幅に向上することが示された。
論文 参考訳(メタデータ) (2021-11-29T18:59:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。