論文の概要: TAWRMAC: A Novel Dynamic Graph Representation Learning Method
- arxiv url: http://arxiv.org/abs/2510.09884v1
- Date: Fri, 10 Oct 2025 21:38:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.669399
- Title: TAWRMAC: A Novel Dynamic Graph Representation Learning Method
- Title(参考訳): 動的グラフ表現学習法TAWRMAC
- Authors: Soheila Farokhi, Xiaojun Qi, Hamid Karimi,
- Abstract要約: TAWRMACは、時間匿名ウォークスをリスタート、メモリ拡張、Neighbor共起埋め込みと統合する新しいフレームワークである。
TAWRMACは安定で、一般化可能で、コンテキスト対応の埋め込みを提供することで、連続時間動的グラフ学習における技術の状態を前進させる。
- 参考スコア(独自算出の注目度): 1.7230595437884768
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dynamic graph representation learning has become essential for analyzing evolving networks in domains such as social network analysis, recommendation systems, and traffic analysis. However, existing continuous-time methods face three key challenges: (1) some methods depend solely on node-specific memory without effectively incorporating information from neighboring nodes, resulting in embedding staleness; (2) most fail to explicitly capture correlations between node neighborhoods, limiting contextual awareness; and (3) many fail to fully capture the structural dynamics of evolving graphs, especially in absence of rich link attributes. To address these limitations, we introduce TAWRMAC-a novel framework that integrates Temporal Anonymous Walks with Restart, Memory Augmentation, and Neighbor Co-occurrence embedding. TAWRMAC enhances embedding stability through a memory-augmented GNN with fixedtime encoding and improves contextual representation by explicitly capturing neighbor correlations. Additionally, its Temporal Anonymous Walks with Restart mechanism distinguishes between nodes exhibiting repetitive interactions and those forming new connections beyond their immediate neighborhood. This approach captures structural dynamics better and supports strong inductive learning. Extensive experiments on multiple benchmark datasets demonstrate that TAWRMAC consistently outperforms state-of-the-art methods in dynamic link prediction and node classification under both transductive and inductive settings across three different negative sampling strategies. By providing stable, generalizable, and context-aware embeddings, TAWRMAC advances the state of the art in continuous-time dynamic graph learning. The code is available at https://anonymous.4open.science/r/tawrmac-A253 .
- Abstract(参考訳): 動的グラフ表現学習は、ソーシャルネットワーク分析、レコメンデーションシステム、トラフィック分析などの領域におけるネットワークの進化を解析するために欠かせないものとなっている。
しかし,既存の連続時間法では,(1) 近隣ノードからの情報を効果的に組み込むことなくノード固有のメモリにのみ依存する手法,(2) ノード近傍間の相関関係を明示的に把握できない手法,(3) 進化するグラフの構造的ダイナミクス,特にリッチリンク属性の欠如など,3つの課題に直面している。
これらの制約に対処するため、TAWRMACは、時間匿名ウォークスをリスタート、メモリ拡張、隣の共起埋め込みと統合する新しいフレームワークである。
TAWRMACはメモリ拡張GNNによる埋め込み安定性を一定時間符号化で向上し、隣接する相関関係を明示的にキャプチャすることでコンテキスト表現を改善する。
さらに、その時間匿名ウォークス・アンド・リスタート機構は、反復的な相互作用を示すノードと、そのすぐ近くに新しい接続を形成するノードを区別する。
このアプローチは構造力学をより良く捉え、強力な帰納的学習をサポートする。
複数のベンチマークデータセットに対する大規模な実験により、TAWRMACは3つの異なる負のサンプリング戦略にまたがって、動的リンク予測と帰納的および帰納的設定のノード分類において、最先端の手法を一貫して上回ることを示した。
TAWRMACは安定で、一般化可能で、コンテキスト対応の埋め込みを提供することで、連続時間動的グラフ学習の最先端を前進させる。
コードはhttps://anonymous.4open.science/r/tawrmac-A253で公開されている。
関連論文リスト
- Analysis of Anonymous User Interaction Relationships and Prediction of Advertising Feedback Based on Graph Neural Network [5.250286096386298]
本稿では3つの主要な貢献を成すDTH-GNN(Decoupled Temporal-Hierarchical Graph Neural Network)を提案する。
まず,各相互作用を短周期バースト,昼周期,長距離メモリの3種類のチャネルに分割し,並列拡張残差の畳み込みカーネルを用いて特徴抽出を行う。
第三に、フィードバック知覚のコントラストを定式化し、様々なタイムスライスの一貫性を最大化し、二重ビューターゲットによる制御露光情報のエントロピーを最大化し、二重モーメントキュー蒸留のグローバルプロトタイプを示す。
論文 参考訳(メタデータ) (2025-06-11T04:40:24Z) - Dynamic Graph Representation Learning via Edge Temporal States Modeling and Structure-reinforced Transformer [5.093187534912688]
本稿では,動的グラフ表現学習のための新しいフレームワークであるRecurrent Structure-Reinforced Graph Transformer (RSGT)を紹介する。
RSGTは、繰り返し学習パラダイムを通じて、グラフトポロジと進化力学の両方をコードする時間ノード表現をキャプチャする。
離散動的グラフ表現学習におけるRSGTの優れた性能を示し、動的リンク予測タスクにおける既存の手法よりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-04-20T04:12:50Z) - Temporal Aggregation and Propagation Graph Neural Networks for Dynamic
Representation [67.26422477327179]
時間グラフは連続時間を通してノード間の動的相互作用を示す。
本研究では,周辺地域全体と時間的グラフ畳み込みの新たな手法を提案する。
提案するTAP-GNNは,予測性能とオンライン推論遅延の両面で,既存の時間グラフ手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-15T08:17:18Z) - Self-Supervised Temporal Graph learning with Temporal and Structural Intensity Alignment [53.72873672076391]
時間グラフ学習は、動的情報を用いたグラフベースのタスクのための高品質な表現を生成することを目的としている。
本稿では,時間的および構造的情報の両方を抽出する時間的グラフ学習のためのS2Tという自己教師型手法を提案する。
S2Tは、いくつかのデータセットにおける最先端の競合と比較して、少なくとも10.13%のパフォーマンス改善を実現している。
論文 参考訳(メタデータ) (2023-02-15T06:36:04Z) - Directed Acyclic Graph Structure Learning from Dynamic Graphs [44.21230819336437]
特徴(変数)の有向非巡回グラフ(DAG)の構造を推定することは、潜在データ生成プロセスを明らかにする上で重要な役割を果たす。
このようなユビキタスな動的グラフデータに基づくノード特徴生成機構の学習問題について検討する。
論文 参考訳(メタデータ) (2022-11-30T14:22:01Z) - DDGHM: Dual Dynamic Graph with Hybrid Metric Training for Cross-Domain
Sequential Recommendation [15.366783212837515]
Sequential Recommendation (SR) は、ユーザがアイテム間を移動する方法をモデル化することによって、ユーザの行動の進化パターンを特徴付ける。
この問題を解決するため、我々はクロスドメインシーケンスレコメンデーション(CDSR)に焦点を当てる。
本稿では,CDSR問題のための新しいフレームワークであるDDGHMを提案する。
論文 参考訳(メタデータ) (2022-09-21T07:53:06Z) - Robust Knowledge Adaptation for Dynamic Graph Neural Networks [61.8505228728726]
動的グラフニューラルネットワークのための強化学習による堅牢な知識適応フレームワークであるAda-DyGNNを提案する。
我々のアプローチは、強化学習による堅牢な知識適応を探求する最初の試みである。
3つのベンチマークデータセットの実験は、Ada-DyGNNが最先端のパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2022-07-22T02:06:53Z) - Mixed Graph Contrastive Network for Semi-Supervised Node Classification [63.924129159538076]
我々はMixed Graph Contrastive Network(MGCN)と呼ばれる新しいグラフコントラスト学習手法を提案する。
本研究では,非摂動増強戦略と相関還元機構により,潜伏埋め込みの識別能力を向上する。
これら2つの設定を組み合わせることで、識別表現学習のために、豊富なノードと稀に価値あるラベル付きノードの両方から、豊富な監視情報を抽出する。
論文 参考訳(メタデータ) (2022-06-06T14:26:34Z) - ConTIG: Continuous Representation Learning on Temporal Interaction
Graphs [32.25218861788686]
ConTIGは、ノード埋め込み軌道の連続的動的進化をキャプチャする連続表現法である。
我々のモデルは、最新の相互作用、隣り合う特徴、固有の特徴を含む、動的ネットワークにおける3つの要素を生かしている。
実験結果は、時間的リンク予測、時間的ノードレコメンデーション、動的ノード分類タスクにおけるConTIGの優位性を示す。
論文 参考訳(メタデータ) (2021-09-27T12:11:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。