論文の概要: UTG: Towards a Unified View of Snapshot and Event Based Models for Temporal Graphs
- arxiv url: http://arxiv.org/abs/2407.12269v1
- Date: Wed, 17 Jul 2024 02:35:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-18 18:38:37.236953
- Title: UTG: Towards a Unified View of Snapshot and Event Based Models for Temporal Graphs
- Title(参考訳): UTG:テンポラルグラフのためのスナップショットとイベントベースモデルの統一ビューを目指して
- Authors: Shenyang Huang, Farimah Poursafaei, Reihaneh Rabbany, Guillaume Rabusseau, Emanuele Rossi,
- Abstract要約: スナップショットベースおよびイベントベース機械学習モデルを統一するフレームワークであるUTG(Unified Temporal Graph)を導入する。
時系列リンク予測タスクにおいて、スナップショットとイベントベースモデルの両方を時間グラフの両タイプで評価する。
- 参考スコア(独自算出の注目度): 14.607800477099971
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Temporal graphs have gained increasing importance due to their ability to model dynamically evolving relationships. These graphs can be represented through either a stream of edge events or a sequence of graph snapshots. Until now, the development of machine learning methods for both types has occurred largely in isolation, resulting in limited experimental comparison and theoretical crosspollination between the two. In this paper, we introduce Unified Temporal Graph (UTG), a framework that unifies snapshot-based and event-based machine learning models under a single umbrella, enabling models developed for one representation to be applied effectively to datasets of the other. We also propose a novel UTG training procedure to boost the performance of snapshot-based models in the streaming setting. We comprehensively evaluate both snapshot and event-based models across both types of temporal graphs on the temporal link prediction task. Our main findings are threefold: first, when combined with UTG training, snapshotbased models can perform competitively with event-based models such as TGN and GraphMixer even on event datasets. Second, snapshot-based models are at least an order of magnitude faster than most event-based models during inference. Third, while event-based methods such as NAT and DyGFormer outperforms snapshotbased methods on both types of temporal graphs, this is because they leverage joint neighborhood structural features thus emphasizing the potential to incorporate these features into snapshot-based models as well. These findings highlight the importance of comparing model architectures independent of the data format and suggest the potential of combining the efficiency of snapshot-based models with the performance of event-based models in the future.
- Abstract(参考訳): 時間グラフは、動的に進化する関係をモデル化する能力によって、重要性が増している。
これらのグラフは、エッジイベントのストリームまたはグラフスナップショットのシーケンスを通じて表現することができる。
これまで、両タイプの機械学習手法の開発はほとんど独立して行われており、実験的な比較と理論的補間が限られている。
本稿では,1つの傘の下にスナップショットベースおよびイベントベース機械学習モデルを統一するフレームワークである Unified Temporal Graph (UTG) を導入し,一方の表現のために開発されたモデルを他方のデータセットに効果的に適用できるようにする。
また,ストリーミング環境におけるスナップショットベースモデルの性能向上を目的とした,新しいUTGトレーニング手法を提案する。
時間的リンク予測タスクにおいて、スナップショットとイベントベースのモデルの両方を時間的グラフの種類で包括的に評価する。
まず、UTGトレーニングと組み合わせると、スナップショットベースのモデルは、イベントデータセットでもTGNやGraphMixerのようなイベントベースのモデルと競合して動作します。
第二に、スナップショットベースのモデルは、推論中のほとんどのイベントベースのモデルよりも少なくとも桁違い高速である。
第三に、NATやDyGFormerのようなイベントベースの手法は、どちらのタイプの時間グラフでもスナップショットベースの手法よりも優れているが、これは共同近傍構造の特徴を活用し、これらの特徴をスナップショットベースのモデルに組み込む可能性を強調しているためである。
これらの知見は、データ形式に依存しないモデルアーキテクチャを比較することの重要性を強調し、スナップショットベースのモデルとイベントベースのモデルの性能を結合する可能性を示唆している。
関連論文リスト
- IFH: a Diffusion Framework for Flexible Design of Graph Generative Models [53.219279193440734]
グラフ生成モデルは,1行にグラフを生成するワンショットモデルと,ノードとエッジの連続的な付加によるグラフを生成するシーケンシャルモデルという,2つの顕著なファミリーに分類される。
本稿では,逐次度を規定するグラフ生成モデルであるInsert-Fill-Halt(IFH)を提案する。
論文 参考訳(メタデータ) (2024-08-23T16:24:40Z) - Model Selection with Model Zoo via Graph Learning [45.30615308692713]
本稿では,グラフ学習問題としてモデル選択を再構成する新しいフレームワークであるTransferGraphを紹介する。
我々は,TransferGraphが本質的なモデル-データセット関係を捕捉し,予測性能と実際の微調整結果との相関性を最大32%向上させる効果を,最先端の手法と比較した。
論文 参考訳(メタデータ) (2024-04-05T09:50:00Z) - Challenging the Myth of Graph Collaborative Filtering: a Reasoned and Reproducibility-driven Analysis [50.972595036856035]
本稿では,6つの人気グラフと最近のグラフ推薦モデルの結果を再現するコードを提案する。
これらのグラフモデルと従来の協調フィルタリングモデルを比較する。
ユーザの近所からの情報フローを調べることにより,データセット構造における内在的特徴にどのようなモデルが影響するかを同定することを目的とする。
論文 参考訳(メタデータ) (2023-08-01T09:31:44Z) - Dynamical Graph Echo State Networks with Snapshot Merging for
Dissemination Process Classification [5.174900115018252]
分散プロセス分類(DPC)の目的は、時間グラフで表されるコミュニティ内の情報の拡散パターンや浸透パターンを分類することである。
近年,動的グラフエコー状態ネットワーク(DynGESN)と呼ばれる貯水池型計算モデルが提案されている。
そこで本研究では,DynGESNとスナップショット統合という新たなデータ拡張戦略を組み合わせた新しいモデルを提案する。
論文 参考訳(メタデータ) (2023-07-03T12:17:28Z) - A Graph-Enhanced Click Model for Web Search [67.27218481132185]
ウェブ検索のための新しいグラフ強調クリックモデル(GraphCM)を提案する。
セッション内情報とセッション間情報の両方を、スパーシリティ問題とコールドスタート問題に活用する。
論文 参考訳(メタデータ) (2022-06-17T08:32:43Z) - CEP3: Community Event Prediction with Neural Point Process on Graph [59.434777403325604]
グラフニューラルネットワークとマーク付き時間点プロセス(MTPP)を組み合わせた新しいモデルを提案する。
実験では,モデルの精度と訓練効率の両面から,モデルの優れた性能を実証した。
論文 参考訳(メタデータ) (2022-05-21T15:30:25Z) - SeDyT: A General Framework for Multi-Step Event Forecasting via Sequence
Modeling on Dynamic Entity Embeddings [6.314274045636102]
イベント予測は、時間的知識グラフ推論において重要で困難なタスクである。
本稿では,動的エンティティ埋め込み上でシーケンスモデリングを行う識別フレームワークであるSeDyTを提案する。
時間的グラフニューラルネットワークモデルとシーケンスモデルを組み合わせることで、SeDyTは平均2.4%のMRR改善を実現している。
論文 参考訳(メタデータ) (2021-09-09T20:32:48Z) - SPAN: Subgraph Prediction Attention Network for Dynamic Graphs [8.601023852899166]
本稿では,動的グラフのサブグラフ予測のための新しいモデルを提案する。
現在のスナップショットにあるサブグラフ構造から、次のスナップショットにあるサブグラフ構造へのマッピングを直接学習する。
実験の結果,この2つのタスクにおいて,モデルが他のモデルより優れており,5.02%から10.88%に向上していることがわかった。
論文 参考訳(メタデータ) (2021-08-17T17:29:52Z) - TCL: Transformer-based Dynamic Graph Modelling via Contrastive Learning [87.38675639186405]
我々は,動的に進化するグラフを連続的に扱う,TCLと呼ばれる新しいグラフニューラルネットワークアプローチを提案する。
我々の知る限りでは、これは動的グラフ上の表現学習にコントラスト学習を適用する最初の試みである。
論文 参考訳(メタデータ) (2021-05-17T15:33:25Z) - From Static to Dynamic Node Embeddings [61.58641072424504]
本稿では,時間的予測に基づくアプリケーションにグラフストリームデータを活用するための汎用フレームワークを提案する。
提案フレームワークは,適切なグラフ時系列表現を学習するための新しい手法を含む。
トップ3の時間モデルは常に新しい$epsilon$-graphの時系列表現を利用するモデルであることが分かりました。
論文 参考訳(メタデータ) (2020-09-21T16:48:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。