論文の概要: TGM: a Modular and Efficient Library for Machine Learning on Temporal Graphs
- arxiv url: http://arxiv.org/abs/2510.07586v1
- Date: Wed, 08 Oct 2025 22:20:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:14.755564
- Title: TGM: a Modular and Efficient Library for Machine Learning on Temporal Graphs
- Title(参考訳): TGM: 時間グラフによる機械学習のためのモジュール的で効率的なライブラリ
- Authors: Jacob Chmura, Shenyang Huang, Tran Gia Bao Ngo, Ali Parviz, Farimah Poursafaei, Jure Leskovec, Michael Bronstein, Guillaume Rabusseau, Matthias Fey, Reihaneh Rabbany,
- Abstract要約: 時間グラフ上での機械学習のための研究指向ライブラリであるテンポラルグラフモデリング(TGM)を紹介する。
TGMは動的ノード機能、時間粒度変換、リンク、ノード、グラフレベルのタスクのネイティブ処理をファーストクラスでサポートする。
TGMは、広く使用されているDyGLibと比較して、複数のモデル、データセット、タスクの平均7.8倍のスピードアップを実現している。
- 参考スコア(独自算出の注目度): 45.81179802109882
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Well-designed open-source software drives progress in Machine Learning (ML) research. While static graph ML enjoys mature frameworks like PyTorch Geometric and DGL, ML for temporal graphs (TG), networks that evolve over time, lacks comparable infrastructure. Existing TG libraries are often tailored to specific architectures, hindering support for diverse models in this rapidly evolving field. Additionally, the divide between continuous- and discrete-time dynamic graph methods (CTDG and DTDG) limits direct comparisons and idea transfer. To address these gaps, we introduce Temporal Graph Modelling (TGM), a research-oriented library for ML on temporal graphs, the first to unify CTDG and DTDG approaches. TGM offers first-class support for dynamic node features, time-granularity conversions, and native handling of link-, node-, and graph-level tasks. Empirically, TGM achieves an average 7.8x speedup across multiple models, datasets, and tasks compared to the widely used DyGLib, and an average 175x speedup on graph discretization relative to available implementations. Beyond efficiency, we show in our experiments how TGM unlocks entirely new research possibilities by enabling dynamic graph property prediction and time-driven training paradigms, opening the door to questions previously impractical to study. TGM is available at https://github.com/tgm-team/tgm
- Abstract(参考訳): よく設計されたオープンソースソフトウェアは、機械学習(ML)研究の進歩を促進する。
静的グラフMLにはPyTorch GeometricやDGLといった成熟したフレームワークがあるが、時間とともに進化するネットワークである時間グラフ(TG)用のMLには、同等のインフラストラクチャがない。
既存のTGライブラリは、しばしば特定のアーキテクチャに適合しており、この急速に進化する分野における多様なモデルのサポートを妨げる。
さらに、連続時間および離散時間動的グラフ法(CTDGとDTDG)の分割により、直接比較とアイデア伝達が制限される。
これらのギャップに対処するために、時間グラフのMLのための研究指向ライブラリであるTGM(Temporal Graph Modelling)を導入し、CTDGとDTDGのアプローチを最初に統合した。
TGMは動的ノード機能、時間粒度変換、リンク、ノード、グラフレベルのタスクのネイティブ処理をファーストクラスでサポートする。
実証的には、TGMは広く使われているDyGLibと比較して、複数のモデル、データセット、タスクの平均7.8倍のスピードアップを達成する。
効率性以外にも、TGMが動的グラフ特性予測と時間駆動トレーニングパラダイムを有効にし、これまで研究が行わなかった質問への扉を開くことによって、新しい研究可能性を完全に解き放つ方法が実験で示された。
TGMはhttps://github.com/tgm-team/tgmで利用可能である。
関連論文リスト
- GILT: An LLM-Free, Tuning-Free Graph Foundational Model for In-Context Learning [50.40400074353263]
グラフニューラルネットワーク(GNN)は、リレーショナルデータを先行する強力なツールであるが、しばしば目に見えないグラフに一般化するのに苦労する。
textbfGraph textbfIn-context textbfL textbfTransformer (GILT)を導入する。
論文 参考訳(メタデータ) (2025-10-06T08:09:15Z) - Scalable Graph Generative Modeling via Substructure Sequences [50.32639806800683]
本稿では,グラフ生成用トランスフォーマー事前学習フレームワークである生成グラフパターンマシン(G$2$PM)を紹介する。
G$2$PMはグラフインスタンス(ノード、エッジ、グラフ全体)をサブ構造のシーケンスとして表現する。
それは、一般化可能かつ伝達可能な表現を学ぶために、シーケンスに関する生成的事前学習を採用する。
論文 参考訳(メタデータ) (2025-05-22T02:16:34Z) - Adaptive Tokenization: On the Hop-Overpriority Problem in Tokenized Graph Learning Models [59.98982735197465]
トークン学習モデル(TGLM)は、グラフをスケーラブルな処理のために順序付きトークンリストに変換する。
TGLMは手書きのトークンリストに依存しており、さまざまなグラフ学習シナリオへの適応性はまだ未検討である。
本稿では,手書きのトークンリストをTGLMで置き換えるプラグイン・アンド・プレイモジュールであるLearnable Graph Token List(LGTL)を提案する。
論文 参考訳(メタデータ) (2025-05-19T06:25:33Z) - ScaDyG:A New Paradigm for Large-scale Dynamic Graph Learning [31.629956388962814]
ScaDyGは動的グラフネットワークのためのタイムアウェアなスケーラブルな学習パラダイムである。
12のデータセットの実験では、ScaDyGは、ノードレベルとリンクレベルの両方の下流タスクにおいて、互換性のあるパフォーマンス、あるいは他のSOTAメソッドよりも優れています。
論文 参考訳(メタデータ) (2025-01-27T12:39:16Z) - SimTeG: A Frustratingly Simple Approach Improves Textual Graph Learning [131.04781590452308]
テキストグラフ学習におけるフラストレーションに富んだアプローチであるSimTeGを提案する。
まず、下流タスクで予め訓練されたLM上で、教師付きパラメータ効率の微調整(PEFT)を行う。
次に、微調整されたLMの最後の隠れ状態を用いてノード埋め込みを生成する。
論文 参考訳(メタデータ) (2023-08-03T07:00:04Z) - Temporal Graph Benchmark for Machine Learning on Temporal Graphs [54.52243310226456]
テンポラルグラフベンチマーク(TGB)は、困難で多様なベンチマークデータセットのコレクションである。
各データセットをベンチマークし、共通のモデルのパフォーマンスがデータセット間で大きく異なることを発見した。
TGBは、再現可能でアクセス可能な時間グラフ研究のための自動機械学習パイプラインを提供する。
論文 参考訳(メタデータ) (2023-07-03T13:58:20Z) - Towards Better Dynamic Graph Learning: New Architecture and Unified
Library [29.625205125350313]
DyGFormerは、動的グラフ学習のためのTransformerベースのアーキテクチャである。
DyGLibは、標準のトレーニングパイプラインとコーディングインターフェースを備えた統一ライブラリである。
論文 参考訳(メタデータ) (2023-03-23T05:27:32Z) - Dynamic Graph Learning-Neural Network for Multivariate Time Series
Modeling [2.3022070933226217]
静的および動的グラフ学習ニューラルネットワーク(GL)という新しいフレームワークを提案する。
モデルはそれぞれ、データから静的グラフ行列と動的グラフ行列を取得し、長期パターンと短期パターンをモデル化する。
ほぼすべてのデータセットで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-12-06T08:19:15Z) - Multivariate Time Series Classification with Hierarchical Variational
Graph Pooling [23.66868187446734]
既存のディープラーニングに基づくMTSC技術は、主に単一時系列の時間依存性に関係している。
MTSの表現的グローバル表現を得るために,グラフプーリングに基づく新しいフレームワークMTPoolを提案する。
10のベンチマークデータセットの実験では、MTSCタスクでMTPoolが最先端の戦略を上回っている。
論文 参考訳(メタデータ) (2020-10-12T12:36:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。