論文の概要: Deep-Graph-Sprints: Accelerated Representation Learning in Continuous-Time Dynamic Graphs
- arxiv url: http://arxiv.org/abs/2407.07712v2
- Date: Tue, 23 Jul 2024 17:01:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-24 22:04:29.203862
- Title: Deep-Graph-Sprints: Accelerated Representation Learning in Continuous-Time Dynamic Graphs
- Title(参考訳): Deep-Graph-Sprints: 連続時間動的グラフにおける高速化表現学習
- Authors: Ahmad Naser Eddin, Jacopo Bono, David Aparício, Hugo Ferreira, Pedro Ribeiro, Pedro Bizarro,
- Abstract要約: 連続時間動的グラフ(CTDG)は相互接続された進化するシステムのモデリングに不可欠である。
Deep-Graph-Sprints (DGS)は、低遅延推論要求のCTDG上での効率的な表現学習のために設計された、新しいディープラーニングアーキテクチャである。
- 参考スコア(独自算出の注目度): 4.372841335228306
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Continuous-time dynamic graphs (CTDGs) are essential for modeling interconnected, evolving systems. Traditional methods for extracting knowledge from these graphs often depend on feature engineering or deep learning. Feature engineering is limited by the manual and time-intensive nature of crafting features, while deep learning approaches suffer from high inference latency, making them impractical for real-time applications. This paper introduces Deep-Graph-Sprints (DGS), a novel deep learning architecture designed for efficient representation learning on CTDGs with low-latency inference requirements. We benchmark DGS against state-of-the-art feature engineering and graph neural network methods using five diverse datasets. The results indicate that DGS achieves competitive performance while improving inference speed up to 12x compared to other deep learning approaches on our tested benchmarks. Our method effectively bridges the gap between deep representation learning and low-latency application requirements for CTDGs.
- Abstract(参考訳): 連続時間動的グラフ(CTDG)は相互接続された進化するシステムのモデリングに不可欠である。
これらのグラフから知識を抽出する従来の手法は、しばしば機能工学やディープラーニングに依存している。
機能エンジニアリングは手動と時間集約的な工芸機能によって制限されるが、ディープラーニングアプローチは高い推論遅延に悩まされており、リアルタイムアプリケーションでは実用的ではない。
本稿では,低遅延推論条件のCTDG上での効率的な表現学習を目的とした,新しいディープラーニングアーキテクチャであるDeep-Graph-Sprints(DGS)を紹介する。
我々は、5つの多様なデータセットを用いてDGSを最先端の機能工学とグラフニューラルネットワークの手法と比較した。
その結果、DGSは、テストベンチマークの他のディープラーニングアプローチと比較して、推論速度を最大12倍に改善しながら、競争性能を向上していることが示された。
本手法は,CTDGの深層表現学習と低遅延応用要件のギャップを効果的に埋めるものである。
関連論文リスト
- Information propagation dynamics in Deep Graph Networks [1.8130068086063336]
Deep Graph Networks(DGN)は、構造化情報の処理と学習が可能なディープラーニングモデルのファミリとして登場した。
この論文は、静的グラフと動的グラフのためのDGNの内部の情報伝達のダイナミクスを考察し、動的システムとしての設計に焦点をあてる。
論文 参考訳(メタデータ) (2024-10-14T12:55:51Z) - Long Range Propagation on Continuous-Time Dynamic Graphs [18.5534584418248]
Continuous-Time Graph Anti-Symmetric Network (CTAN) は情報伝達の効率化を目的としている。
合成長範囲ベンチマークと実世界のベンチマークにおけるCTANの実証的性能は他の方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-06-04T19:42:19Z) - Gradient Transformation: Towards Efficient and Model-Agnostic Unlearning for Dynamic Graph Neural Networks [66.70786325911124]
グラフアンラーニングは、ユーザのプライバシ保護と、望ましくないデータによるネガティブな影響軽減に不可欠なツールとして登場した。
DGNNの普及に伴い、動的グラフアンラーニングの実装を検討することが不可欠となる。
DGNNアンラーニングを実装するために,効率的,効率的,モデルに依存しない,事後処理手法を提案する。
論文 参考訳(メタデータ) (2024-05-23T10:26:18Z) - LasTGL: An Industrial Framework for Large-Scale Temporal Graph Learning [61.4707298969173]
本稿では,共通時間グラフ学習アルゴリズムの統一的および統一的な実装を統合する産業用フレームワークであるLasTGLを紹介する。
LasTGLは、詳細なチュートリアルとともに、包括的な時間グラフデータセット、TGNNモデル、ユーティリティを提供する。
論文 参考訳(メタデータ) (2023-11-28T08:45:37Z) - TodyNet: Temporal Dynamic Graph Neural Network for Multivariate Time
Series Classification [6.76723360505692]
未定義のグラフ構造を使わずに隠蔽時間依存を抽出できる新しい時間的動的グラフネットワーク(TodyNet)を提案する。
26のUEAベンチマークデータセットの実験は、提案されたTodyNetがMTSCタスクで既存のディープラーニングベースのメソッドより優れていることを示している。
論文 参考訳(メタデータ) (2023-04-11T09:21:28Z) - Data-Free Adversarial Knowledge Distillation for Graph Neural Networks [62.71646916191515]
グラフ構造化データ(DFAD-GNN)を用いたデータフリー逆知識蒸留のための第1のエンドツーエンドフレームワークを提案する。
具体的には、DFAD-GNNは、教師モデルと学生モデルとを2つの識別器とみなし、教師モデルから学生モデルに知識を抽出するために学習グラフを導出するジェネレータという、主に3つの成分からなる生成的対向ネットワークを採用している。
我々のDFAD-GNNは、グラフ分類タスクにおける最先端のデータフリーベースラインを大幅に上回っている。
論文 参考訳(メタデータ) (2022-05-08T08:19:40Z) - Efficient Dynamic Graph Representation Learning at Scale [66.62859857734104]
本稿では,学習損失による時間依存性を選択的に表現し,計算の並列性を改善するための効率的な動的グラフ lEarning (EDGE) を提案する。
EDGEは、数百万のノードと数億の時間的イベントを持つ動的グラフにスケールでき、新しい最先端(SOTA)パフォーマンスを実現することができる。
論文 参考訳(メタデータ) (2021-12-14T22:24:53Z) - Bag of Tricks for Training Deeper Graph Neural Networks: A Comprehensive
Benchmark Study [100.27567794045045]
ディープグラフニューラルネットワーク(GNN)のトレーニングは、非常に難しい。
我々は、深層GNNの「トリック」を評価するための最初の公正かつ再現可能なベンチマークを示す。
論文 参考訳(メタデータ) (2021-08-24T05:00:37Z) - Temporal Graph Networks for Deep Learning on Dynamic Graphs [4.5158585619109495]
時系列グラフネットワーク(TGN)は,時系列イベントのシーケンスとして表される動的グラフの深層学習のための汎用的で効率的なフレームワークである。
メモリモジュールとグラフベースの演算子を組み合わせた新しい組み合わせにより、TGNは、計算効率が向上した以前のアプローチを大幅に上回ることができる。
論文 参考訳(メタデータ) (2020-06-18T16:06:18Z) - Tensor Graph Convolutional Networks for Multi-relational and Robust
Learning [74.05478502080658]
本稿では,テンソルで表されるグラフの集合に関連するデータから,スケーラブルな半教師付き学習(SSL)を実現するためのテンソルグラフ畳み込みネットワーク(TGCN)を提案する。
提案アーキテクチャは、標準的なGCNと比較して大幅に性能が向上し、最先端の敵攻撃に対処し、タンパク質間相互作用ネットワーク上でのSSL性能が著しく向上する。
論文 参考訳(メタデータ) (2020-03-15T02:33:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。