論文の概要: Dynamic Graph Condensation
- arxiv url: http://arxiv.org/abs/2506.13099v1
- Date: Mon, 16 Jun 2025 05:11:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:47.493594
- Title: Dynamic Graph Condensation
- Title(参考訳): 動的グラフ凝縮
- Authors: Dong Chen, Shuai Zheng, Yeyu Yan, Muhao Xu, Zhenfeng Zhu, Yao Zhao, Kunlun He,
- Abstract要約: 動的グラフにおける時間的拡張は、重要なデータ効率の課題を引き起こす。
実動的グラフをコンパクトなバージョンに凝縮するフレームワークであるDyGCを提案する。
提案手法は, 最大96.2%のDGNN性能を保ち, 元のグラフサイズは0.5%に留まり, 最大1846倍の高速化を実現している。
- 参考スコア(独自算出の注目度): 40.099854631984556
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent research on deep graph learning has shifted from static to dynamic graphs, motivated by the evolving behaviors observed in complex real-world systems. However, the temporal extension in dynamic graphs poses significant data efficiency challenges, including increased data volume, high spatiotemporal redundancy, and reliance on costly dynamic graph neural networks (DGNNs). To alleviate the concerns, we pioneer the study of dynamic graph condensation (DGC), which aims to substantially reduce the scale of dynamic graphs for data-efficient DGNN training. Accordingly, we propose DyGC, a novel framework that condenses the real dynamic graph into a compact version while faithfully preserving the inherent spatiotemporal characteristics. Specifically, to endow synthetic graphs with realistic evolving structures, a novel spiking structure generation mechanism is introduced. It draws on the dynamic behavior of spiking neurons to model temporally-aware connectivity in dynamic graphs. Given the tightly coupled spatiotemporal dependencies, DyGC proposes a tailored distribution matching approach that first constructs a semantically rich state evolving field for dynamic graphs, and then performs fine-grained spatiotemporal state alignment to guide the optimization of the condensed graph. Experiments across multiple dynamic graph datasets and representative DGNN architectures demonstrate the effectiveness of DyGC. Notably, our method retains up to 96.2% DGNN performance with only 0.5% of the original graph size, and achieves up to 1846 times training speedup.
- Abstract(参考訳): 深層グラフ学習の最近の研究は、複雑な実世界のシステムで観察される進化的な振る舞いによって動機付けられた静的なグラフから動的グラフへと変化してきた。
しかし、動的グラフの時間的拡張は、データボリュームの増加、時空間の冗長性の向上、コストのかかる動的グラフニューラルネットワーク(DGNN)への依存など、データ効率の重大な課題を引き起こす。
データ効率のよいDGNNトレーニングにおいて,動的グラフのスケールを大幅に削減することを目的とした動的グラフ凝縮(DGC)の研究を開拓した。
そこで我々は,実動的グラフをコンパクト版に凝縮し,時空間特性を忠実に保存する新しいフレームワークであるDyGCを提案する。
具体的には、現実的な進化構造を持つ合成グラフを実現するために、新しいスパイキング構造生成機構を導入する。
これは、スパイキングニューロンの動的挙動に基づいて、動的グラフにおける時間的に認識される接続をモデル化する。
密結合された時空間依存を前提として、DyGCは動的グラフに対する意味的にリッチな状態進化場を構築し、次に、凝縮グラフの最適化を導くために微粒な時空間アライメントを実行するような分布マッチング手法を提案する。
複数の動的グラフデータセットとDGNNアーキテクチャを用いた実験は、DyGCの有効性を実証している。
特に,本手法は96.2%のDGNN性能を保ち,元のグラフサイズは0.5%に留まり,最大1846倍の高速化を実現している。
関連論文リスト
- DG-Mamba: Robust and Efficient Dynamic Graph Structure Learning with Selective State Space Models [16.435352947791923]
選択状態空間モデル(Mamba)を用いた動的グラフ構造学習フレームワークを提案する。
我々のフレームワークは、敵攻撃に対する最先端のベースラインよりも優れている。
論文 参考訳(メタデータ) (2024-12-11T07:32:38Z) - Graph Condensation for Open-World Graph Learning [48.38802327346445]
グラフ凝縮(GC)は、グラフニューラルネットワーク(GNN)を効率的に訓練するための有望な加速ソリューションとして登場した。
既存のGCメソッドは、単に観測された静的グラフ分布と凝縮グラフの整合性に制限される。
しかし、現実のシナリオでは、グラフは動的で常に進化しており、新しいノードとエッジが継続的に統合されている。
グラフパターンの進化をシミュレートするために構造対応分散シフトを統合する,堅牢なGCフレームワークであるOpenGCを提案する。
論文 参考訳(メタデータ) (2024-05-27T09:47:09Z) - Dynamic Graph Unlearning: A General and Efficient Post-Processing Method via Gradient Transformation [24.20087360102464]
動的グラフアンラーニングを初めて研究し、DGNNアンラーニングを実装するための効率的で効率的で汎用的で後処理手法を提案する。
提案手法は,将来的な未学習要求を処理できる可能性があり,性能が大幅に向上する。
論文 参考訳(メタデータ) (2024-05-23T10:26:18Z) - Dynamic Causal Explanation Based Diffusion-Variational Graph Neural
Network for Spatio-temporal Forecasting [60.03169701753824]
時間予測のための動的拡散型グラフニューラルネットワーク(DVGNN)を提案する。
提案したDVGNNモデルは最先端のアプローチよりも優れ,Root Mean Squared Errorの結果が優れている。
論文 参考訳(メタデータ) (2023-05-16T11:38:19Z) - Dynamic Graph Representation Learning via Edge Temporal States Modeling and Structure-reinforced Transformer [5.093187534912688]
本稿では,動的グラフ表現学習のための新しいフレームワークであるRecurrent Structure-Reinforced Graph Transformer (RSGT)を紹介する。
RSGTは、繰り返し学習パラダイムを通じて、グラフトポロジと進化力学の両方をコードする時間ノード表現をキャプチャする。
離散動的グラフ表現学習におけるRSGTの優れた性能を示し、動的リンク予測タスクにおける既存の手法よりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-04-20T04:12:50Z) - Time-aware Dynamic Graph Embedding for Asynchronous Structural Evolution [60.695162101159134]
既存の作業は、動的グラフを変更のシーケンスとして見るだけである。
動的グラフを接合時間に付随する時間的エッジシーケンスとして定式化する。
頂点とエッジのタイムパン
組み込みにはタイムアウェアなTransformerが提案されている。
vertexの動的接続と学習へのToEs。
頂点表現
論文 参考訳(メタデータ) (2022-07-01T15:32:56Z) - Efficient Dynamic Graph Representation Learning at Scale [66.62859857734104]
本稿では,学習損失による時間依存性を選択的に表現し,計算の並列性を改善するための効率的な動的グラフ lEarning (EDGE) を提案する。
EDGEは、数百万のノードと数億の時間的イベントを持つ動的グラフにスケールでき、新しい最先端(SOTA)パフォーマンスを実現することができる。
論文 参考訳(メタデータ) (2021-12-14T22:24:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。