論文の概要: Condensation-Concatenation Framework for Dynamic Graph Continual Learning
- arxiv url: http://arxiv.org/abs/2512.11317v1
- Date: Fri, 12 Dec 2025 06:32:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-15 15:48:11.679448
- Title: Condensation-Concatenation Framework for Dynamic Graph Continual Learning
- Title(参考訳): 動的グラフ連続学習のための凝縮結合フレームワーク
- Authors: Tingxu Yan, Ye Yuan,
- Abstract要約: 本稿では,CCC(Continual Learning)という,動的グラフの連続学習フレームワークを提案する。
CCCは、まず歴史グラフのスナップショットをコンパクトな表現に凝縮し、元のラベル分布とトポロジ特性を保存することを目的としている。
CCCは、4つの実世界のデータセットにわたる最先端のベースラインよりも優れたパフォーマンスを示している。
- 参考スコア(独自算出の注目度): 5.183200614613901
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dynamic graphs are prevalent in real-world scenarios, where continuous structural changes induce catastrophic forgetting in graph neural networks (GNNs). While continual learning has been extended to dynamic graphs, existing methods overlook the effects of topological changes on existing nodes. To address it, we propose a novel framework for continual learning on dynamic graphs, named Condensation-Concatenation-based Continual Learning (CCC). Specifically, CCC first condenses historical graph snapshots into compact semantic representations while aiming to preserve the original label distribution and topological properties. Then it concatenates these historical embeddings with current graph representations selectively. Moreover, we refine the forgetting measure (FM) to better adapt to dynamic graph scenarios by quantifying the predictive performance degradation of existing nodes caused by structural updates. CCC demonstrates superior performance over state-of-the-art baselines across four real-world datasets in extensive experiments.
- Abstract(参考訳): 動的グラフは、連続的な構造変化がグラフニューラルネットワーク(GNN)における破滅的な忘れを誘発する現実世界のシナリオで一般的である。
連続学習は動的グラフに拡張されているが、既存の手法は既存のノードに対するトポロジ的変化の影響を見落としている。
そこで本研究では,CCC(Continual Learning)と呼ばれる動的グラフの連続学習フレームワークを提案する。
具体的には、CCCはまず、歴史グラフのスナップショットを、元のラベル分布と位相特性を保存しつつ、コンパクトな意味表現に凝縮する。
そして、これらの歴史的埋め込みと現在のグラフ表現を選択的に結合する。
さらに,構造更新による既存ノードの予測性能劣化を定量化し,動的グラフシナリオへの適応性を高めるため,FMを改良する。
CCCは、大規模な実験で4つの実世界のデータセットにまたがる最先端のベースラインよりも優れたパフォーマンスを示す。
関連論文リスト
- Dynamic Graph Condensation [40.099854631984556]
動的グラフにおける時間的拡張は、重要なデータ効率の課題を引き起こす。
実動的グラフをコンパクトなバージョンに凝縮するフレームワークであるDyGCを提案する。
提案手法は, 最大96.2%のDGNN性能を保ち, 元のグラフサイズは0.5%に留まり, 最大1846倍の高速化を実現している。
論文 参考訳(メタデータ) (2025-06-16T05:11:29Z) - Graph Condensation for Open-World Graph Learning [48.38802327346445]
グラフ凝縮(GC)は、グラフニューラルネットワーク(GNN)を効率的に訓練するための有望な加速ソリューションとして登場した。
既存のGCメソッドは、単に観測された静的グラフ分布と凝縮グラフの整合性に制限される。
しかし、現実のシナリオでは、グラフは動的で常に進化しており、新しいノードとエッジが継続的に統合されている。
グラフパターンの進化をシミュレートするために構造対応分散シフトを統合する,堅牢なGCフレームワークであるOpenGCを提案する。
論文 参考訳(メタデータ) (2024-05-27T09:47:09Z) - Deep Temporal Graph Clustering [77.02070768950145]
深部時間グラフクラスタリング(GC)のための汎用フレームワークを提案する。
GCは、時間グラフの相互作用シーケンスに基づくバッチ処理パターンに適合するディープクラスタリング技術を導入している。
我々のフレームワークは、既存の時間グラフ学習手法の性能を効果的に向上させることができる。
論文 参考訳(メタデータ) (2023-05-18T06:17:50Z) - Dynamic Graph Representation Learning via Edge Temporal States Modeling and Structure-reinforced Transformer [5.093187534912688]
本稿では,動的グラフ表現学習のための新しいフレームワークであるRecurrent Structure-Reinforced Graph Transformer (RSGT)を紹介する。
RSGTは、繰り返し学習パラダイムを通じて、グラフトポロジと進化力学の両方をコードする時間ノード表現をキャプチャする。
離散動的グラフ表現学習におけるRSGTの優れた性能を示し、動的リンク予測タスクにおける既存の手法よりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-04-20T04:12:50Z) - Scene Graph Modification as Incremental Structure Expanding [61.84291817776118]
本研究では,既存のシーングラフを自然言語クエリに基づいて更新する方法を学習するために,シーングラフ修正(SGM)に注目した。
インクリメンタル構造拡張(ISE)の導入によるグラフ拡張タスクとしてのSGM
既存のデータセットよりも複雑なクエリと大きなシーングラフを含む、挑戦的なデータセットを構築します。
論文 参考訳(メタデータ) (2022-09-15T16:26:14Z) - Time-aware Dynamic Graph Embedding for Asynchronous Structural Evolution [60.695162101159134]
既存の作業は、動的グラフを変更のシーケンスとして見るだけである。
動的グラフを接合時間に付随する時間的エッジシーケンスとして定式化する。
頂点とエッジのタイムパン
組み込みにはタイムアウェアなTransformerが提案されている。
vertexの動的接続と学習へのToEs。
頂点表現
論文 参考訳(メタデータ) (2022-07-01T15:32:56Z) - TCL: Transformer-based Dynamic Graph Modelling via Contrastive Learning [87.38675639186405]
我々は,動的に進化するグラフを連続的に扱う,TCLと呼ばれる新しいグラフニューラルネットワークアプローチを提案する。
我々の知る限りでは、これは動的グラフ上の表現学習にコントラスト学習を適用する最初の試みである。
論文 参考訳(メタデータ) (2021-05-17T15:33:25Z) - DyGCN: Dynamic Graph Embedding with Graph Convolutional Network [25.02329024926518]
動的グラフ畳み込みネットワーク(DyGCN)の効率的な動的グラフ埋め込み手法を提案する。
私たちのモデルは、ノードの埋め込みを時間節約とパフォーマンス保存の方法で更新できます。
論文 参考訳(メタデータ) (2021-04-07T07:28:44Z) - K-Core based Temporal Graph Convolutional Network for Dynamic Graphs [19.237377882738063]
動的グラフのノード表現を学習するために,新しいk-coreベースの時間グラフ畳み込みネットワークであるCTGCNを提案する。
従来の動的グラフ埋め込み法とは対照的に、CTGCNは局所的な連結近接と大域的な構造的類似性の両方を保存できる。
7つの実世界のグラフに対する実験結果から、CTGCNは既存の最先端グラフの埋め込み方法よりもいくつかのタスクで優れていることが示された。
論文 参考訳(メタデータ) (2020-03-22T14:15:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。