論文の概要: AL-GNN: Privacy-Preserving and Replay-Free Continual Graph Learning via Analytic Learning
- arxiv url: http://arxiv.org/abs/2512.18295v1
- Date: Sat, 20 Dec 2025 09:55:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.274868
- Title: AL-GNN: Privacy-Preserving and Replay-Free Continual Graph Learning via Analytic Learning
- Title(参考訳): AL-GNN:分析学習によるプライバシー保護と再生自由な連続グラフ学習
- Authors: Xuling Zhang, Jindong Li, Yifei Zhang, Menglin Yang,
- Abstract要約: 連続グラフ学習(CGL)は、グラフニューラルネットワークが、以前取得した知識を忘れずに、グラフ構造化データのストリームから漸進的に学習できるようにすることを目的としている。
本稿では,バッファのバックプロパゲーションや再生を不要とする連続グラフ学習のための新しいフレームワークであるAL GNNを提案する。
- 参考スコア(独自算出の注目度): 8.911446190681882
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Continual graph learning (CGL) aims to enable graph neural networks to incrementally learn from a stream of graph structured data without forgetting previously acquired knowledge. Existing methods particularly those based on experience replay typically store and revisit past graph data to mitigate catastrophic forgetting. However, these approaches pose significant limitations, including privacy concerns, inefficiency. In this work, we propose AL GNN, a novel framework for continual graph learning that eliminates the need for backpropagation and replay buffers. Instead, AL GNN leverages principles from analytic learning theory to formulate learning as a recursive least squares optimization process. It maintains and updates model knowledge analytically through closed form classifier updates and a regularized feature autocorrelation matrix. This design enables efficient one pass training for each task, and inherently preserves data privacy by avoiding historical sample storage. Extensive experiments on multiple dynamic graph classification benchmarks demonstrate that AL GNN achieves competitive or superior performance compared to existing methods. For instance, it improves average performance by 10% on CoraFull and reduces forgetting by over 30% on Reddit, while also reducing training time by nearly 50% due to its backpropagation free design.
- Abstract(参考訳): 連続グラフ学習(CGL)は、グラフニューラルネットワークが、以前取得した知識を忘れずに、グラフ構造化データのストリームから漸進的に学習できるようにすることを目的としている。
既存の方法、特に経験リプレイに基づくものは、通常、過去のグラフデータを保存して再検討し、破滅的な忘れを和らげる。
しかし、これらのアプローチはプライバシーの懸念、非効率性など、重大な制限を生じさせる。
本研究では,バッファのバックプロパゲーションや再生を不要とする連続グラフ学習のための新しいフレームワークであるAL GNNを提案する。
代わりに、AL GNNは分析学習理論の原理を利用して、再帰的最小二乗最適化プロセスとして学習を定式化する。
クローズドフォーム分類器の更新と正規化された特徴自己相関行列を通じてモデル知識を解析的に維持・更新する。
この設計により、各タスクに対する効率的なワンパストレーニングが可能になり、履歴サンプルストレージを回避してデータプライバシを本質的に保持する。
複数の動的グラフ分類ベンチマークの大規模な実験により、AL GNNは既存の手法と比較して、競争力や優れた性能を発揮することが示された。
例えば、ColaFullでは平均パフォーマンスを10%向上させ、Redditでは30%以上忘れることなく、バックプロパゲーションフリーな設計のためにトレーニング時間を50%近く短縮する。
関連論文リスト
- Prompt-Driven Continual Graph Learning [35.58675758528851]
連続グラフ学習(CGL)は、事前の知識を忘れずに、グラフデータを進化させる新しいタスクに対応することを目的としている。
本稿では,各タスクに対する個別のプロンプトを学習し,基礎となるグラフニューラルネットワークモデルを固定した新しいプロンプト駆動連続グラフ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-10T10:28:11Z) - FIT-GNN: Faster Inference Time for GNNs that 'FIT' in Memory Using Coarsening [1.1345413192078595]
本稿では,グラフ粗化を用いた推論フェーズにおける計算負担を軽減することにより,グラフニューラルネットワーク(GNN)のスケーラビリティを向上させる新しい手法を提案する。
本研究は,グラフ分類やグラフ回帰を含むグラフレベルのタスクに対するグラフ粗化の適用を拡大する。
その結果,提案手法は従来の手法に比べて単一ノード推定時間において桁違いに改善されていることがわかった。
論文 参考訳(メタデータ) (2024-10-19T06:27:24Z) - Graph Continual Learning with Debiased Lossless Memory Replay [24.67200419367994]
リアルタイムグラフデータはしばしば継続的に拡張され、静的グラフデータにグラフニューラルネットワーク(GNN)の学習が非現実的になる。
グラフ連続学習(GCL)は、従来のタスクのグラフ上での性能を維持しながら、現在のタスクの拡張グラフにGNNを継続的に適応することにより、この問題に対処する。
新しいタスクを学習する際の過去のタスクのデータ再生を目的としたメモリリプレイベースの手法が,従来のタスクから学んだ知識を忘れないようにするための原則的アプローチとして検討されている。
本稿では、この手法をDebiased Lossless Memory Replay (DeLo)と呼ばれる新しいフレームワークで拡張する。
論文 参考訳(メタデータ) (2024-04-17T01:31:00Z) - Efficient Heterogeneous Graph Learning via Random Projection [58.4138636866903]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフを深層学習するための強力なツールである。
最近のプリ計算ベースのHGNNは、一時間メッセージパッシングを使用して不均一グラフを正規形テンソルに変換する。
我々はRandom Projection Heterogeneous Graph Neural Network (RpHGNN) というハイブリッド計算前HGNNを提案する。
論文 参考訳(メタデータ) (2023-10-23T01:25:44Z) - How Graph Neural Networks Learn: Lessons from Training Dynamics [80.41778059014393]
グラフニューラルネットワーク(GNN)の関数空間におけるトレーニングダイナミクスについて検討する。
GNNの勾配勾配勾配最適化は暗黙的にグラフ構造を利用して学習関数を更新する。
この発見は、学習したGNN関数が一般化した時期と理由に関する新たな解釈可能な洞察を提供する。
論文 参考訳(メタデータ) (2023-10-08T10:19:56Z) - Unlearning Graph Classifiers with Limited Data Resources [39.29148804411811]
制御されたデータ削除は、データに敏感なWebアプリケーションのための機械学習モデルの重要機能になりつつある。
グラフニューラルネットワーク(GNN)の効率的な機械学習を実現する方法はまだほとんど知られていない。
我々の主な貢献は GST に基づく非線形近似グラフアンラーニング法である。
第2の貢献は、提案した未学習機構の計算複雑性の理論解析である。
第3のコントリビューションは広範囲なシミュレーションの結果であり、削除要求毎のGNNの完全再トレーニングと比較して、新しいGSTベースのアプローチは平均10.38倍のスピードアップを提供する。
論文 参考訳(メタデータ) (2022-11-06T20:46:50Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Learnable Graph Matching: Incorporating Graph Partitioning with Deep
Feature Learning for Multiple Object Tracking [58.30147362745852]
フレーム間のデータアソシエーションは、Multiple Object Tracking(MOT)タスクの中核にある。
既存の手法は、主にトラックレットとフレーム内検出の間のコンテキスト情報を無視する。
そこで本研究では,学習可能なグラフマッチング手法を提案する。
論文 参考訳(メタデータ) (2021-03-30T08:58:45Z) - Combining Label Propagation and Simple Models Out-performs Graph Neural
Networks [52.121819834353865]
多くの標準的なトランスダクティブノード分類ベンチマークでは、最先端のGNNの性能を超えたり、一致させることができる。
これをC&S(Correct and Smooth)と呼ぶ。
我々のアプローチは、様々なベンチマークで最先端のGNNの性能を上回るか、ほぼ一致している。
論文 参考訳(メタデータ) (2020-10-27T02:10:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。