論文の概要: Federated Continual Graph Learning
- arxiv url: http://arxiv.org/abs/2411.18919v3
- Date: Wed, 28 May 2025 02:22:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 12:33:41.67879
- Title: Federated Continual Graph Learning
- Title(参考訳): フェデレーション型連続グラフ学習
- Authors: Yinlin Zhu, Miao Hu, Di Wu,
- Abstract要約: 進化しているグラフデータを管理することは、ストレージとプライバシにおいて重大な課題を示し、そのようなデータ上でグラフニューラルネットワーク(GNN)をトレーニングすることは、しばしば破滅的な忘れ込み、以前のタスクのパフォーマンスを損なう。
我々は、記憶とプライバシーの制約の下で、複数の進化するグラフにGNNを適用するために、FCGL(Federated Continual Graph Learning)を提案する。
我々の実証的研究は、新しいタスクに適応する際にクライアントが事前知識を失うようなローカルグラフの忘れ(LGF)と、グローバルなGNNが新しいタスクに適応して古いタスクを維持する際に、サブ最適パフォーマンスを示すグローバルな専門知識紛争(GEC)の2つの主要な課題を強調しています。
- 参考スコア(独自算出の注目度): 8.153988353023745
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Managing evolving graph data presents substantial challenges in storage and privacy, and training graph neural networks (GNNs) on such data often leads to catastrophic forgetting, impairing performance on earlier tasks. Despite existing continual graph learning (CGL) methods mitigating this to some extent, they rely on centralized architectures and ignore the potential of distributed graph databases to leverage collective intelligence. To this end, we propose Federated Continual Graph Learning (FCGL) to adapt GNNs across multiple evolving graphs under storage and privacy constraints. Our empirical study highlights two core challenges: local graph forgetting (LGF), where clients lose prior knowledge when adapting to new tasks, and global expertise conflict (GEC), where the global GNN exhibits sub-optimal performance in both adapting to new tasks and retaining old ones, arising from inconsistent client expertise during server-side parameter aggregation. To address these, we introduce POWER, a framework that preserves experience nodes with maximum local-global coverage locally to mitigate LGF, and leverages pseudo-prototype reconstruction with trajectory-aware knowledge transfer to resolve GEC. Experiments on various graph datasets demonstrate POWER's superiority over federated adaptations of CGL baselines and vision-centric federated continual learning approaches.
- Abstract(参考訳): 進化しているグラフデータを管理することは、ストレージとプライバシにおいて重大な課題を示し、そのようなデータ上でグラフニューラルネットワーク(GNN)をトレーニングすることは、しばしば破滅的な忘れ込み、以前のタスクのパフォーマンスを損なう。
既存の連続グラフ学習(CGL)手法がこれをある程度緩和したものの、それらは集中型アーキテクチャに依存し、集合的なインテリジェンスを活用するために分散グラフデータベースの可能性を無視している。
この目的のために、ストレージおよびプライバシ制約下での複数の進化グラフにGNNを適用するために、FCGL(Federated Continual Graph Learning)を提案する。
我々の実証的な研究は、ローカルグラフの忘れ(LGF)、クライアントが新しいタスクに適応する際に事前の知識を失う、グローバルな専門知識紛争(GEC)、グローバルなGNNが新しいタスクに適応し、サーバサイドのパラメータアグリゲーション中に不整合なクライアントの専門知識から生じる古いものを維持するという2つの主要な課題を強調しています。
これらの問題に対処するため,我々は,LGFを緩和するために,ローカル・グローバル・カバレッジが最大である経験ノードをローカルに保存するフレームワークであるPOWERを導入し,GECを解消するために,軌道認識による知識伝達による擬似プロトタイプ再構築を活用する。
様々なグラフデータセットの実験は、CGLベースラインのフェデレーション適応とビジョン中心のフェデレーション学習アプローチよりもPOWERの方が優れていることを示す。
関連論文リスト
- OpenGU: A Comprehensive Benchmark for Graph Unlearning [24.605943688948038]
Graph Unlearning(GU)は、プライバシに敏感なアプリケーションにとって重要なソリューションとして登場した。
最初のGUベンチマークであるOpenGUでは、16のSOTA GUアルゴリズムと37のマルチドメインデータセットが統合されている。
既存のGUメソッドに関する決定的な結論は8ドルもしますが、その一方で、その制限について貴重な洞察を得ています。
論文 参考訳(メタデータ) (2025-01-06T02:57:32Z) - TANGNN: a Concise, Scalable and Effective Graph Neural Networks with Top-m Attention Mechanism for Graph Representation Learning [7.879217146851148]
本稿では,Top-mアテンション機構アグリゲーションコンポーネントと近傍アグリゲーションコンポーネントを統合した,革新的なグラフニューラルネットワーク(GNN)アーキテクチャを提案する。
提案手法の有効性を評価するため,提案手法をGNN分野において未探索の新たな課題である引用感情予測に適用した。
論文 参考訳(メタデータ) (2024-11-23T05:31:25Z) - Federated Temporal Graph Clustering [9.779760673367663]
時間グラフクラスタリングは、時間とともに関係や実体が変化する動的なグラフにおいて意味のある構造を発見する複雑なタスクである。
既存の方法は一般的に集中的なデータ収集を必要とし、これはプライバシーと通信上の重大な課題を引き起こす。
複数のクライアントをまたいだグラフニューラルネットワーク(GNN)の分散トレーニングを可能にする新しいフェデレーション時間グラフクラスタリングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-16T08:04:57Z) - Deep Contrastive Graph Learning with Clustering-Oriented Guidance [61.103996105756394]
グラフ畳み込みネットワーク(GCN)は、グラフベースのクラスタリングを改善する上で大きな可能性を秘めている。
モデルはGCNを適用するために初期グラフを事前に推定する。
一般的なデータクラスタリングには,Deep Contrastive Graph Learning (DCGL)モデルが提案されている。
論文 参考訳(メタデータ) (2024-02-25T07:03:37Z) - Privacy-preserving design of graph neural networks with applications to
vertical federated learning [56.74455367682945]
VESPERと呼ばれるエンドツーエンドのグラフ表現学習フレームワークを提案する。
VESPERは、適切なプライバシー予算の下でスパースグラフと密度グラフの両方で高性能なGNNモデルをトレーニングすることができる。
論文 参考訳(メタデータ) (2023-10-31T15:34:59Z) - Lumos: Heterogeneity-aware Federated Graph Learning over Decentralized
Devices [19.27111697495379]
グラフニューラルネットワーク(GNN)は、現実世界のネットワークアプリケーションやシステムに広くデプロイされている。
本稿では,教師付き学習と教師なし学習をサポートするLumosという,初の連合型GNNフレームワークを提案する。
クライアント毎に構築したツリーに基づいて,多目的学習を支援するために,分散型ツリーベースGNNトレーナーを提案する。
論文 参考訳(メタデータ) (2023-03-01T13:27:06Z) - EGRC-Net: Embedding-induced Graph Refinement Clustering Network [66.44293190793294]
埋め込みによるグラフリファインメントクラスタリングネットワーク (EGRC-Net) という新しいグラフクラスタリングネットワークを提案する。
EGRC-Netは学習した埋め込みを利用して初期グラフを適応的に洗練し、クラスタリング性能を向上させる。
提案手法はいくつかの最先端手法より一貫して優れている。
論文 参考訳(メタデータ) (2022-11-19T09:08:43Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - Local Augmentation for Graph Neural Networks [78.48812244668017]
本稿では,局所的な部分グラフ構造によりノード特性を向上する局所拡張を提案する。
局所的な拡張に基づいて、プラグイン・アンド・プレイ方式で任意のGNNモデルに適用可能な、LA-GNNという新しいフレームワークをさらに設計する。
論文 参考訳(メタデータ) (2021-09-08T18:10:08Z) - FedGL: Federated Graph Learning Framework with Global Self-Supervision [22.124339267195822]
FedGLは、データプライバシを保護しながら、高品質なグローバルグラフモデルを取得することができる。
グローバルなセルフスーパービジョンにより、各クライアントの情報がプライバシー保護の方法で流れて共有できます。
論文 参考訳(メタデータ) (2021-05-07T11:27:23Z) - Robust Optimization as Data Augmentation for Large-scale Graphs [117.2376815614148]
学習中に勾配に基づく逆方向摂動を伴うノード特徴を反復的に拡張するFLAG(Free Large-scale Adversarial Augmentation on Graphs)を提案する。
FLAGはグラフデータに対する汎用的なアプローチであり、ノード分類、リンク予測、グラフ分類タスクで普遍的に機能する。
論文 参考訳(メタデータ) (2020-10-19T21:51:47Z) - GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training [62.73470368851127]
グラフ表現学習は現実世界の問題に対処する強力な手法として登場した。
自己教師付きグラフニューラルネットワーク事前トレーニングフレームワークであるGraph Contrastive Codingを設計する。
3つのグラフ学習タスクと10のグラフデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-06-17T16:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。