論文の概要: Federated Continual Graph Learning
- arxiv url: http://arxiv.org/abs/2411.18919v1
- Date: Thu, 28 Nov 2024 05:15:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-02 15:21:30.365004
- Title: Federated Continual Graph Learning
- Title(参考訳): フェデレーション型連続グラフ学習
- Authors: Yinlin Zhu, Xunkai Li, Miao Hu, Di Wu,
- Abstract要約: フェデレート連続グラフ学習(FCGL)の先駆的な研究について述べる。
FCGLは、ストレージとプライバシの制約に固執しながら、分散化された設定内で複数の進化するグラフに適応する。
我々の研究はFCGLの総合的な実験分析から始まり、そのデータ特性、実現可能性、有効性を評価した。
- 参考スコア(独自算出の注目度): 7.464095716250756
- License:
- Abstract: In the era of big data, managing evolving graph data poses substantial challenges due to storage costs and privacy issues. Training graph neural networks (GNNs) on such evolving data usually causes catastrophic forgetting, impairing performance on earlier tasks. Despite existing continual graph learning (CGL) methods mitigating this to some extent, they predominantly operate in centralized architectures and overlook the potential of distributed graph databases to harness collective intelligence for enhanced performance optimization. To address these challenges, we present a pioneering study on Federated Continual Graph Learning (FCGL), which adapts GNNs to multiple evolving graphs within decentralized settings while adhering to storage and privacy constraints. Our work begins with a comprehensive empirical analysis of FCGL, assessing its data characteristics, feasibility, and effectiveness, and reveals two principal challenges: local graph forgetting (LGF), where local GNNs forget prior knowledge when adapting to new tasks, and global expertise conflict (GEC), where the global GNN exhibits sub-optimal performance in both adapting to new tasks and retaining old ones, arising from inconsistent client expertise during server-side parameter aggregation. To tackle these, we propose the POWER framework, which mitigates LGF by preserving and replaying experience nodes with maximum local-global coverage at each client and addresses GEC by using a pseudo prototype reconstruction strategy and trajectory-aware knowledge transfer at the central server. Extensive evaluations across multiple graph datasets demonstrate POWER's superior performance over straightforward federated extensions of the centralized CGL algorithms and vision-focused federated continual learning algorithms. Our code is available at https://github.com/zyl24/FCGL_POWER.
- Abstract(参考訳): ビッグデータの時代において、進化するグラフデータを管理することは、ストレージコストとプライバシの問題のために重大な課題となる。
このような進化するデータに対するグラフニューラルネットワーク(GNN)のトレーニングは通常、破滅的な忘れ込み、以前のタスクのパフォーマンスを損なう。
既存の連続グラフ学習(CGL)手法がこれをある程度緩和したものの、それらは主に中央集権的なアーキテクチャで運用され、分散グラフデータベースの可能性を見落とし、パフォーマンス最適化の強化に集合的なインテリジェンスを活用する。
これらの課題に対処するために、GNNを分散化された設定内の複数の進化グラフに適用し、ストレージとプライバシの制約を順守するFCGL(Federated Continual Graph Learning)の先駆的な研究を提案する。
我々の研究はFCGLの総合的な実証分析から始まり、そのデータ特性、実現可能性、有効性を評価し、ローカルグラフの無視(LGF)と、グローバルなGNNが新しいタスクに適応する際の事前知識を忘れるグローバルな専門知識紛争(GEC)という2つの主要な課題を明らかにします。
そこで本研究では,各クライアントにおけるローカル・グローバル・カバレッジが最大である経験ノードを保存・再生することで,LGFを緩和するPOWERフレームワークを提案する。
複数のグラフデータセットにわたる広範囲な評価は、集中型CGLアルゴリズムとビジョン中心のフェデレーション付き連続学習アルゴリズムの単純なフェデレーション拡張よりもPOWERの方が優れた性能を示している。
私たちのコードはhttps://github.com/zyl24/FCGL_POWER.comから入手可能です。
関連論文リスト
- OpenGU: A Comprehensive Benchmark for Graph Unlearning [24.605943688948038]
Graph Unlearning(GU)は、プライバシに敏感なアプリケーションにとって重要なソリューションとして登場した。
最初のGUベンチマークであるOpenGUでは、16のSOTA GUアルゴリズムと37のマルチドメインデータセットが統合されている。
既存のGUメソッドに関する決定的な結論は8ドルもしますが、その一方で、その制限について貴重な洞察を得ています。
論文 参考訳(メタデータ) (2025-01-06T02:57:32Z) - TANGNN: a Concise, Scalable and Effective Graph Neural Networks with Top-m Attention Mechanism for Graph Representation Learning [7.879217146851148]
本稿では,Top-mアテンション機構アグリゲーションコンポーネントと近傍アグリゲーションコンポーネントを統合した,革新的なグラフニューラルネットワーク(GNN)アーキテクチャを提案する。
提案手法の有効性を評価するため,提案手法をGNN分野において未探索の新たな課題である引用感情予測に適用した。
論文 参考訳(メタデータ) (2024-11-23T05:31:25Z) - Federated Temporal Graph Clustering [9.779760673367663]
時間グラフクラスタリングは、時間とともに関係や実体が変化する動的なグラフにおいて意味のある構造を発見する複雑なタスクである。
既存の方法は一般的に集中的なデータ収集を必要とし、これはプライバシーと通信上の重大な課題を引き起こす。
複数のクライアントをまたいだグラフニューラルネットワーク(GNN)の分散トレーニングを可能にする新しいフェデレーション時間グラフクラスタリングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-16T08:04:57Z) - Deep Contrastive Graph Learning with Clustering-Oriented Guidance [61.103996105756394]
グラフ畳み込みネットワーク(GCN)は、グラフベースのクラスタリングを改善する上で大きな可能性を秘めている。
モデルはGCNを適用するために初期グラフを事前に推定する。
一般的なデータクラスタリングには,Deep Contrastive Graph Learning (DCGL)モデルが提案されている。
論文 参考訳(メタデータ) (2024-02-25T07:03:37Z) - Privacy-preserving design of graph neural networks with applications to
vertical federated learning [56.74455367682945]
VESPERと呼ばれるエンドツーエンドのグラフ表現学習フレームワークを提案する。
VESPERは、適切なプライバシー予算の下でスパースグラフと密度グラフの両方で高性能なGNNモデルをトレーニングすることができる。
論文 参考訳(メタデータ) (2023-10-31T15:34:59Z) - Lumos: Heterogeneity-aware Federated Graph Learning over Decentralized
Devices [19.27111697495379]
グラフニューラルネットワーク(GNN)は、現実世界のネットワークアプリケーションやシステムに広くデプロイされている。
本稿では,教師付き学習と教師なし学習をサポートするLumosという,初の連合型GNNフレームワークを提案する。
クライアント毎に構築したツリーに基づいて,多目的学習を支援するために,分散型ツリーベースGNNトレーナーを提案する。
論文 参考訳(メタデータ) (2023-03-01T13:27:06Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - Local Augmentation for Graph Neural Networks [78.48812244668017]
本稿では,局所的な部分グラフ構造によりノード特性を向上する局所拡張を提案する。
局所的な拡張に基づいて、プラグイン・アンド・プレイ方式で任意のGNNモデルに適用可能な、LA-GNNという新しいフレームワークをさらに設計する。
論文 参考訳(メタデータ) (2021-09-08T18:10:08Z) - FedGL: Federated Graph Learning Framework with Global Self-Supervision [22.124339267195822]
FedGLは、データプライバシを保護しながら、高品質なグローバルグラフモデルを取得することができる。
グローバルなセルフスーパービジョンにより、各クライアントの情報がプライバシー保護の方法で流れて共有できます。
論文 参考訳(メタデータ) (2021-05-07T11:27:23Z) - Robust Optimization as Data Augmentation for Large-scale Graphs [117.2376815614148]
学習中に勾配に基づく逆方向摂動を伴うノード特徴を反復的に拡張するFLAG(Free Large-scale Adversarial Augmentation on Graphs)を提案する。
FLAGはグラフデータに対する汎用的なアプローチであり、ノード分類、リンク予測、グラフ分類タスクで普遍的に機能する。
論文 参考訳(メタデータ) (2020-10-19T21:51:47Z) - GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training [62.73470368851127]
グラフ表現学習は現実世界の問題に対処する強力な手法として登場した。
自己教師付きグラフニューラルネットワーク事前トレーニングフレームワークであるGraph Contrastive Codingを設計する。
3つのグラフ学習タスクと10のグラフデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-06-17T16:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。