論文の概要: Virtual Nodes Can Help: Tackling Distribution Shifts in Federated Graph Learning
- arxiv url: http://arxiv.org/abs/2412.19229v1
- Date: Thu, 26 Dec 2024 14:16:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-30 17:24:46.972138
- Title: Virtual Nodes Can Help: Tackling Distribution Shifts in Federated Graph Learning
- Title(参考訳): 仮想ノードは役に立つ:フェデレーショングラフ学習における分散シフトに対処する
- Authors: Xingbo Fu, Zihan Chen, Yinhan He, Song Wang, Binchi Zhang, Chen Chen, Jundong Li,
- Abstract要約: Federated Graph Learning (FGL)は、複数のクライアントが強力なグラフ学習モデルを共同でトレーニングすることを可能にする。
実世界では、グラフデータはクライアント間で大きな分散シフトに悩まされる可能性がある。
本稿では,FedVNという新しいFGLフレームワークを提案する。
- 参考スコア(独自算出の注目度): 43.931066381519834
- License:
- Abstract: Federated Graph Learning (FGL) enables multiple clients to jointly train powerful graph learning models, e.g., Graph Neural Networks (GNNs), without sharing their local graph data for graph-related downstream tasks, such as graph property prediction. In the real world, however, the graph data can suffer from significant distribution shifts across clients as the clients may collect their graph data for different purposes. In particular, graph properties are usually associated with invariant label-relevant substructures (i.e., subgraphs) across clients, while label-irrelevant substructures can appear in a client-specific manner. The issue of distribution shifts of graph data hinders the efficiency of GNN training and leads to serious performance degradation in FGL. To tackle the aforementioned issue, we propose a novel FGL framework entitled FedVN that eliminates distribution shifts through client-specific graph augmentation strategies with multiple learnable Virtual Nodes (VNs). Specifically, FedVN lets the clients jointly learn a set of shared VNs while training a global GNN model. To eliminate distribution shifts, each client trains a personalized edge generator that determines how the VNs connect local graphs in a client-specific manner. Furthermore, we provide theoretical analyses indicating that FedVN can eliminate distribution shifts of graph data across clients. Comprehensive experiments on four datasets under five settings demonstrate the superiority of our proposed FedVN over nine baselines.
- Abstract(参考訳): Federated Graph Learning (FGL)は、グラフプロパティ予測などのグラフ関連下流タスクに対して、グラフデータを共有することなく、複数のクライアントが強力なグラフ学習モデル(例えば、グラフニューラルネットワーク(GNN))を共同でトレーニングすることを可能にする。
しかし、実世界では、グラフデータは、クライアントが異なる目的のためにグラフデータを収集できるため、クライアント間で大きな分散シフトに悩まされる可能性がある。
特に、グラフ特性は、通常、クライアント間の不変なラベル関連部分構造(すなわち、サブグラフ)と関連付けられ、一方、ラベル非関連部分構造は、クライアント固有の方法で現れる。
グラフデータの分散シフトの問題により、GNNトレーニングの効率が損なわれ、FGLの性能が著しく低下する。
上記の問題に対処するため,FedVNという新しいFGLフレームワークを提案し,複数の学習可能な仮想ノード(VN)を用いたクライアント固有のグラフ拡張戦略による分散シフトを排除した。
具体的には、FedVNはグローバルなGNNモデルをトレーニングしながら、クライアントが共有VNのセットを共同で学習することを可能にする。
分散シフトを排除するため、各クライアントは、クライアント固有の方法でVNがローカルグラフを接続する方法を決定する、パーソナライズされたエッジジェネレータをトレーニングする。
さらに,FedVNがクライアント間のグラフデータの分散シフトを解消できることを示す理論的解析を行った。
5つの条件下での4つのデータセットに関する総合的な実験は、提案したFedVNが9つの基準線よりも優れていることを示す。
関連論文リスト
- Federated Graph Learning with Graphless Clients [52.5629887481768]
FGL(Federated Graph Learning)は、グラフニューラルネットワーク(GNN)などの機械学習モデルをトレーニングするタスクである。
グラフレスクライアントを用いたFGLにおける問題に対処するための新しいフレームワークFedGLSを提案する。
論文 参考訳(メタデータ) (2024-11-13T06:54:05Z) - One Node Per User: Node-Level Federated Learning for Graph Neural Networks [7.428431479479646]
ノードレベルのフェデレーショングラフ学習のための新しいフレームワークを提案する。
特徴ベクトルの潜在表現に基づくグラフラプラシアン項を導入し,ユーザ側モデル更新を制御する。
論文 参考訳(メタデータ) (2024-09-29T02:16:07Z) - Federated Graph Learning with Structure Proxy Alignment [43.13100155569234]
Federated Graph Learning (FGL)は、複数のデータ所有者に分散されたグラフデータよりもグラフ学習モデルを学習することを目的としている。
我々はFedSprayを提案する。FedSprayは、潜伏空間における局所的なクラスワイド構造プロキシを学習する新しいFGLフレームワークである。
我々のゴールは、ノード分類のための信頼性が高く、偏りのない隣り合う情報として機能する、整列構造プロキシを得ることです。
論文 参考訳(メタデータ) (2024-08-18T07:32:54Z) - Graph Mixture of Experts: Learning on Large-Scale Graphs with Explicit
Diversity Modeling [60.0185734837814]
グラフニューラルネットワーク(GNN)は、グラフデータからの学習に広く応用されている。
GNNの一般化能力を強化するため、グラフ強化のような技術を用いて、トレーニンググラフ構造を増強することが慣例となっている。
本研究では,GNNにMixture-of-Experts(MoE)の概念を導入する。
論文 参考訳(メタデータ) (2023-04-06T01:09:36Z) - FedEgo: Privacy-preserving Personalized Federated Graph Learning with
Ego-graphs [22.649780281947837]
いくつかの実践的なシナリオでは、グラフデータは複数の分散パーティに別々に格納されます。
上記の課題に対処するために,egoグラフに基づくフェデレーショングラフ学習フレームワークであるFedEgoを提案する。
論文 参考訳(メタデータ) (2022-08-29T15:47:36Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - OOD-GNN: Out-of-Distribution Generalized Graph Neural Network [73.67049248445277]
グラフニューラルネットワーク(GNN)は、グラフデータのテストとトレーニングを同一の分布から行うことで、優れたパフォーマンスを実現している。
既存のGNNでは、テストとグラフデータのトレーニングの間に分散シフトが存在する場合、その性能が著しく低下する。
本稿では,学習グラフと異なる分布を持つ未確認試験グラフに対して,満足な性能を実現するために,アウト・オブ・ディストリビューション一般化グラフニューラルネットワーク(OOD-GNN)を提案する。
論文 参考訳(メタデータ) (2021-12-07T16:29:10Z) - FedGL: Federated Graph Learning Framework with Global Self-Supervision [22.124339267195822]
FedGLは、データプライバシを保護しながら、高品質なグローバルグラフモデルを取得することができる。
グローバルなセルフスーパービジョンにより、各クライアントの情報がプライバシー保護の方法で流れて共有できます。
論文 参考訳(メタデータ) (2021-05-07T11:27:23Z) - GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training [62.73470368851127]
グラフ表現学習は現実世界の問題に対処する強力な手法として登場した。
自己教師付きグラフニューラルネットワーク事前トレーニングフレームワークであるGraph Contrastive Codingを設計する。
3つのグラフ学習タスクと10のグラフデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-06-17T16:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。