論文の概要: Towards Federated Graph Learning in One-shot Communication
- arxiv url: http://arxiv.org/abs/2411.11304v5
- Date: Thu, 23 Jan 2025 02:38:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-24 15:56:09.604514
- Title: Towards Federated Graph Learning in One-shot Communication
- Title(参考訳): ワンショットコミュニケーションにおけるフェデレーショングラフ学習に向けて
- Authors: Guochen Yan, Xunkai Li, Luyuan Xie, Wentao Zhang, Qingni Shen, Yuejian Fang, Zhonghai Wu,
- Abstract要約: Federated Graph Learning(FGL)は、分散プライベートグラフ間のデータサイロを壊すための有望なパラダイムとして登場した。
ワンショットフェデレートラーニング(OFL)は1ラウンドでのコラボレーションを可能にするが、既存のOFLメソッドはグラフデータには有効ではない。
本稿では,ノード分類のための最初の$textbfO-pFGL$メソッド(textbfO-pFGL$)を提案する。
- 参考スコア(独自算出の注目度): 27.325478113745206
- License:
- Abstract: Federated Graph Learning (FGL) has emerged as a promising paradigm for breaking data silos among distributed private graphs. In practical scenarios involving heterogeneous distributed graph data, personalized Federated Graph Learning (pFGL) aims to enhance model utility by training personalized models tailored to client needs. However, existing pFGL methods often require numerous communication rounds under heterogeneous graphs, leading to significant communication overhead and security concerns. While One-shot Federated Learning (OFL) enables collaboration in a single round, existing OFL methods are designed for image-centric tasks and ineffective for graph data, leaving a critical gap in the field. Additionally, personalized models derived from existing methods suffer from bias, failing to effectively generalize to the minority. To address these challenges, we propose the first $\textbf{O}$ne-shot $\textbf{p}$ersonalized $\textbf{F}$ederated $\textbf{G}$raph $\textbf{L}$earning method ($\textbf{O-pFGL}$) for node classification, compatible with Secure Aggregation protocols for privacy preservation. Specifically, for effective graph learning in one communication round, our method estimates and aggregates class-wise feature distribution statistics to construct a global pseudo-graph on the server, facilitating the training of a global graph model. To mitigate bias, we introduce a two-stage personalized training approach that adaptively balances local personal information and global insights from the pseudo-graph, improving both personalization and generalization. Extensive experiments on 12 multi-scale graph datasets demonstrate that our method significantly outperforms state-of-the-art baselines across various settings.
- Abstract(参考訳): Federated Graph Learning(FGL)は、分散プライベートグラフ間のデータサイロを壊すための有望なパラダイムとして登場した。
不均一な分散グラフデータを含む実践シナリオでは、パーソナライズされたフェデレーショングラフラーニング(pFGL)は、クライアントのニーズに合わせてパーソナライズされたモデルのトレーニングによってモデルユーティリティを向上させることを目的としている。
しかし、既存のpFGL法は、しばしば不均一なグラフの下で多数の通信ラウンドを必要とし、通信オーバーヘッドとセキュリティ上の問題を引き起こす。
One-shot Federated Learning (OFL) は単一ラウンドでのコラボレーションを可能にするが、既存の OFL メソッドは画像中心のタスク用に設計されており、グラフデータには有効ではない。
さらに、既存の手法から派生したパーソナライズされたモデルは偏見に悩まされ、マイノリティに効果的に一般化することができなかった。
これらの課題に対処するために、ノード分類のための最初の$\textbf{O}$ne-shot $\textbf{p}$ersonalized $\textbf{F}$ederated $\textbf{G}$raph $\textbf{L}$earning method$\textbf{O-pFGL}$)を提案する。
具体的には、一つの通信ラウンドにおける効果的なグラフ学習のために、我々の手法は、クラスワイドの特徴分布統計を推定して集約し、サーバ上にグローバルな擬似グラフを構築し、グローバルなグラフモデルのトレーニングを容易にする。
バイアスを軽減するために、我々はローカルな個人情報と擬似グラフからのグローバルな洞察を適応的にバランスさせ、パーソナライズと一般化の両方を改善する2段階のパーソナライズドトレーニングアプローチを導入する。
12のマルチスケールグラフデータセットに対する大規模な実験により、我々の手法は様々な設定において最先端のベースラインを著しく上回ることを示した。
関連論文リスト
- Communication-Efficient Personalized Federal Graph Learning via Low-Rank Decomposition [18.99572321624751]
通信効率の高いグラフ学習アルゴリズムであるCEFGLを提案する。
提案手法は,モデルパラメータを低ランクなジェネリックモデルとスパースなプライベートモデルに分解する。
局所的な知識をパーソナライズされた方法で学習するために,デュアルチャネルエンコーダを用いる。
論文 参考訳(メタデータ) (2024-12-18T02:26:07Z) - GALA: Graph Diffusion-based Alignment with Jigsaw for Source-free Domain Adaptation [13.317620250521124]
ソースコードのないドメイン適応は、現実世界で多くのアプリケーションを含むため、重要な機械学習トピックである。
最近のグラフニューラルネットワーク(GNN)アプローチは、ドメインシフトとラベルの不足により、パフォーマンスが著しく低下する可能性がある。
本稿では, ソースフリーなグラフドメイン適応に適した Jigsaw (GALA) を用いたグラフ拡散に基づくアライメント法を提案する。
論文 参考訳(メタデータ) (2024-10-22T01:32:46Z) - MGNet: Learning Correspondences via Multiple Graphs [78.0117352211091]
学習対応は、不均一な対応分布と低い不整合率で設定された初期対応から正しい対応を見つけることを目的としている。
最近の進歩は、通常、グラフニューラルネットワーク(GNN)を使用して単一のタイプのグラフを構築したり、グローバルなグラフに局所グラフをスタックしてタスクを完了させる。
本稿では,複数の補完グラフを効果的に組み合わせるためのMGNetを提案する。
論文 参考訳(メタデータ) (2024-01-10T07:58:44Z) - GraphGLOW: Universal and Generalizable Structure Learning for Graph
Neural Networks [72.01829954658889]
本稿では,この新たな問題設定の数学的定義を紹介する。
一つのグラフ共有構造学習者と複数のグラフ固有GNNを協調する一般的なフレームワークを考案する。
十分に訓練された構造学習者は、微調整なしで、目に見えない対象グラフの適応的な構造を直接生成することができる。
論文 参考訳(メタデータ) (2023-06-20T03:33:22Z) - Contrastive Graph Few-Shot Learning [67.01464711379187]
グラフマイニングタスクのためのコントラストグラフFew-shot Learningフレームワーク(CGFL)を提案する。
CGFLは、データ表現を自己管理的に学習し、分散シフトの影響を緩和し、より良い一般化を行う。
総合的な実験により、CGFLはいくつかのグラフマイニングタスクにおいて最先端のベースラインより優れていることが示された。
論文 参考訳(メタデータ) (2022-09-30T20:40:23Z) - Analyzing the Effect of Sampling in GNNs on Individual Fairness [79.28449844690566]
グラフニューラルネットワーク(GNN)ベースの手法は、レコメンダシステムの分野を飽和させた。
我々は,GNNの学習を支援するために,グラフ上で個別の公平性を促進させる既存手法を拡張した。
本研究では,局所ニュアンスが表現学習における公平化促進の過程を導くことによって,ミニバッチトレーニングが個人の公正化を促進することを示す。
論文 参考訳(メタデータ) (2022-09-08T16:20:25Z) - FedEgo: Privacy-preserving Personalized Federated Graph Learning with
Ego-graphs [22.649780281947837]
いくつかの実践的なシナリオでは、グラフデータは複数の分散パーティに別々に格納されます。
上記の課題に対処するために,egoグラフに基づくフェデレーショングラフ学習フレームワークであるFedEgoを提案する。
論文 参考訳(メタデータ) (2022-08-29T15:47:36Z) - Tackling the Local Bias in Federated Graph Learning [48.887310972708036]
フェデレーショングラフ学習(FGL)では、グローバルグラフは異なるクライアントに分散し、各クライアントがサブグラフを保持する。
既存のFGL手法では、クロスクライアントエッジを効果的に活用できず、トレーニング中に構造情報が失われる。
集中型環境で訓練されたモデルと類似した局所モデルを作成するための新しいFGLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-22T08:22:36Z) - A Robust and Generalized Framework for Adversarial Graph Embedding [73.37228022428663]
本稿では,AGE という逆グラフ埋め込みのための頑健なフレームワークを提案する。
AGEは、暗黙の分布から強化された負のサンプルとして偽の隣接ノードを生成する。
本フレームワークでは,3種類のグラフデータを扱う3つのモデルを提案する。
論文 参考訳(メタデータ) (2021-05-22T07:05:48Z) - FedGL: Federated Graph Learning Framework with Global Self-Supervision [22.124339267195822]
FedGLは、データプライバシを保護しながら、高品質なグローバルグラフモデルを取得することができる。
グローバルなセルフスーパービジョンにより、各クライアントの情報がプライバシー保護の方法で流れて共有できます。
論文 参考訳(メタデータ) (2021-05-07T11:27:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。