論文の概要: Knowledge-Driven Federated Graph Learning on Model Heterogeneity
- arxiv url: http://arxiv.org/abs/2501.12624v3
- Date: Thu, 09 Oct 2025 05:20:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 15:34:28.350118
- Title: Knowledge-Driven Federated Graph Learning on Model Heterogeneity
- Title(参考訳): モデル不均一性に基づく知識駆動型フェデレーショングラフ学習
- Authors: Zhengyu Wu, Guang Zeng, Huilin Lai, Daohan Su, Jishuo Jia, Yinlin Zhu, Xunkai Li, Rong-Hua Li, Guoren Wang, Chenghu Zhou,
- Abstract要約: FGL(Federated Graph Learning)は、協調グラフ表現学習において、有望なパラダイムとして登場した。
本稿では,FedGKC(Federated Graph Knowledge Collaboration)フレームワークを提案する。
FedGKCは、MHtFGLシナリオのベースラインよりも平均3.74%の精度向上を実現し、均一な設定では優れたパフォーマンスを維持している。
- 参考スコア(独自算出の注目度): 47.98634086448171
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated graph learning (FGL) has emerged as a promising paradigm for collaborative graph representation learning, enabling multiple parties to jointly train models while preserving data privacy. However, most existing approaches assume homogeneous client models and largely overlook the challenge of model-centric heterogeneous FGL (MHtFGL), which frequently arises in practice when organizations employ graph neural networks (GNNs) of different scales and architectures.Such architectural diversity not only undermines smooth server-side aggregation, which presupposes a unified representation space shared across clients' updates, but also further complicates the transfer and integration of structural knowledge across clients. To address this issue, we propose the Federated Graph Knowledge Collaboration (FedGKC) framework. FedGKC introduces a lightweight Copilot Model on each client to facilitate knowledge exchange while local architectures are heterogeneous across clients, and employs two complementary mechanisms: Client-side Self-Mutual Knowledge Distillation, which transfers effective knowledge between local and copilot models through bidirectional distillation with multi-view perturbation; and Server-side Knowledge-Aware Model Aggregation, which dynamically assigns aggregation weights based on knowledge provided by clients. Extensive experiments on eight benchmark datasets demonstrate that FedGKC achieves an average accuracy gain of 3.74% over baselines in MHtFGL scenarios, while maintaining excellent performance in homogeneous settings.
- Abstract(参考訳): フェデレーショングラフ学習(FGL)は、協調グラフ表現学習のための有望なパラダイムとして登場し、複数のパーティがデータのプライバシを保持しながらモデルを共同でトレーニングすることを可能にする。
しかし、既存のほとんどのアプローチは均質なクライアントモデルを想定しており、組織がさまざまなスケールとアーキテクチャのグラフニューラルネットワーク(GNN)を使用する場合にしばしば発生するモデル中心の不均一なFGL(MHtFGL)の課題を概ね見落としている。
この問題に対処するため,我々はFedGKC(Federated Graph Knowledge Collaboration)フレームワークを提案する。
FedGKCは、知識交換を促進するために、各クライアントに軽量なコパイロットモデルを導入し、ローカルアーキテクチャはクライアント間で異質である一方で、2つの補完的なメカニズムを採用している。
8つのベンチマークデータセットの大規模な実験により、FedGKCはMHtFGLシナリオのベースラインよりも平均精度が3.74%向上し、均一な設定での優れたパフォーマンスを維持していることが示された。
関連論文リスト
- Not All Clients Are Equal: Personalized Federated Learning on Heterogeneous Multi-Modal Clients [52.14230635007546]
ファンデーションモデルは多様なマルチモーダルタスクにまたがって顕著な能力を示してきたが、その集中的なトレーニングはプライバシーの懸念を高め、高い伝達コストを引き起こす。
異なるユーザー目的のためにAIモデルをパーソナライズする需要が高まっているため、パーソナライズされたフェデレーションラーニング(PFL)が出現している。
PFLは、各クライアントが他のクライアントの知識を活用して、データを共有することなく、個々のユーザの好みにさらに適応することを可能にする。
論文 参考訳(メタデータ) (2025-05-20T09:17:07Z) - FedHERO: A Federated Learning Approach for Node Classification Task on Heterophilic Graphs [55.51300642911766]
Federated Graph Learning(FGL)は、クライアントがグラフニューラルネットワーク(GNN)を分散的にトレーニングすることを可能にする。
FGL法は通常、全てのクライアントが所有するグラフデータが、類似したノードの分布パターンを保証するためにホモフィリックであることが要求される。
異種グラフからの洞察を効果的に活用し、共有するために設計されたFGLフレームワークであるFedHEROを提案する。
論文 参考訳(メタデータ) (2025-04-29T22:23:35Z) - Federated Prototype Graph Learning [33.38948169766356]
Federated Graph Learning (FGL)は、その分散トレーニング機能に大きな注目を集めている。
FEMAIL: 上記の多レベルFGLの不均一性に対する一般プロトタイプ誘導最適化法としてFedPGを提案する。
実験により,FedPGは平均3.57%の精度でSOTAベースラインを上回り,通信コストを168倍に削減した。
論文 参考訳(メタデータ) (2025-04-13T09:21:21Z) - Data-centric Federated Graph Learning with Large Language Models [34.224475952206404]
フェデレーショングラフ学習(FGL)では、完全なグラフは、プライバシー上の懸念により、各クライアントに格納された複数のサブグラフに分割される。
FGLの問題点は、ノードや構造がクライアント間で非IID特性を示す不均一性の問題である。
本稿では,FGLの大規模言語モデルのタスクを理論的に2つのサブタスクに分割する枠組みを提案する。
論文 参考訳(メタデータ) (2025-03-25T08:43:08Z) - Towards Federated Graph Learning in One-shot Communication [27.325478113745206]
Federated Graph Learning(FGL)は、分散プライベートグラフ間のデータサイロを壊すための有望なパラダイムとして登場した。
ワンショットフェデレートラーニング(OFL)は1ラウンドでのコラボレーションを可能にするが、既存のOFLメソッドはグラフデータには有効ではない。
本稿では,ノード分類のための最初の$textbfO-pFGL$メソッド(textbfO-pFGL$)を提案する。
論文 参考訳(メタデータ) (2024-11-18T05:59:29Z) - SpreadFGL: Edge-Client Collaborative Federated Graph Learning with Adaptive Neighbor Generation [16.599474223790843]
Federated Graph Learning (FGL)は、分類タスクのために複数のクライアントで協調的なトレーニングを可能にすることで、広く注目を集めている。
本研究では,エッジ・クライアント・コラボレーションにおける情報フローの促進を目的とした新しいFGLフレームワークSpreadFGLを提案する。
本研究では,SpreadFGLが最先端のアルゴリズムに対して精度が高く,より高速な収束を実現することを示す。
論文 参考訳(メタデータ) (2024-07-14T09:34:19Z) - FedSheafHN: Personalized Federated Learning on Graph-structured Data [22.825083541211168]
我々はFedSheafHNと呼ばれるモデルを提案し、各クライアントのローカルサブグラフをサーバ構築コラボレーショングラフに埋め込む。
我々のモデルは複雑なクライアント特性の統合と解釈を改善します。
また、高速なモデル収束と効果的な新しいクライアントの一般化も備えている。
論文 参考訳(メタデータ) (2024-05-25T04:51:41Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Enhancing One-Shot Federated Learning Through Data and Ensemble
Co-Boosting [76.64235084279292]
ワンショットフェデレートラーニング(One-shot Federated Learning, OFL)は,単一のコミュニケーションラウンドを通じてグローバルサーバモデルのトレーニングを可能にする,有望な学習パラダイムである。
合成されたデータとアンサンブルモデルを相互に拡張する新しいフレームワークであるCo-Boostingを導入する。
論文 参考訳(メタデータ) (2024-02-23T03:15:10Z) - FLASH: Federated Learning Across Simultaneous Heterogeneities [54.80435317208111]
FLASH (Federated Learning Across Simultaneous Heterogeneities) は軽量かつ柔軟なクライアント選択アルゴリズムである。
ヘテロジニティの幅広い情報源の下で、最先端のFLフレームワークよりも優れています。
最先端のベースラインよりも大幅に、一貫性のある改善を実現している。
論文 参考訳(メタデータ) (2024-02-13T20:04:39Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Closing the Gap between Client and Global Model Performance in
Heterogeneous Federated Learning [2.1044900734651626]
カスタムクライアントモデルをトレーニングするための選択されたアプローチが、グローバルモデルにどのように影響するかを示す。
KDとLwoF(LwoF)を併用して、改良されたパーソナライズドモデルを生成する手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T11:12:57Z) - Towards Fair Federated Learning with Zero-Shot Data Augmentation [123.37082242750866]
フェデレーション学習は重要な分散学習パラダイムとして登場し、サーバはクライアントデータにアクセスせずに、多くのクライアントがトレーニングしたモデルからグローバルモデルを集約する。
本稿では, 統計的不均一性を緩和し, フェデレートネットワークにおけるクライアント間での精度向上を図るために, ゼロショットデータ拡張を用いた新しいフェデレーション学習システムを提案する。
Fed-ZDAC (クライアントでのゼロショットデータ拡張によるフェデレーション学習) と Fed-ZDAS (サーバでのゼロショットデータ拡張によるフェデレーション学習) の2種類について検討する。
論文 参考訳(メタデータ) (2021-04-27T18:23:54Z) - Federated Mutual Learning [65.46254760557073]
Federated Mutual Leaning (FML)は、クライアントが汎用モデルとパーソナライズされたモデルを独立してトレーニングすることを可能にする。
実験により、FMLは一般的なフェデレート学習環境よりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2020-06-27T09:35:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。