論文の概要: SpreadFGL: Edge-Client Collaborative Federated Graph Learning with Adaptive Neighbor Generation
- arxiv url: http://arxiv.org/abs/2407.11085v1
- Date: Sun, 14 Jul 2024 09:34:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-17 20:00:37.456309
- Title: SpreadFGL: Edge-Client Collaborative Federated Graph Learning with Adaptive Neighbor Generation
- Title(参考訳): SpreadFGL:Adaptive Neighbor Generationによるエッジクライアント協調グラフ学習
- Authors: Luying Zhong, Yueyang Pi, Zheyi Chen, Zhengxin Yu, Wang Miao, Xing Chen, Geyong Min,
- Abstract要約: Federated Graph Learning (FGL)は、分類タスクのために複数のクライアントで協調的なトレーニングを可能にすることで、広く注目を集めている。
本研究では,エッジ・クライアント・コラボレーションにおける情報フローの促進を目的とした新しいFGLフレームワークSpreadFGLを提案する。
本研究では,SpreadFGLが最先端のアルゴリズムに対して精度が高く,より高速な収束を実現することを示す。
- 参考スコア(独自算出の注目度): 16.599474223790843
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Graph Learning (FGL) has garnered widespread attention by enabling collaborative training on multiple clients for semi-supervised classification tasks. However, most existing FGL studies do not well consider the missing inter-client topology information in real-world scenarios, causing insufficient feature aggregation of multi-hop neighbor clients during model training. Moreover, the classic FGL commonly adopts the FedAvg but neglects the high training costs when the number of clients expands, resulting in the overload of a single edge server. To address these important challenges, we propose a novel FGL framework, named SpreadFGL, to promote the information flow in edge-client collaboration and extract more generalized potential relationships between clients. In SpreadFGL, an adaptive graph imputation generator incorporated with a versatile assessor is first designed to exploit the potential links between subgraphs, without sharing raw data. Next, a new negative sampling mechanism is developed to make SpreadFGL concentrate on more refined information in downstream tasks. To facilitate load balancing at the edge layer, SpreadFGL follows a distributed training manner that enables fast model convergence. Using real-world testbed and benchmark graph datasets, extensive experiments demonstrate the effectiveness of the proposed SpreadFGL. The results show that SpreadFGL achieves higher accuracy and faster convergence against state-of-the-art algorithms.
- Abstract(参考訳): Federated Graph Learning (FGL)は、半教師付き分類タスクのための複数のクライアントでの協調トレーニングを可能にすることで、広く注目を集めている。
しかし、既存のFGL研究の多くは、実際のシナリオにおけるクライアント間トポロジー情報の欠如を十分に考慮していない。
さらに、古典的なFGLは一般的にFedAvgを採用するが、クライアントの数が増えると高いトレーニングコストが無視され、単一のエッジサーバがオーバーロードされる。
これらの課題に対処するため、エッジ・クライアント間のコラボレーションにおける情報フローを促進し、クライアント間のより一般化された潜在的な関係を抽出する新しいFGLフレームワークSpreadFGLを提案する。
SpreadFGLでは、多目的評価器を組み込んだ適応グラフ計算生成器が、生データを共有することなく、まずサブグラフ間の潜在的なリンクを利用するように設計されている。
次に、SpreadFGLが下流タスクでより洗練された情報に集中できるように、新しいネガティブサンプリング機構を開発した。
エッジ層でのロードバランシングを容易にするために、SpreadFGLは、高速なモデル収束を可能にする分散トレーニング方法に従っている。
実世界のテストベッドとベンチマークグラフデータセットを使用して、提案したSpreadFGLの有効性を広範な実験で実証した。
その結果、SpreadFGLは最先端のアルゴリズムに対して精度が高く、より高速な収束を実現することがわかった。
関連論文リスト
- An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Achieving Linear Speedup in Asynchronous Federated Learning with
Heterogeneous Clients [30.135431295658343]
フェデレートラーニング(FL)は、異なるクライアントにローカルに保存されているデータを交換したり転送したりすることなく、共通のグローバルモデルを学ぶことを目的としている。
本稿では,DeFedAvgという,効率的な連邦学習(AFL)フレームワークを提案する。
DeFedAvgは、望まれる線形スピードアップ特性を達成する最初のAFLアルゴリズムであり、高いスケーラビリティを示している。
論文 参考訳(メタデータ) (2024-02-17T05:22:46Z) - FLASH: Federated Learning Across Simultaneous Heterogeneities [54.80435317208111]
FLASH (Federated Learning Across Simultaneous Heterogeneities) は軽量かつ柔軟なクライアント選択アルゴリズムである。
ヘテロジニティの幅広い情報源の下で、最先端のFLフレームワークよりも優れています。
最先端のベースラインよりも大幅に、一貫性のある改善を実現している。
論文 参考訳(メタデータ) (2024-02-13T20:04:39Z) - FedGTA: Topology-aware Averaging for Federated Graph Learning [44.11777886421429]
Federated Graph Learning(FGL)は、大規模サブグラフの協調トレーニングを可能にする分散機械学習パラダイムである。
多くのFGL最適化戦略はグラフ構造を無視し、満足できない性能と緩やかな収束を示す。
FedGTA(Federated Graph Topology-Aware Aggregation, FedGTA)は,局所的スムーシング信頼度と近傍の混合特徴を最適化するパーソナライズされた最適化戦略である。
論文 参考訳(メタデータ) (2024-01-22T08:31:53Z) - AdaFGL: A New Paradigm for Federated Node Classification with Topology
Heterogeneity [44.11777886421429]
Federated Graph Learning (FGL) はグラフニューラルネットワークに基づく分散フレームワークとして注目されている。
構造的非イド分割の概念を導入し、次に、UnderlineAdaptive UnderlineFederated UnderlineGraph UnderlineLearning (AdaFGL)と呼ばれる新しいパラダイムを示す。
提案したAdaFGLは,コミュニティ分割の3.24%,コミュニティ分割の5.57%,非イド分割の5.57%でベースラインを上回った。
論文 参考訳(メタデータ) (2024-01-22T08:23:31Z) - Chasing Fairness in Graphs: A GNN Architecture Perspective [73.43111851492593]
グラフニューラルネットワーク(GNN)の統一最適化フレームワーク内で設計されたtextsfFair textsfMessage textsfPassing(FMP)を提案する。
FMPでは、アグリゲーションがまず隣人の情報を活用するために採用され、バイアス軽減ステップにより、人口集団ノードのプレゼンテーションセンタが明示的に統合される。
ノード分類タスクの実験により、提案されたFMPは、実世界の3つのデータセットの公平性と正確性の観点から、いくつかのベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-19T18:00:15Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - Tackling the Local Bias in Federated Graph Learning [48.887310972708036]
フェデレーショングラフ学習(FGL)では、グローバルグラフは異なるクライアントに分散し、各クライアントがサブグラフを保持する。
既存のFGL手法では、クロスクライアントエッジを効果的に活用できず、トレーニング中に構造情報が失われる。
集中型環境で訓練されたモデルと類似した局所モデルを作成するための新しいFGLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-22T08:22:36Z) - Towards Fair Federated Learning with Zero-Shot Data Augmentation [123.37082242750866]
フェデレーション学習は重要な分散学習パラダイムとして登場し、サーバはクライアントデータにアクセスせずに、多くのクライアントがトレーニングしたモデルからグローバルモデルを集約する。
本稿では, 統計的不均一性を緩和し, フェデレートネットワークにおけるクライアント間での精度向上を図るために, ゼロショットデータ拡張を用いた新しいフェデレーション学習システムを提案する。
Fed-ZDAC (クライアントでのゼロショットデータ拡張によるフェデレーション学習) と Fed-ZDAS (サーバでのゼロショットデータ拡張によるフェデレーション学習) の2種類について検討する。
論文 参考訳(メタデータ) (2021-04-27T18:23:54Z) - Distributed Non-Convex Optimization with Sublinear Speedup under
Intermittent Client Availability [46.85205907718874]
フェデレーション学習は新しい機械学習フレームワークで、多くのクライアントがトレーニングデータを共有することなく、協力的にモデルをトレーニングする。
本研究では,間欠的なモバイル環境におけるフェデレーション学習の実践と課題について考察する。
我々はFedLaAvg(略してFedLaAvg)と呼ばれる単純な分散非線形最適化アルゴリズムを提案する。
我々の理論的解析は、FedLaAvgが$(E1/2/(NT1/2)$の収束率に達し、クライアントの総数に対してサブ線形速度を達成することを示している。
論文 参考訳(メタデータ) (2020-02-18T06:32:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。