論文の概要: FedSA-GCL: A Semi-Asynchronous Federated Graph Learning Framework with Personalized Aggregation and Cluster-Aware Broadcasting
- arxiv url: http://arxiv.org/abs/2507.18219v2
- Date: Tue, 05 Aug 2025 14:52:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-06 15:23:34.685168
- Title: FedSA-GCL: A Semi-Asynchronous Federated Graph Learning Framework with Personalized Aggregation and Cluster-Aware Broadcasting
- Title(参考訳): FedSA-GCL: パーソナライズアグリゲーションとクラスタ対応ブロードキャストを備えた半非同期フェデレーショングラフ学習フレームワーク
- Authors: Zhongzheng Yuan, Lianshuai Guo, Xunkai Li, Yinlin Zhu, Wenyu Wang, Meixia Qu,
- Abstract要約: Federated Graph Learning(FGL)は、複数のローカルシステムに位置する大規模サブグラフ上での協調トレーニングを可能にする分散学習パラダイムである。
本稿では,効率的な学習のための新しいClusterCast機構を通じて,クライアント間ラベル分布のばらつきとグラフトポロジ特性の両方を活用する半非同期フェデレーションフレームワークであるFedSA-GCLを提案する。
我々は,LouvainとMetisの分割アルゴリズムを用いて,複数の実世界のグラフデータセット上でFedSA-GCLを評価し,9つのベースラインと比較した。
- 参考スコア(独自算出の注目度): 5.072144098417946
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Graph Learning (FGL) is a distributed learning paradigm that enables collaborative training over large-scale subgraphs located on multiple local systems. However, most existing FGL approaches rely on synchronous communication, which leads to inefficiencies and is often impractical in real-world deployments. Meanwhile, current asynchronous federated learning (AFL) methods are primarily designed for conventional tasks such as image classification and natural language processing, without accounting for the unique topological properties of graph data. Directly applying these methods to graph learning can possibly result in semantic drift and representational inconsistency in the global model. To address these challenges, we propose FedSA-GCL, a semi-asynchronous federated framework that leverages both inter-client label distribution divergence and graph topological characteristics through a novel ClusterCast mechanism for efficient training. We evaluate FedSA-GCL on multiple real-world graph datasets using the Louvain and Metis split algorithms, and compare it against 9 baselines. Extensive experiments demonstrate that our method achieves strong robustness and outstanding efficiency, outperforming the baselines by an average of 2.92% with the Louvain and by 3.4% with the Metis.
- Abstract(参考訳): Federated Graph Learning(FGL)は、複数のローカルシステムに位置する大規模サブグラフ上での協調トレーニングを可能にする分散学習パラダイムである。
しかし、既存のほとんどのFGLアプローチは同期通信に依存しており、これは非効率につながり、現実のデプロイメントでは非現実的であることが多い。
一方、現在の非同期フェデレーション学習(AFL)法は、画像分類や自然言語処理といった従来のタスクに対して、グラフデータの独自のトポロジ特性を考慮せずに設計されている。
これらの手法を直接グラフ学習に適用すると、大域的モデルにおける意味的ドリフトと表現的不整合が生じる可能性がある。
これらの課題に対処するため,FedSA-GCLを提案する。FedSA-GCLは,クライアント間ラベル分布のばらつきとグラフトポロジ特性の両方を活用する半非同期なフェデレーションフレームワークである。
我々は,LouvainとMetisの分割アルゴリズムを用いて,複数の実世界のグラフデータセット上でFedSA-GCLを評価し,9つのベースラインと比較した。
大規模な実験により, 本手法は強靭性および卓越した効率を実現し, 平均2.92%, メティス3.4%のベースラインを達成できた。
関連論文リスト
- FedHERO: A Federated Learning Approach for Node Classification Task on Heterophilic Graphs [55.51300642911766]
Federated Graph Learning(FGL)は、クライアントがグラフニューラルネットワーク(GNN)を分散的にトレーニングすることを可能にする。
FGL法は通常、全てのクライアントが所有するグラフデータが、類似したノードの分布パターンを保証するためにホモフィリックであることが要求される。
異種グラフからの洞察を効果的に活用し、共有するために設計されたFGLフレームワークであるFedHEROを提案する。
論文 参考訳(メタデータ) (2025-04-29T22:23:35Z) - FedRGL: Robust Federated Graph Learning for Label Noise [5.296582539751589]
Federated Graph Learning(FGL)は、グラフニューラルネットワークに基づく分散機械学習パラダイムである。
本稿では,FedRGLと呼ばれるラベルノイズを用いた頑健なグラフ学習手法を提案する。
FedRGLは、様々なノイズ率、タイプ、クライアント数で12のベースライン手法より優れていることを示す。
論文 参考訳(メタデータ) (2024-11-28T04:37:04Z) - Towards Federated Graph Learning in One-shot Communication [27.325478113745206]
Federated Graph Learning(FGL)は、分散プライベートグラフ間のデータサイロを壊すための有望なパラダイムとして登場した。
ワンショットフェデレートラーニング(OFL)は1ラウンドでのコラボレーションを可能にするが、既存のOFLメソッドはグラフデータには有効ではない。
本稿では,ノード分類のための最初の$textbfO-pFGL$メソッド(textbfO-pFGL$)を提案する。
論文 参考訳(メタデータ) (2024-11-18T05:59:29Z) - Personalized Federated Learning for Cross-view Geo-localization [49.40531019551957]
本稿では,フェデレート・ラーニング (FL) とクロスビュー・イメージ・ジオローカライゼーション (CVGL) 技術を組み合わせた方法論を提案する。
提案手法では, クライアントが粗い特徴抽出器のみを共有しながら, 局所環境に特有のきめ細かな特徴を保持する, 粗い特徴抽出器を実装している。
その結果,フェデレートCVGL法は,データプライバシを維持しつつ,集中的なトレーニングに近い性能を実現することができた。
論文 参考訳(メタデータ) (2024-11-07T13:25:52Z) - FedGraph: A Research Library and Benchmark for Federated Graph Learning [41.01586455573981]
フェデレーショングラフ学習は、重要な実践上の課題を持つ新興分野である。
我々は,実践的な分散トレーニングを目的とした研究ライブラリであるFedGraphを紹介する。
FedGraphは最先端のグラフ学習メソッドをサポートし、システムパフォーマンスを評価するモニタリングクラスを含んでいる。
論文 参考訳(メタデータ) (2024-10-08T20:18:18Z) - FedGTA: Topology-aware Averaging for Federated Graph Learning [44.11777886421429]
Federated Graph Learning(FGL)は、大規模サブグラフの協調トレーニングを可能にする分散機械学習パラダイムである。
多くのFGL最適化戦略はグラフ構造を無視し、満足できない性能と緩やかな収束を示す。
FedGTA(Federated Graph Topology-Aware Aggregation, FedGTA)は,局所的スムーシング信頼度と近傍の混合特徴を最適化するパーソナライズされた最適化戦略である。
論文 参考訳(メタデータ) (2024-01-22T08:31:53Z) - AdaFGL: A New Paradigm for Federated Node Classification with Topology
Heterogeneity [44.11777886421429]
Federated Graph Learning (FGL) はグラフニューラルネットワークに基づく分散フレームワークとして注目されている。
構造的非イド分割の概念を導入し、次に、UnderlineAdaptive UnderlineFederated UnderlineGraph UnderlineLearning (AdaFGL)と呼ばれる新しいパラダイムを示す。
提案したAdaFGLは,コミュニティ分割の3.24%,コミュニティ分割の5.57%,非イド分割の5.57%でベースラインを上回った。
論文 参考訳(メタデータ) (2024-01-22T08:23:31Z) - FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - Learning Strong Graph Neural Networks with Weak Information [64.64996100343602]
我々は、弱い情報(GLWI)を用いたグラフ学習問題に対する原則的アプローチを開発する。
非完全構造を持つ入力グラフ上で長距離情報伝搬を行うデュアルチャネルGNNフレームワークであるD$2$PTを提案するが、グローバルな意味的類似性を符号化するグローバルグラフも提案する。
論文 参考訳(メタデータ) (2023-05-29T04:51:09Z) - Localized Contrastive Learning on Graphs [110.54606263711385]
局所グラフコントラスト学習(Local-GCL)という,シンプルだが効果的なコントラストモデルを導入する。
その単純さにもかかわらず、Local-GCLは、様々なスケールと特性を持つグラフ上の自己教師付きノード表現学習タスクにおいて、非常に競争力のある性能を達成する。
論文 参考訳(メタデータ) (2022-12-08T23:36:00Z) - Effective and Efficient Graph Learning for Multi-view Clustering [173.8313827799077]
マルチビュークラスタリングのための効率的かつ効率的なグラフ学習モデルを提案する。
本手法はテンソルシャッテンp-ノルムの最小化により異なるビューのグラフ間のビュー類似性を利用する。
提案アルゴリズムは時間経済であり,安定した結果を得るとともに,データサイズによく対応している。
論文 参考訳(メタデータ) (2021-08-15T13:14:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。