論文の概要: BoostFGL: Boosting Fairness in Federated Graph Learning
- arxiv url: http://arxiv.org/abs/2601.16496v1
- Date: Fri, 23 Jan 2026 06:54:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-26 14:27:27.576726
- Title: BoostFGL: Boosting Fairness in Federated Graph Learning
- Title(参考訳): BoostFGL: フェデレーショングラフ学習における公正性向上
- Authors: Zekai Chen, Kairui Yang, Xunkai Li, Henan Sun, Zhihan Zhang, Jia Li, Qiangqiang Dai, Rong-Hua Li, Guoren Wang,
- Abstract要約: フェデレーショングラフ学習(FGL)は、生データを公開することなく、分散サブグラフをまたいだグラフニューラルネットワーク(GNN)の協調トレーニングを可能にする。
既存のFGL法は高い総合的精度を達成できるが、不備なノード群に深刻な劣化を隠蔽できることを示す。
フェアネスを意識したFGLのためのブースティングスタイルのフレームワークであるBoostFGLを提案する。
- 参考スコア(独自算出の注目度): 41.975669720893436
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Federated graph learning (FGL) enables collaborative training of graph neural networks (GNNs) across decentralized subgraphs without exposing raw data. While existing FGL methods often achieve high overall accuracy, we show that this average performance can conceal severe degradation on disadvantaged node groups. From a fairness perspective, these disparities arise systematically from three coupled sources: label skew toward majority patterns, topology confounding in message propagation, and aggregation dilution of updates from hard clients. To address this, we propose \textbf{BoostFGL}, a boosting-style framework for fairness-aware FGL. BoostFGL introduces three coordinated mechanisms: \ding{182} \emph{Client-side node boosting}, which reshapes local training signals to emphasize systematically under-served nodes; \ding{183} \emph{Client-side topology boosting}, which reallocates propagation emphasis toward reliable yet underused structures and attenuates misleading neighborhoods; and \ding{184} \emph{Server-side model boosting}, which performs difficulty- and reliability-aware aggregation to preserve informative updates from hard clients while stabilizing the global model. Extensive experiments on 9 datasets show that BoostFGL delivers substantial fairness gains, improving Overall-F1 by 8.43\%, while preserving competitive overall performance against strong FGL baselines.
- Abstract(参考訳): フェデレーショングラフ学習(FGL)は、生データを公開することなく、分散サブグラフをまたいだグラフニューラルネットワーク(GNN)の協調トレーニングを可能にする。
既存のFGL法は高い総合的精度を達成することが多いが、この平均的な性能は不備なノード群に深刻な劣化を隠蔽する可能性があることを示す。
公平性の観点からは、これらの相違は3つの結合したソースから体系的に生じる: 多数派パターンへのラベルスキュー、メッセージの伝搬に相反するトポロジ、ハードクライアントからの更新の集約である。
これを解決するために、フェアネスを意識したFGLのためのブースティングスタイルのフレームワークである \textbf{BoostFGL} を提案する。
BoostFGLは3つの調整されたメカニズムを導入している: \ding{182} \emph{Client-side node boosting} ローカルなトレーニング信号に、系統的にアンダーサーブドノードを強調すること、 \ding{183} \emph{Client-side topology boosting} は、信頼性に欠ける構造に対して伝搬の重点を置き、誤った導出地区を緩和すること、 \ding{184} \emph{Server-side model boosting} は、グローバルモデルを安定化しながらハードクライアントからの通知的更新を保存し、困難かつ信頼性の高い集計を行う。
9つのデータセットに対する大規模な実験は、BoostFGLが実質的な公正性向上を実現し、全体的なF1を8.43倍改善し、強いFGLベースラインに対する総合的なパフォーマンスを保っていることを示している。
関連論文リスト
- FedHERO: A Federated Learning Approach for Node Classification Task on Heterophilic Graphs [55.51300642911766]
Federated Graph Learning(FGL)は、クライアントがグラフニューラルネットワーク(GNN)を分散的にトレーニングすることを可能にする。
FGL法は通常、全てのクライアントが所有するグラフデータが、類似したノードの分布パターンを保証するためにホモフィリックであることが要求される。
異種グラフからの洞察を効果的に活用し、共有するために設計されたFGLフレームワークであるFedHEROを提案する。
論文 参考訳(メタデータ) (2025-04-29T22:23:35Z) - Towards Unbiased Federated Graph Learning: Label and Topology Perspectives [30.103014192157115]
Federated Graph Learning (FGL)は、生データを共有することなく、グラフニューラルネットワークのプライバシ保護、分散トレーニングを可能にする。
グラフマイニングと協調学習によって公正性を高める新しいフレームワークであるFairFGLを提案する。
論文 参考訳(メタデータ) (2025-04-14T08:00:20Z) - SpreadFGL: Edge-Client Collaborative Federated Graph Learning with Adaptive Neighbor Generation [16.599474223790843]
Federated Graph Learning (FGL)は、分類タスクのために複数のクライアントで協調的なトレーニングを可能にすることで、広く注目を集めている。
本研究では,エッジ・クライアント・コラボレーションにおける情報フローの促進を目的とした新しいFGLフレームワークSpreadFGLを提案する。
本研究では,SpreadFGLが最先端のアルゴリズムに対して精度が高く,より高速な収束を実現することを示す。
論文 参考訳(メタデータ) (2024-07-14T09:34:19Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - AdaFGL: A New Paradigm for Federated Node Classification with Topology
Heterogeneity [44.11777886421429]
Federated Graph Learning (FGL) はグラフニューラルネットワークに基づく分散フレームワークとして注目されている。
構造的非イド分割の概念を導入し、次に、UnderlineAdaptive UnderlineFederated UnderlineGraph UnderlineLearning (AdaFGL)と呼ばれる新しいパラダイムを示す。
提案したAdaFGLは,コミュニティ分割の3.24%,コミュニティ分割の5.57%,非イド分割の5.57%でベースラインを上回った。
論文 参考訳(メタデータ) (2024-01-22T08:23:31Z) - Chasing Fairness in Graphs: A GNN Architecture Perspective [73.43111851492593]
グラフニューラルネットワーク(GNN)の統一最適化フレームワーク内で設計されたtextsfFair textsfMessage textsfPassing(FMP)を提案する。
FMPでは、アグリゲーションがまず隣人の情報を活用するために採用され、バイアス軽減ステップにより、人口集団ノードのプレゼンテーションセンタが明示的に統合される。
ノード分類タスクの実験により、提案されたFMPは、実世界の3つのデータセットの公平性と正確性の観点から、いくつかのベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-19T18:00:15Z) - Tackling the Local Bias in Federated Graph Learning [48.887310972708036]
フェデレーショングラフ学習(FGL)では、グローバルグラフは異なるクライアントに分散し、各クライアントがサブグラフを保持する。
既存のFGL手法では、クロスクライアントエッジを効果的に活用できず、トレーニング中に構造情報が失われる。
集中型環境で訓練されたモデルと類似した局所モデルを作成するための新しいFGLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-22T08:22:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。