論文の概要: FairGFL: Privacy-Preserving Fairness-Aware Federated Learning with Overlapping Subgraphs
- arxiv url: http://arxiv.org/abs/2512.23235v1
- Date: Mon, 29 Dec 2025 06:31:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:30.420997
- Title: FairGFL: Privacy-Preserving Fairness-Aware Federated Learning with Overlapping Subgraphs
- Title(参考訳): FairGFL: 重複するサブグラフによるプライバシ保護に配慮したフェデレーションラーニング
- Authors: Zihao Zhou, Shusen Yang, Fangyuan Zhao, Xuebin Ren,
- Abstract要約: グラフデータは、しばしば異なるクライアント間で重複する。
本稿では,FairGFL(FAIRness-aware subGraph Federated Learning)を提案する。
FairGFLは,モデルの有用性と公平性の両面で,4つの代表的ベースラインアルゴリズムより優れていることを示す。
- 参考スコア(独自算出の注目度): 21.842195417340687
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph federated learning enables the collaborative extraction of high-order information from distributed subgraphs while preserving the privacy of raw data. However, graph data often exhibits overlap among different clients. Previous research has demonstrated certain benefits of overlapping data in mitigating data heterogeneity. However, the negative effects have not been explored, particularly in cases where the overlaps are imbalanced across clients. In this paper, we uncover the unfairness issue arising from imbalanced overlapping subgraphs through both empirical observations and theoretical reasoning. To address this issue, we propose FairGFL (FAIRness-aware subGraph Federated Learning), a novel algorithm that enhances cross-client fairness while maintaining model utility in a privacy-preserving manner. Specifically, FairGFL incorporates an interpretable weighted aggregation approach to enhance fairness across clients, leveraging privacy-preserving estimation of their overlapping ratios. Furthermore, FairGFL improves the tradeoff between model utility and fairness by integrating a carefully crafted regularizer into the federated composite loss function. Through extensive experiments on four benchmark graph datasets, we demonstrate that FairGFL outperforms four representative baseline algorithms in terms of both model utility and fairness.
- Abstract(参考訳): グラフフェデレーション学習は、生データのプライバシーを維持しながら、分散サブグラフから高次情報を協調的に抽出することを可能にする。
しかし、グラフデータは異なるクライアント間で重複することが多い。
従来の研究は、データの均一性を緩和する上で重複するデータの利点を実証してきた。
しかし、特にクライアント間で重なり合いが不均衡な場合において、負の効果は検討されていない。
本稿では,不均衡な重なり合う部分グラフから生じる不公平な問題を,経験的観察と理論的推論の両方を通して明らかにする。
この問題に対処するために、プライバシ保存方式でモデルユーティリティを維持しながら、クロスクライアントフェアネスを高める新しいアルゴリズムであるFairGFL(FAIRness-aware subGraph Federated Learning)を提案する。
具体的には、FairGFLは、クライアント間の公正性を高めるために解釈可能な重み付けアグリゲーションアプローチを導入し、重複する比率のプライバシ保存による推定を活用する。
さらに、FairGFLは、慎重に製造された正則化器を連合複合損失関数に統合することにより、モデルユーティリティと公正性のトレードオフを改善する。
4つのベンチマークグラフデータセットに対する広範な実験により、FairGFLはモデルの有用性と公正性の両方の観点から4つの代表的ベースラインアルゴリズムより優れていることを示した。
関連論文リスト
- Accurate Target Privacy Preserving Federated Learning Balancing Fairness and Utility [28.676852732262407]
フェデレートラーニング(FL)は、データ共有なしで協調的なモデルトレーニングを可能にする。
我々は、この多目的最適化をゼロサムゲームに変換する微分プライベートフェアFLアルゴリズムを導入する。
我々の理論的分析は、驚くべき逆関係、すなわちより厳格なプライバシー保護が、人口統計バイアスを検出し修正するシステムの能力を制限していることを示している。
論文 参考訳(メタデータ) (2025-10-30T07:14:55Z) - Estimating Fair Graphs from Graph-Stationary Data [58.94389691379349]
グループレベルとノードレベルの定義に対応するグラフに対する群と個性を考える。
与えられたグラフの公平性を評価するために、スペクトル領域における新しい測定を含む複数のバイアス指標を提供する。
FairSpecTempの1つの変種は、直接バイアスを拘束しながらグラフ定常性の可換性を利用する。
もう一方は、グラフスペクトルのバイアスを制限することによって、公正な推定を暗黙的に奨励し、したがってより柔軟である。
論文 参考訳(メタデータ) (2025-10-08T20:51:57Z) - FeDa4Fair: Client-Level Federated Datasets for Fairness Evaluation [5.195640929313995]
Federated Learning (FL)は、クライアントのプライベートデータを共有せずに、複数のクライアント間で協調的なモデルトレーニングを可能にする。
クライアントにまたがる多様で、しばしば矛盾するバイアスは、公正性をモデル化する上で大きな課題をもたらします。
現在のフェアネス・エンハンシング FL ソリューションは、1つの、通常二進的、敏感な属性に対するバイアスを緩和する一方、現実世界の環境に存在する不均一なフェアネスのニーズを無視しているため、しばしば不足する。
論文 参考訳(メタデータ) (2025-06-26T08:43:12Z) - Mitigating Group-Level Fairness Disparities in Federated Visual Language Models [115.16940773660104]
本稿では、FLと公正なプロンプトチューニング技術を組み合わせた新しいフレームワークであるFVL-FPを紹介する。
モデル性能を維持しながら、人口統計バイアスを軽減することに注力する。
本手法は,標準FL法に比べて平均45%の人口格差を減少させる。
論文 参考訳(メタデータ) (2025-05-03T16:09:52Z) - FairDgcl: Fairness-aware Recommendation with Dynamic Graph Contrastive Learning [48.38344934125999]
提案手法は,高品質なデータ拡張を実現し,コメンデーションフェアネスを改善する方法である。
具体的には,動的グラフ対逆学習フレームワークであるFairDgclを提案する。
FairDgclは、公正さと精度の両方を持つ拡張表現を同時に生成できることを示す。
論文 参考訳(メタデータ) (2024-10-23T04:43:03Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - FedFDP: Fairness-Aware Federated Learning with Differential Privacy [9.864717082984109]
Federated Learning(FL)は、データサイロの課題に対処するために設計された、新興の機械学習パラダイムである。
公平性とデータプライバシに関する永続的な問題に対処するため,FedFairというフェアネスを考慮したFLアルゴリズムを提案する。
FedFairをベースとした差分プライバシーを導入し、公正性、プライバシ保護、モデルパフォーマンスのトレードオフに対処するFedFDPアルゴリズムを作成します。
論文 参考訳(メタデータ) (2024-02-25T08:35:21Z) - FedFed: Feature Distillation against Data Heterogeneity in Federated
Learning [88.36513907827552]
フェデレートラーニング(FL)は通常、データ不均一性、すなわちクライアント間の分散シフトに直面している。
我々はtextbfFederated textbfFeature textbfdistillation (FedFedFed) という新しいアプローチを提案する。
FedFedは、データをパフォーマンスに敏感な機能(すなわち、モデルパフォーマンスに多大な貢献)とパフォーマンスを損なう機能(つまり、モデルパフォーマンスに限られた貢献)に分割する。
総合的な実験は、モデル性能の促進におけるFedFedの有効性を示す。
論文 参考訳(メタデータ) (2023-10-08T09:00:59Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。